라스베이거스 호텔 앞 테슬라 폭발… 인공지능 역할 주목
라스베이거스 트럼프 인터내셔널 호텔 앞에서 발생한 테슬라 사이버트럭의 폭발 사고는 한 명의 사망자와 일곱 명의 경상자를 남기며 전 세계에 충격을 주었다. 이 사건은 인공지능 기술의 잠재적 위험성을 조명하며 사회적 논의를 불러일으켰다.
용의자, 인공지능 AI 'ChatGPT'로 폭발 계획
미국 라스베이거스 메트로 경찰청은 용의자 매튜 리벨스버거(미 육군 복무 중)가 사건을 계획하며 ChatGPT를 사용한 것으로 확인됐다. 용의자 휴대전화에서 발견된 문서와 이메일에는 폭발물 제작 방법과 법적 허점에 대해 조사한 내용이 포함되어 있었다. 경찰은 그가 주유소에서 차량에 연료를 붓는 CCTV 영상을 확보, 사건의 사전 계획 정황을 밝혀냈다.
사건 당일, 위험물 사용 및 폭발 경로
경찰 발표에 따르면 테슬라 사이버트럭에는 휘발유 캔, 캠핑용 연료, 대형 폭죽이 실려 있었으며, 이를 기반으로 조작된 폭파 장치가 설치된 것으로 보인다. 폭발은 '발화(deflagration)' 현상으로 판단되며, 이는 고위력 폭발보다는 파괴력이 덜하지만 심각한 사고로 이어질 수 있다. 경찰은 총의 발사 화염이 연료 증기를 점화했을 가능성이 높다고 전했다.
사고 이후, OpenAI의 입장과 AI 기술의 경계점
사건 이후 ChatGPT의 개발사인 OpenAI는 유감을 표하며 AI 기술의 안전성과 책임을 강조했다. OpenAI는 시스템이 유해한 요청을 거부하도록 설계되었다고 밝혔으며, 확인된 정보들은 모두 일반적으로 공개된 내용을 기반으로 응답되었다고 설명했다. 문제의 자료는 경고 메시지와 함께 제공됐으며 OpenAI는 법 집행 당국과 협력 중인 상황이다.
충격적 사건의 교훈… 기술의 양면성 논의
이번 사고는 기술의 양면성을 강렬하게 보여준다. 인공지능과 같은 신기술이 편리함을 제공하는 동시에 나쁜 의도로 활용될 가능성을 경고하는 사례가 됐다. 이번 사건을 계기로 인공지능 기술 사용에 대한 법적, 윤리적 감시 체계를 강화해야 한다는 목소리가 커지고 있다.
전문가 의견
이번 사건을 통해 AI 기술이 단순한 도구를 넘어, 잘못된 의도로 활용될 경우 얼마나 심각한 피해를 초래할 수 있는지 알 수 있었습니다. 기술의 장점은 부정할 수 없지만, 부작용을 최소화하기 위해 정부, 기업, 연구기관 등이 책임감을 가지고 통제에 나설 필요가 있다고 생각합니다.