노르웨이 남성, "자녀 살해범"으로 지목한 ChatGPT에 정정보도 및 벌금 요구
OpenAI의 인공지능 챗봇인 ChatGPT가 한 노르웨이 남성을 아동 살해범으로 잘못 서술한 사건이 발생해, 해당 남성이 법적 대응에 나섰다. 피해자 아르베 히알마르 홀멘(Arve Hjalmar Holmen)은 본인의 명예를 훼손한 허위 정보를 제공한 ChatGPT에 대해 노르웨이 개인정보 보호 당국(Datatilsynet)에 공식적으로 민원을 제기했다.
전과 없는 일반 시민을 살인범으로 오인
홀멘은 ChatGPT에 “Arve Hjalmar Holmen은 누구인가요?”라는 질문을 입력했을 때, 챗봇으로부터 자신이 자녀 두 명을 살해해 21년형을 선고받았다는 응답을 받았다고 밝혔다. 해당 응답은 2020년 12월 노르웨이 트론헤임에서 아이 둘이 연못에서 숨진 사건을 언급하며, 홀멘이 그들의 친부로 묘사되었다. 하지만 홀멘은 해당 사건과 아무런 관련이 없을 뿐 아니라, 범죄 혐의조차 받은 적이 없는 평범한 시민이다.
홀멘은 “ChatGPT가 진짜 내 고향, 자녀 수 등 실제 정보와 비슷한 내용을 포함하고 있었기 때문에, 주변 사람들이 오해할 가능성이 있어 매우 우려된다”고 토로했다. 그는 이로 인해 사회적 명예 실추와 정신적 피해를 입었다고 주장하며, OpenAI가 해당 오류를 시정하고 다시는 같은 일이 발생하지 않도록 조치할 것을 요구했다.
GDPR 위반 여부로 제소… 벌금 부과도 요청
홀멘은 이번 사건이 유럽 개인정보 보호법(GDPR)상 정확성 관련 조항을 위반한 사례라고 주장했다. 그는 OpenAI가 자신에 관한 잘못된 정보를 생산, 배포한 점에 대해 책임을 물으며, 당국이 OpenAI에 벌금을 부과해줄 것을 요청했다. 또, 추후 자신과 관련한 정보가 정확하도록 모델을 수정하라고 요구했다.
OpenAI “모델 정확도 향상 노력 중”
OpenAI는 이번 사건과 관련해 “홀멘 씨가 사용했던 것은 과거 버전의 ChatGPT였으며, 현재는 웹 검색 통합을 통해 사실 오류 가능성을 낮춘 새로운 모델이 출시됐다”고 밝혔다. 이어 “모델의 정확성을 개선하기 위한 연구와 노력을 지속하고 있다”며, 향후 유사 사례가 재발하지 않도록 기술적 보완을 강화하고 있다는 입장을 덧붙였다.
인공지능 신뢰성 논란 확산
이번 사건은 인공지능 챗봇이 만들어낼 수 있는 심각한 허위정보 문제를 다시금 부각시켰다. 특히 이름이나 주소 등 일부 실제 정보가 섞인 채 완전히 허위의 내용을 제공하는 경우, 개인의 명예를 크게 훼손할 수 있어 법적 책임 논쟁도 커질 것으로 예상된다. 전문가들은 AI 모델이 “다음에 올 적절한 단어”를 예측하는 방식으로 작동하기 때문에, 현실과 맞지 않는 내용도 그럴듯하게 생성될 수 있다는 점을 경고하고 있다.
이번 사례는 인공지능 기술이 현실 세계의 개인정보 및 명예에 어떤 영향을 미칠 수 있는지를 명확히 보여준다. 특히 기술의 오류 가능성과 그에 따른 책임 문제는 앞으로 AI 관련 법제도 강화의 시발점이 될 수도 있다. 사용자라면 AI가 생성한 정보가 언제나 사실이 아닐 수 있다는 점을 명확히 인지해야 하며, 기업은 시스템 오류로 인한 피해를 최소화하는 조치를 꾸준히 마련해야 할 것이다.