유럽서 프라이버시 위반 혐의…ChatGPT 허위정보로 논란
AI 챗봇 ChatGPT가 유럽에서 또다시 사생활 침해 문제에 휘말렸다. 프라이버시 권리 보호 단체 'Noyb'는 노르웨이 남성의 사례를 들며 OpenAI가 허위이고 명예를 훼손할 수 있는 개인 정보를 생성했다고 고소장을 제출했다.
"살인범으로 몰려"…인공지능이 만든 끔찍한 오류
이 사건에서 문제가 된 것은 ChatGPT가 한 노르웨이 남성이 자신의 자녀를 살해한 혐의로 유죄 판결을 받았다고 잘못된 정보를 생성한 것이다. 피해자는 실제로 그러한 전과가 없었으며, AI가 만들어낸 완전한 허위 사실이다.
사과로 끝날 일이 아니다…정정조차 어려운 현실
이전에도 ChatGPT는 잘못된 생년월일 등 개인 정보를 부정확하게 생성한 사례가 보고됐지만, OpenAI는 이용자들이 생성된 오류를 직접 정정할 수 있는 방법을 제공하지 않고 있다. 이는 유럽연합 일반개인정보보호법(GDPR)에 명시된 '정정권'을 위반하는 문제로 지적된다.
GDPR 위반 시, 연매출 4% 과징금 위험
GDPR에 따르면, 모든 개인 정보는 정확해야 하며, 사용자에 대한 잘못된 정보는 반드시 수정되어야 한다. 단순히 "AI는 실수를 범할 수 있다"는 고지가 있다고 해서, 기업이 법적 책임으로부터 면책되지는 않는다. GDPR 위반이 확정될 경우 OpenAI는 전 세계 매출의 최대 4%에 해당하는 과징금을 부과받을 수 있다.
"AI 환각 문제 심각…개인 피해 속출"
Noyb는 이 사건이 단독 사례가 아니며, ChatGPT로부터 유사한 명예 훼손 피해를 입은 사람들이 다수 존재한다고 지적했다. AI가 실제로 존재하지 않는 정보나 일화를 만들어내는 현상, 이른바 "AI 환각(Hallucination)" 문제가 반복적으로 발생하고 있다는 것이다.
최신 업데이트로 문제 완화됐지만, 우려는 여전
OpenAI는 최근 모델을 업데이트하며 이번 사건의 핵심 피해자에 대한 허위 정보 생성은 중단된 것으로 보인다. 하지만 Noyb는 이미 생성됐던 부정확한 내용이 AI 내부에서 여전히 남아 있을 수 있다며, 그 잠재적 위험을 경고했다.
국경 넘는 규제 필요성 대두
이번 고소는 노르웨이 데이터 보호기관에 제출되었으며, 이는 OpenAI가 유럽연합 외부에서 운영되고 있더라도 GDPR을 준수해야 함을 강조하기 위함이다. 한편, 비슷한 성격의 고소가 오스트리아에서도 제기되어, 현재 아일랜드 데이터 보호위원회가 해당 사안을 검토 중이다.
AI 개발자에 대한 법적 책임 강조
Noyb는 AI 개발자들이 정보의 정확성을 보장하고, 관련 법률을 철저히 준수해야 한다고 촉구하고 있다. 부정확한 AI 정보가 실제 개인에게 심각한 명예 훼손과 정신적 피해를 초래할 수 있는 만큼, 이 문제는 기술적 실수로 치부될 수 없다는 입장이다.
이 기사는 AI 기술 확산 속에서 개인정보 보호와 법적 책임의 균형에 대한 고민을 던져준다. 단순한 알고리즘 오류로 인한 피해가 개인의 신상을 왜곡하고 평판에 심각한 영향을 미칠 수 있다는 점에서, OpenAI를 포함한 기술 기업들이 더 강력한 자율 규제와 외부 감시 체계를 마련해야 할 필요성이 있다. 유럽에서의 이슈가 전 세계로 확산될 가능성도 높아, 각국 정부와 시민사회가 관심을 가지고 대응할 필요가 있다.