AI 챗봇, 시사 이슈 답변에서 오류 빈번
인공지능(AI) 챗봇들이 시사 문제에 대한 답변에서 왜곡과 잘못된 정보를 제공하는 경우가 많다는 연구 결과가 나왔다. 최근 BBC가 진행한 조사에 따르면 ChatGPT, Copilot, Gemini, Perplexity 등 4개의 AI 챗봇이 생성한 답변의 절반 이상에서 중요한 사실 오류가 발견됐다.
정치인 신분과 보건 조언 오류 다수
AI 챗봇들이 자주 범하는 실수로는 정치인의 신분을 잘못 인식하거나, 보건 관련 조언을 잘못 전달하는 경우가 포함됐다. 예를 들어, ChatGPT는 여전히 리시 수낙이 영국 총리라고 잘못 답했고, 니콜라 스터전이 스코틀랜드의 수상 자리를 유지하고 있다고 언급했다. 또한, Gemini는 유죄 판결을 받은 한 간호사의 무죄 가능성에 대한 질문에서 맥락을 제대로 설명하지 못하는 오류를 범했다.
BBC 기사 100건 기반 테스트…사실 오류 다수 발견
BBC는 AI 챗봇들의 정확성을 테스트하기 위해 BBC의 기사 100건을 바탕으로 질문을 생성했고, 기자들이 AI의 답변을 평가했다. 조사 결과, 약 20%의 답변에서 사실적 오류가 확인됐으며, BBC에서 인용한 내용을 제시한 경우 중 13%는 내용이 변경되었거나 조작된 것으로 나타났다. 특히 NHS(영국 국민보건서비스)의 전자담배 관련 가이드라인을 잘못 전달하거나 특정 인물과 사건에 대한 정보를 부정확하게 제공한 사례가 포함됐다.
미디어와 AI 기업 협력 필요성 제기
BBC의 생성형 AI 프로그램 책임자인 피터 아처는 "언론사가 AI가 생성하는 콘텐츠에 대한 통제력을 유지하고, 더 정확한 정보를 제공하도록 개선할 필요가 있다"고 강조했다. 이번 연구 결과는 AI 챗봇이 제공하는 정보의 신뢰성 문제를 다시금 상기시키며, AI 개발 기업과 언론 기관 간의 협력을 통해 정보의 정확성을 높일 필요성이 커지고 있음을 보여준다.
의견
AI 챗봇들이 정보를 생성하는 방식은 기존 뉴스 매체와 다르기 때문에 정확성 문제가 꾸준히 제기될 수밖에 없다. 이번 연구 결과는 단순한 실수가 아니라 정보의 신뢰성을 훼손할 가능성이 크다는 점에서 주목할 만하다. 특히 정치인 신분을 잘못 전달하거나 보건 관련 조언을 부정확하게 제공하는 것은 실제 피해로 이어질 수 있어 보다 엄격한 검증 및 협력 방안이 필요해 보인다. AI 기업과 미디어 기관이 함께 올바른 정보를 전달할 수 있도록 적극적으로 조치를 취해야 할 시점이다.