인공지능 챗봇, 러시아 발 허위정보에 노출 우려
최근 보고서에 따르면 인공지능(AI) 챗봇들이 러시아의 허위정보에 영향을 받을 가능성이 제기됐다. 이는 OpenAI의 챗GPT와 메타(Meta)의 메타 AI를 포함한 주요 챗봇들이 정확하지 않은 정보를 사용자에게 전달할 수 있다는 우려로 이어지고 있다.
모스크바 거점의 '프라브다' 네트워크, 허위정보 유포
뉴스가드(NewsGuard)의 조사에 따르면, '프라브다(Pravda)'라는 이름의 모스크바 기반 네트워크가 인공지능 모델의 응답을 왜곡시키기 위해 조작된 정보를 대량 배포하고 있는 것으로 드러났다. 이 네트워크는 2024년 한 해 동안 약 360만 건의 허위 기사 또는 오해를 불러올 수 있는 콘텐츠를 생산해 웹상에 유포했다.
AI 챗봇, 허위 서사 3건 중 1건 반복 인용
뉴스가드는 주요 10개의 AI 챗봇을 대상으로 분석을 진행했으며, 이 중 상당수가 러시아의 허위정보를 그대로 반복하는 사례가 많았다고 밝혔다. 특히 "우크라이나에 미국의 비밀 생물무기 연구소가 있다"는 주장을 포함한 대표적인 친러시아 허위 서사를 세 개 중 하나꼴로 그대로 인용한 것으로 확인됐다.
검색엔진 최적화 전략으로 검색 노출 빈도 증가
프라브다 네트워크는 검색엔진 최적화(SEO) 전략을 적극 활용해, 이들의 콘텐츠가 검색결과 상위에 노출되도록 유도한 것으로 밝혀졌다. 이는 검색엔진 기반으로 정보를 취합하는 AI 모델들에게 큰 영향을 미치며, 챗봇의 응답이 왜곡된 정보에 기반할 위험을 키우고 있다.
이번 사례는 AI 기술이 외부의 조직적인 정보 조작에 얼마나 쉽게 흔들릴 수 있는지를 보여준다. AI 모델의 정보 소스 다양성과 검증 시스템의 강화가 시급해 보인다. 무엇보다도, 기술 발전과 함께 윤리적 운영 체계 및 정보 출처에 대한 투명성 확보가 더욱 중요해지고 있다.