머스크의 AI '그록', 팩트체크 도구로 활용되며 논란 확산
사용자들, 정확성 대신 그럴듯한 정보에 의존 우려
엘론 머스크가 운영하는 소셜미디어 플랫폼 X(구 트위터)에서 일부 사용자가 머스크의 인공지능(AI) 챗봇 ‘그록(Grok)’을 팩트체크 도구로 활용하고 있어 우려가 커지고 있다. 최근 X는 사용자들이 그록에게 직접 질문할 수 있는 기능을 도입하며, AI 기반 정보 검색 기능을 제공하고 있다. 이는 기존에 플랫폼 내에서 기능하던 '퍼플렉서티(Perplexity)'와 유사한 방식이다.
정치 관련 질문에 AI 활용… 인도 등지서 실험
AI, 그럴듯하지만 오류 가능해 책임 미비
특히 인도 등 일부 국가에서는 사용자들이 정치적 성향과 연관된 질문이나 의견에 대해 그록에게 사실 확인을 요청하며 AI 활용 실험이 본격화됐다. 그러나 AI가 제공하는 정보가 내용은 사실과 다르더라도 설득력 있는 문장으로 표현돼, 사용자들이 이를 진실로 받아들일 위험이 높다는 지적이 제기된다. 실제로 그록은 과거에도 여러 차례 잘못된 정보를 제공한 사례가 보고된 바 있다.
美 선거 앞두고 허위정보 문제 지적
주 정부들, 머스크에게 개선 요구
2024년 8월에는 미국 내 다섯 개 주의 국무장관이 머스크에게 그록의 부정확한 정보 제공 문제를 지적하며 개선을 요구했다. 그록 외에도 오픈AI의 챗GPT, 구글의 제미니(Gemini) 등 주요 AI 챗봇들이 선거 관련 오정보를 생성한 사례가 연구를 통해 밝혀진 바 있다. 전문가들은 이러한 AI가 정교한 문장 생성을 통해 그럴싸한 오데이터(narratives)를 퍼뜨릴 수 있다고 경고하고 있다.
사람 중심 팩트체크 중요성 재조명
AI, 분명한 한계… 검증 책임 없어
반면 인간 팩트체커는 다양한 신뢰 가능한 출처를 확인하고, 자신과 소속 기관의 이름을 공개함으로써 정보의 신뢰성을 보장한다. 전문가들은 이처럼 투명성과 책임성이 오정보 방지에 핵심적이라며, AI가 이를 대체할 수 없다고 강조한다. 그록은 오용될 가능성에 대해 인정했지만, 실제 응답에서는 별도의 주의 문구 없이 정보를 제공하고 있어 사용자 혼란을 야기한다는 비판도 나오고 있다.
AI 훈련 데이터·검증기준도 불투명
오정보, 실제 사회해 악영향 미쳐
또한 그록이 어떤 데이터를 기반으로 훈련됐는지, 사실 검증 과정에서 어떤 품질 관리가 이루어지는지 등 핵심적인 요소들이 투명하게 공개되지 않은 점도 문제로 지적된다. 특히 AI 챗봇이 소셜미디어를 통해 쉽게 접근 가능하다는 점에서, 잘못된 정보가 광범위하게 확산될 우려가 크다. 이미 인도에서는 허위 정보로 인한 실질적인 사회적 혼란과 폭력 사건이 발생한 전례도 있다.
크라우드소싱 팩트체크도 한계
전문가들, 사람의 역할 여전하다고 진단
AI 기술의 발전으로 챗봇은 점점 인간처럼 소통할 수 있게 되고 있으나, 여전히 정확한 사실 검증에 있어서는 인간 전문가의 역할을 대체할 수 없다는 것이 대체적인 시각이다. 최근에는 사용자들이 합심하여 정보의 진위를 판별하는 크라우드소싱 방식의 팩트체크가 시도되고 있지만, 전문가들은 결국 신뢰할 수 있는 기관과 팩트체커들의 전문성과 책임성이 핵심이라고 강조한다.
정보 소비자의 태도 변화 필요
“진실보다 그럴듯한 말” 선호 경향도 문제
궁극적으로 중요한 것은 사용자들의 정보 소비 태도이다. 사용자들이 단순히 그럴듯하게 들리는 정보에 만족하는 것이 아니라, 실제로 정확한 정보를 중시하는 문화를 형성해야만 AI로 인한 오정보 확산을 방지할 수 있다는 것이 전문가들의 경고다.
🟡 에디터의 의견
이 기사는 AI 챗봇이 팩트체크 도구로 전환되는 사회적 움직임과 그에 따른 경계심을 보여준다. 사실검증이 단지 '정보 제공'이 아닌 '책임 있는 해석'을 동반해야 한다는 점에서 AI가 아직 대체할 수 없는 전문 영역이 확실히 존재한다. 편리함을 앞세우기보다는 올바른 정보 소비 문화를 만드는 노력이 병행되어야 할 것이다.