AI를 통한 정보 왜곡, 점점 더 커져가는 우려
인공지능(AI)를 활용한 정보 왜곡이 급증하고 있다. 최근 실시된 설문 조사에서는 85%의 응답자가 온라인 정보 왜곡에 대해 우려하고 있으며, 세계경제포럼은 AI로 인한 정보 왜곡을 주요 글로벌 위험 요소로 선정했다. 올해 정부 고위 선거를 목표로 한 X 플랫폼의 봇 네트워크 사례와 조 바이든 대통령의 딥페이크 음성 메시지를 통한 투표 억제 사례 등이 보고되었다. 해외에서는 남아시아의 후보자들이 가짜 비디오, 이미지, 뉴스 기사를 유포하고 있으며, 런던 시장 사디크 칸의 딥페이크는 친팔레스타인 시위에서 폭력을 조장했다.
AI의 정보 왜곡 문제 대응 방안
메타의 감시위원회 공동의장인 파멜라 산 마르틴은 AI가 정보 왜곡 문제 해결에도 기여할 수 있다고 주장한다. 2020년에 설립된 이 위원회는 메타의 콘텐츠 정책에 대한 불만을 검토하고 권고안을 발행하는 조직이다. 산 마르틴은 AI는 완벽하지 않다고 인정하면서도, AI가 발전하면 정보 왜곡 문제 해결에 유용할 것이라고 밝혔다. 그러나 AI를 활용한 정보 왜곡의 비용이 감소하면서 업그레이드된 AI 모델도 대응에 어려움을 겪을 가능성이 제기된다.
자율 규제의 한계와 규제 필요성
비영리 단체 디지털 증오에 맞서는 센터의 CEO 임란 아메드는 소셜 미디어의 수익 공유 프로그램이 정보를 왜곡하는 요인이 되고 있다고 강조하며, 민주주의 사회가 일부 진실에 의존하는 것은 매우 우려된다고 말했다. 오버사이트 보드의 접근 방식에 대해서는 한계가 있다고 비판했다.
UC 버클리 교수이자 신흥 기술과 인권의 교차점을 연구하는 브랜드 노넥도 자율 규제만으로는 정보 왜곡 문제를 해결할 수 없다고 주장했다. 메타의 감시위원회는 메타의 결정에 일부만 영향을 미칠 수 있기 때문에 보다 강력한 규제가 필요하다는 견해를 제시했다.
규제에 대한 여러 제안으로는 제품 책임법을 통해 기업을 책임지게 하거나, AI 생성 콘텐츠를 식별하기 쉽게 워터마크를 삽입하는 방법이 가능하다. 또한 지급 서비스 업체가 성적인 정보 왜곡 구매를 차단하고, 웹 호스트가 악성 행위자의 가입을 어렵게 만드는 방안도 고려되고 있다.
최근 AI 기업들이 AI 생성 이미지에 워터마크를 추가하고, 영국의 온라인 안전법과 같은 콘텐츠 정책을 도입하려는 움직임은 희망적으로 평가되고 있다. 이는 민주주의, 건강, 사회, 개인에게 영향을 미칠 수 있는 정보를 규제할 필요가 있음을 시사한다.
출처 : What can we do about the spread of AI-generated disinformation?