AI 이미지 생성 악용 증가, 온라인 인종차별 우려
AI 도구 '그록', 온라인 혐오 콘텐츠 확산 가속화 경고
AI 기술의 발전으로 온라인에 악의적으로 사용되는 혐오 콘텐츠가 증가하며, 그 배경에는 엘론 머스크가 2023년 출시한 생성형 AI 챗봇 '그록(Grok)'이 자리하고 있다는 지적이 제기됐다. 특히 이 도구의 이미지 생성 기술 '오로라(Aurora)'를 통해 만들어진 가짜 이미지가 온라인 인종차별을 조장하며 심각한 문제로 부상하고 있다.
생성형 AI, '혐오 이미지' 생성으로 논란 확대
'그록'은 텍스트 입력만으로 사실적인 이미지를 생성할 수 있어 사용자들의 주목을 받았지만, 최근 이를 이용한 악의적인 활용이 문제로 떠올랐다. 특히, 축구 선수 및 감독들을 역사적으로 혐오와 연관된 이미지와 결부시키는 등의 인종차별적 이미지 생성 사례가 보고됐다. 이전 모델인 '플럭스(Flux)' 역시 저작권 캐릭터나 공인을 왜곡하는 이미지 제작으로 논란이 있었기에 더욱 우려가 커지고 있다.
조치 없는 플랫폼 정책, 혐오 콘텐츠 확산의 원인
디지털 증오 대응 센터(CCDH)의 칼럼 후드(Callum Hood)는 이렇게 제작된 유해 콘텐츠가 플랫폼의 수익 공유 구조를 통해 더욱 확산된다고 경고했다. 그는 "사용자들이 AI 지침을 우회하는 '탈옥(Jailbreaking)' 방식으로 쉽게 유해 콘텐츠를 생성할 수 있다"며 플랫폼의 느슨한 규제와 수익 중심 정책을 비판했다. 여름에 발표된 CCDH의 보고서에 따르면, '그록'은 사용자 요청의 약 80%에 대해 혐오 콘텐츠를 생성했으며, 일부는 별다른 저항 없이 제작된 것으로 나타났다.
스포츠계, 인종차별 대응에 나서다
축구 업계를 중심으로 한 스포츠계도 상황을 심각하게 받아들이고 있다. 잉글랜드 프리미어리그는 인종차별 이미지와 관련된 보고를 대응하기 위해 전담 팀을 꾸렸으며, 지난해에만 1,500건 이상의 신고를 접수했다. 또한 축구 선수들이 혐오 메시지를 차단할 수 있도록 소셜미디어 필터링 시스템을 도입했다. 축구협회 또한 "스포츠와 사회에 차별이 설 자리는 없다"며 온라인 혐오 근절을 위한 지속적인 대응을 촉구했다.
의견
AI 기술이 인간의 창의력을 증대시키는 도구로 자리 잡길 기대했지만, 오히려 혐오와 차별을 강화하는 수단으로 사용되는 현실에 실망스럽습니다. 플랫폼 운영자와 개발자가 규제와 윤리적 책임에 무게를 두고 기술 개발에 임해야 하며, 법적·사회적 장치가 동반되어야 할 시점입니다. 스포츠계가 즉각적인 조치를 취하고 있는 것은 긍정적이지만, 이를 넘어선 광범위한 접근이 필요합니다. AI 기술이 더 정의롭고 포용적인 세상을 만드는 데 기여하기를 바랍니다.