유명 인사 목소리 도용 경고, 데이비드 애튼버러도 피해
AI 기술을 활용한 음성 복제가 빠르게 발전하면서 많은 유명 인사의 목소리가 도용되는 사건이 발생하고 있다. 제니퍼 애니스톤, 오프라 윈프리, 카일리 제너 등 여러 유명 인사들이 피해를 입었으며, 최근 데이비드 애튼버러는 자신의 목소리가 정치적 미국 뉴스 전파에 사용된 것에 대해 깊은 불쾌감을 나타냈다.
AI 음성 복제, 법률 체계 미비로 문제 심각
전문가들은 음성 복제 기술이 현행 법률 체계를 초월하고 있다고 경고하고 있으며, 특히 프라이버시와 저작권 법률의 한계를 지적하고 있다. 이 기술의 악용을 막기 위해 정부의 규제가 필요하다고 강조하고 있다.
AI 음성 복제 사기, 영국서 30% 증가
지난해 영국에서는 AI 기반 음성 복제 사기 사건이 30% 증가했으며, 이는 개인의 신원을 도용해 긴급히 송금을 요청하는 사기 유형에도 활용되고 있다. 소비자들은 이러한 사기에 대처하기 위해 신뢰할 수 있는 번호로 다시 전화를 거는 등의 주의가 요구된다.
음성 도용, 단순한 불편을 넘어 중대한 문제
데이비드 애튼버러는 자신의 목소리가 도용된 것에 대해 "평생 동안 진실을 말하려 노력했으며, 이러한 일이 벌어진 것에 대해 매우 불쾌하다"고 밝혔다. 또한, 스칼렛 요한슨도 최근 AI 모델에 자신의 목소리와 비슷한 옵션이 등장하자 충격과 분노를 느꼈다고 말했다.
음성 복제, 기술적 한계와 감정 표현 부족
AI 기반 음성의 주요 문제 중 하나는 감정을 이해하고 표현하는 데 한계가 있다는 것이다. 음성 변경을 통한 감정적 표현의 중요성이 강조되며, 이는 기술적으로 넘어야 할 큰 장벽으로 여겨지고 있다. 음성 녹음 산업은 이러한 기술 발전에 빠르게 대응하고 있으며, 일부 아티스트의 목소리를 이미 복제했다. AI 음성은 특히 남성 영어 목소리에서 우수하게 작동하지만, 여전히 자연스러움이 부족하다는 평을 받고 있다.
출처 : AI cloning of celebrity voices outpacing the law, experts warn