AI 음성 복제 기술, 신뢰에 위협되다
세계적으로 유명한 자연 다큐멘터리 발표자인 데이비드 애튼버러의 음성이 인공지능(AI)에 의해 복제되어 부적절하게 사용된 사례가 보고됐다. BBC에 따르면, 일부 웹사이트와 유튜브 채널에서 AI를 이용해 애튼버러의 음성을 복제, 부적절한 내용의 발언을 하는 동영상을 제작하고 있다. 이는 그가 결코 하지 않을 발언들로, 기술 발전이 얼마나 우리의 신뢰를 잠식할 수 있는지를 보여준다.
유명인의 음성 복제, 어디까지 가능할까
유명인 음성 복제 문제는 애튼버러에만 국한되지 않는다. 스칼렛 요한슨은 자신의 음성을 AI에게 제공하지 않았음에도 불구하고, 개발자들이 'Sky'라는 캐릭터로 음성을 이용했다는 주장이 제기됐다. AI가 유명인의 음성을 복제해 부적절하게 사용하는 것은 법적 분쟁의 소지가 된다.
AI 음성 복제, 신뢰 사회에 미치는 영향
AI 기술은 스팸이나 사기로 악용될 가능성이 높다는 경고가 있었다. 실제로 어린이의 음성을 복제해 가짜 납치 동영상을 만들고 부모를 속이는 시나리오도 거론된 바 있다. 그러나 애튼버러 같은 존경받는 자연 다큐멘터리 발표자의 음성을 복제해 허위 사실을 퍼뜨리는 것은 새로운 유형의 위협으로 이해된다.
기술 발전의 이중성
기술이 신뢰할 수 없는 사회를 만들 위험이 있다고 전문가들은 지적한다. 예를 들어, 과학수사에서의 DNA 분석은 너무나 정교해져서 단순히 악수를 한 사람의 DNA가 범죄현장에 남아있다는 이유만으로 체포가 가능한 수준이다. 그러나 AI 음성 복제가 확산되면, 우리가 믿을 수 있는 것은 우리 앞에서 말하는 사람뿐일 수 있다.
인공지능의 음성 복제 기술은 편리함을 제공하지만, 동시에 우리가 중요하게 여기는 가치와 신뢰를 훼손할 수 있다. 이러한 기술적 도전 속에서 신뢰 회복의 중요성이 부각된다.
출처 : If you can’t trust the voice of David Attenborough, what can you trust?