소비자단체 조사, 음성 복제 기술 보안 미흡 경고
일부 업체만 오남용 방지 조치 시행…사기 악용 우려 커져
최근 인공지능(AI) 음성 복제 기술이 상용화되며 다양한 분야에서 활용되고 있는 가운데, 다수의 인기 음성 클로닝 서비스가 보안 및 오남용 방지 조치를 제대로 갖추지 않았다는 지적이 나왔다.
미국 소비자단체 컨슈머리포트(Consumer Reports)가 최신 보고서를 통해 밝힌 바에 따르면, Descript, ElevenLabs, Lovo, PlayHT, Resemble AI, Speechify 등 6개 기업의 음성 복제 서비스를 분석한 결과, Descript와 Resemble AI만이 안전 확보를 위한 조치를 적용하고 있었다. 나머지 기업들은 사용자가 음성 복제에 대한 법적 권리를 갖고 있음을 단순히 확인하는 방식에 그쳤다.
“기본적인 안전 대책조차 부족” 우려
컨슈머리포트의 정책 분석가인 그레이스 게디는 “음성 클로닝 도구가 사기 범죄에 악용될 가능성이 있다”고 밝히며, 기업들이 비교적 간단한 조치만으로도 무단 음성 복제를 어렵게 만들 수 있다고 경고했다. 그녀는 다만 이런 기본적인 보호 장치조차 마련하지 않은 기업이 대부분이라는 점을 문제로 꼽았다.
음성 도용 범죄와 AI 발전의 딜레마
최근 몇 년 사이 AI 음성 합성 기술은 비약적으로 발전하면서, 실존 인물의 목소리를 거의 완벽하게 복제할 수 있는 단계에 이르렀다. 이에 따라 실제로 음성 사기(voice phishing)나 사칭 범죄 등에 이러한 기술이 활용될 수 있다는 우려가 커지고 있다.
현재 대부분의 업체들이 사용자 경험을 간소화하는 데 중점을 두면서도, 그 과정에서 안전성과 윤리적 고려가 소홀해지고 있다는 지적이 거세지는 상황이다.
나의 의견
AI 음성 복제 기술은 방송, 콘텐츠 제작, 접근성 지원 등 긍정적인 활용 가능성이 매우 높다. 하지만 이 기술이 사기나 사칭에 악용될 경우, 그 피해는 단순한 불편을 넘어 심각한 신뢰 손상으로 이어질 수 있다. 기술 발전에 걸맞은 윤리적 책임과 보안 조치 마련이 시급하다고 본다. 기업들은 사용자 보호를 위한 기준을 스스로 강화하고, 업계 차원에서 공통된 가이드라인을 마련할 필요가 있다.