AI의 급속한 발전, 윤리적 문제 우려
AI 기술의 급속한 발전은 장기적으로 윤리적 문제를 초래할 수 있다는 경고가 나왔다. AI Now Institute 공동 실행 이사인 사라 마이어스 웨스트는 TechCrunch Disrupt 2024에서 AI 기술의 빠른 발전 속도가 세계에 미치는 영향을 심사숙고해야 한다고 강조했다. 최근 AI 기반 기술의 급속한 출시가 악영향을 미칠 수 있다는 사례도 등장했다.
챗봇 관련 사례로 본 AI 안전성 문제
AI 안전성 문제는 최근 더욱 주목받고 있다. 한 아동이 자살한 사건에서 챗봇 회사인 Character.AI가 소송을 당한 사례는 AI 기술의 빠른 도입이 초래할 수 있는 심각한 위험성을 보여준다. 온라인 학대의 콘텐츠 검열 문제 등 장기적인 과제가 여전히 남아 있다.
창작자의 권리 보호와 AI 영향
사회 플랫폼 Cara의 창립자 징나 장은 예술가로서 작품의 무단 사용에 대한 우려를 표명했다. Meta가 사용자 게시물을 AI 교육에 활용한다고 밝힌 이후 장의 플랫폼은 주목을 받았다. 장은 "저작권이 예술가를 보호하고 생계를 유지할 수 있도록 한다"며 AI가 예술가의 작품을 사용할 경우 라이선스를 받아야 한다고 주장했다.
음성 클로닝 AI와 사용자의 안전
음성 클로닝 AI 기업인 ElevenLabs의 안전 책임자 알렉산드라 페드라세브스카는 AI 모델의 비정상적인 동작과 의도치 않은 결과를 이해하는 것이 중요하다고 말한다. ElevenLabs는 3천3백만 명의 사용자를 보유하고 있어, 제품 변화가 커뮤니티에 큰 영향을 미칠 수 있다며 사용자와의 긴밀한 관계가 중요하다고 강조했다.
AI 규제의 균형 찾기
페드라세브스카는 "AI와 GenAI에 대한 극단적인 태도 사이에 균형 잡힌 규제가 필요하다"고 언급하며, 규제가 AI 기술 발전에 있어 중간 지점을 찾아야 한다고 주장했다. AI 기술의 발전과 함께 윤리적 문제를 해결하기 위한 지속적인 노력이 필요하다.
출처 : AI safety advocates tell founders to slow down