AI 발전, 안전성 우려 심화시킬 수도
AI 전문가 보고서, 악용 가능성 경고
인공지능(AI) 시스템이 악의적인 목적으로 사용될 가능성이 점차 증가하고 있다는 내용의 보고서가 발표됐다. 이 보고서에서 현대 AI의 선구자로 불리는 요슈아 벤지오(Yoshua Bengio)는 중국 스타트업 딥씩(DeepSeek)의 기술 발전이 안전성에 위협을 가할 수 있다고 우려를 표명했다. 그는 AI 기업 간의 치열한 경쟁이 안전 조치보다 기술 개발 속도를 우선시하는 경향이 강해지고 있다고 지적했다.
경쟁 심화가 안전성 검사 소홀 초래
효율성 우선, 윤리적 책임 외면 가능성
벤지오는 AI 기술 개발 경쟁이 격화됨에 따라 기업들이 혁신을 서두르는 과정에서 안전성 검토가 소홀해질 가능성을 우려했다. 이는 영국 정부 의뢰로 96명의 AI 전문가, 노벨상 수상자 제프리 힌튼(Geoffrey Hinton)이 참여해 작성한 국제 AI 안전 보고서의 주요 논점 중 하나이다. 보고서에 따르면, 챗봇과 같은 범용 AI 시스템이 점점 더 강력해지며 악의적인 목적에 악용될 가능성이 커지고 있다.
AI로 제작 가능한 생물학·화학 무기
초심자의 사용 가능성은 여전히 제한적
보고서는 새로운 AI 모델들이 생물학적 및 화학적 무기를 설계할 수 있는 고급 기술 지침을 생성하는 능력을 갖추고 있다고 경고했다. 다만, 초심자가 이러한 AI 지침을 실질적으로 활용할 가능성은 아직 불확실하다고 덧붙였다.
사이버 공격 및 딥페이크 증가
취약점 탐지 및 오픈소스 모델 악용우려
AI의 자율적 취약점 탐지 능력이 향상되면서 사이버 공격에 악용될 가능성도 언급됐다. 그러나 실제 물리적 공격을 실행하기 위한 정밀도가 부족하여 완전 자율적 공격은 현재로선 불가능하다고 보고서는 밝혔다.
한편, 딥페이크 콘텐츠가 사기, 공갈, 신원 도용 등에 활용될 위험도 크게 증가하고 있다. 특히 폐쇄형 소스 모델에서의 탈출(jailbreak) 공격 및 오픈소스 모델이 악용될 가능성이 보고서에서 지적됐다.
고급 추론 모델, 새로운 위협 야기할 가능성
향후 사회적·정치적 대응 중요
벤지오는 오픈AI가 새롭게 개발한 고급 추론 모델이 AI 위험을 증폭시킬 수 있다고 경고했다. 그는 이러한 고급 AI가 자율 에이전트를 생성하여 악의적인 목적으로 활용될 수 있다고 우려했다.
이와 더불어 보고서는 사기, 아동 성적 학대 이미지, 편향된 출력 및 프라이버시 침해 문제를 포함한 여러 윤리적 문제 해결이 여전히 숙제로 남아 있다고 지적했다.
마지막으로, AI가 환경에 미치는 영향과 노동 시장에 대한 잠재적인 변화도 논의되었다. AI의 미래가 긍정적일지 부정적일지는 기술 발전을 관리하고 규제하는 사회적 및 정부의 결정에 달려 있다고 보고서는 강조했다.
의견
기술 발전은 분명 인간의 삶을 윤택하게 만들 수 있는 잠재력을 가지고 있지만, 그에 비례한 안전성과 윤리적 책임에 대한 고려가 이루어져야만 한다. 특히 AI와 같은 고도화된 기술의 경우 오용될 경우의 위험성이 너무 크기 때문에, 발전 속도보다도 안정적이고 책임감 있는 개발이 더욱 중요하다. 사회적 논의와 국제적인 협력을 통해 이러한 문제를 미리 예방하는 것이 필요하다고 본다.