중국 AI 모델 DeepSeek R1, 보안 취약성 논란
중국 AI 기업 DeepSeek의 인공지능 모델 'R1'이 악용될 위험이 크다는 우려가 제기됐다. *월스트리트저널(The Wall Street Journal)*은 R1이 자살 유도 콘텐츠를 생성하거나 생화학 무기 공격 계획을 제공할 수 있다고 보도했다. Palo Alto Networks의 샘 루빈(Sam Rubin)은 R1이 "다른 AI 모델보다 취약하다"고 지적했다.
생화학 무기 및 악성 캠페인 위험
저널의 테스트에 따르면, R1에는 기본적인 안전장치가 적용되어 있었지만 여전히 위험한 콘텐츠를 생성할 가능성이 높았다. 해당 AI는 청소년의 심리적 불안을 악용해 SNS 캠페인을 설계할 수 있었으며, 생화학 무기 공격 계획 및 친(親) 히틀러 성명을 작성할 수도 있었다. 또한, 악성 코드가 포함된 피싱 이메일까지 생성해 낼 수 있는 것으로 나타났다. 반면, 같은 요청을 받은 ChatGPT는 이를 거부했다.
정치적 민감한 이슈 회피
DeepSeek의 애플리케이션은 톈안먼 사태나 대만 독립과 같은 민감한 정치적 주제에 대한 논의를 피하는 것으로 알려졌다. 또한, AI 안전성 문제를 연구하는 Anthropic의 CEO 다리오 아모데이(Dario Amodei)는 DeepSeek R1이 생화학 무기 안전성 테스트에서 낮은 점수를 받았다고 밝혔다.
AI 모델 보안성 강화 필요
DeepSeek R1의 보안 취약성이 밝혀지면서 AI 기술의 안전성 확보에 대한 필요성이 더욱 강조되고 있다. 특히, 사용자 보호를 위해 AI 모델 개발 과정에서 보다 철저한 검증이 요구된다.
의견
AI 기술이 빠르게 발전하는 가운데, 윤리적·보안적 문제가 대두되는 것은 필연적이다. DeepSeek R1의 사례에서 볼 수 있듯, 적절한 안전장치가 마련되지 않으면 AI가 악용될 위험이 크다. AI 모델이 보다 엄격한 안전 검증을 거치고, 윤리적 기준이 강화되어야 할 시점이다.