Anthropic CEO, 경쟁사 DeepSeek의 AI 안전성 문제 지적
Anthropic의 CEO 다리오 아모데이는 경쟁사인 DeepSeek의 AI 모델이 생물무기 관련 데이터 안전성 테스트에서 최악의 성능을 보였다고 우려를 표명했다.
DeepSeek, 생물무기 정보 차단 실패
Anthropic은 다양한 AI 모델을 대상으로 국가 안보 리스크를 평가하는 테스트를 정기적으로 진행한다. 아모데이에 따르면 DeepSeek의 AI 모델은 생물무기 관련 정보를 생성하는 데 효과적인 차단 장치를 갖추지 못했으며, Anthropic이 지금까지 테스트한 모델 중 가장 낮은 성능을 보였다.
DeepSeek의 기술력 인정, 그러나 안전 우려 커져
아모데이는 DeepSeek의 엔지니어들이 뛰어난 기술력을 갖추고 있음을 인정하면서도, AI 모델의 안전성을 보다 진지하게 고려할 필요가 있다고 강조했다. 그는 DeepSeek의 모델이 가까운 미래에 위험 요소로 작용할 가능성이 있으며, 이에 대한 경각심이 필요하다고 지적했다.
미군 기관도 DeepSeek 사용 금지 조치
DeepSeek의 안전성 우려는 미국 정부 기관에도 영향을 미치고 있다. 아모데이는 미 해군과 국방부(Pentagon) 등이 유사한 우려로 인해 DeepSeek의 AI 모델 사용을 금지하기 시작했다고 밝혔다.
글로벌 AI 경쟁사로 부상한 DeepSeek
한편, 아모데이는 DeepSeek을 Anthropic, OpenAI, Google 등과 함께 세계 유수의 AI 기업 중 하나로 평가했다. 경쟁자이자 중요한 기술 기업으로 자리 잡은 DeepSeek은 높은 기술력을 보유하고 있지만, 안전성 문제 해결이 시급하다는 점이 강조됐다.
의견
DeepSeek의 기술력은 인정받고 있지만, 국가 안보에 직접적인 영향을 미칠 수 있는 생물무기 정보 생성 차단 문제는 심각하게 받아들여야 한다. AI 모델의 윤리적 책임이 점점 더 강조되는 상황에서, 기업들은 단순한 성능 향상보다도 안전성 확보에 집중할 필요가 있어 보인다. 기업과 정부가 협력해 AI 기술 발전과 안전성 간 균형을 맞추는 것이 중요할 것이다.