AI 개발 경쟁, '맨해튼 프로젝트' 방식은 위험
에릭 슈미트, 알렉산더 왕, 댄 헨드릭스는 2025년 3월 5일 발표한 정책 문서에서 강력한 AI 개발을 위한 '맨해튼 프로젝트' 방식의 접근이 국제적 불안을 초래할 수 있다고 경고했다. 이들은 중국과 같은 국가가 이에 대응해 보복 조치를 취할 가능성이 있으며, 결과적으로 국제 관계가 불안정해질 수 있다고 주장했다.
'슈퍼지능 전략' 보고서, 경쟁보다 억제 전략 강조
"슈퍼지능 전략(Superintelligence Strategy)"이라는 제목의 이 보고서는 초지능 AI 시스템을 독점적으로 통제하려는 시도가 오히려 적대적 대응을 유발할 수 있다고 지적했다. 저자들은 핵무기 정책에서 사용된 '상호 확증 파괴(Mutually Assured Destruction, MAD)' 개념과 유사하게 AI 경쟁이 강대국 간 긴장을 고조시키고 위험한 상황을 초래할 수 있다고 본다.
AI 위협 대비 위한 ‘상호 확증 오작동’ 개념 제시
저자들은 이러한 위험을 방지하기 위해 '상호 확증 AI 오작동(Mutual Assured AI Malfunction, MAIM)'이라는 개념을 소개했다. 이는 적대적 AI 프로젝트를 미리 저지할 수 있는 차단 전략을 강조하는 개념으로, 단순한 기술 경쟁보다 위협을 억제하는 접근법이 필요하다고 설명했다.
보고서는 AI 정책 논의에서 서로 다른 입장을 가진 두 그룹을 구분했다. AI 발전이 가져올 재앙적 결과를 우려하며 개발 속도를 늦추려는 '파멸론자(doomers)'와, 위험 요소를 간과한 채 빠른 개발을 추진하는 '타조(ostriches)' 간 논쟁이 치열하다는 점을 지적했다. 이에 슈미트와 공동 저자들은 경쟁보다 방어적 전략을 우선하는 균형 잡힌 접근법이 필요하다고 주장했다.
AI 개발 방향, 경쟁보다 국제적 안정 고민해야
이 보고서는 AI 개발 경쟁에서 무조건적인 속도 경쟁이 아닌 장기적인 안정과 글로벌 협력을 중요시해야 한다는 점을 강조한다. 초지능 AI가 불러올 수 있는 위험을 방지하려면 국가 간 신뢰 구축과 방어적 정책 마련이 필수적이다.
의견:
AI의 급속한 발전이 국제 사회에 미칠 영향을 고려할 때, 무작정 경쟁을 벌이는 것보다 방어적인 접근이 필요하다는 보고서의 주장에 공감한다. 특히 군사적 용도로 AI가 활용될 가능성을 감안하면, 기술 경쟁이 곧바로 긴장 고조로 이어질 위험이 크다. 따라서 글로벌 차원에서 AI 규제를 논의하고 협력적인 기술 개발 방향을 모색하는 것이 현실적으로도 중요한 과제가 될 것이다.