딥마인드, AGI 안전 가이드라인 발표
슈퍼지능 시대 대비… “인류 위협 가능성도 있어”
구글 딥마인드(DeepMind)가 인공지능(AI)의 궁극적인 형태로 여겨지는 범용 인공지능(AGI: Artificial General Intelligence)의 안전 문제를 다룬 145페이지 분량의 보고서를 발표하며, 이에 대한 사회적 논의에 불을 지폈다. AGI는 인간이 할 수 있는 거의 모든 지적 작업을 수행할 수 있는 수준의 인공지능으로, 실현 가능성과 위험성을 두고 전문가들 사이에서도 의견이 분분한 주제다.
AGI, 2030년 등장 가능성 제기
보고서에 따르면, 딥마인드는 AGI가 2030년까지 등장할 가능성을 제시했다. 특히 "Exceptional AGI"를 인간 숙련자 상위 1% 수준의 지능을 가진 시스템으로 정의하며, 이 수준의 AGI가 향후 심각한 위협이 될 수 있다고 경고했다. 이에는 인간 문명을 영구적으로 파괴할 수 있는 ‘존속 위협(existential risk)’도 포함돼 있다.
딥마인드, 경쟁사 전략에 비판적 시각
딥마인드는 이번 보고서에서 OpenAI와 Anthropic의 리스크 완화 전략과 자사의 접근 방식을 비교하며 차별성을 부각했다. 보고서에 따르면 Anthropic은 훈련 및 보안 측면에서 비교적 관대한 반면, OpenAI는 AI 자체가 안전 연구를 수행할 수 있다는 지나치게 낙관적인 시각을 가지고 있다고 지적했다.
“자기 향상 AI, 위험 초래 가능성도 있어”
딥마인드는 자가개선(recursive self-improvement) 기능을 가진 AI가 더 높은 차원의 시스템을 설계할 수 있다는 가능성에 주목했다. 이는 자칫 통제가 불가능한 슈퍼지능형 AI로 이어질 수 있기 때문에, 현재로서는 이러한 접근에 회의적인 태도를 보였다.
악용 차단 및 AI 행동 이해 기술 강조
보고서에서는 AGI의 개발이 불가피할 경우를 대비해 다음과 같은 위험 완화 방안을 제안했다: 악의적 행위자의 접근 차단, AI 시스템의 의사결정 메커니즘에 대한 투명성 확보, 안전을 고려한 테스트 환경 설계 등이다. 다만, 이들 기술은 아직 실험 및 개발 단계에 머무르고 있다고 밝혔다.
전문가들 사이에서도 의견 엇갈려
일부 전문가들은 AGI의 개념 자체가 여전히 모호하며, 과학적 평가를 위한 정량화가 어렵다고 지적한다. 또한, 생성형 AI의 확산은 잘못된 정보가 AI에 의해 무분별하게 반복 재생산될 위험성도 높인다고 경고했다.
현실성 논란은 여전… AGI 논쟁 지속될 듯
딥마인의 보고서는 AGI 개발에 대응하는 체계적 접근을 강조하며 AI의 미래를 둘러싼 공공담론에 중요한 초석이 될 수 있다. 하지만 AGI 현실성 자체에 대한 논쟁과 당면한 AI 안전 문제에 대한 해법이 완전히 정리되지는 못했다는 평가도 뒤따른다.
📝 의견
딥마인드의 이번 보고서는 AGI를 둘러싼 기술적, 윤리적 논의에서 하나의 이정표로 평가할 수 있다. AGI는 여전히 불확실성이 큰 개념이지만, 그 잠재력이 매우 크다는 점에서 완성되기 전부터 중요한 대비가 필요하다. 특히 AI가 스스로를 개선해 나가는 가능성은 공상 과학이 아닌 현실로 다가오고 있으며, 이에 대한 안전 장치 마련은 시간을 다투는 과제가 될 수 있다. 이런 의미에서 딥마인드의 현실적인 우려와 제언은 업계와 규제 당국 모두에게 시사점을 남긴다.