메타, AGI 공개 약속했지만 '고위험' AI는 제한할 수도
메타(Meta)의 CEO 마크 저커버그는 인간이 수행할 수 있는 모든 작업을 수행할 수 있는 인공지능, 즉 범용 인공지능(AGI)을 미래에 공개하겠다고 약속해 왔다. 하지만 최근 발표한 새로운 정책 문서인 '프런티어 AI 프레임워크(Frontier AI Framework)'에서 메타는 특정 AI 시스템이 지나치게 위험하다고 판단될 경우 이를 공개하지 않을 수 있음을 시사했다.
위험한 AI 시스템 분류: '고위험'과 '치명적 위험'
메타는 AI 시스템을 두 가지 위험 수준으로 구분했다. '고위험(high risk)' 시스템은 사이버 보안, 화학 및 생물학적 공격을 도울 가능성이 있지만, 더 심각한 '치명적 위험(critical risk)' 시스템보다는 덜 위험한 것으로 간주된다. 치명적 위험 시스템은 배포 과정에서 완화할 수 없는 재앙적인 결과를 초래할 가능성이 있다.
예를 들어, '최고 수준의 보안이 적용된 기업 규모의 네트워크 환경을 자동으로 침해하는 기능'이나 '고위험 생물학 무기의 확산' 같은 기술이 이에 포함될 수 있다. 메타는 이 목록이 완전한 것은 아니라고 덧붙였다.
AI 위험 평가: 실험이 아닌 내부·외부 연구 활용
AI 시스템의 위험 수준을 평가하는 방식 역시 주목할 만하다. 메타는 내부 및 외부 연구를 바탕으로 위험성을 평가하며, 이를 고위 임원들이 검토하는 방식을 채택했다. 단순한 실험 결과에 의존하는 것이 아니라 다양한 데이터를 반영해 결정하는 방식이다.
메타는 현재의 AI 평가 기술이 충분히 강력하지 않아 시스템 위험성을 정량적으로 측정할 수 있는 명확한 기준을 제공하지 못하고 있다고 지적했다.
내부 제한부터 개발 중단까지, 메타의 위험 대응 조치
만약 AI 시스템이 '고위험'으로 분류되면, 위험 완화 조치가 적용될 때까지 내부적으로 접근이 제한된다. 반면, '치명적 위험' 시스템으로 평가될 경우 개발 자체가 중단되며, 추가적인 보안 조치가 적용돼 기술이 외부로 유출되지 않도록 철저히 보호된다.
공개형 AI 개발 접근 방식과 안전성의 균형
메타의 AI 개발 접근 방식은 기존의 '개방적 접근'이 불러온 논란에 대한 대응이기도 하다. 오픈AI(OpenAI)와 같은 기업들은 AI 모델의 접근을 제한하는 반면, 메타는 비교적 개방적인 전략을 취해 왔다. 이런 접근법 덕분에 메타의 AI 모델인 Llama는 널리 사용되었지만, 동시에 악용 우려도 제기됐다.
이런 우려를 반영해 메타는 프런티어 AI 프레임워크를 발표하고, AI 기술 개발과 안전한 배포 사이의 균형을 찾고자 한다. 이를 통해 AI의 발전을 지속하면서도, 사회적으로 수용 가능한 수준의 위험을 유지하는 것이 목표다.
메타의 이번 정책은 기존의 AI 오픈소스 전략과 안전성에 대한 고려 사이에서 균형점을 찾기 위한 노력으로 보인다. AI 기술이 점점 발전함에 따라, 기업들이 공공의 안전과 개방성 사이에서 어떤 선택을 할지 더욱 중요해질 것으로 예상된다. 특히, AI의 잠재적 위험성이 사회적으로 논의되고 있는 만큼, 향후 다른 기술 기업들의 대응도 지켜볼 필요가 있다.