구글, AI 무기 개발 금지 약속 철회
구글 모회사 알파벳이 인공지능(AI)을 무기 개발이나 감시 도구로 사용하지 않겠다는 기존 약속을 철회했다. 회사는 AI 윤리 지침을 개정하면서 "전체적인 해악을 초래하거나 초래할 가능성이 있는 기술"을 피하겠다는 조항을 삭제했다고 발표했다.
변화하는 환경 반영한 윤리 지침 개정
구글 AI를 총괄하는 데미스 하사비스는 이러한 변경이 세계적 환경의 변화를 반영한 결과라고 설명하며, AI가 국가 안보를 보호하는 방향으로 발전해야 한다고 강조했다.
이와 함께 구글의 기술 및 사회 부문 수석 부사장 제임스 마니카는 블로그 게시글을 통해 AI 기술이 세계적으로 경쟁을 벌이는 상황에서 민주주의 국가들이 자유, 평등, 인권 존중의 원칙을 바탕으로 AI 개발을 이끌어야 한다고 주장했다. 또한, 동일한 가치를 공유하는 기업, 정부, 기관이 협력해 AI를 안전하게 활용하고 국가 안보와 글로벌 성장을 지원해야 한다고 강조했다.
'악해지지 말자' 원칙의 변화
구글은 과거 "악해지지 말자(Don't be evil)"라는 모토로 운영되었으나, 이후 이 원칙은 알파벳의 윤리 강령에서 제외됐다. AI 기술을 둘러싼 논쟁이 심화되면서, 영국 컴퓨터 과학자 스튜어트 러셀과 같은 전문가들은 자율 무기 시스템의 위험성을 경고하며 이를 통제하기 위한 글로벌 조치가 필요하다고 주장하고 있다.
AI, 모바일·인터넷과 같은 범용 기술로 인식
구글은 2018년 AI 원칙을 발표한 이후, 세계적으로 AI 기술이 급속히 확산되었고, 수십억 명이 일상생활에서 이를 활용하고 있다고 밝혔다. 회사는 AI를 모바일폰이나 인터넷과 같은 범용 기술로 보고 있으며, 다양한 유익한 활용 사례와 개발자 생태계를 강조하고 있다.
의견
구글의 AI 윤리 지침 변경은 국가 안보와 세계 AI 패권 경쟁이라는 현실적 요소를 반영한 것으로 보인다. 그러나 AI를 무기와 감시 도구로 활용할 가능성이 커지는 만큼, 이에 대한 사회적 논의와 글로벌 차원의 엄격한 규제가 필요할 것이다. AI가 인류에게 해를 끼치지 않고 윤리적으로 사용될 수 있도록 지속적인 감시와 견제가 요구된다.