미래 위험 감안한 AI 규제 필요성 제기
캘리포니아 주에서 출범한 AI 정책 자문 그룹이 발표한 새로운 보고서에서, 아직 현실화되지 않은 인공지능(AI)의 잠재적 위험성까지 감안해 규제 정책을 수립해야 한다는 주장이 제기됐다. 이 보고서는 미국 스탠퍼드대학교의 AI 전문가 페이이페이 리(Fei-Fei Li)를 비롯해 제니퍼 체이스(Jennifer Chayes), 마리아노-플로렌티노 쿠엘라(Mariano-Florentino Cuéllar) 등이 공동 작성했다.
이 그룹은 캘리포니아 주지사 개빈 뉴섬(Gavin Newsom)이 최근 AI 안전법안인 SB 1047을 거부한 이후 구성된 ‘AI 프런티어 모델에 관한 공동 정책 실무 그룹(Joint California Policy Working Group on AI Frontier Models)’의 일부로 활동하고 있다.
“AI 규제, 가시화되지 않은 위협까지 고려해야”
보고서 작성자들은 AI 기술의 발전이 가져올 미래의 부작용을 사전에 막기 위해 보다 선제적인 법적 규제 마련이 필요하다고 주장했다. 아직 관찰된 적은 없지만 사이버 공격이나 생물학 소량 무기 개발 등 AI가 초래할 수 있는 위험을 간과하지 말아야 한다는 것이다. 이들은 '신뢰하되 검증(trust but verify)'이라는 접근 방식이 AI 정책의 핵심 방향이 되어야 한다고 강조했다.
개발 투명성 강화와 내부고발자 보호 필요
보고서는 오픈AI(OpenAI)와 같은 AI 연구 기관이 어떤 모델을 개발 중인지에 대해 좀 더 투명하게 공개할 수 있도록, 안전성 테스트 결과와 데이터 확보 방식, 보안 조치 등에 대한 의무 보고 방안을 제안했다. 또한, 외부 기관의 제3자 평가 기준을 강화하고 AI 기업 직원에 대한 내부고발자 보호 조치도 확대해야 한다고 밝혔다.
기존 법안과의 공통점…AI 안전 논의에 힘 실어
이번 보고서는 특정한 법안을 공식적으로 지지하지는 않았지만, 캘리포니아 상원의 SB 1047 법안과 스캇 위너(Senator Scott Wiener)가 발의한 후속 법안 SB 53의 주요 내용과 일치하는 부분이 많다. 특히, AI 개발자가 모델의 안전성 검증 결과를 공개하도록 의무화하는 조항과 관련된 부분에서는 AI 안전을 강조하는 진영의 입장을 반영한다는 평가를 받고 있다.
기자 의견
AI가 현실에서의 위협을 넘어 미래의 불확실성을 안고 있다는 점을 감안하면, 이번 보고서의 주장은 충분히 설득력이 있다. 특히 빠르게 진화하는 기술을 규제할 때는 당장의 결과보다는 '가능성'을 고려한 접근이 중요하며, 선제적이고 투명한 제도적 장치가 마련되어야 한다. AI 기술 발전에 따른 책임성 확보를 위해 이번 보고서가 하나의 이정표가 될 수 있을 것으로 보인다.