캘리포니아, AI 연구소 직원 보호 법안 추진
AI 위험 신고 권리 보장 및 연구 지원 위한 컴퓨팅 클러스터 설립
캘리포니아 주 상원의원 스콧 위너(Scott Wiener)가 AI 연구소 직원들에게 보호 장치를 제공하는 새로운 법안 SB 53을 발의했다. 해당 법안은 AI 시스템이 사회에 **'심각한 위험(critical risk)'**을 초래할 가능성이 있을 때, 직원들이 이에 대한 우려를 자유롭게 제기할 수 있도록 보장하는 내용을 포함하고 있다.
SB 53, 내부 고발자 보호 및 AI 연구 지원
AI 분야에서 직원들이 기업 내부 문제를 신고하기 어려운 상황을 방지하기 위해 SB 53은 내부 고발자 보호(whistleblower protection) 조항을 도입했다. 이 법안에 따르면, AI가 초래할 수 있는 위험성이 100명 이상의 사망 및 심각한 부상 또는 10억 달러 이상의 피해로 이어질 가능성이 있는 경우, 직원들은 이에 대한 우려를 제기할 권리를 갖는다. 기업은 이 같은 신고에 대해 보복 조치를 가할 수 없으며, 관련 내부 프로세스에 대한 정보를 제공해야 한다.
또한, 법안은 AI 연구 및 개발을 지원하기 위해 CalCompute라는 공공 클라우드 컴퓨팅 클러스터를 만들 계획이다. 캘리포니아 대학 연구자들과 다른 연구진이 참여하여 해당 클러스터의 구조와 접근성 등에 대한 방향을 제시하도록 할 예정이다. 이는 AI 스타트업과 연구자들이 규모가 큰 AI 연구를 수행하는 데 필요한 컴퓨팅 자원을 원활하게 확보할 수 있도록 하기 위한 목적이다.
SB 1047 실패 이후… AI 규제 방향 두고 논쟁 지속
이번 법안은 지난해 AI 안전 규제를 강화하려 했던 SB 1047 법안의 흐름을 잇는 조치다. SB 1047은 대형 AI 시스템이 초래할 수 있는 **재앙적 위험(catastrophic risk)**을 방지하도록 하는 내용을 포함했지만, 캘리포니아 주지사 개빈 뉴섬(Gavin Newsom)이 이를 거부하면서 시행되지 못했다. 해당 법안을 두고 실리콘밸리 기술 기업들은 과도한 규제가 미국의 AI 경쟁력을 저해할 수 있다며 반대 입장을 보였다.
SB 53, AI 업계와 입법부에서 어떻게 받아들일까?
현재 SB 53은 입법 절차를 진행 중이며, AI 안전 문제를 둘러싼 법률 제정 흐름 속에서 어떤 평가를 받을지 주목된다. 특히 2025년 AI 규제와 관련한 논의가 본격화되면서, 법안이 실리콘밸리와 정치권에서 어떤 반응을 얻게 될지 불확실한 상황이다.
📝 기사에 대한 의견
AI 기술의 발전 속도가 빠른 만큼, 이에 대한 안전장치 마련도 중요한 과제가 되고 있다. SB 53은 내부 고발자 보호와 연구 지원이라는 두 가지 측면에서 균형을 맞추려는 시도로 보인다. 그러나 AI 규제를 강화하려는 시도가 실리콘밸리의 반발을 불러왔던 과거 사례처럼, 이번 법안 역시 기업들의 저항을 받을 가능성이 크다. AI 발전과 안전성 확보 사이에서 정책 입안자들이 어떤 절충안을 도출할 수 있을지 지켜볼 필요가 있다.