AI 개발 위기, 전직 연구원의 경고
인공지능(AI) 연구자로 활동했던 스티븐 애들러가 AI 개발 속도에 대해 "공포스럽다"고 언급하며 깊은 우려를 제기했다. 애들러는 AGI(Artificial General Intelligence, 범용 인공지능) 개발 경쟁이 인류에게 "매우 위험한 도박"이 되고 있다고 경고했다.
개인적 불안부터 안전 규제까지
애들러는 작년 11월 오픈AI(OpenAI)를 떠난 이후 자신의 경험을 되돌아보며, 기술의 급격한 발전이 인류의 미래에 제기하는 질문들을 강조했다. 그는 AI의 진행 방향을 보며 가족 계획이나 은퇴 저축과 같은 개인적인 문제에 대해서도 고민이 깊어졌다고 밝혔다. 현재 방식을 유지할 경우 인류의 미래에 대한 불확실성이 커지고 있다고 말했다.
AI의 윤리적 정렬 문제와 빠른 규제 필요성
그는 AI가 인간의 가치를 따르도록 만드는 'AI 정렬(Alignment)' 문제에서, 현재 어떤 연구소도 명확한 해결책을 갖고 있지 않다고 지적했다. 이를 통해 AI 시스템의 위험을 통제할 필요성을 다시 한 번 강조하며 윤리적 기준 및 안전 규제 마련의 시급성을 언급했다. 특히, 애들러는 신중한 접근을 취하는 연구소조차 더 빨리 움직이는 경쟁자들 때문에 뒤처질 위험이 있다고 우려했다.
중국과 미국의 기술 경쟁, 균형 잡힌 접근의 필요성
애들러의 우려는 중국의 딥시크(DeepSeek)가 AGI 개발에서 미국 기술 기업들을 위협할 정도로 성장하고 있다는 최근 소식과 맞물려 나온 것이다. 그는 현재 AI 산업이 "매우 나쁜 균형 상태"에 갇혀있다고 표현하며, AI의 부정적 영향을 최소화하기 위해 진정한 안전 규제가 필요하다고 역설했다.
의견
스티븐 애들러의 발표는 AI 개발에 있어 윤리와 안전 기준의 부재를 직시하게 한다. AGI의 잠재적 위협을 줄이기 위해 산업 내 협력과 강력한 정책적 접근이 필요하다. 허나, 국가 간 기술 경쟁에서 현실적인 균형을 찾는 어려움 역시 간과할 수 없는 과제라고 본다.