GPT-4.1 공개… 성능 향상에도 안전 보고서는 생략
OpenAI가 새롭게 선보인 AI 모델 GPT-4.1이 소프트웨어 코딩 분야의 벤치마크에서 기존 모델들을 능가하는 성능을 보여 주목받고 있다. 그러나 이번 발표에서는 AI 커뮤니티에서 통상적으로 요구되는 안전 보고서, 이른바 '시스템 카드(system card)'가 함께 제공되지 않아 논란이 일고 있다. OpenAI 측 대변인 샤오키 암도(Shaokyi Amdo)는 "GPT-4.1은 최첨단(frontier) 모델이 아니기 때문에 별도의 시스템 카드를 공개하지 않는다"고 설명했다.
안전 보고서 생략… 투명성 논란 가열
AI 업계에서는 모델의 안정성과 위험 요소를 분석한 보고서를 공개하는 것이 하나의 관행으로 자리 잡고 있다. 이 보고서는 모델이 사용자를 기만하거나 과도한 설득력을 가질 가능성 등 잠재적 위험 요소를 조명하는 데 도움이 된다. 그러나 최근 주요 AI 연구소들이 보고 기준을 완화하고 있다는 비판이 일고 있으며, OpenAI도 그 중 하나로 지적받고 있다. 특히 이전 GPT 모델 출시 당시에는 무관한 벤치마크 결과를 보고서에 포함시키거나, 시스템 카드 발행을 지연시켰다는 비판도 함께 제기됐다.
전직 직원들, OpenAI 안전성 축소 우려 제기
OpenAI의 전직 연구원이자 안전성 전문가였던 스티븐 애들러(Steven Adler)는 "안전 보고서는 법적으로 의무사항은 아니지만, 모델에 대한 투명성을 확보하는 핵심 요소"라고 강조했다. 그는 이러한 자료가 일반 대중과 정책 입안자들에게 AI의 위험성을 보다 명확히 알릴 수 있는 수단이 된다고 덧붙였다. 현재와 과거의 OpenAI 직원들 사이에서는 회사의 안전성 평가 기준이 '경쟁 압박'에 의해 축소되고 있다는 내부 우려도 제기되고 있다. 실제로 몇몇 퇴사자들은 OpenAI를 상대로 한 소송에 참고인 의견서(amicus brief)를 제출하면서 관련 문제를 강조했다.
복잡해지는 AI 모델… 더 높은 수준의 안전 기준 요구돼
GPT-4.1과 같은 고성능 모델일수록 잠재적 위험이 크기 때문에 안전 보고서의 필요성은 더욱 커진다. 보안 AI 프로젝트(Secure AI Project)의 토마스 우드사이드(Thomas Woodside)도 "모델이 복잡하고 강력해질수록 책임 있는 공개와 안전성 검토가 중요하다"고 지적했다. 그럼에도 불구하고 OpenAI를 포함한 다수의 AI 연구소는 캘리포니아 주의 SB 1047 법안처럼 AI 모델에 대한 법적 의무 보고 요구안을 반대하고 있는 상황이다.
이 기사에 대한 내 의견:
OpenAI의 GPT-4.1 발표가 기술적 성과 면에서는 주목받을 만하지만, 기본적인 투명성과 책임 원칙을 생략한 채 운영되고 있다는 점은 우려스럽다. 특히 AI 기술의 사회적 영향력이 빠르게 확산되는 현재, 안전성 보고서를 생략했다는 결정은 경쟁력 강화보다는 단기적 비밀주의로 읽힐 가능성이 높다. 기술 개발 못지않게, 그에 맞는 윤리적 기준과 정보 공개의 균형이 더욱 중요해지고 있다.