OpenAI, AI 모델의 위험 평가 후 API 도입 결정
OpenAI는 AI가 사람들의 신념을 바꾸거나 행동을 유도하는 방식에 대한 위험을 보다 정확히 평가할 때까지, 딥 리서치(AI deep research) 모델을 개발자 API에 제공하지 않겠다고 밝혔다.
AI의 설득력 평가 및 위험 요소 분석
OpenAI는 딥 리서치 모델이 대규모 가짜 정보 확산에 적합하지 않다고 판단했으며, 이는 높은 연산 비용과 비교적 느린 속도 때문이라고 설명했다. 하지만 AI가 맞춤형 심리적 설득을 활용하여 잠재적으로 위험한 콘텐츠를 제작할 가능성을 평가하기 위해 추가 연구를 진행할 계획이라고 덧붙였다.
AI의 영향력에 대한 우려
OpenAI는 AI가 오해의 소지가 있는 정보를 생산하고, 이를 통해 대중의 의견을 조작하는 데 사용될 가능성을 우려했다. 실제로 선거 기간 동안 정치적 딥페이크가 활용되어 유권자를 혼란에 빠뜨린 사례가 있으며, AI가 사이버 사회공학 공격(social engineering attack)에도 점점 더 활용되고 있다.
설득력 테스트 결과, 인간 수준에 미치지 못해
OpenAI는 딥 리서치 모델의 설득력을 테스트한 백서를 공개했다. 실험에서 이 모델은 설득력 있는 주장을 펼치는 데 일정 수준의 성과를 보였지만, 인간보다 뛰어나지는 않았다. 한 실험에서는 AI 모델이 또 다른 AI를 설득하여 결제를 유도하는 실험을 진행했는데, 이 부분에서는 기존 OpenAI 모델보다 우수한 성과를 거뒀다. 그러나 다른 테스트에서는 기대만큼의 성능을 발휘하지 못했다.
OpenAI는 이러한 테스트 결과가 딥 리서치 모델의 '최저 성능'을 반영할 가능성이 있으며, 향후 성능 개선이 이루어진다면 훨씬 더 강력한 설득력을 가질 수 있다고 전망했다.
의견
OpenAI가 AI 모델의 설득력을 신중하게 검토하면서 API 도입을 연기한 것은 타당한 결정으로 보인다. AI 기술이 점점 발전함에 따라, 의도치 않은 도덕적·사회적 문제가 발생할 가능성이 높아지고 있다. 특히 AI가 사람들의 의견을 조작하거나 정치적 목적으로 활용될 우려가 커지는 상황에서, 이런 기술을 대중적으로 공개하기 전에 충분한 안전성을 확보하는 것은 중요하다. OpenAI의 실험이 앞으로 어떤 방향으로 발전할지 주목할 필요가 있다.