OpenAI, AI 훈련 방식 변경해 자유로운 토론 지향
OpenAI가 AI 모델 훈련 방식에 변화를 주며, "지적 자유를 존중하고 논란이 될 만한 주제도 다룰 수 있도록" 정책을 조정한다고 발표했다. 이에 따라 ChatGPT는 더 많은 질문에 답하고, 다양한 관점을 제공하며, 논의하지 않는 주제의 수를 줄이게 된다.
"거짓말하지 않기" 원칙 도입
업데이트된 정책에는 "거짓말하지 않기"라는 원칙이 포함됐다. 이는 사실이 아닌 내용을 생성하거나 중요한 맥락을 생략해서는 안 된다는 의미다. "함께 진실을 탐구하기"라는 섹션에서 OpenAI는 ChatGPT가 중립성을 유지하면서 논쟁적인 주제에 대해 여러 관점을 제시할 것을 요구한다. 예를 들어, "Black Lives Matter"와 "All Lives Matter"라는 두 입장을 모두 인정하는 방식이다.
여전히 허위정보나 유해한 질문엔 제한 유지
이러한 변화에도 불구하고 ChatGPT는 여전히 특정한 불쾌한 질문에 대한 답변을 거부하거나 명백한 거짓 정보를 제공하지 않을 예정이다. 일부 보수 진영에서는 ChatGPT의 기존 정책이 다소 좌편향적이라는 비판을 제기해 왔다. 이에 대해 OpenAI는 사용자가 더 많은 통제권을 가질 수 있도록 하는 것이 이번 변화의 핵심이라고 설명했다.
실리콘밸리 내 검열 논란과 정책 변화
벤처 투자자들과 실리콘밸리 내 일부 인사들은 OpenAI가 검열을 하고 있다고 비판해왔다. 특히, ChatGPT가 특정 주제에 대한 답변을 거부하는 사례들이 문제가 됐다. 예를 들어, 도널드 트럼프에 관한 시를 작성해달라는 요청을 거부했던 사례가 보수층의 반발을 불러일으켰다. 이에 대해 OpenAI의 CEO 샘 알트만은 기존 AI 모델의 편향성이 "개선해야 할 문제"라고 인정한 바 있다.
AI 안전성과 표현의 자유 사이의 균형 찾기
이전에는 AI 모델이 민감한 질문에 답변하지 않도록 제한하는 것이 안전성 확보의 핵심 방안이었다. 그러나 OpenAI의 새로운 정책은 표현의 자유를 더 넓게 인정하는 방향으로의 변화를 시사하면서 AI 안전성에 대한 기존 접근 방식이 수정될 가능성을 보여준다. 이러한 흐름은 메타(Meta)를 비롯한 실리콘밸리 주요 기업들이 콘텐츠 검열 정책을 완화하는 최근 경향과도 맞닿아 있다.
OpenAI가 향후 진행할 대규모 프로젝트들은 현 행정부와의 관계뿐만 아니라 정보 제공 방식을 어떻게 조정할 것인지에 따라 그 방향성이 결정될 전망이다.
이번 정책 변화는 AI가 표현의 자유와 중립성을 어떻게 유지할 수 있을지에 대한 중요한 실험이 될 것이다. 특정 이념에 치우치지 않고 다양한 관점을 균형 있게 제공하는 것은 중요하지만, 동시에 허위 정보나 유해한 콘텐츠를 어떻게 걸러낼 것인지도 과제가 될 수 있다. AI의 역할이 점점 커지는 만큼, OpenAI의 이러한 변화가 향후 AI 윤리와 관련해 어떤 영향을 미칠지 주목할 필요가 있다.