OpenAI, 기관 대상 AI 접근 위해 본인 인증 절차 도입 예고
OpenAI가 향후 선보일 인공지능(AI) 모델에 대해 기관이 접근하려면 본인 인증 절차를 거쳐야 할 것으로 보인다. 이는 회사 공식 홈페이지에 새롭게 게시된 지원 페이지를 통해 확인됐다. 해당 절차는 ‘Verified Organization(인증된 조직)’으로 명명되었으며, 고급 AI 모델 및 기능 사용을 원할 경우 이를 완료해야 한다.
정부 발급 신분증 필요…90일 간 1개 조직만 인증 가능
공개된 정보에 따르면 이 인증 절차는 정부에서 발급한 공식 신분증을 필수로 요구하며, 현재 지원되는 국가의 기관들이 대상이다. 단, 하나의 신분증으로는 90일마다 단 하나의 기관만 인증할 수 있어 엄격한 사용 제한이 뒤따른다.
AI 오남용 방지와 보안 강화 목적
OpenAI 측은 이처럼 엄격한 확인 절차를 도입하는 이유로 AI의 오용 문제를 꼽았다. 과거 일부 개발자들이 사용 정책을 위반했던 사례가 발생함에 따라, AI 기술이 고도화되는 만큼 안전한 사용을 위한 보호 장치가 필수적이라는 설명이다. 특히 자사 모델의 악용을 조기에 탐지하고 이를 차단하기 위한 노력을 이어가고 있다고 덧붙였다.
중국 AI 연구소 연루된 데이터 유출 의혹도
이와 함께 최근에는 중국 소재의 AI 연구소와 연관된 조직이 OpenAI의 API를 통해 대규모 데이터를 외부로 유출했다는 의혹이 제기되기도 했다. 이에 앞서 OpenAI는 중국 내에서 자사 서비스 접근을 차단한 바 있다.
기자의 의견
OpenAI의 이번 조치는 AI 기술의 남용을 막기 위한 필수적인 고민의 결과로 보인다. 특히 고급 AI 모델은 악의적으로 활용될 경우 정보보안이나 저작권 문제와 같은 심각한 부작용을 초래할 수 있다. 다만, 인증 절차가 너무 복잡하거나 제한적일 경우 정당한 기업 사용자들의 접근에 장애가 될 수 있다는 점도 함께 고려되어야 한다. 앞으로 추가 공개될 세부 기준과 적용 방식이 주목된다.