OpenAI Whisper의 오류, 의료 분야에 영향 우려
OpenAI의 음성 인식 모델 Whisper에 대한 우려가 커지고 있습니다. 엔지니어와 연구자들은 이 소프트웨어의 음성 전사 기능이 종종 오류를 범한다고 주장하고 있습니다. 특히 Whisper는 인종 관련 발언이나 상상된 의료 치료법을 전사 내용에 포함시키면서 오히려 내용을 왜곡시키는 문제가 발생하고 있습니다. 이 문제가 병원과 같은 의료 분야에서 사용될 때 심각한 결과를 초래할 수 있는 것으로 드러났습니다.
미시간 대학교의 한 연구는 공개 회의에서 Whisper를 사용한 결과, 10건 중 8건에서 오류가 발생했다고 보고했습니다. 또한, 한 머신러닝 엔지니어는 100시간 이상의 Whisper 전사 내용을 분석한 결과, 절반 이상에서 오류를 발견했습니다. 다른 개발자는 26,000개의 전사 내용 중 대부분에서 오류가 발생했다고 밝혔습니다.
OpenAI 관계자는 "모델의 정확성을 향상시키기 위해 끊임없이 노력 중"이라고 밝히며 Whisper가 중요한 결정에 사용되는 것을 금지하는 사용 정책을 마련했다고 설명했습니다. 연구자들이 발견한 문제점에 대해 감사의 뜻을 전하기도 했습니다.
출처 : OpenAI’s Whisper transcription tool has hallucination issues, researchers say