OpenAI, 인간의 도덕 판단 예측 알고리즘 연구 지원
OpenAI가 인간의 도덕적 판단을 예측하는 알고리즘 연구를 지원하고 있습니다. OpenAI의 비영리 조직인 OpenAI Inc.는 최근 미국 국세청(IRS)에 제출한 서류에서 Duke 대학 연구자들에게 'AI 도덕 연구'라는 프로젝트를 위한 지원금을 지급했다고 공개했습니다. 이는 OpenAI의 더 큰 연구 계획의 일환으로, 3년에 걸쳐 100만 달러가 Duke 대학교 교수들에게 제공된 것입니다. 이 연구에 관한 많은 상세 정보는 공개되지 않았으며, 본 연구는 2025년에 완료될 예정입니다.
연구 목표: 인간 도덕 판단 예측
프로젝트의 주요 연구자인 Duke 대학 실용 윤리학 교수 Walter Sinnott-Armstrong는 TechCrunch와의 이메일 인터뷰에서 이번 연구에 대해 구체적으로 언급하기 어렵다고 전했습니다. 이번 연구는 알고리즘을 통해 의학, 법률, 비즈니스 분야에서 도덕적으로 중요한 요소 간의 갈등 상황에서 인간의 도덕적 판단을 예측하는 것을 목표로 하고 있습니다. Sinnott-Armstrong와 공동 연구자인 Jana Borg는 AI가 인간의 더 나은 판단을 도울 수 있는 '도덕적 GPS'로서의 잠재력을 조사해왔습니다.
AI 윤리 문제와 도전 과제
AI가 이러한 복잡한 도덕 개념을 이해하는 것은 현재 기술로는 여전히 어려운 일입니다. 현대 AI 시스템은 통계적 기계 학습 모델로, 웹에서 수집한 많은 예제를 바탕으로 패턴을 학습해 예측합니다. AI는 윤리적 개념에 대한 이해가 부족하며, 도덕적 결정에 필요한 사고와 감정을 갖추고 있지 않습니다. 이로 인해 AI는 서구와 교육받은 산업화된 국가의 가치관을 주로 반영하며, 이러한 문화권 외의 가치는 충분히 반영하지 못하는 경우가 많습니다.
이처럼 AI가 도덕적 결정을 내리는 데 필요한 다양한 철학적 이론과 문화적 가치관의 문제 해결은 매우 높은 기준을 요구합니다. 이에 대해 OpenAI와 연구자들이 직면한 도전 과제는 도덕의 주관성이라는 본질적인 어려움입니다. 수천 년 동안 다양한 윤리 이론이 토론되어 왔으나 보편적으로 적용 가능한 도덕적 틀은 아직 확립되지 않았습니다. 결국 AI가 인간의 도덕적 판단을 예측하는 알고리즘을 개발하기 위해서는 이 모든 요소를 예민하고 균형 있게 고려해야 할 것입니다.
출처 : OpenAI is funding research into ‘AI morality’