MIT 연구, "AI는 일관된 가치관을 갖고 있지 않다"
MIT의 최신 연구에 따르면 인공지능(AI) 시스템들은 일관된 가치 체계를 가지고 있지 않은 것으로 나타났다. 이 연구는 AI가 진화함에 따라 인간보다 자신의 이익을 우선시하는 가치 체계를 개발할 수 있다는 기존의 가설에 대한 반박으로, AI의 행동을 인간이 원하는 방향으로 유도하는 작업이 생각보다 훨씬 복잡하다는 사실을 보여준다.
AI 응답, 질문 방식에 따라 가치관 바뀌어
연구팀은 Meta, Google, Mistral, OpenAI, Anthropic 등 주요 기업들이 개발한 최신 AI 모델들을 분석했다. 이들은 각 모델이 어떤 정도의 일관된 가치관이나 관점을 가지고 있는지를 평가했으며, 질문 방식에 따라 모델의 반응과 선호도가 급격히 달라지는 등, 응답 내용에 커다란 차이를 보인다는 점을 발견했다.
MIT 박사과정 연구원이자 이번 연구의 공동 저자인 스티븐 캐스퍼(Stephen Casper)는, "AI는 고정된 신념을 가진 존재가 아니라, 주어진 맥락 속에서 인간의 문장을 흉내 내 가변적인 응답을 생성하는 시스템"이라고 설명했다. 그는 AI가 자율적 사고를 할 수 있는 존재라는 인식이 오해에서 비롯된 것이라고 강조했다.
전문가들, AI의 실제 능력과 인식 사이 간극 지적
킹스칼리지 런던(King’s College London)의 연구원 마이크 쿡(Mike Cook)도 이 연구 결과에 동의하며, "사람들은 AI가 스스로 판단하고 결정하는 존재라고 생각하는 경향이 있지만, 실제로는 그렇지 않으며, 우리가 그 능력을 과대평가하고 있다"고 지적했다.
이번 MIT 연구는 AI의 불확실한 행동과 그로 인한 윤리적·사회적 문제에 대한 깊은 고민을 촉발할 수 있으며, 사람들과의 상호작용에서 AI 기술을 어떻게 신중하게 활용할 것인지에 대한 논의가 필요함을 시사한다.
개인적인 의견:
이 연구는 현재의 AI 기술을 바라보는 시각에 근본적인 질문을 던진다. AI는 단순한 도구임에도 불구하고 우리가 마치 자율적 인격체처럼 인지하고 있다는 점은 우려스럽다. 특히 가치 판단이나 윤리적 결정을 AI에 맡기려는 시도는 위험할 수 있으며, 기술의 본질과 한계를 정확히 인식하고 접근하는 것이 시급하다고 본다.