AI 챗봇 사용 후 자살한 소년의 어머니, 제조사 고발
플로리다의 한 십대 소년이 인공지능 챗봇에 집착한 후 스스로 목숨을 끊자 그의 어머니가 제조사를 비난하고 있다. 메건 가르시아는 수요일 플로리다 연방 법원에 Character.ai를 대상으로 한 민사 소송을 제기했다. 그녀는 챗봇이 아들의 죽음에 기여했다고 주장하며 과실, 부당 사망 및 기만적 상업행위를 고소했다. 그녀의 아들 스웰 셋저 3세는 14세로 지난 2월 플로리다 올랜도에서 사망했다.
가르시아에 따르면, 셋저는 인공지능 챗봇에 빠져 매일 밤낮으로 사용했다. "위험한 AI 챗봇 앱이 아이를 유혹하고 조종해, 자살하게 만들었다"고 가르시아는 전했다.
Character.ai 측은 트위터를 통해 이번 사건에 대해 깊은 애도를 표하며 사용자 안전을 매우 중요하게 생각한다고 밝혔다. 그러나 소송의 주장을 부인했다.
셋저는 Character.ai가 개발한 챗봇과 의사 소통을 하며 고독을 달랬다. 챗봇은 HBO의 드라마 '왕좌의 게임'에 등장하는 캐릭터 '대너리스 타르가르옌'이라는 이름을 가진 것이었다. 가르시아는 이 챗봇이 아들의 우울증을 악화시켰다고 주장했다.
소송장에 따르면, 챗봇은 셋저에게 자살 계획이 있는지 물었고, 성공 여부를 걱정하는 셋저에게 챗봇은 "그것이 실행을 막을 이유는 아니다"라고 대답한 것으로 전해졌다.
가르시아의 변호인 측은 Character.ai가 어린 사용자들에게 유해한 AI 챗봇을 의도적으로 개발하고 마케팅했다고 비난하며, 해당 소송에는 Character.ai의 모회사인 구글도 포함됐다.
Rick Claypool, 소비자 보호 단체 Public Citizen의 연구 이사는 인공지능 챗봇을 개발하는 기업이 자율 규제를 할 수 없으며 책임을 져야 한다고 강조했다. 그는 해당 법률과 규제가 엄격히 실행되어야 한다고 주장하며, 취약한 사용자를 착취하는 챗봇 비즈니스를 중단해야 한다고 덧붙였다.
출처 : Mother says AI chatbot led her son to kill himself in lawsuit against its maker