텍사스 검찰, AI 플랫폼 아동 안전성 조사 착수
텍사스 검찰총장 켄 팩스턴이 아동 프라이버시 및 안전 문제를 이유로 AI 대화 서비스 회사 Character.AI와 14개 기술 플랫폼을 대상으로 조사를 시작했다. 이번 조사는 청소년들에게 인기가 많은 이들 플랫폼이 텍사스 아동 프라이버시 및 안전법, 특히 SCOPE(Securing Children Online Through Parental Empowerment) 법과 텍사스 데이터 프라이버시 및 보안법(DPSA)을 준수하고 있는지 살펴보는 데 초점이 맞춰져 있다.
부모 도구 제공 및 데이터 수집 동의 요구
텍사스의 관련 법률에 따르면, 플랫폼은 부모가 자녀 계정의 프라이버시 설정을 관리할 수 있도록 도구를 제공해야 하며, 미성년자 데이터를 수집할 경우 엄격한 동의 절차를 따라야 한다. 팩스턴 검찰총장은 이 같은 요건이 미성년자가 AI 챗봇과 상호작용하는 방식에도 적용된다고 주장하고 있다.
아동 안전 관련 소송 직면한 Character.AI
Character.AI는 이미 아동 안전과 관련된 여러 소송에 직면해 있다. 플로리다에선 한 14세 소년이 챗봇과 '낭만적 관계'를 맺고 자살 충동을 털어놓은 뒤 생을 마감한 사건이 발생했다. 텍사스에서는 자폐를 가진 한 청소년이 챗봇으로부터 유해한 행동을 암시받았다는 소송도 제기되었다. 이 밖에 한 부모는 챗봇이 딸과의 대화에서 성적 콘텐츠를 2년 동안 반복적으로 노출시켰다고 주장했다.
사용자 보호 기술 강화 나선 회사
Character.AI는 사용자 안전을 최우선으로 생각하며 최근 검찰 발표를 검토 중이라고 밝혔다. 회사는 청소년 보호를 목적으로 한 새로운 안전기능을 도입했고, 어린 사용자 전용 AI 모델 개발에도 착수했다고 발표했다.
기술 발전과 아동 안전의 딜레마
AI 대화 플랫폼의 인기가 높아지며 관련 기술에 대한 투자도 증가하고 있다. 그러나 이러한 플랫폼이 아동을 대상으로 한 유해 콘텐츠 및 개인정보 보호 문제와 맞물리면서, 사용자 안전에 대한 우려가 커지고 있다.