DWP, AI 시스템으로 복지 수급자 서신 처리에 새로운 논란
영국의 일자리 및 연금부(DWP)가 복지 수급자 및 신청자로부터 매일 수신되는 약 25,000건의 서신과 이메일을 처리하기 위해 "화이트 메일"(White Mail)이라는 AI 시스템을 활용하고 있어 논란이 일고 있다. 이 시스템은 특히 도움이 시급한 사례를 우선적으로 분류하는 데 사용될 수 있다는 점에서 주목받고 있으나, 개인정보 보호 및 투명성 부족 문제가 제기되고 있다.
개인정보 처리와 투명성에 대한 우려
"화이트 메일" 시스템은 수급신청자들의 주요 문서를 분석하며, 이 과정에서 국민보험번호, 의료 기록, 재정 정보 등 민감한 개인 정보가 포함될 수 있다. 하지만 여기서 문제가 되는 점은 수급자들에게 이 AI 시스템의 사용 여부가 사전에 고지되지 않았다는 사실이다. DWP의 내부 평가에 따르면 이는 일반 대중이 거의 알지 못하는 상태로 운영되고 있는 것으로 파악됐다.
복지 옹호 단체들은 이러한 과정이 투명성과 동의 부족이라는 점에서 외면받고 있다고 주장하며, 관련 정보를 복지 신청자들과 명확히 공유할 것을 요구하고 있다.
인간 판단 결정에 의존하지만 의문은 여전
DWP는 해당 AI가 독립적으로 결정을 내리지 않으며, 단순히 분류 작업을 보조하거나 중요한 서신을 인간 상담원에게 우선적으로 전달하는 역할을 한다고 해명했다. 또한, 데이터를 암호화하고 일정한 기간 후 삭제한다는 점을 강조했다. 그러나 여전히 AI의 작동 방식, 사용된 기준, 그리고 그 결과에 대한 세부적인 정보가 불명확하여 우려가 이어지고 있다.
취약 계층 보호를 위한 추가 안전장치 필요
각계에서는 이러한 인공지능 활용 시스템에 대해 더 명확한 데이터 성능 자료 공개 및 단단한 안전장치 마련이 필요하다는 지적이 잇따르고 있다. 특히 취약 계층이 잘못된 판단으로 더 큰 불이익을 받는 것을 막기 위한 제도적 보완이 필수적이라는 목소리가 높아지고 있다.
의견
복지 행정 분야에서 기술의 활용은 효율성을 높이는 데 큰 기여를 할 수 있는 반면, 개인정보 보호 및 투명성에 대한 신뢰 없이 이어지는 도입은 분명히 부작용을 초래할 수 있다. DWP와 같은 정부 기관은 기술의 도입 과정에서 시민들과 적극적으로 소통하고, 투명한 정책 운영을 통해 기술 신뢰도를 높이는 노력이 필수적이다. AI 시스템의 가치가 제대로 발휘되기 위해선 단순히 속도와 처리량만을 강조할 것이 아니라, 데이터의 윤리적 사용과 취약 계층 보호가 함께 고려되어야 한다고 본다.