중국, AI 기반 검열 시스템 개발…민감한 온라인 정보 차단 강화
중국 정부가 최근 개발한 인공지능(AI) 시스템을 통해 온라인 검열을 한층 정교하게 강화하고 있는 것으로 알려졌다. 외부에 유출된 데이터베이스에 따르면, 이 AI 시스템은 민감한 콘텐츠를 자동으로 식별하고 차단하기 위한 목적으로 개발됐으며, 총 13만3천개의 검열 사례가 포함되어 있는 것으로 나타났다.
빈곤·부패부터 정치풍자까지…광범위한 검열 대상
AI가 감지한 콘텐츠에는 빈곤 문제 및 부패한 공직자에 대한 비판, 정부 정책에 대한 불만 등 다양한 사례가 포함돼 있다. 기존의 전통적인 검열 방식보다 훨씬 폭넓은 주제를 감지할 수 있는 대형 언어모델(LLM)이 적용되어, 더 세밀한 정보 통제가 가능해졌다는 분석이 나온다.
해당 시스템은 정치, 사회 문제뿐만 아니라 식품 안전, 노동 분쟁, 군사 관련 내용 등까지 폭넓게 감시한다. 특히, 오염 문제, 금융 사기, 정치 풍자, 중국 공산당 및 대만 관련 논의는 우선적으로 검열 대상으로 분류됐다.
AI, 권위주의 강화 수단으로 활용
유출된 데이터는 2024년 12월까지의 최신 기록을 포함하고 있으며, 보안이 적용되지 않은 엘라스틱서치(Elasticsearch) 데이터베이스에서 발견되었다. 연구자들에 따르면, 이번에 발견된 기술은 단순한 자동 필터링을 넘어, 보다 정치적으로 민감한 풍경까지 식별해 제어할 수 있는 수준으로 발전했다고 평가된다.
이는 중국 정부가 자국 내 정보 흐름을 철저히 관리하고, 공산당이 제시하는 서사를 유지하기 위한 의도로 해석된다. AI 기술이 발전함에 따라 권위주의 정권들이 이를 활용해 여론 형성을 억제하고 비판적인 시각을 차단하는 방식이 점차 고도화되고 있다는 우려도 함께 제기된다.
내 의견: 이번 사례는 AI 기술이 정치적 목적으로 어떻게 활용될 수 있는지를 단적으로 보여주는 예다. 특히 표현의 자유를 제한하는 방식으로 기술이 활용된다면, 그 피해는 사회 전체로 확산될 수 있다. 기술 발전의 방향이 투명성과 자유를 증진하는 쪽으로 나아가야 함은 물론, 이런 기술의 악용을 견제할 수 있는 국제적 논의와 감시가 병행될 필요가 있다.