메타, 콘텐츠 관리 정책 대폭 변경
사용자 참여 증대, 검증 과정 축소로 논란
메타(Meta)가 콘텐츠 관리 정책에 큰 변화를 예고했다. 이번 변화는 사실 확인(fact-checking) 의존도를 줄이고, 콘텐츠에 대한 제한을 완화하는 것을 주요 골자로 한다. 이는 이전부터 이어져 온 관리 방침 개선 요구에 대한 대응으로 보이지만, 일각에선 우려의 목소리가 높다.
사용자 비하 발언 허용 및 정치 콘텐츠 증대
어떤 문제점이 따를 수 있을까?
새로운 지침에 따르면 사용자들은 타인의 성 정체성이나 성적 지향에 기반해 정신 건강을 공격하는 발언을 게시할 수 있게 된다. 또한, 정치 콘텐츠의 노출도 사용자의 선호에 맞게 강화되며, 이는 기존의 '메아리 방' 현상(같은 생각만 반복적으로 노출되는 환경)을 심화시킬 가능성이 크다.
메타의 CEO 마크 저커버그는 이 같은 변화로 인해 "더 많은 부적절한 콘텐츠를 잡아내지 못할 것"이라며 관리 효율성이 감소할 것을 인정했다. 내부 문건을 통해서도 플랫폼이 잘못된 정보와 분열적인 콘텐츠 확산에 우호적 메커니즘을 가지고 있음이 드러난 바 있다.
글로벌 문제로 번지는 우려
증가할 수 있는 취약 계층에 대한 위협
메타의 이러한 변화는 특히 자사의 플랫폼이 막대한 영향력을 행사하는 국가들에서 더 큰 부작용을 초래할 수 있다는 우려가 있다. 미얀마에서는 로힝야 집단에 대한 폭력을 조장했다는 비판을 받았고, 인도에서는 반(反)무슬림 정서를 완화하지 못했다는 지적을 받아왔다.
이번 정책 변경은 문제를 더욱 악화시킬 가능성을 내포하고 있다. 특히 혐오 표현과 잘못된 정보로 인한 사회적 위험이 이미 높은 곳에서는 피해가 취약 계층으로 집중될 가능성이 크다. 전·현직 직원들과 국제적인 관찰자들은 이러한 정책 변화가 공공의 안전을 심각하게 위협할 수 있다고 경고하고 있다.
의견
메타의 콘텐츠 관리 정책 변화는 사용자 참여를 늘리기 위해 다양한 문제를 감수한 결정으로 보인다. 그러나 플랫폼의 방치로 인해 발생할 수 있는 사회적 해악에 대한 책임을 회피하려는 모습도 엿보인다. 특히 글로벌 영향력이 큰 기업으로서, 사회적 균열을 심화시키는 위험성을 감수하는 결정은 비판받아 마땅하다.
메타는 단순히 수익성만을 고려하지 말고, 플랫폼의 사회적 책임을 보다 신중히 고민해야 할 시점이다.