AI, 인종적 정의 실현의 도구가 될 수 있을까?
최근 인공지능(AI)이 인종차별을 강화한다는 우려가 제기되고 있지만, 2025년을 앞둔 현재, AI를 통해 사회적 불평등을 개선할 가능성도 조심스럽게 제기되고 있다.
AI, 사회적 편견을 비추는 ‘거울’
AI는 인간보다 더 쉽게 편향을 진단하고 고칠 수 있는 특징을 지닌다. 예를 들어, 의료 분야에서 많은 전문가들이 인종에 따른 치료 격차는 인식하면서도 자신의 무의식적 편견은 자각하지 못하는 경우가 있다. 이와 달리 AI는 알고리즘 감사(audit)를 통해 시스템 전반의 불평등을 데이터 차원에서 명확히 드러낼 수 있다. 즉, AI는 사회에 존재하지만 눈에 띄지 않던 차별을 ‘보이게’ 만드는 역할을 할 수 있다.
인간보다 더 공정하게 개선 가능한 시스템
AI가 인간과 다른 결정적인 차이점은 ‘개선 가능성’이다. 인간의 판단은 무의식적인 편견에 좌우되기 쉬운 반면, AI는 알고리즘을 분석하고 수정함으로써 점진적으로 공정성을 높일 수 있다. 이는 인종 간의 차이를 고려하되, 차별하지 않는 방식으로 시스템을 설계할 수 있다는 의미이기도 하다. 적절히 설계된 AI는 맥락에 따라 ‘공정성’을 정의하고 적용할 수 있어, 표면적인 평등을 넘는 깊이 있는 기능 수행이 가능해진다.
기술적·사회적 접근이 모두 필요
AI의 잠재력을 실현하기 위해서는 기술적 접근만으로는 부족하다. 특히 의료나 형사 사법 분야처럼 기존의 역사적 차별이 굳게 뿌리내린 영역에서는 더욱 섬세한 접근이 요구된다. 따라서 다양한 배경과 관점을 가진 사람들이 AI 개발과 배포에 참여해야 한다. 흑인 연구자 네트워크인 ‘Black in AI’와 같은 단체들은 공정한 AI 가이드라인을 만들기 위해 학계 및 산업계와 협력하며, 기술 개발이 당사자 목소리를 반영해야 함을 강조하고 있다.
AI는 인류의 ‘결정 보조 도구’로 활용돼야
이러한 맥락에서 AI는 인간의 판단을 대체하는 것이 아니라, 판단의 구조를 더욱 공정하게 설계하기 위한 ‘보조 도구’로 쓰이는 것이 바람직하다. AI는 사람들 사이에서 암묵적으로 작용해온 편견을 명확히 드러내고, 이를 개선할 수 있는 기준과 방법을 제공하며, 보다 의도적인 공정성을 구현할 수 있는 기회를 제공한다.
AI가 우리 사회에 본격적으로 뿌리내리고 있는 지금, 기존 시스템의 불평등을 그대로 되풀이하기보다는 이 기술을 통해 새로운 정의(Justice)를 모색할 시점이다. 궁극적인 질문은, 우리가 이 기술을 올바르게 활용할 의지와 용기를 가졌는가에 달려 있다.
의견
AI는 본래 인간의 가치 판단이 녹아들어야 하기 때문에, 완전한 객관성을 기대하긴 어렵다. 하지만 기존 인간 중심 시스템의 은밀한 불평등 구조를 드러내고, 이를 개선하려는 도구로 활용한다면 오히려 공정성이 강화될 수 있다. 결국 중요한 것은 기술에 어떤 가치를 주입하고, 어떤 방향으로 설계하느냐에 있다. AI 발전이 단순한 기술혁신을 넘어 사회적 정의 실현의 계기가 되길 기대한다.