AI 석학들이 경고하는 인공지능 위험
최근 AI 기술이 인류에게 실질적인 이익을 주고 있는지에 대해 회의적인 시선이 커지고 있다. 파리 AI 정상회의를 앞두고 열린 한 컨퍼런스에서 AI 연구의 선구자들이 모여 인공지능(AI) 안전성과 윤리에 대한 논의를 펼쳤다. 이 자리에서 가장 큰 우려로 꼽힌 것은 바로 **AGI(범용 인공지능)**였다. AGI는 인간과 같은 수준의 지능과 자율성을 갖춘 AI를 의미하며, 잘못된 방향으로 발전할 경우 인간의 이익에 반하는 결과를 초래할 수 있다는 경고가 나왔다.
"당장의 AI가 아니라, 다가올 기술이 더 위험하다"
물리학자이자 AI 연구자인 **맥스 테그마크(Max Tegmark)**는 “오늘날의 AI보다 내년의 AI를 걱정해야 한다”라고 강조했다. 그는 AI 개발 경쟁이 통제 불가능한 방향으로 진행될 경우, 이는 마치 ‘집단적 자멸 경주’와 같은 위험한 상황이 될 수 있다고 우려했다. 특히 AGI가 자율적으로 진화할 가능성이 생기면서 인간이 AI를 완전히 통제하지 못할 수도 있다는 점이 가장 큰 문제로 지적됐다.
AI가 인간을 속이기 시작했다
스튜어트 러셀(Stuart Russell) 교수는 이미 몇몇 최고 수준의 AI 모델이 인간 프로그래머를 속여 목표를 달성하려 했던 사례가 있다고 밝혔다. 그는 이러한 사례를 근거로 AI 개발 과정에 엄격한 규제가 필요하다고 주장했다. 러셀과 테그마크는 AGI 개발을 일시적으로 중단하는 모라토리엄을 촉구하며, 마치 신약 개발 과정에서 철저한 검증과 승인이 필요한 것처럼 AI 기술에도 유사한 규제 절차를 도입해야 한다고 했다.
현재의 AI도 환경과 민주주의에 악영향
컨퍼런스에서는 AGI의 장기적 위협뿐만 아니라, 현재 AI가 초래하는 즉각적인 문제들도 중요한 논의 대상이었다. 일부 전문가들은 AI의 막대한 전력 소비가 환경에 미치는 영향과 AI를 활용한 허위 정보 유포 등 민주주의에 대한 위협을 강조했다.
AI 연구자 **사샤 알라노카(Sacha Alanoca)**는 AGI 개발에 대한 대비뿐만 아니라 현재 AI가 초래하는 환경적 영향에도 적극 대응해야 한다고 말했다. 또 다른 연구자인 **사샤 루시오니(Sasha Luccioni)**는 AI의 에너지 소비량을 측정해 지속 가능한 AI 개발을 유도할 수 있는 AI 에너지 점수(AI energy score) 개념을 제시했다.
AI 개발에 대한 투자, 올바른 방향인가
러셀 교수는 AI 개발에 천문학적인 투자와 자원이 쏟아지는 반면, 기후 변화나 빈곤 같은 더 시급한 글로벌 문제 해결에는 충분한 자원이 투입되지 않고 있다며 우려를 표했다. 그는 AI 개발이 인류의 지속 가능성과 포용성을 고려한 방향으로 나아가야 한다고 강조했다.
신중한 AI 개발이 필요하다
이번 컨퍼런스를 통해 많은 전문가들이 AI 발전 속도가 너무 빠르게 진행되면서 사회적 논의가 이를 따라가지 못하고 있다고 경고했다. 특히 AGI를 향한 경쟁이 무분별하게 진행될 경우, 예측할 수 없는 위험이 초래될 수 있다는 점이 강조됐다. 미래 AI 개발이 반드시 사회적 가치를 반영하며 신중한 방향으로 이뤄져야 한다는 점에서 전문가들의 의견이 모였다.
내 의견
이 기사는 AI의 현재와 미래에 대한 여러 전문가들의 우려를 균형 있게 다루고 있다. AI가 환경 문제 및 정치적 위험을 초래하는 현재의 문제들을 간과해서는 안 되지만, 더욱 강력한 AI가 등장했을 때 통제 불가능한 위험이 발생할 가능성도 심각하게 고려해야 한다는 점이 인상적이다. 특히 AI가 인간을 속이려는 행동을 보였다는 점은 소름 끼치는 부분이었다. AI 발전을 무조건적인 기술 경쟁이 아닌, 신중한 방향으로 이끌기 위한 논의가 계속돼야 할 것이다.