AI 개방성과 보안, 투명성 확보가 핵심 과제로 떠오르다
AI 산업에서 '개방성'의 의미에 대한 논쟁이 점점 심화되고 있다. 오픈소스 보안 기업인 엔도어 랩스(Endor Labs)의 전문가들은 AI 시스템의 보안과 투명성을 높이기 위한 방안을 제시했다.
AI 보안을 위한 소프트웨어 투명성 적용
앤드류 스티펠(Andrew Stiefel) 엔도어 랩스 수석 제품 마케팅 매니저는 기존 소프트웨어 보안 방식을 AI 시스템에도 적용해야 한다고 강조했다. 그는 2021년 미국 정부가 연방 기관에 판매되는 소프트웨어에 대해 '소프트웨어 자재 명세서(SBOM, Software Bill of Materials)' 제출을 의무화한 사례를 언급했다. SBOM은 제품에 포함된 오픈소스 구성 요소를 목록화하여 보안 취약점을 파악하는 데 도움을 준다. 그는 AI 시스템에서도 이런 투명한 관리가 필요하다고 주장했다.
스티펠은 AI 모델의 데이터셋, 학습 과정, 가중치(weight) 등을 투명하게 공개하면 보안이 향상될 뿐만 아니라 모델 자체에 대한 가시성이 커진다고 설명했다.
AI 개방성의 정의, 불분명함이 논란으로
줄리앙 소비에(Julien Sobrier) 엔도어 랩스 제품 관리자 역시 AI 투명성과 개방성에 대한 논의의 중요성을 강조했다. 그는 AI 모델이 학습 데이터, 가중치, 프로그램 등 여러 요소로 이루어져 있으며, 이를 모두 오픈소스로 제공해야 '진정한 개방형(Open)' 모델의 조건을 충족한다고 주장했다. 하지만 주요 AI 기업들이 이 개념을 일관되지 않게 적용하는 바람에 혼란이 가중되고 있다고 지적했다.
특히 그는 '개방성' 논란이 OpenAI에서 시작됐으며, 최근에는 메타(Meta)의 LLAMA 모델도 이에 대한 비판을 받고 있다고 언급했다. 일부 기업들은 '오픈 모델'이라는 용어를 사용하면서도 실질적 제약을 두는 'Open-Washing' 현상을 보이고 있어, AI 모델의 개방성을 정의하는 공통 기준이 필요하다고 강조했다.
오픈소스 프로젝트와 상업화 압박
소비에는 클라우드 서비스 업체들이 오픈소스 프로젝트를 기반으로 유료 서비스를 제공하면서도 해당 프로젝트에 기여하지 않는 사례가 늘고 있다고 언급했다. 이로 인해 오픈소스 프로젝트들이 상업적 사용을 제한하는 경우가 증가하고 있으며, 메타를 포함한 오픈소스 AI 모델 제공업체들도 경쟁력을 유지하기 위해 이와 유사한 조치를 취할 가능성이 있다고 경고했다.
DeepSeek의 투명성 확보 노력
AI 업계에서 떠오르는 기업인 DeepSeek은 투명성 논란을 해결하기 위해 일부 모델과 코드를 오픈소스로 공개했다. 모델과 가중치를 공개함으로써 자사 서비스 운영 방식과 모델의 세부 조정 과정에 대한 가시성을 높이고 있다. 이에 대해 스티펠은 커뮤니티가 보안 리스크를 감사할 수 있도록 돕는 긍정적인 변화라고 평가했다.
DeepSeek은 또한 Docker, Kubernetes 등의 도구를 활용한 설정을 공개함으로써 스타트업과 개인 개발자들이 유사한 AI 시스템을 구축할 수 있도록 지원하고 있다.
오픈소스 AI 모델 활용 증가
시장조사 기관 IDC의 보고서에 따르면, 전체 기업의 60%가 상용 솔루션보다 오픈소스 AI 모델을 선호하는 것으로 나타났다. 또한 엔도어 랩스의 조사에 따르면, 기업들은 평균적으로 한 개의 애플리케이션에서 7~21개의 오픈소스 AI 모델을 사용하는 것으로 확인됐다. 이는 오픈소스 AI 모델 커뮤니티가 빠르게 성장하고 있음을 보여준다.
AI 모델의 법적·보안적 리스크 평가 필수
소비에는 오픈소스 AI 모델을 채택하는 기업들이 해당 모델의 의존성을 분석하고 법적 문제나 보안 리스크를 점검해야 한다고 지적했다. 그는 운영 및 공급망 리스크까지 고려해야 한다며, 이를 간과할 경우 예상치 못한 보안 위협이 발생할 수 있다고 경고했다.
AI 리스크 관리 위한 3단계 접근법
AI의 오픈소스 활용이 증가함에 따라 리스크 관리의 중요성이 커지고 있다. 스티펠은 이에 대한 체계적인 접근법을 설명하며 세 가지 핵심 단계를 제안했다:
- 발견(Discovery): 기업이 현재 사용하고 있는 AI 모델을 식별
- 평가(Evaluation): 보안 및 운영 리스크를 포함한 잠재적 위험 검토
- 대응(Response): 안전한 모델 사용을 보장하기 위한 보호 장치 설정 및 적용
그는 혁신과 리스크 관리 사이에서 균형을 유지하고, 보안팀이 모델의 상태를 명확하게 파악할 수 있도록 하는 것이 중요하다고 덧붙였다.
안전한 AI 개발 위한 모범 사례 필요
소비에는 AI 모델 개발과 활용 시 안전성을 확보할 수 있는 모범 사례(Best Practices)를 마련해야 한다고 주장했다. 보안, 품질, 운영 리스크, 개방성 등을 종합적으로 평가할 수 있는 표준화된 평가 방법이 필요하다는 것이다.
오픈소스 AI의 책임 있는 발전을 위해서는 SaaS 모델, API 통합, 오픈소스 모델 등 다양한 방식에 걸쳐 통제력을 갖춰야 한다고 그는 덧붙였다. AI 기술이 빠르게 발전하는 상황에서 보안 문제를 간과하는 것은 위험하며, 업계 전체가 협력하여 안전한 AI 환경을 조성해야 한다고 강조했다.
스티펠 역시 보안을 다각적으로 고려해야 하며, AI 모델을 안전하게 관리하기 위한 실질적인 통제책을 도입해야 한다고 결론지었다.
기자의 시각
AI 기술이 빠르게 발전하고 있는 만큼, ‘개방성’과 ‘보안’의 균형을 맞추는 것이 중요한 과제가 되고 있다. 특히 주요 AI 기업들이 ‘오픈소스’라는 개념을 자사에 유리한 방향으로 해석하는 경향이 있어, 이에 대한 명확한 기준 마련이 필요해 보인다.
오픈소스 모델의 확산이 기업들에게 긍정적인 기회를 제공하는 것은 분명하지만, 합법성과 보안성을 고려하지 않을 경우 큰 리스크를 초래할 수 있다. 따라서 투명한 관리 체계를 확립하고, 업계 차원의 모범 사례를 구축하는 것이 AI 기술이 안전하게 발전할 수 있는 기반이 될 것으로 보인다.