MIT는 이번 주 새로운 로봇 훈련 모델을 공개했습니다. 기존의 특정 데이터 세트를 사용하는 대신, 대량의 정보로 거대한 언어 모델(LLMs)을 훈련하는 방식을 채택했습니다. 연구진은 로봇이 작은 도전과제를 맞닥뜨렸을 때, 이를 적절히 극복하지 못하는 경우가 많으며 이는 충분한 데이터가 부족하기 때문이라고 밝혔습니다.
새로운 접근 방식 필요성 제기
로봇 연구진은 GPT-4 같은 모델에서 문제 해결의 새로운 접근 방식을 찾았습니다. 이들은 다양한 감지기와 환경에서 정보를 모으는 새로운 구조를 개발했습니다. 이 구조는 이질적인 데이터를 한데 모으기 위한 이종 사전학습 변환기(HPT)를 소개했습니다. 이러한 데이터는 변환기를 통해 훈련 모델로 통합됩니다. 변환기가 크면 클수록 더 나은 결과를 얻을 수 있습니다.
보편적인 로봇 지능을 향한 꿈
사용자는 로봇의 설계, 구성, 수행할 작업을 입력합니다. "우리는 훈련 없이도 로봇에 다운로드할 수 있는 보편적인 로봇 지능을 만드는 것이 꿈입니다"라고 CMU의 데이비드 헬드 교수가 말했습니다. 그는 초기 단계에 있지만, 발전을 위해 지속적으로 노력할 것이라고 덧붙였습니다. 이 연구는 대규모 언어 모델처럼 로봇 정책에서도 돌파구가 있기를 기대합니다.
출처 : MIT debuts a large language model-inspired method for teaching robots new skills