공간·사람 3D로 인식하는 ‘더스터2’와 3D 바디모델 ‘애니’ 공개

네이버랩스 유럽 마틴 휴멘버거 연구소장 [사진=네이버랩스]
네이버랩스 유럽 마틴 휴멘버거 연구소장 [사진=네이버랩스]

네이버랩스 유럽이 이달 20일(현지시간)부터 21일까지 양일 간 제4회 ‘AI for Robotics’ 워크샵을 개최했다고 24일 밝혔다.

2019년부터 2년마다 개최되는 이 워크샵은 전세계 로보틱스 및 인공지능(AI) 분야 연구자와 전문가들이 모여 로봇이 사람처럼 세상을 이해하고 상호작용하기 위한 AI기술의 현재와 미래를 논의하는 자리로 마련됐다.

‘공간지능(Spatial AI)’을 주제로 열린 올해 워크샵은 공간지능 개념을 처음 제안한 임페리얼 칼리지 런던의 앤드류 데이비슨 교수를 포함해 150여명의 연구자가 참석해 공간지능이 로봇의 인지·판단·행동 능력을 어떻게 고도화할 수 있는지에 대한 최신 연구를 공유했다.

공간지능은 물리적 공간을 입체적으로 파악하는 것을 넘어 사물이나 사람의 위치, 움직임, 관계 등을 바탕으로 현실 세계의 맥락까지 이해하는 AI기술이다. 이 기술을 기반으로 로봇은 3D 환경을 실시간으로 모델링하며 다양한 상황에서 더 적절한 판단과 행동을 수행할 수 있다.

네이버랩스 유럽 마틴 휴멘버거 연구소장은 네이버랩스의 공간지능 연구 방향을 소개하며 “새로운 파운데이션 모델 개발과 기존 모델의 개선·통합을 통해 비전문가도 실제 환경에서 손쉽게 활용할 수 있는 공간지능 기반을 구축해 나가고 있다”고 설명했다.

네이버랩스 이동환 리더는 물리공간과 가상공간을 연결하는 네이버랩스의 공간지능 기술들이 로봇과 AR/VR, 스마트시티 등 실제 서비스 영역으로 확장되는 사례와 향후 비전을 공유했다.

네이버랩스는 이번 워크샵에서 로봇의 공간 및 사람 이해 능력을 한층 확장하는 AI 모델 ‘더스터2(DUSt3R-2)’와 ‘애니(ANNY)’를 소개했다.

2023년 12월 최초 공개된 더스터(DUSt3R)는 한 장의 사진만으로 공간을 3D로 재구성하는 3D 비전 모델이다. 이를 로봇에 적용하면 사전에 제작된 지도 없이도 로봇이 새로운 공간을 빠르게 입체적으로 이해할 수 있다. 

이번에 소개된 차세대 모델 ‘더스터2’는 다양한 파생 연구를 통합하고 상용화를 고려한 버전이다.

3D 바디 모델인 애니(ANNY)는 다양한 파라미터로 사람의 신체를 세밀하게 표현할 수 있는 모델로 인체 계측 데이터와 WHO 인구 통계를 활용해 개인정보 침해 없이 아이부터 노인까지 전 세계 다양한 인체 특성을 반영한 것이 특징이다. 이 모델은 이달 6일 오픈소스로 공개됐다.

프랑스 그르노블에 위치한 네이버랩스 유럽은 전세계 26개국 연구자들과 함께 공간지능을 연구하고 있다.

2021년부터는 로봇의 범용성을 확장하는 핵심 기술로 파운데이션 모델에 집중해 로보틱스의 주요 축인 비전(Vision)과 액션(Action), 인터랙션(Interaction) 프로젝트를 모두 파운데이션 모델 중심으로 전환했다. 현재 로봇이 세상을 이해하기 위한 다양한 파운데이션 모델을 하나로 통합한 ‘범용 파운데이션 모델’을 연구 중이다. 

네이버랩스 이동환 리더는 “네이버랩스는 2016년부터 공간지능과 물리지능(피지컬AI) 연구에 집중해 왔으며 1784를 비롯한 국내외 테스트베드에서 기술을 실증하고 실제 서비스에 적용해온 전례 없는 경험을 축적하고 있다”며 “글로벌 무대에서 연구 성과를 공유해 생태계를 확장하는 한편 로봇을 위한 AI 연구개발에 집중할 것”이라고 말했다.

관련기사

저작권자 © ITBizNews 무단전재 및 재배포 금지