상단여백
HOME 임베디드 컴퓨팅 포토
엔비디아, 실시간 렌더링 기술 ‘AI 인터랙티브 그래픽’ 공개

[IT비즈뉴스 최태우 기자] 엔비디아가 실제 촬영된 영상 데이터로 학습한 인공지능(AI)이 실제-가상현실 간 상호반응(interactive)이 가능한 실시간 3D 렌더링 기술(AI Interactive Graphics)을 공개했다. 

순수 그래픽 기반의 3D 렌더링 보다 실제 데이터 기반으로 실시간 자동 렌더링이 가능한 기술로 자율차, 시뮬레이션, 게임·콘텐츠와 같은 다양한 산업군에 적용가능할 것으로 보여 주목된다.

엔비디아 연구진이 공개한 ‘AI 인터랙티브 그래픽(AI Interactive Graphics)’ 합성기술은 건물이나 나무, 차량과 같은 사물의 렌더링을 위해 실제 촬영된 영상에서 자동으로 학습된 모델을 사용했다.

그간 연구원들은 3D 환경을 실시간으로 렌더링하기 위해서 신경망을 사용해왔다. 모든 객체는 개별 모델링이 필요하며 많은 비용과 시간이 소모됐다.

엔비디아는 3일(미국시간) 엔비디아 공식 유튜브채널에 관련 연구내용이 담긴 영상을 공개했다. 영상에서는 참가자들이 도시 장면을 탐색하는 간단한 운전 게임 영상도 포함됐다. 모든 콘텐츠는 그래픽엔진에서 생성된 3D 스케치를 영상으로 변환하는 신경망을 통해 실시간으로 렌더링 된다.

연구진은 다른 도시에서 촬영된 다양한 주행영상 데이터에서 수준별로 분류했다. 높은 수준의 레이아웃 데이터로 구성된 렌더링 화면에서 오브젝트를 각각 다른 색으로 인식, 구분하는 UE4엔진이 사용됐다.

모든 콘텐츠는 그래픽엔진에서 생성된 3D 스케치를 영상으로 변환하는 신경망을 통해 실시간으로 렌더링 된다.

일일이 렌더링하는 기존 엔진과 달리 실제 영상 데이터를 기반으로 상호작용하는 장면을 생성하거나 다른 사람이 춤추는 동영상에 객체를 대입시켜 전혀 다른 사람이 같은 춤을 추게 만들 수도 있다.

이번 연구에는 cuDNN-파이토치(PyTorch) 심층학습 프레임워크, 아폴로스케이프(Apolloscapes)의 고화질 이미지 데이터 세트, 주행영상이 기록된 다량의 비디오 데이터와 테슬라 V100 GPU 기반의 HPC(DGX-1)가 사용됐다.

브라이언 카탄자로(Bryan Catanzaro) 엔비디아 응용 딥 러닝 연구소 부사장은 “25년 간 엔비디아는 상호반응형 그래픽 기술 방법을 고안해 왔으나 신경망을 활용한 건 이번이 처음”이라며 “신경망, 즉 생성적 모델은 그래픽이 생성되는 방식을 변화시킬 것이다. 개발자는 이를 통해 기존에 들이던 비용의 일부만으로 새로운 장면을 만들어 낼 수 있다”고 설명했다.

엔비디아가 개발한 인터랙티브 AI 그래픽 기술은 캐니다 몬트리올에서 12월2일(현지시간)부터 8일까지 개최되는 ‘신경정보처리시스템학회(Neural Information Processing Systems, NeurlPS) 2018’ 컨퍼런스 현장에서 데모시연할 예정이다.

최태우 기자  taewoo@itbiznews.com

<저작권자 © IT비즈뉴스-아이티비즈뉴스, 무단 전재 및 재배포 금지>

최태우 기자의 다른기사 보기
icon인기기사
여백
여백
Back to Top