엔비디아 테슬라 V100 GPU 탑재, 전세대비 14배 성능 확장

[IT비즈뉴스 최태우 기자] 아마존웹서비스(AWS)가 차세대 아마존 EC2 GPU 인스턴스, P3 인스턴스를 공개했다. P3 인스턴스는 머신 러닝, 전산 유체 역학, 전산 금융, 지진파 분석, 분자 모델링, 유전체학 및 자율주행차 시스템 등과 같이 뛰어난 병렬적 부동 소수점 연산 성능을 요하는 연산 집약적 애플리케이션을 위해 설계됐다.

엔비디아 테슬라 V100 GPU가 내장된 P3 인스턴스는 현재 클라우드에서 사용 가능한 GPU 인스턴스 중 최강의 성능을 자랑한다. 이전 세대의 아마존 EC2 GPU 컴퓨팅 인스턴스보다 최대 14배 우수한 성능을 제공하며 고급 애플리케이션을 구축-배포할 수 있다.

최대 8개의 엔비디아 테슬라 V100 GPU가 내장된 P3 인스턴스는 1페타플롭의 혼합 정밀도(mixed-precision), 125테라플롭의 단일 정밀도(single-precision), 62테라플롭의 부동 소수점 배정밀도(double-precision) 성능을 제공한다.

엔비디아의 제2세대 NV링크 인터커넥트(NVLink interconnect)는 용량이 300GB/s이며 GPU간 고속, 로우 레이턴시(low-latency) 통신을 지원한다. P3 인스턴스는 맞춤형 인텔 제온 E5 프로세서(브로드웰)와 488GB D램을 바탕으로 최대 64개의 vCPU를 갖추고 있으며 ENA(Elastic Network Adapter)를 통해 25 Gbps 전용 네트워크 대역폭을 제공한다.

현재 AMI(AWS Deep Learning Machine Images)는 AWS 마켓플레이스에서 제공되고 있으며 작업을 시작하는 데 단 몇 분이면 충분하다. 딥 러닝 AMI에는 테슬라 V100 GPU를 지원하는 최신 아파치 MXNet(Apache MXNet)과 카페2(Caffe2), 텐서플로(TensorFlow)가 설치돼 있다.

사용자들은 엔디비아 GPU 클라우드의 딥 러닝 프레임워크 컨테이너를 통합하는 엔디비아 볼타 딥 러닝 AMI를 사용하거나 아마존 리눅스(Amazon Linux), 우분투 16.04(Ubuntu 16.04), 윈도 서버 2012 R2(Windows Server 2012 R2)나 윈도 서버 2016(Windows Server 2016)을 통해 AMI 작업을 시작할 수 있다.

매트 가먼(Matt Garman) AWS EC2 부문 부사장은 “P2 인스턴스에 비해 최대 14배 우수한 성능을 갖춘 P3 인스턴스는 머신 러닝 모델 학습에 소요되는 시간을 대폭 단축해 준다. 이를 통해 개발자들은 신속하게 실험할 수 있게 되며 온프레미스 GPU 클러스터에 많은 자본을 투자하지 않고도 머신 러닝을 최적화할 수 있도록 한다. 또 고성능 컴퓨팅 애플리케이션에도 최대 2.7배 향상된 배정밀도 부동 소수점 성능을 활용할 수 있다”고 말했다.

저작권자 © IT비즈뉴스(ITBizNews) 무단전재 및 재배포 금지