하바나 가우디2 딥러닝 가속기·제온 스케일러블 프로세서 활용

인텔 하바나 가우디2 메자닌 카드 [사진=인텔]
인텔 하바나 가우디2 메자닌 카드 [사진=인텔]

인텔이 ML커먼스의 인공지능(AI) 성능 벤치마크(MLPerf 트레이닝 3.0)에서 경쟁우위를 입증했다. 인텔은 "하바나 가우디2 딥러닝 가속기와 4세대 인텔 제온 스케일러블 프로세서 기반의 시스템으로 뛰어난 학습과 성능 우위를 보였다"고 전했다.

29일 인텔에 따르면, 가우디2는 384개 가속기를 활용해 GPT-3에서 311분의 학습 시간을 기록했으며 GPT-3 모델에서 256개에서 384개 가속기로 95%에 가까운 선형 확장이 가능함을 입증했다.

또 컴퓨터 비전(ResNet-50 가속기 8개, 유넷3D 가속기 8개)과 자연어처리 모델(BERT8, 64 가속기)에서 우수한 학습 결과를 보였다. BERT와 ResNet 모델은 11월 결과보다 각각 10%, 4%의 향상된 결과를 달성했다.

4세대 인텔 제온 스케일러블 프로세서는 폐쇄 부문에서 BERT, ResNet-50 모델을 각각 50분 미만(47.93분), 90분 미만(88.17분)으로 학습을 완료했다. 

개방 부문에서 BERT를 사용한 결과 4세대 인텔 제온 스케일러블 프로세서는 16개 노드로 확장할 때 약 30분(31.06분) 만에 모델 학습을 완료했다. 레티나넷 모델에서는 16개 노드에서 232분이라는 시간을 달성했다. 

인텔은 이번 벤치마크 결과에 대해 인텔은 생성AI와 대규모언어모델(LLM) 분야에서새로운 대안을 제시했다는 점에 의미를 부여했다.

생성AI, LLM에 엔비디아 GPU 기반 시스템 활용이 정답처럼 여겨지고 있지만, 이번 벤치마크로 인해 인텔 AI 솔루션이 경쟁력을 지님을 보여줬다는 설명이다.

산드라 리베라 인텔 데이터센터·AI 그룹 총괄부사장은 “가우디는 대규모언어모델 및 생성형 AI에서 경쟁력 있는 성능을 제공하고, 인텔 스케일러블 시스템은 프로그래밍하기 용이한 최적화된 개방형SW를 기반으로 클라우드에서 인텔리전트 엣지를 포함하는 데이터센터에서 AI 기반 솔루션을 쉽게 배포하도록 지원한다”고 말했다.

관련기사

저작권자 © ITBizNews 무단전재 및 재배포 금지