5나노(nm) NPU ‘아톰’ 적용, AI 풀스택 구성으로 글로벌 진출 목표

리벨리온 신경망프로세서(NPU) [사진=KT클라우드]
리벨리온 신경망프로세서(NPU) [사진=KT클라우드]

KT클라우드가 국내 팹리스 리벨리온의 신경망프로세서(NPU) ‘아톰’을 적용한 클라우드 기반 NPU 인프라 서비스의 상용화를 공식화했다. 

NPU는 인공지능(AI) 연산에 최적화된 AI칩으로 GPU 대비 연산과 전력소모 부문에서 강점이 있다. 서비스에 탑재된 리벨리온의 ‘아톰’은 금융 거래에 특화된 AI칩 ‘아이온’에 이어 리벨리온이 두 번째로 선보이는 AI칩이다.

앞서 지난해 7월 KT그룹은 리벨리온에 300억원 규모의 전략적 투자를 단행, 사업 협력에 나서고 있다.

27일 KT클라우드에 따르면, NPU를 클라우드 기반으로 이용할 수 있도록 플랫폼에 적용하고 NPU 자원 공유 풀 구성·관리 및 오토 프로비저닝 구현 등을 통해 지난 5월30일 서비스화 했다. 

이 서비스는 언어·비전 모델 지원이 필요한 관제, 의료 등 이미지처리 기반 산업 분야와 대고객 서비스, 교육 등 자연어처리 기반 산업 분야의 다양한 기업을 대상으로 서비스될 예정이다.

NPU 인프라를 AI반도체 초기 시장 수요 창출 지원, 중소·벤처기업 대상 국산 AI반도체 기반 컴퓨팅 자원 지원을 목적으로 하는 ‘K-클라우드 프로젝트’ 지원사업 내 ‘AI바우처 지원사업’과 ‘고성능컴퓨팅 지원사업’ 대상기업에 먼저 제공하고 올해 하반기 중 기업 고객 대상으로 서비스를 확대할 계획이다.

KT클라우드는 “클라우드 기반 NPU 인프라는 클릭 몇 번으로 고객이 직접 자원을 생성하고 연산 세션을 활용하고, 관리/모니터링 등을 할 수 있어 구축형 인프라 대비 사용편의성이 높다”고 소개했다.

서비스에 탑재된 NPU 아톰은 트랜스포머 언어모델과 부동소수점연산을 지원하는 점이 특징이다. 60W 저전력 설계, 극자외선(EUV) 5나노(nm) 삼성파운드리 공정이 적용됐다.

AI칩 벤치마킹 ‘ML퍼프(MLPerf)’ 결과에 따르면 아톰은 엔비디아의 A2와 T4, 퀄컴의 클라우드 AI 100 대비, 영상처리(ResNet)의 경우 1.4배~3.4배, 언어 모델(BERT-Large)은 1.4배~2배 빠르다. 리벨리온은 아톰의 성능을 개선한 차세대 칩(Rebel)도 2024년 후 공개할 예정이다.

KT클라우드는 향후 NPU 팜(Farm)과 클라우드 플랫폼을 설계·구축하고, 다양한 AI 응용서비스 실증을 통한 AI칩 레퍼런스 확보에 집중할 예정이다. 국산 AI칩과 SW스택, 클라우드 플랫폼, AI 응용서비스까지 아우르는 AI 풀스택(Full-Stack)을 구성, 2025년까지 글로벌 시장에 진출한다는 목표다.

리벨리온 박성현 대표는 “최근 ML퍼프에서 비전과 언어 모델 모두에서 글로벌 탑티어 수준의 역량을 입증한 아톰이 KT클라우드 서비스를 통해 데이터센터에 상용화돼 기쁘다”며 “리벨리온의 기술력을 토대로 대한민국 AI산업 활성화에 기여하고 AI반도체 시장을 리딩해 갈 것”이라고 밝혔다.

KT클라우드 윤동식 대표는 “초거대AI를 위한 종량제 AI 인프라 서비스인 하이퍼스케일 AI 컴퓨팅(HAC)을 출시해 AI 산업의 문턱을 낮춘데 이어, 국내 최초 클라우드 기반 NPU 인프라 상용화를 성공했다”며 “앞으로도 AI 인프라 혁신과 AI 반도체 고도화로 대한민국 초거대 AI 산업 활성화에 앞장설 것”이라고 밝혔다.

관련기사

저작권자 © ITBizNews 무단전재 및 재배포 금지