AWS 인프라 기반으로 AI 워크로드 가속

[사진=로이터]
[사진=로이터]

아마존웹서비스(AWS)가 오픈AI와 다년간의 전략적 파트너십을 체결했다고 발표했다. 이번 협약을 통해 오픈AI는 AWS의 클라우드 인프라를 활용해 인공지능(AI) 워크로드를 운영·확장할 방침이다. 

AWS에 따르면 이번 계약은 380억달러 규모로 향후 7년간 단계적으로 확대될 예정이다. 오픈AI는 이번 협력을 통해 수십만개의 엔비디아 GPU를 포함한 AWS 컴퓨팅 자원을 활용하고 최대 수천만개 CPU까지 확장해 에이전틱 워크로드를 빠르게 확장할 수 있을 것으로 기대했다.

AWS는 현재 50만개 이상의 칩을 보유한 초대형 클러스터를 운용 중으로, 이번 협력을 통해 전세계 수백만 사용자에게 향상된 챗GPT 서비스를 제공할 계획이다. 오픈AI는 AWS 컴퓨팅 인프라를 즉시 활용해 2026년 말까지 용량을 모두 확보한 뒤 2027년 이후 추가 확장에 나선다.

AWS가 오픈AI를 위해 배포·구축하고 있는 인프라는 엔비디아 GB200/GB300 GPU를 동일 네트워크의 아마존 EC2 울트라서버를 통해 클러스터링함으로써 상호 연결된 시스템 간 저지연 성능을 제공하며 챗GPT 추론부터 차세대 모델 학습까지 다양한 워크로드를 유연하게 지원한다.

샘 알트만 오픈AI CEO는 “프런티어 AI를 확장하려면 방대하고 안정적인 컴퓨팅 파워가 필요하다”며 “AWS와의 협력은 다음 세대를 이끌 폭넓은 컴퓨팅 생태계를 강화하고, 첨단 AI를 모두에게 제공하는 데 기여할 것”이라고 말했다.

맷 가먼 AWS CEO는 “오픈AI가 계속해서 가능성의 한계를 넓혀 나가는 가운데, AWS의 최고 수준 인프라가 그들의 AI 비전을 뒷받침하는 핵심 기반이 될 것”이라며, “최적화된 컴퓨팅의 광범위한 범위와 즉각적인 가용성이 AWS가 오픈AI의 방대한 AI 워크로드를 지원할 수 있는 독보적인 위치에 있는 이유를 보여준다”고 말했다.

한편, 이번 협력은 양사가 전세계 조직에 최첨단 AI 기술을 제공하기 위해 체결한 기존 협력의 연장선상에서 이뤄졌다.

올해 초 오픈AI 오픈웨이트 파운데이션 모델이 아마존 베드록을 통해 제공되기 시작했으며, 이를 통해 수백만 AWS 고객이 오픈AI 모델을 활용하고 있다.

관련기사

저작권자 © ITBizNews 무단전재 및 재배포 금지