초고속 뉴런링크로 대형 모델 학습·추론 지원
딥러닝·생성AI 활용 확산 촉매 역할 기대
아마존웹서비스(AWS)가 ‘AWS 리인벤트’에서 ‘AWS 트레이니움2’ 칩 기반 ‘아마존 EC2 인스턴스’를 공식 출시했다. AWS는 대규모언어모델(LLM)·파운데이션 모델(FM)의 학습과 추론을 지원하는 ‘트레이니움2 울트라서버’와 차세대 ‘트레이니움3’ 칩도 함께 공개했다.
새로운 아마존 EC2 Trn2 인스턴스는 16개의 트레이니움2 칩을 탑재해 최대 20.8페타플롭스(PF)의 연산 성능을 제공한다.
AWS에 따르면, Trn2 인스턴스는 동일한 비용으로 기존 GPU 기반 EC2 P5e 및 P5en 인스턴스 대비 30~40% 더 나은 가격 대비 성능을 제공해 수십억개의 매개변수를 가진 LLM의 학습·배포에 적합하다.
아마존 EC2 Trn2 울트라서버는 초고속 뉴런링크 기술을 사용해 64개의 트레이니움2 칩을 연결, 최대 83.2 피크 페타플롭스의 연산 성능을 제공한다. 단일 Trn2 인스턴스와 비교하면, 연산, 메모리, 네트워킹 성능을 각각 4배 확장하는 성능으로, 최대 규모의 모델 학습과 배포를 가능케 한다.
데이비드 브라운 AWS 컴퓨팅·네트워킹 부문 부사장은 "트레이니움2는 AWS가 개발한 칩 중 가장 강력한 성능을 갖췄다”며 “이 칩은 학습과 추론 모두에서 최고의 가격 대비 성능을 제공해 매개변수가 수조 개에 달하는 모델을 지원할 것”이라고 말했다.
차세대 AI 학습 칩으로 공개된 트레이니움3는 트레이니움2 대비 최대 2배 성능과 40% 개선된 에너지 효율성을 제공해 더 큰 모델을 더 빠르게 구축하고 실시간 성능을 극대화할 수 있게 한다.
트레이니움3는 3나노(nm) 공정 노드로 제작돼 더 높은 성능과 전력효율, 밀도를 제공하며, 트레이니움3 기반 울트라서버는 Trn2 울트라서버 대비 4배 더 높은 성능을 제공할 수 있다. 트레이니움3 기반 인스턴스는 2025년 말 출시될 예정이다.
AWS는 트레이니움 칩에서 모델을 실행할 수 있도록 최적화하는 컴파일러, 런타임 라이브러리, 도구를 제공하는 뉴런 SDK도 공개했다.
뉴런 SDK를 통해 개발자는 모델을 최적화해 트레이니움 칩에서 최적의 성능을 발휘할 수 있다. 쟉스, 파이토치와 같은 인기 프레임워크를 기본 통합한 뉴런 SDK는 최소한의 코드 변경으로 트레이니움에서 기존 코드와 워크플로우를 활용할 수 있도록 지원한다.
한편, AWS는 앤스로픽과 협력해 수십만 개의 트레이니움2 칩을 포함하는 EC2 울트라클러스터를 구축하고 있다고 전했다.
‘프로젝트 레이니어’로 명명된 이 프로젝트는 수십만 개의 트레이니움2 칩을 포함하며, 3세대 저지연 페타비트 규모의 AWS 엘라스틱 패브릭 어댑터(EFA) 네트워킹을 통해 분산 모델 학습을 확장해 현재 세대 AI 모델 훈련에 사용된 엑사플롭스의 5배 이상 성능을 제공을 목표로 한다.
관련기사
- AWS, ‘아마존 커넥트’ 생성AI 기능 강화
- 스노우플레이크, 내년 상반기 MS애저 서비스 개시
- 레드햇, 앤서블 오토메이션 플랫폼 온 AWS 출시
- AI인프라 투자 확대하는 빅테크…3분기 인프라 서비스 지출 21% 늘었다
- 생성AI 파트너 성장 돕는다…AWS, ‘파트너혁신얼라이언스’ 출범
- 뉴타닉스·AWS, 클라우드 마이그레이션 단순화 협력
- 오픈AI도 자체 AI칩 개발…“브로드컴과 공동 설계, 생산은 TSMC”
- AWS, hy 온라인몰에 생성AI 서비스 구축
- 데이터브릭스, AWS와 파트너십…모자이크AI 기반 맞춤 모델 제공
- “엔비디아 의존도를 낮춰라”…UA링크·원API 등 개방형 표준 추진