[사진=로이터]
[사진=로이터]

퀄컴테크날러지가 메타가 공개한 대규모언어모델(LLM) ‘라마2’를 온디바이스에서 실행할 수 있도록 기술 최적화 협력에 나선다고 19일 밝혔다.

퀄컴은 “라마2와 같은 생성AI 모델을 스마트폰, PC, VR/AR 헤드셋 등 온디바이스에서 실행함으로써 개발자들은 클라우드 비용을 절감하고 이용자들에게 개인적이고 신뢰할 수 있고 맞춤화된 경험을 제공할 수 있다”고 설명했다.

퀄컴은 2024년부터 스냅드래곤 기반 단말기에 라마2 기반 AI 구현이 가능하도록 지원할 예정이다. 이를 통해 개발자들은 퀄컴 AI스택(AI Stack)을 활용해 온디바이스 AI애플리케이션을 최적화할 수 있다. 퀄컴 AI스택은 스냅드래곤에서 AI를 효율적으로 처리하는 온디바이스용 AI 전용 툴이다.

두르가 말라디 퀄컴 수석부사장은 “퀄컴은 메타의 개방적이고 책임 있는 AI 접근 방식에 힘입어 생성형 AI를 온디바이스에 적용해 모든 규모의 개발자들을 위한 혁신을 추진하고 진입 장벽을 완화하는 데 전념하고 있다”며 “생성AI의 효과적인 대중화를 위해서는 클라우드뿐만 아니라 스마트폰, 노트북, 차량, IoT 등과 같은 엣지 디바이스에서도 AI를 작동할 수 있어야 한다”고 말했다.

관련기사

저작권자 © ITBizNews 무단전재 및 재배포 금지