[아이뉴스24 안세준 기자] 퀄컴은 27일(현지시간) 데이터센터용 AI 추론 반도체인 'AI200'과 'AI250'을 각각 2026년, 2027년 출시할 계획이라고 밝혔다. 모바일 애플리케이션 프로세서(AP) 강자인 퀄컴이 엔비디아와 AMD가 장악한 AI 반도체 시장에 도전장을 내민 것이다.
![퀄컴 AI200 및 AI250 이미지. [사진=퀄컴]](https://image.inews24.com/v1/89efe08f1aca6d.jpg)
퀄컴에 따르면 AI200은 거대언어모델(LLM), 멀티모달모델(LMM) 추론 시장을 겨냥한다. 카드당 768GB LPDDR 메모리를 지원한다. 총소유비용(TCO)은 최소화했다. 더 높은 메모리 용량과 비용 효율성을 동시 실현한다는 의미다. 대규모 AI 추론 환경에서 높은 확장성과 유연성을 제공할 것으로 전망된다.
AI250은 근접 메모리 컴퓨팅 기반 메모리 설계를 도입했다. 메모리 대역폭을 10배 이상 높이고 전력 소모를 절감했다. 하드웨어 자원을 효율적으로 활용할 수 있는 분리형 방식 추론 구조를 지원해 성능과 비용 요구사항을 동시에 충족시킨다.
AI200과 AI250은 모두 열 효율성을 위한 직접 액체 냉각 방식, 확장성을 위한 PCle 및 이더넷 등을 지원한다. 보안이 강화된 AI 워크로드 처리를 위한 기밀 컴퓨팅을 탑재했다. 랙 단위 전력 소비는 160kW 수준이다.
두 칩은 2026년과 2027년 각각 상용 출시될 예정이다. 퀄컴은 향후 매년 주기적으로 업데이트되는 데이터센터 로드맵을 통해 업계 최고 수준 AI 추론 성능, 에너지 효율성, 탁월한 총소유비용을 실현하는 데 집중하고 있다.
두르가 말라디 퀄컴 테크날러지스 수석 부사장은 "AI200과 AI250으로 랙 스케일 AI 추론의 가능성을 새롭게 정의하고 있다"며 "뛰어난 총소유비용으로 생성형 AI를 배포할 수 있도록 지원한다"고 설명했다.
이어 "데이터센터가 필요로 하는 유연성과 보안성을 동시에 보장한다"며 "퀄컴의 풍부한 소프트웨어 스택과 개방형 생태계 지원을 통해 개발자와 기업은 이미 학습된 AI 모델을 손쉽게 통합·관리·확장할 수 있다"고 덧붙였다.
/안세준 기자(nocount-jun@inews24.com)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기