애플 아이폰17 공개일에 '맞불'
긴 콘텍스트 연산 특화…동영상에 강점
GDDR7 메모리 사용‥HBM 중심 변화 예고
애플이 아이폰17을 발표한 날 엔비디아 역시 신제품을 공개하며 인공지능(AI) 시대의 주인공이 자신임을 강조했다. 특히 신형 그래픽처리장치(GPU)의 메모리를 고대역폭메모리(HBM)가 아닌 GDDR7으로 결정하며 향후 메모리 전략의 변화 여부에도 이목이 쏠린다.
엔비디아가 9일(현지시간) 기존 GPU와는 다른 형태의 신제품 '루빈(Rubin) CPX'를 공개했다.
루빈 CPX는 영상 인코딩(압축)과 디코딩(해제), 그리고 AI 추론을 단일 칩에서 처리할 수 있도록 설계된 전용 GPU다. 루빈 CPX는 한시간 가량의 동영상을 만들기 위한 최대 100만 토큰의 긴 문장을 효율적으로 처리하도록 특화됐다. 쉽게 말해 챗GPT 같은 생성형 AI가 '긴 글'을 이해하고 이어서 답을 내놓는 데 최적화된 칩인 셈이다. 출시 시점은 2026년 말로 예정돼 있으며, 가격은 아직 공개되지 않았다.
단일 NVL144 CPX 시스템은 8엑사플롭스(ExaFLOPS·초당 1경번 연산)의 성능과 100TB 메모리를 제공하며, 이는 블랙웰 기반 NVL72 대비 성능과 대역폭 모두에서 한 단계 진화한 수치라는 게 엔비디아의 설명이다.
루빈 CPX는 호퍼, 블랙웰 등 기존 엔비디아 GPU가 사용한 고가의 HBM 대신 128GB GDDR7 메모리를 채택했다. 엔비디아는 상대적으로 저렴하면서도 속도가 빠른 메모리를 적용, 비용 부담을 낮추면서도 기존 대비 문맥 속 단어 간 연관성을 계산하는 속도는 3배 이상 개선했다고 강조했다.
HBM은 데이터 전송 속도가 빠르고 대역폭이 넓어 초거대 AI 학습에 필수로 여겨졌지만, 제조 난도가 높고 단가가 비싸며 개발도 쉽지 않다. 반면 GDDR7은 성능은 다소 낮지만 가격 경쟁력이 뛰어나고 대량 생산이 용이하다. 엔비디아는 루빈 CPX를 통해 AI 추론 단계에서 비용 효율성을 극대화하겠다는 전략을 드러낸 셈이다.
엔비디아가 HBM이 아닌 GDDR7을 선택했다는 점은 글로벌 메모리 시장의 판도에도 상당한 여파를 미칠 수 있는 요인이다. 현재 '고성능=HBM'이라는 공식이 용도별로 HBM과 GDDR7을 섞는 다원 구조로 변할 가능성이 생겼기 때문이다. 즉 HBM은 고성능 AI 학습용으로, GDDR7은 추론용으로 시장이 갈라질 수 있다. GDDR7은 HBM에서 뒤처진 삼성전자가 강점을 가지고 있다.
지금 뜨는 뉴스
루빈 CPX의 등장은 최근 AI 업계가 치열하게 경쟁 중인 멀티모달 동영상 생성 AI 흐름과도 맞닿아 있다. 구글은 '나노바나나'를 통해 동영상 생성 모델을 강화하고 있다. 오픈AI 역시 이미지·텍스트를 넘어 동영상 생성 기능을 챗GPT에 접목하는 시도를 본격화하고 있다. 구글이 자체 설계 AI 칩인 TPU 활용을 늘리는 상황에서 엔비디아가 루빈 CPX를 통해 인프라 측면에서 확실한 우위를 굳히려는 포석으로 해석된다. 엔비디아가 시장을 세분화한 다양한 제품 구성을 강화하며 AMD, 인텔 등 경쟁사의 고민은 한층 깊어질 전망이다.
백종민 테크 스페셜리스트 cinqange@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>


