삼성 CXL 2.0 양산 이어 3.0까지
AI 메모리 한계 속 확장 해법 부상
반도체 업체들 CXL 개발 속도
삼성전자가 '넥스트 HBM(고대역폭메모리)'으로 불리는 컴퓨터익스프레스링크(CXL) 메모리의 대량 양산에 돌입한다. 인공지능(AI) 학습·추론용 서버에서 메모리 병목 현상이 심화하면서, 데이터 처리 속도를 높이면서도 시스템 용량을 확장할 수 있는 CXL 메모리가 차세대 해법으로 주목받고 있다.
CXL 기반 D램 속도내는 삼성
29일 반도체 업계에 따르면 삼성전자는 최근 CXL 2.0 기반 D램 'CMM-D(CXL 기반 D램 메모리 모듈)'의 고객사 샘플 출하를 마치고 대량 양산을 시작했다. 삼성전자는 지난해 10월 미국 캘리포니아주 새너제이에서 열린 'OCP 글로벌 서밋 2025'에서 HBM부터 CXL까지 아우르는 차세대 AI 메모리 로드맵을 공개한 바 있다. 당시 송택상 삼성전자 상무는 "올 4분기 업계 최초로 CXL 3.1 표준을 지원하는 CMM-D 제품을 선보일 예정"이라며 차세대 제품인 'CMM-D 3.0'의 주요 사양을 소개했다.
CMM-D는 CXL 인터페이스를 기반으로 한 D램 메모리 모듈 제품이다. 삼성전자는 2021년 5월 업계 최초로 CMM-D를 개발한 이후, 2022년 5월 CXL 2.0 표준을 적용한 CMM-D 2.0을 선보였다. 해당 제품은 128GB와 256GB 용량, 최대 36GB/s의 대역폭을 제공한다.
약 3년 만에 선보이는 CMM-D 3.0은 연결성이 한층 강화된 CXL 3.1 표준을 지원한다. 삼성전자에 따르면 최대 1TB(테라바이트)의 대용량과 최대 72GB/s의 대역폭을 구현해, 기존 세대 대비 용량과 데이터 처리 속도가 크게 개선됐다. 대규모 AI 모델을 운영하는 데이터센터 환경에서 활용도가 높을 것으로 예상된다.
"메모리 고속도로"…서버 증설 부담 줄인다
CXL은 CPU(중앙처리장치), GPU(그래픽처리장치), 메모리, AI 가속기 등 고성능 컴퓨팅 장치들이 데이터를 빠르고 효율적으로 주고받도록 돕는 개방형 표준 인터페이스다. 기존 서버 구조에서는 메모리 용량이 한계에 도달할 경우 서버 자체를 추가로 도입해야 했지만, CXL을 활용하면 메모리를 외부 장치처럼 유연하게 확장할 수 있다.
업계에서는 CXL을 '메모리 고속도로'에 비유한다. 서로 다른 컴퓨팅 장치들이 하나의 통합된 인터페이스를 통해 데이터를 공유함으로써 시스템 자원을 보다 효율적으로 활용할 수 있기 때문이다. 특히 AI 서버처럼 대규모 데이터 처리와 잦은 메모리 접근이 필요한 환경에서는 성능 향상과 함께 비용 절감 효과도 기대할 수 있다.
CXL 메모리는 HBM을 대체하기보다는 상호 보완적인 역할을 수행한다. HBM이 GPU 인접 영역에서 초고속 연산을 담당한다면, CXL 메모리는 시스템 전반의 용량 확장과 자원 활용 효율을 책임지는 구조다. CXL이 '차세대 AI 메모리'로 떠오르는 이유도 여기에 있다.
상용화 기대 커지지만…속도 조절론도 공존
업계에서는 CXL 시장이 본격적인 상용화 단계에 진입하고 있다는 평가가 나온다. 시장조사업체 욜(Yole)에 따르면 2022년 170만달러(약 23억5000만원)에 불과했던 CXL 시장은 2026년 21억달러, 2028년에는 약 160억달러로 급성장할 것으로 전망된다.
메모리 확장 수요가 커지면서 CXL 표준화도 속도를 내고 있다. 인텔 주도로 2019년 출범한 'CXL 컨소시엄'에는 삼성전자를 비롯해 SK하이닉스, 마이크론, AMD 등 글로벌 반도체 기업들이 참여하고 있다.
SK하이닉스 역시 CXL D램 메모리 개발에 속도를 내고 있다. 회사는 올해 상반기 CXL 2.0 기반 CMM-D 96GB 제품의 고객 인증을 완료했으며, 128GB 제품에 대한 인증 절차를 진행 중인 것으로 알려졌다. SK하이닉스는 지난달 'SK AI 서밋 2025'에서 HBM과 CXL, 프로세싱 인 메모리(PIM)를 아우르는 차세대 메모리 전략을 제시하기도 했다.
삼성전자와 SK하이닉스, 마이크론 등 메모리 3사는 최근 CXL 2.0 기술을 적용한 마벨의 CXL 솔루션 '스트럭테라'와의 D램 호환성 테스트를 완료하며 글로벌 기업들과의 협력을 확대하고 있다.
다만 CXL 시장의 개화 시점을 두고는 신중론도 공존한다. CXL 기술을 실제 서비스 환경에 적용하기 위해서는 운영체제(OS), 프레임워크, 메모리, 가속기 전반에 걸친 최적화가 필요하기 때문이다. 일각에서는 본격적인 상용화 시점을 2027년 이후로 보는 시각도 있다.
지금 뜨는 뉴스
특히 엔비디아가 GPU 간 연결을 NV링크 중심으로 가져가며 사실상 독자 생태계를 구축한 점도 인텔 주도의 CXL 확산에 변수로 작용하고 있다는 분석이다. 국내 팹리스 업체 파두의 남이현 최고기술책임자(CTO)는 최근 간담회에서 "CXL 스위치 개발 투자를 전략적으로 조정하고 있다"며 "시장 개화 속도를 지켜본 뒤 제품화 시점을 판단할 것"이라고 밝히기도 했다.
박준이 기자 giver@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
![[칩톡]HBM 다음은 CXL?…AI 메모리 판 커진다](https://cphoto.asiae.co.kr/listimglink/1/2025122521002269786_1766664022.jpg)
![[칩톡]HBM 다음은 CXL?…AI 메모리 판 커진다](https://cphoto.asiae.co.kr/listimglink/1/2025122415533569309_1766559215.png)
![[칩톡]HBM 다음은 CXL?…AI 메모리 판 커진다](https://cphoto.asiae.co.kr/listimglink/1/2025122415533669310_1766559217.png)

