삼성전자 LPDDR5X 기반 서버용 메모리 모듈 ‘SOCAMM2’. [사진 = 삼성전자]


[이코노미 트리뷴 = 김용현 기자] 18일 관련업계에 따르면 생성형 인공지능(AI) 확산으로 데이터센터의 연산 구조가 고도화되면서, 서버 메모리 시장이 기존 DDR 중심에서 다층 구조로 빠르게 재편되고 있다.

삼성전자는 18일 공식 홈페이지 테크 블로그를 통해 “삼성전자의 최신 LPDDR5X 기반 SOCAMM2 (Small Outline Compression Attached Memory Module 2)는 LPDDR의 저전력 특성과 모듈형 구조의 확장성을 결합해 기존의 서버 메모리와는 차별화된 가능성을 제시한다”고 밝혔다.

AI 서버용 가속기와 시스템 메모리가 집적된 서버 메인보드 구성 이미지. GPU를 중심으로 고대역폭 메모리와 주변 시스템 메모리가 배치된 구조를 보여준다. [사진 = 삼성전자]

기존 서버는 CPU에 연결된 DDR 메모리가 시스템 전반을 담당하는 구조였다.

GPU는 자체적으로 탑재한 VRAM(HBM)을 중심으로 연산을 수행하고, 필요한 데이터가 부족할 경우 CPU 메모리를 PCIe 등을 통해 간접적으로 불러오는 방식이 일반적이었다.

다만 AI 모델의 대형화와 상시 추론(inference) 수요 확산으로 GPU의 메모리 접근 빈도와 전력 부담이 급격히 늘어나면서, 기존 구조만으로는 효율성에 한계가 있다는 지적이 제기돼 왔다.

이에 따라 AI 서버에서는 CPU용 시스템 메모리(DDR5)는 유지하면서, GPU 인접 영역에 저전력 시스템 메모리를 추가하는 새로운 메모리 구조가 등장했다.

즉 SOCAMM은 GPU 내부에 직접 결합되는 HBM과 달리, GPU 주변에 별도의 전용 슬롯 형태로 배치돼 연산에 필요한 데이터를 보다 안정적으로 공급하는 역할을 맡는다.

삼성전자의 SOCAMM2는 LPDDR5X 기반 저전력 특성과 모듈형 구조를 결합한 것이 특징이다.

기존 온보드 방식의 LPDDR과 달리 탈부착이 가능해 유지보수와 업그레이드가 용이하고, DDR 대비 전력 효율이 높아 GPU가 밀집된 AI 서버 환경에 적합하다는 평가다.

삼성전자는 이미 엔비디아에 SOCAMM2 샘플을 공급하며 차세대 AI 서버 플랫폼과의 호환성 검증 단계에 진입한 것으로 알려졌다.

업계에서는 SOCAMM을 ‘제2의 HBM’으로 부르는 데 대해 기술적으로는 대체 관계는 아니지만, AI 시대에 새롭게 형성되는 고부가 메모리 영역이라는 점에서 상징적 의미가 크다는 평가가 나온다.

실제로 SOCAMM 역시 HBM과 마찬가지로 AI 플랫폼 채택 여부가 시장 성패를 좌우하고, 초기 레퍼런스를 확보한 기업이 장기간 주도권을 확보할 가능성이 높다는 분석이 나온다.

CES 2026 혁신상을 수상한 삼성전자의 차세대 저전력 DRAM ‘LPDDR6’. [사진 = 삼성전자]


한편, 삼성전자는 지난 4일 차세대 저전력 DRAM ‘LPDDR6’가 CES 2026 혁신상을 수상했다고 밝혔다.

LPDDR5X에 이어 저전력 DRAM 기술을 한 단계 더 끌어올린 제품으로, 온디바이스 AI와 엣지 컴퓨팅 환경을 겨냥한 고성능·저전력 특성이 특징이다.

삼성전자는 LPDDR5X에서 축적한 기술력을 바탕으로 LPDDR6를 개발했으며, 이를 AI 서버용 모듈 솔루션인 차세대 SOCAMM 등으로 확장 적용한다는 계획이다.

kyh-official@economytribune.co.kr