SK하이닉스의 발표 세션 현장 모습 [사진 = SK하이닉스]
[이코노미 트리뷴 = 김용현 기자] SK하이닉스가 13일부터 16일(현지시간)까지 미국 캘리포니아주 새너제이에서 열린 ‘2025 OCP(Open Compute Project) 글로벌 서밋’에서 차세대 낸드 스토리지 전략을 공개했다.
AI 확산으로 고속·고용량 저장 솔루션 수요가 급증하는 가운데, 회사는 AI에 최적화된 ‘AIN(AI-NAND) 패밀리’를 중심으로 새로운 저장 계층 구조를 제시하며 차세대 낸드 생태계 구축 비전을 밝혔다.
이번에 선보인 AIN 패밀리는 성능(Performance)·대역폭(Bandwidth)·용량(Density) 등 세 가지 요소별로 특화된 라인업으로 구성됐다.
‘AIN P(Performance)’는 대규모 AI 추론 환경에 최적화된 고성능 낸드로, 기존 낸드 대비 컨트롤러 구조를 새롭게 설계해 데이터 입출력 병목을 최소화했다.
일반적으로 낸드(NAND)는 SSD(솔리드 스테이트 드라이브) 내부에 들어가는 핵심 저장 칩으로, 데이터를 실제로 저장하는 역할을 한다. SK하이닉스는 이 낸드의 구조 자체를 AI 워크로드에 맞게 재설계해, AI 연산 과정에서 필요한 데이터 처리 속도와 효율을 비약적으로 향상시켰다. 이를 통해 GPU가 데이터를 기다리며 멈추는 시간을 줄여 전체 처리 효율을 높이는 구조다.
업계에서는 이런 고성능 낸드 기반 SSD를 활용할 경우 GPU 활용률이 기존 70~80% 수준에서 90% 이상으로 향상되는 것으로 알려졌다.
SK하이닉스는 AIN P의 샘플을 2026년 말 출시할 계획이라고 밝혔다.
‘AIN D(Density)’는 초대용량 저장을 목표로 한 제품으로, QLC(Quadruple Level Cell) 기반 고밀도 낸드를 적용했다. 기존 TB(테라바이트) 단위 SSD를 넘어 PB(페타바이트)급 용량을 구현해 AI 학습 데이터나 장기 저장용 데이터셋을 효율적으로 보관할 수 있도록 설계됐다. 즉, SSD 수준의 속도를 유지하면서도 HDD에 가까운 경제성을 확보한 ‘중간 계층 스토리지’ 개념으로 설계됐다.
가장 큰 주목을 받은 제품은 ‘AIN B(Bandwidth)’다. SK하이닉스는 HBM(High Bandwidth Memory)에서 축적한 적층 기술을 낸드에 접목해 ‘HBF(High Bandwidth Flash)’라는 새로운 아키텍처를 구현했다. 이는 낸드 칩을 수직으로 적층해 대역폭을 크게 확장한 구조로, AI 추론과 대규모 언어모델(LLM) 학습 과정에서 발생하는 데이터 병목 문제를 획기적으로 줄일 수 있다.
기존 AI 서버는 GPU–HBM–SSD의 2단 메모리 구조로 구성되어 있으나, SK하이닉스는 HBM과 SSD 사이에 AIN B를 배치해 3단 메모리 구조를 완성한다는 구상이다. 이를 통해 HBM의 속도와 SSD의 용량 사이에서 균형을 잡으며 GPU가 데이터를 보다 빠르게 받아 처리할 수 있도록 돕는다. 업계 연구에 따르면 이 같은 중간 캐시 계층을 추가할 경우 GPU의 유휴 시간(idle time)을 15~20% 줄이고 전체 학습 효율을 약 1.2~1.3배 높일 수 있는 것으로 알려졌다.
SK하이닉스는 HBF 생태계 강화를 위해 지난 8월 미국 샌디스크와 ‘HBF 표준화 양해각서(MOU)’를 체결했다. 또한 이번 OCP 기간 중 새너제이 인근에서 ‘HBF 나이트(Night)’ 행사를 열고, 글로벌 빅테크 관계자와 반도체 아키텍트 등 수십여 명과 함께 AI용 낸드 스토리지의 표준화 방향과 협력 방안을 논의했다.
안현 SK하이닉스 개발총괄(CDO)은 “이번 OCP 글로벌 서밋과 HBF 나이트를 통해 AI 중심으로 급변하는 시장에서 SK하이닉스의 현재와 미래를 보여줄 수 있었다”며, “고객과 파트너와의 협력을 통해 차세대 낸드 스토리지에서도 AI 메모리 시장의 핵심 플레이어로 도약하겠다”고 밝혔다.
economytribune@gmail.com