AI가 전 세계 DRAM 웨이퍼 생산능력의 약 20%를 집어삼킬 전망입니다. 2026년 기준입니다. GPT-4급 모델이 수천억 개의 파라미터를 품고 있습니다. 70B짜리 모델 하나를 돌리는 데만 140GB 이상의 메모리가 필요한 시대가 됐죠. 메모리 반도체 업계는 이 수요를 감당하기 위해 쉴 틈 없이 달리고 있습니다.
그 중심에 HBM(고대역폭 메모리)이 있습니다. HBM 시장은 2025년 약 350억 달러에서 2028년 1,000억 달러 규모로 성장할 것이라는 전망이 나옵니다. 연평균 성장률 40%. 그런데 최근 이 시장에 낯선 이름 하나가 등장했습니다. HBF, 고대역폭 플래시입니다. HBM이 독주하던 무대에 새로운 기술이 합류하면서, 메모리 반도체의 판은 어떻게 달라질까요.
HBM은 어떻게 AI 시대의 필수 부품이 되었나
HBM의 기본 원리는 단순합니다. 메모리 칩을 옆으로 늘리는 대신 위로 쌓는 겁니다. 아파트를 생각하면 됩니다. 같은 대지 면적에 층수를 높여 더 많은 세대를 넣는 방식이죠. 최대 16층의 DRAM 다이를 TSV(실리콘 관통 전극)로 수직 연결하고, 실리콘 인터포저라는 중간 다리를 통해 GPU에 붙입니다.
이 구조의 핵심은 대역폭입니다. 일반 메모리가 좁은 도로에 차를 빠르게 달리게 하는 방식이라면, HBM은 1,024비트 이상의 넓은 고속도로를 깔아 한 번에 많은 데이터를 실어 나릅니다. 속도보다 폭으로 승부하는 셈이죠.
SK하이닉스가 2013년 첫 HBM 칩을 만들었습니다. 10년이 넘는 시간 동안 세대를 거듭하며 AI 시대의 핵심 부품으로 자리 잡았죠. NVIDIA가 H100에 HBM3를 얹어 80GB 용량과 초당 3TB 대역폭을 구현했고, 차세대 Vera Rubin 플랫폼은 HBM4를 탑재해 288GB, 초당 13TB까지 끌어올릴 계획입니다. SK하이닉스가 HBM 시장의 62%를 점유하고 있고, 그 물량의 약 90%가 NVIDIA로 향합니다.
그런데 아파트를 높이 쌓으면 문제가 생기듯, HBM도 물리적 한계에 부딪히고 있습니다. 가장 심각한 건 열입니다. HBM3 스택은 1제곱센티미터당 50와트 이상의 열을 뿜어내는데, 칩이 촘촘히 쌓여 있으니 열이 빠져나갈 곳이 없습니다. 온도가 105도를 넘으면 대역폭이 20~30% 줄어드는 스로틀링이 걸리죠. 16층을 쌓았을 때 단 하나의 불량 다이가 전체 스택을 못 쓰게 만들 수 있다는 수율 문제도 있습니다. 더 높이 쌓고 싶지만, 물리 법칙이 허락하지 않는 겁니다.
HBF라는 새로운 선택지 — 쌓지 않고 옆에 두는 발상
HBM이 책상 위에 올려놓은 책장이라면, HBF는 같은 건물 안에 있는 도서관입니다. 책장은 손만 뻗으면 닿을 만큼 가깝지만 꽂을 수 있는 책의 수가 한정돼 있죠. 도서관은 조금 걸어가야 하지만 훨씬 많은 책을 보관할 수 있습니다.
HBF는 SanDisk이 개발한 CBA(Cross-point Bonded Array) 기술을 기반으로 합니다. DRAM 대신 NAND 플래시를 사용하되, 저장 영역을 수많은 독립적 서브어레이로 쪼개 동시에 읽어내는 방식입니다. TSV로 다층 칩을 적층하는 건 HBM과 같지만, 메모리 소재 자체가 다릅니다.
숫자로 보면 차이가 선명합니다. 1세대 HBF는 읽기 대역폭 1.6TB/s, 16다이 적층 시 스택당 512GB를 제공합니다. HBM 대비 용량이 8~16배 많고, 비트당 비용은 훨씬 저렴하죠. 최고급 PCIe 5.0 SSD보다 50배 이상 빠르기도 합니다. 2세대는 2TB/s 이상, 3세대는 3.2TB/s 이상을 목표로 잡고 있는데, 1세대 대비 대역폭을 2배 가까이 끌어올리겠다는 로드맵입니다.
다만 도서관까지 걸어가는 시간, 즉 지연시간에서는 HBM을 따라잡기 어렵습니다. HBM의 접근 지연시간이 나노초(ns) 단위인 반면, HBF는 마이크로초(μs) 단위입니다. 천 배 가까운 차이죠. 쓰기 속도도 느리고, NAND 특유의 쓰기/소거 사이클 제한도 있습니다.
그럼에도 SanDisk은 Llama 3.1 405B 모델 추론에서 HBF의 성능이 무제한 용량 HBM 대비 2.2% 이내로 나타났다는 시뮬레이션 결과를 내놨습니다. 추론은 이미 학습된 모델이 답을 내놓는 과정인데, 읽기 중심이라 HBF의 강점이 살아나는 영역이죠. 다만 이 수치는 SanDisk 자체 벤치마크라는 점은 감안해야 합니다.
SK하이닉스와 SanDisk은 2026년 2월 HBF 표준화 컨소시엄을 출범시켰고, SanDisk은 2026년 하반기 첫 샘플 제공을 목표로 하고 있습니다. 양산 제품이 실제로 디바이스에 탑재되는 건 2027년 초 이후가 될 전망입니다.
CXL과 차세대 낸드 — 메모리 확장의 또 다른 경로
메모리 부족 문제를 푸는 길은 HBF만 있는 게 아닙니다. CXL(Compute Express Link)이라는 기술은 아예 다른 접근법을 취합니다. 비유하자면 냉장고 용량이 부족할 때 냉장고를 더 큰 걸로 바꾸는 대신, 공용 창고를 연결해서 필요할 때마다 꺼내 쓰는 방식이거든요. GPU나 CPU 바로 옆에 메모리를 더 붙이는 대신, 네트워크처럼 연결된 외부 메모리 풀에서 필요할 때 가져다 씁니다.
Microsoft Azure가 업계 최초로 CXL 연결 메모리를 실제 서비스에 배치했습니다. 서버 메모리 용량을 1.5배 이상 늘리는 데 성공했고, 하이퍼스케일러 기준으로 총소유비용(TCO)을 15~20% 절감하는 효과를 보고 있습니다. 특히 KV 캐시처럼 200~500나노초 수준의 지연을 허용하는 워크로드에서는 GPU VRAM 대비 비용이 4~5배 저렴합니다.
차세대 낸드도 움직이고 있습니다. 삼성전자가 부활시킨 Z-NAND는 기존 NAND 대비 최대 15배 성능 향상을 목표로 하고 있고, GPU가 직접 스토리지에 접근하는 GIDS 기술까지 결합하려 합니다. SK하이닉스와 NVIDIA는 SLC(Single-Level Cell, 셀당 1비트를 저장하는 고속 낸드 방식) 기반 ‘AI SSD’를 공동 개발 중인데, 2027년 말까지 1억 IOPS(초당 입출력 처리 횟수)를 달성하겠다는 목표입니다. 현재 엔터프라이즈 SSD의 약 30배 수준이죠.
이 기술들은 서로 경쟁하는 것처럼 보이지만, 실제로는 메모리 계층 구조에서 각자 다른 자리를 차지합니다. HBM이 가장 빠르지만 용량이 작은 최상위 층, CXL이 중간 층에서 유연한 확장을 담당하고, HBF와 차세대 낸드가 대용량 하위 층을 채우는 구조입니다.
빅테크는 어디에 베팅하고 있는가
돈의 흐름을 보면 답이 보입니다. Google, Microsoft, Meta의 구매 담당 임원들이 한국에 상주 사무소를 차렸습니다. HBM 물량을 직접 확보하기 위해서입니다. SK하이닉스와 삼성전자의 2026년 전체 HBM 및 DRAM 생산 능력은 이미 완판 상태입니다.
메모리 3사의 투자 규모가 이를 뒷받침합니다. SK하이닉스는 2026년 설비투자에 205억 달러(약 30조 원)를 투입하고, 이 중 HBM 관련 투자만 약 17억 달러(약 2.5조 원)에 달합니다. HBM4의 전력 효율을 40% 개선한 제품 개발도 완료했죠.
삼성전자는 HBM 생산능력을 월 17만 웨이퍼에서 25만 웨이퍼로 47% 늘릴 계획이고, Micron은 135억 달러(약 19조 원)의 설비투자를 집행하며 HBM 점유율을 21%까지 끌어올렸습니다. 삼성을 제치고 2위에 오른 겁니다.
그렇다면 HBF는 어떤 위치일까요. 업계의 온도는 명확합니다. HBF는 HBM의 대체재가 아니라 보완재입니다. SK하이닉스가 제시한 ‘H3’ 아키텍처가 이 방향을 잘 보여줍니다. HBM과 HBF를 하나의 GPU에 함께 탑재하는 하이브리드 설계인데, B200 GPU에 HBM3E 8개와 HBF 8개를 조합했을 때 와트당 성능이 2.69배 향상되고, 동시 쿼리 처리 능력은 최대 18.8배 늘어납니다. 기존에 GPU 32대가 필요하던 작업을 2대로 처리할 수 있다는 계산이죠.
훈련에는 나노초 단위의 빠른 응답이 필요하니 HBM이 여전히 필수이고, 추론에서는 읽기 중심의 대용량 작업이 많으니 HBF가 효율적입니다. 둘 중 하나를 고르는 게 아니라, 워크로드에 따라 조합하는 방향으로 가고 있는 겁니다.
대체가 아니라 재편이다
HBF가 HBM을 밀어낼 가능성은 낮습니다. 지연시간이라는 물리적 격차가 너무 크기 때문이죠. 하지만 HBM만으로 AI의 메모리 수요를 감당할 수 없다는 것도 분명합니다. 발열, 수율, 비용이라는 삼중 벽이 있으니까요.
결국 일어나고 있는 건 대체가 아니라 재편입니다. HBM이 가장 빠른 최전방을 지키고, HBF가 대용량 후방을 맡으며, CXL이 유연한 연결 고리 역할을 하는 새로운 메모리 계층 구조가 만들어지고 있습니다. 아파트(HBM)만으로는 모든 수요를 감당할 수 없고, 도서관(HBF)만으로는 즉각적인 접근이 어렵습니다. 메모리 반도체의 다음 판은 하나의 기술이 독점하는 게 아니라, 여러 기술이 제자리를 찾아가는 과정에서 열리게 될 겁니다.