1. HBM3E와 HBM4의 기술 사양 및 수요 전망
HBM3E vs HBM4 사양 비교: HBM3E는 2023년에 등장한 HBM3의 향상 버전으로, 핀당 데이터 전송률을 높여 성능을 끌어올린 세대입니다. 반면 HBM4는 2025년 JEDEC 표준으로 채택된 차세대 메모리로, 메모리 버스 폭을 두 배로 늘리는 등 아키텍처 변화가 큰 세대입니다  . 아래 표는 두 세대의 핵심 기술 사양을 비교한 것입니다:

항목 HBM3E HBM4
JEDEC 표준 발표 – (HBM3 연장 규격, 2023년 제조사별 발표)  2025년 4월 (JESD235C) 
인터페이스 폭 1024-bit (HBM3와 동일) 2048-bit (2배 확대)  
핀당 속도 최대 9.6 Gb/s (Micron 발표치) ~ 8 Gb/s (SK 하이닉스)   표준 6.4 Gb/s/pin (예비 규격) → 공식 최대 8 Gb/s/pin 
스택 당 대역폭 약 1.0–1.2 TB/s (1024-bit × 8–9.6 Gb/s)   최대 2.0 TB/s (2048-bit × 8 Gb/s) 
최대 스택 높이 12–16 Hi (최대 24~32 GB 용량)   4 Hi ~ 16 Hi (최대 64 GB 용량) 
단위 용량 (칩 밀도) 16 Gb (HBM3와 동일), 향후 24 Gb die 적용 가능 24 Gb 또는 32 Gb die 지원 
최대 스택 용량 통상 24 GB (12 Hi 기준), 신규 16 Hi 제품으로 48 GB까지 64 GB (16 Hi, 32 Gb die 적용 시) 
호환성 HBM3 컨트롤러와 호환 (HBM3 대비 향상) HBM3 컨트롤러와 호환 (이행 용이) 
상용화 시점 2024년 초 양산 시작 (SK하이닉스 2024년 3월 첫 양산)  2025년 샘플링, 2026년 양산 및 제품 적용 예상  
표에서 보듯 HBM4는 버스 폭을 2배로 늘려 이전 세대보다 대역폭을 획기적으로 높였고, 최대 스택 용량도 두 배 이상으로 증가했습니다  . HBM3E는 HBM3의 핀 속도를 향상(예: SK하이닉스 8 Gb/s → Micron 9.6 Gb/s)하여 스택당 1TB/s 내외의 대역폭을 달성했는데, HBM4는 구조적인 변경을 통해 스택당 2TB/s 수준까지 도약했습니다  . 또한 HBM4는 32개의 채널(혹은 64개의 준채널)을 사용하도록 아키텍처를 개편하여(기존 HBM3는 16채널) 메모리 병렬 처리를 강화했고, DRFM(Directed Refresh Management) 등 신뢰성(RAS) 기능이 추가되어 고온 환경에서의 안정성을 높였습니다  .
적용 현황: HBM3E는 2024년부터 본격 채택되기 시작하여 엔비디아의 Hopper 후속 모델인 H100 업그레이드형(H200) 및 차세대 Blackwell GPU 등에 사용되었습니다 . 예를 들어, 엔비디아 H200 GPU는 HBM3E로 메모리 용량을 80GB→141GB로 크게 늘리고 대역폭도 향상시켰으며, Blackwell 기반 B200 GPU는 총 192GB의 HBM3E로 8TB/s에 달하는 메모리 대역폭을 구현했습니다 . 이처럼 HBM3E는 기존 HBM3 시스템과의 호환성을 유지하면서도 성능을 극대화하여, 2024~25년 AI 가속기 업계의 가교 역할을 했습니다 .
HBM4는 2025년 하반기부터 샘플 공급이 시작되어, 2026년 출시되는 GPU 및 AI 가속기에 탑재될 전망입니다. AMD는 2026년 출시할 Instinct MI400 시리즈에 HBM4 채용을 공식 확인했고, 그 중 MI430X 가속기가 업계 최초로 HBM4 메모리를 활용한 제품으로 언급되었습니다  . 엔비디아 역시 공식 로드맵에서 2026년 차세대 GPU인 Rubin 아키텍처에 8개 이상의 HBM4 스택을 탑재할 계획을 밝혔으며, Rubin Ultra는 무려 16개의 HBM4 스택으로 총 16~32TB/s 대역폭을 목표로 하고 있습니다 . HBM4 탑재 제품들은 2026년 하반기부터 양산되어 AI 시스템의 새로운 성능 지표를 세울 것으로 기대됩니다.
향후 수요 전망: HBM 수요는 AI 붐과 함께 폭발적으로 증가하고 있습니다. 시장조사에 따르면 글로벌 HBM 시장 규모는 2025년 약 380억 달러에서 2026년 580억 달러로 급증할 전망입니다 . 이는 데이터센터 AI 가속기에 HBM이 필수적으로 채용되고, 모델 규모 확대로 메모리 용량·대역폭 수요가 기하급수적으로 늘어나기 때문입니다. 실제로 현재 모든 주요 AI 가속기(GPU, AI ASIC 등)는 HBM을 사용하고 있으며, 다른 메모리로는 대역폭을 충족하기 어려워 대안이 없다는 것이 중론입니다 . HBM3/3E 세대는 2024년에 전체 HBM 생산의 80% 이상을 차지하며 빠르게 구형 세대를 대체했고, 2025년에는 HBM 생산의 90% 가까이가 HBM3/3E로 전환될 만큼 업계의 전환 속도가 빠릅니다  . HBM4 수요 역시 초기부터 공급 부족이 예상될 정도로 높습니다. 대역폭과 용량 향상이 절실한 차세대 AI 모델을 위해 2026년 이후 출시되는 GPU/ASIC들은 HBM4 채택을 서두르고 있으며, HBM 공급업체들은 생산 캐파 증설에 나서는 중입니다  . 정리하면, HBM3E→HBM4로의 세대교체는 2024~2026년 가속될 것이며, AI 반도체의 성능한계를 결정짓는 “메모리 병목” 돌파를 위해 HBM의 중요성은 앞으로도 더욱 커질 전망입니다  .
2. 삼성전자 vs SK하이닉스: HBM3E/4 기술력 및 시장 지위 비교
전통적으로 HBM 시장은 SK하이닉스가 주도해 왔으며, 삼성전자는 후발주자로 따라가는 양상이었습니다. 2022~2023년 HBM3 세대에서 SK하이닉스는 세계 최초로 HBM3을 양산(엔비디아 H100 공급)했고, 삼성전자는 품질 문제로 주요 고객 인증에 어려움을 겪었습니다  . 하지만 2025년 하반기부터 삼성도 HBM3E 품질 개선에 성공하여 엔비디아와 AMD를 고객사로 확보하며 반격에 나섰습니다  . 양사의 HBM3E 및 HBM4 현황을 비교하면 다음과 같습니다:
비교 항목 삼성전자 (Samsung) SK하이닉스 (SK Hynix)
HBM3E 개발 및 양산 Shinebolt 코드명으로 2023년 10월 HBM3E 발표 (핀속도 최대 9.8 Gb/s) . 2024년~2025년 초 엔비디아 인증 지연(발열 등 품질 이슈)으로 양산 지연. 2025년 하반기 엔비디아 품질 테스트 통과 및 소량 공급 시작  . 세계 최초 HBM3E 발표 (2023년 5월, 핀속도 8 Gb/s)  및 2024년 3월 양산 돌입 . 12-Hi (12단 적층) HBM3E 세계 첫 양산으로 1.2 TB/s 달성 . 엔비디아 H100/H200 등에 공급하며 시장 주도.
HBM3E 성능 스펙 1024-bit, 최대 9.8 Gb/s/pin (이론상 1.25 TB/s/stack). 실제 초기제품은 발열 개선 후 9.0~9.8 Gb/s 수준 추정. 엔비디아 승인 시 가격 30% 인하 제시하여 공급 . 1024-bit, 8.0 Gb/s/pin (1.0 TB/s/stack) 제품으로 시작하여 안정적 공급 . Micron 9.6 Gb/s 제품 대비 보수적 스펙이지만 빠른 양산 안정화로 우위 확보. 2024년 말 16-Hi (16단) HBM3E 시제품 발표 (용량 32GB까지 확대).
HBM4 개발 진행 1znm(5세대) 대신 1cnm(6세대) 미세 공정 과감히 적용 . 2025년 Q3에 엔비디아향 HBM4 샘플 대량 공급 (초기 품질 테스트 진행) . 핀속도 최대 11 Gb/s 달성 보고(업계 최고)  . 2026년 상반기 양산 목표, 품질 인증 진행 중 (HBM4 현 양산 수율 ~50%로 개선 노력) . AMD MI450 차세대 AI칩의 주요 HBM4 공급처로 지목 . 세계 최초 HBM4 개발 완료 (2025년 9월) 공식 발표 . 1bnm(5세대) 공정採用으로 리스크 최소화 . JEDEC 기준(8 Gb/s) 대비 25%↑ 성능(10 Gb/s) 구현 , 스택당 2TB/s 달성. 2025년 말 주요 고객 샘플 제공 및 2026년 초 양산 출하 예정 . 엔비디아와 협력 강화로 HBM4도 주 공급자 노릴 계획 .
확보 고객 및 공급 현황 AMD: 2025년 MI300X 등에 HBM3E 공급 (업계 보고) . 차세대 MI400 시리즈에 HBM4 공급 추진. 엔비디아: 2025년 말 HBM3E 품질 승인, 소량 납품 개시 . 2026년 Blackwell/Rubin용 HBM4 공급 협상 중 (TSMC 패키지 캐파 부족으로 엔비디아도 삼성 의존 불가피) . 그 외 퀄컴, 인텔 등과도 협력 타진. 엔비디아: HBM 시장 최대 고객을 HBM3/HBM3E 세대부터 독점 공급 . H100, H200, Blackwell 등 주력 GPU에 SK HBM 탑재. AMD: MI250, MI300 등에도 공급 이력. 클라우드/ASIC 업체: AWS 등과 직접 HBM 공급 계약 사례 . 전체 HBM 시장 1위 공급자로 고객층 가장 광범위.
HBM 시장점유율 (2025년 기준) 17–29% (2024년 41% → 2025년 ~20%대로 하락)  . 2025년 하반기 엔비디아 공급 재개로 **분기 점유율 22%**까지 회복 . 2026년 HBM4로 추가 반등 기대. ~50–62% (2025년 상반기 62% , 연간 50% 내외 추정). 세계 1위 HBM 공급자 지위. Micron 약 20%대, 나머지 삼성. 2024년 SK가 삼성 제치고 전체 DRAM 매출 1위 달성 할 만큼 HBM 호조.
기술력 및 양산 비교: 위 표에서 볼 수 있듯, HBM3E 세대에서는 SK하이닉스가 한발 앞서 제품을 내놓고 양산 안정화에 성공한 반면 삼성전자는 초기에 발열·신뢰성 이슈로 엔비디아 인증에 1년 이상 지체되었습니다  . SK하이닉스는 12단 적층 HBM3E(24GB)를 세계 최초 양산하여 1.2TB/s 이상 대역폭을 뽑아냈고 , 엔비디아 H100/H200 등에 전량 공급하며 AI 메모리 시장을 주도했습니다. 삼성전자는 뒤늦게 개량한 HBM3E를 2025년 말 엔비디아에 공급하게 되었으나, 경쟁사 대비 30% 낮은 가격을 제시할 정도로 수주 경쟁에서 열세를 보였고 , 그동안 시장 점유율이 2022년 ~40%대 → 2024년 ~20%대로 급락하는 어려움을 겪었습니다  .
물론 HBM4 세대에서 삼성은 기술 승부수를 띄웠습니다. 미세공정을 한 세대 앞선 1c 공정까지 적용하여 보다 높은 속도(업계 최초 11 Gb/s 핀속도 추정)를 노리고, 공정 투자 여력을 총동원해 2026년 대량공급을 준비 중입니다  . 엔비디아의 차세대 GPU에도 SK뿐 아니라 삼성이 HBM4를 공급하게 될 가능성이 커졌는데, 이는 AI 수요 폭증으로 전 공급업체를 합쳐도 HBM4 생산능력이 달리는 상황이기 때문입니다 . 실제 보고서들은 엔비디아가 HBM4 확보를 위해 삼성과도 계약을 추진 중이며, 공급부족으로 가격이 높아졌음에도 불구하고 삼성 물량을 수용할 수밖에 없다고 전합니다  . SK하이닉스는 이에 맞서 상대적으로 안정적인 공정(1bnm)으로 HBM4를 개발 완료하여 양산 리스크를 최소화했고 , 이미 10 Gb/s 이상 제품을 고객사(엔비디아 등)에 샘플링하면서 시장 선점을 이어가려는 전략입니다  .
고객사 확보 현황: 엔비디아는 여전히 SK하이닉스 의존도가 높지만(2023년 기준 엔비디아의 HBM 공급 대부분 SK 제품) , 2025년 말부터는 삼성도 소량 물량을 공급하여 듀얼소싱이 시작되었습니다 . AMD의 경우, MI300 등 일부 제품에 삼성 HBM3E를 채택했다는 보도가 있고 , 향후 MI400 시리즈에는 삼성 HBM4를 받을 것으로 알려졌습니다 . SK하이닉스는 엔비디아 Hopper/H100부터 Blackwell까지 핵심 공급자 지위를 유지 중이며 , 클라우드 업체(예: AWS)나 AI 스타트업에도 직접 HBM을 공급하면서 고객 포트폴리오를 확대했습니다 . 반면 삼성은 HBM3/3E 물량을 주로 자사 시스템LSI 사업부(모바일 AP 등)나 일부 국내 팹리스 등에 공급해 왔으며, 글로벌 AI 가속기 업체로의 본격 공급은 HBM4 세대부터 증가할 것으로 보입니다.
시장 점유율: 2025년 기준 SK하이닉스의 HBM 시장점유율은 절반 이상으로 1위(약 5060%)이며, 삼성전자는 20% 안팎으로 2위, Micron이 1520% 수준으로 3위인 것으로 집계됩니다  . 2024년 한때 삼성 점유율이 20% 미만까지 떨어졌으나 , 2025년 하반기부터 삼성의 점유율이 20%대 초반으로 회복되고 Micron을 다시 앞서는 등(’25년 Q3 삼성 22% vs 마이크론 19% 추정) 반등 조짐이 나타났습니다 . SK하이닉스는 HBM 호황에 힘입어 사상 처음으로 전체 DRAM 매출에서도 삼성전을 추월(’25년 Q1 SK 36% > 삼성 34%)하는 등 메모리 판도 변화를 이끌었습니다 . 향후 1년은 삼성이 HBM3E 수율/품질과 HBM4 적기 공급에 성공하여 SK와 격차를 얼마나 줄이느냐가 관전포인트입니다 . 업계에서는 2026년 HBM4 대량 공급 이후 두 회사의 HBM 점유율이 접전 양상을 보일 가능성도 있다고 예상하지만 , 이는 삼성의 공정 도박(1c 적용) 성공 여부와 SK의 생산능력 확대에 달려 있을 것입니다. 결국 단기적으로 SK하이닉스가 우위를 지키겠지만, HBM4 세대부터는 삼성도 기술·투자 총력으로 따라붙어 양강 구도가 공고해질 전망입니다.
3. TSMC의 CoWoS 기술 우위와 삼성 파운드리와의 경쟁
CoWoS 개요: CoWoS(Chip-on-Wafer-on-Substrate)는 TSMC가 개발한 최첨단 2.5D 패키징 기술로, 실리콘 인터포저 위에 GPU/ASIC 같은 로직 칩과 HBM 메모리 스택을 함께 집적하는 방식입니다. 코어 칩과 메모리 사이에 대면적의 실리콘 인터포저를 배치하여 수천 개에 달하는 미세 배선을 구현함으로써, 기존 패키지로는 불가능한 초고대역폭 연결을 실현합니다  . 이 기술의 가장 큰 강점은 HBM과 같은 고대역폭 메모리를 프로세서 바로 옆에 밀집 연결함으로써, 메모리 대역폭을 획기적으로 높이고 지연과 전력 소모를 낮출 수 있다는 점입니다  . 실제로 HBM3E 스택 하나에는 1000개 이상의 신호선이 필요하고, 이를 위해서는 패키지 기판 위에 실리콘 인터포저를 깔아 미세 패턴 배선을 해야 합니다 . CoWoS는 이러한 HBM 통합을 업계에서 가장 먼저 실용화하여, 엔비디아 Volta/V100 시절부터 AI 칩 패키징의 사실상 표준으로 자리잡았습니다.
기술적 우위: TSMC의 CoWoS는 현재 최고 성능의 AI/HPC 패키징 솔루션으로 평가받습니다. 동급의 2.5D 기술인 인텔 EMIB, 삼성 I-Cube 등과 비교하면 다음과 같은 장점이 있습니다:
• 완성도와 신뢰성: CoWoS는 다년간의 양산 경험으로 수율과 신뢰성 검증이 완료된 솔루션입니다. 엔비디아, AMD, 구글TPU, 브로드컴 등 다수의 고성능 칩이 CoWoS로 패키징되어 실제 데이터센터에서 검증되었고, 이로 인해 고객 신뢰도가 높습니다. 반면 경쟁 기술들은 아직 대량 양산 사례가 적거나 제한된 적용에 머물러 있습니다.
• 최대 대역폭 지원: 전체 실리콘 인터포저를 사용하기 때문에, 수천 개 연결을 병렬로 구현하여 HBM 다수를 동시에 연결하는 데 유리합니다 . 예를 들어 CoWoS는 하나의 GPU에 HBM을 6~8개까지 붙여 패키지 당 수십 TB/s 대역폭도 구현 가능한데, 이는 작은 브릿지로 연결하는 EMIB 등으로는 달성하기 어렵습니다  . 즉, HBM과 같은 “메모리 대역폭 몬스터” 칩에 최적화된 구조가 CoWoS입니다.
• 성숙한 공정 생태계: TSMC는 CoWoS 인터포저 제조에 자사 65nm~45nm 공정을 활용하며, 디자인툴부터 테스트까지 완성된 생태계를 제공합니다. 반면 삼성전자는 I-Cube 패키징을 비교적 최근에 상용화했고, 인텔 EMIB은 주로 자사/파트너 제품 일부에 쓰이며 생태계가 제한적입니다. TSMC의 3DFabric 플랫폼 내에서 CoWoS와 SoIC(3D 적층) 등이 통합 제공되므로, 고객 입장에서 원스톱으로 최첨단 패키징을 적용하기 수월합니다.
• 시장 채택 및 확장성: CoWoS는 현재 압도적인 시장 점유율을 갖고 있습니다. 2025년 기준 전세계 CoWoS 패키징 수요의 60% 이상이 엔비디아로부터 발생하며 , AMD, 브로드컴 등 합쳐도 30%가 넘습니다. 사실상 주요 AI 칩 업체 대부분이 CoWoS에 의존하고 있는 상황입니다. TSMC는 폭발하는 수요에 대응해 2023년 월 1.5만 장 수준이던 CoWoS 패키지 캐파를 2024년 3.5만→2025년 7만→2026년 10만 장 이상으로 급증시킬 계획입니다  . 이러한 선제 투자는 경쟁사가 따라오기 힘든 규모이며, TSMC가 당분간 기술·공급 측면에서 우위를 지속할 것을 시사합니다.
경쟁사 대비: 경쟁사의 대응 기술로 인텔의 EMIB(임베디드 브릿지)와 삼성의 I-Cube가 자주 언급됩니다. 인텔 EMIB는 인터포저 대신 기판에 작은 실리콘 브릿지를 박아 칩 간 국부적으로 연결하는 방식으로, 비용과 열 방출 면에서 유리하나, HBM처럼 초광대역이 필요한 경우엔 한계가 있습니다  . EMIB는 주로 FPGA나 CPU+GPU 혼합 등의 용도로 쓰이며, 대규모 HBM 통합에는 아직 활용되지 않고 있습니다 . 삼성전자의 I-Cube는 CoWoS와 유사하게 실리콘 인터포저를 사용하는 I-Cube S와, 실리콘 브릿지+재배선층을 결합한 하이브리드 인터포저(I-Cube E) 솔루션을 개발하여 2022년 이후 홍보해왔습니다  . I-Cube S는 구조적으로 CoWoS-S와 거의 같아 HBM3/3E까지 지원하나, 삼성의 패키징 실적이 아직 많지 않아 대형 고객사는 시험 적용 단계에 그칩니다. 삼성은 더 나아가 로직 칩 적층 기술인 X-Cube(3D 적층 + Cu-Cu 하이브리드 본딩 기술)도 개발 중인데  , 이는 향후 HBM을 논리칩 위에 직접 적층하는 진화형 패키징으로 기대를 모읍니다. 그러나 이러한 삼성/인텔 기술들도 현 시점에서는 CoWoS 대비 검증 부족이며, 실제 대규모 AI 제품에 적용되기까지는 시간이 더 필요합니다.
삼성 파운드리와의 경쟁 및 영향: CoWoS의 성공은 파운드리 분야에서 TSMC에 새로운 경쟁 우위를 안겨주었습니다. 단순히 5nm, 3nm 공정 경쟁을 넘어, TSMC에서 칩 생산부터 패키징까지 원스톱으로 제공함으로써 엔비디아와 같은 고객이 삼성으로 이탈하기 어렵게 만드는 요인이 되고 있습니다. 실제 2023년 AI 칩 공급난 당시, 엔비디아는 삼성 파운드리에 일부 생산을 맡기는 방안을 검토했지만, TSMC CoWoS 패키징에 대한 높은 의존도 때문에 전체 생태계를 바꾸기 쉽지 않았습니다. TSMC는 자사 선단공정 칩들은 오직 자사 CoWoS에서만 패키징 가능하도록 기술 최적화를 해두었고, 삼성은 이를 쫓아가기 위해 2023~2024년 급하게 첨단 패키징 투자를 늘렸습니다 . 하지만 업계 관계자들은 “CoWoS 용량 부족으로 AI GPU 공급이 병목”이라는 말이 나올 정도로 TSMC의 영향력이 절대적이며 , 삼성은 TSMC가 소화 못하는 물량을 틈새 공략하는 수준에 머물고 있다고 평가합니다. 예를 들어 2024년 한때 CoWoS 캐파가 포화되어 엔비디아가 패키징 슬롯 확보에 애를 먹자, 삼성전자가 자사 I-Cube로 일부 물량을 패키징 제안하기도 했으나 아직 구체적 성과로 이어지진 않은 것으로 알려졌습니다.
TSMC의 CoWoS는 이러한 공급 병목에도 불구하고 수익성과 기술 주도권 측면에서 막대한 영향력을 행사하고 있습니다. 고부가가치 패키징인 CoWoS 덕분에 TSMC는 AI 칩 분야에서 추가 마진 확보는 물론, 고객사와의 파트너십 주도권을 쥐고 있습니다 . 반면 삼성 파운드리는 최첨단 공정 수율 경쟁 외에 패키징 기술에서도 열세를 보이며, AI 슈퍼칩 수주전에서 TSMC에 주도권을 내주고 있습니다. 다만 삼성도 2025년 이후 **첨단 패키징 라인 증설과 국내 협력 (예: AVIOX – 인터포저, ABSOLICS – 글래스 인터포저 등)**을 통해 CoWoS 대항마를 준비하고 있어, 향후 몇 년 내 일부 AI 업체의 패키징 다변화 가능성은 있습니다  . 요약하면 현재까지 TSMC CoWoS는 기술적 우위와 시장 장악력 면에서 경쟁사를 크게 앞서 있으며, 이는 파운드리 본업의 경쟁력 (고객 락인 효과)으로도 이어져 TSMC의 AI 시대 영향력을 더욱 공고히 하고 있습니다.
4. 차세대 메모리 HBF (Hybrid Bonding-based HBM, High Bandwidth Flash)
개념: HBF는 High Bandwidth Flash의 약자로, HBM 이후를 대비한 차세대 메모리 아키텍처로 주목받고 있습니다. 말 그대로 NAND 플래시 기반으로 HBM과 유사한 구조의 고대역폭 메모리 스택을 구현한 것으로, 2025년 미국 SanDisk(웨스턴디지털)와 SK하이닉스가 협력 발표하여 화제가 되었습니다 . HBM이 여러 개의 DRAM 다이를 TSV로 수직 적층한 후 인터포저로 폭넓게 연결해 대역폭을 높인 것처럼, HBF는 속도는 느리지만 밀도가 높은 NAND 플래시 칩들을 3D 적층 및 하이브리드 본딩 기법으로 연결하여 대용량이면서도 고대역폭 I/O를 제공하는 것이 목표입니다  . HBM과 DRAM의 융합이라고 오해하기 쉽지만, 실제로는 DRAM 대신 플래시를 사용함으로써 용량을 극대화하는 새로운 계층의 메모리를 정의한 것입니다. SanDisk과 SK하이닉스는 이를High Bandwidth Flash라고 명명하며, AI 가속기의 메모리 용량 한계를 돌파할 수단으로 소개했습니다 .
기술적 구조: HBF의 구조는 HBM 형태의 패키지 모듈 안에 NAND 플래시 다이를 적층하는 것입니다. 기존 HBM과 달리 NAND는 비휘발성 특성이 있어 전원을 꺼도 데이터가 유지되고, 비트 밀도가 높아 동일 면적에 훨씬 많은 용량을 넣을 수 있습니다 . HBF에서는 이러한 NAND 적층을 위한 첨단 3D 적층 기법이 활용되는데, 하이브리드 본딩(hybrid bonding) 기술이 키 포인트입니다. 하이브리드 본딩은 기존 마이크로범프 없이 칩과 칩을 직접 Cu-Cu 등으로 분자 수준 연결하는 기술로, 메모리와 인터포즈 로직 사이의 I/O 병렬성을 극대화합니다 . SanDisk는 자사 3D NAND 공정(BiCS) 기반 CBA(Copper Bonded Assembly) 웨이퍼 본딩 기술로 HBF 시제품을 구현했다고 밝혔습니다 . 이는 수십 개의 NAND 층을 마치 하나의 HBM 스택처럼 만들어, GPU 등이 접근할 수 있도록 한 것입니다. 결과적으로 HBF는 HBM 대비 8~16배의 용량을 제공하면서도 유사한 수준의 총 대역폭을 달성하는 것을 목표로 합니다  . 다만 DRAM이 아니므로 지연시간(latency)은 더 길고 쓰기 내구성 등의 한계가 있지만, AI 워크로드에서는 큰 모델 파라미터를 저장하는 대용량 메모리 계층으로 유용합니다  . 요약하면, HBF는 HBM의 대역폭 특성과 NAND의 고밀도 특성을 결합한 새로운 메모리 솔루션입니다.
SanDisk가 공개한 HBF 메모리 컨셉 구성도. 고밀도 NAND 플래시 dies을 HBM과 유사한 구조로 묶어 GPU에 인접한 패키지로 제공함으로써, 스토리지 수준의 대용량을 메모리 버스 수준의 대역폭으로 활용한다 (이미지: SanDisk)  .
SanDisk–SK하이닉스 협업: 2025년 8월, SanDisk(웨스턴디지털)와 SK하이닉스는 HBF 표준화를 위한 양해각서(MOU)를 체결하고 공동 개발에 나섰다고 발표했습니다 . SK하이닉스는 세계 최고 수준의 HBM/DRAM 기술을, SanDisk는 NAND 플래시 및 적층 기술을 보유하고 있어 양사의 장점을 결합한다는 평가를 받았습니다. 해당 MOU 발표와 함께 Flash Memory Summit 2025 행사에서 SanDisk는 HBF 시제품을 전시하여 주목받았고, “올해의 가장 혁신적인 기술상”을 수상하기도 했습니다 . SK하이닉스 측도 자사 AI 메모리 로드맵에 HBF를 포함시키며, 향후 플래시와 DRAM의 결합된 메모리 생태계를 선도하겠다는 비전을 밝혔습니다 . 특히 SK하이닉스는 엔비디아와의 긴밀한 관계를 바탕으로, HBF 생태계를 조성하면 즉시 채용할 잠재 고객(엔비디아 등)을 확보할 수 있을 것으로 기대되고 있습니다  . 또한 양사는 HBF 기술의 업계 표준화를 위해 기술 자문위원회를 구성하고, 전(前) 인텔 그래픽 책임자 라자 코두리 등을 자문으로 참여시키는 등 산업 전반의 참여를 독려하고 있습니다 .
경쟁 구도 및 선도 여부: 현재로서는 SanDisk-SK하이닉스 연합이 HBF 분야에서 선도적 위치에 있습니다. 아직 Micron이나 삼성전자 등 다른 메모리 업체는 공개적으로 HBF와 동일한 개념의 기술을 발표하지는 않았습니다. 다만 삼성전자는 2023년 말 PBSSD라는 플래시 기반 AI 스토리지 솔루션(페타바이트급 SSD)을 공개하며, 대용량 NAND로 AI 메모리 한계를 보완하려는 움직임을 보였습니다 . 이는 엄밀히 HBF와 동일하지는 않지만, 데이터센터에서 DRAM 대비 저렴한 대용량 메모리 티어를 제공하려는 시도로 맥락을 같이합니다. 따라서 중장기적으로 삼성, Micron 등도 HBF와 유사한 기술 개발에 착수할 것으로 전망됩니다. 그러나 “HBM의 아버지”로 불리는 KAIST 김정호 교수는 “향후 10년 내 HBF가 HBM을 대체할 것”이라고 예상하면서, 현 시점에서 해당 기술을 선점한 SK하이닉스 등의 미래 경쟁력을 높게 평가했습니다 . 그에 따르면 AI 성능 향상에는 메모리 대역폭뿐 아니라 용량도 중요하며, 현행 HBM은 용량 면에서 한계가 있으므로 HBM을 보완하는 대용량 계층으로서 HBF가 필연적으로 부상할 것이라는 분석입니다  . 결국 SK하이닉스-SanDisk 연합이 초기 HBF 기술 리더로서 앞서 나가고 있으며, 다른 경쟁사들은 아직 이를 추격하거나 대안을 내놓지 못한 상황입니다.
출시 시기 및 전망: Tom’s Hardware 등에 따르면 HBF 첫 제품 샘플은 2026년 하반기에 나올 예정이며, 2027년 초에 이를 통합한 AI 하드웨어가 등장할 것으로 예상됩니다 . 이는 당장 1~2년 내 상용화되기보다는 중장기 로드맵에 속하는 기술임을 뜻합니다. 최초 적용 분야로는 대규모 AI 모델 추론 가속기 등이 거론되며, 예컨대 데이터센터 추론용 GPU에 HBM + HBF를 혼용하여, HBM은 캐시처럼 빠른 메모리로, HBF는 거대한 모델 파라미터 저장용 메모리로 쓰는 구조가 가능할 것입니다 . 이러한 이기종 메모리 스택이 현실화된다면, 메모리 용량 부족으로 인한 AI 모델 크기 한계를 크게 완화하고 비용과 전력 소모도 최적화할 수 있을 것으로 기대됩니다  . 예를 들어, HBF는 DRAM이 아니므로 데이터센터 전력 절감 효과도 있으며, HDD/SSD에서 데이터를 불러오는 병목을 제거해 추론 지연을 줄이는 역할을 할 수 있습니다  .
시장 전망 측면에서, HBF가 성공할 경우 메모리 업계에 새로운 카테고리 창출로 이어질 것입니다. SK하이닉스는 이미 세계 1위 메모리 업체로서 (매출 기준)  HBF를 자체 제품화할 경우 큰 이익을 볼 수 있고, 서버/클라우드 업체들도 HBM 대비 비용 효율적으로 메모리를 확장할 수 있어 관심이 높습니다  . 물론 기술적 과제(플래시 내구성, 컨트롤러 아키텍처 등)가 남아 있고 HBM을 완전히 대체하기보다는 보완재로 쓰일 것이란 전망이 우세합니다  . 요약하면, HBF는 AI 시대의 “메모리 용량의 벽”을 허무는 잠재적 게임체인저로서, SK하이닉스와 SanDisk의 주도로 2026~2027년 경 시장에 등장할 것이며, 향후 10년 내 고성능 메모리 패러다임을 재편할 가능성이 있는 기술로 주목해야 할 것입니다.
참고 자료: 본 보고서는 2025년 말까지의 기업 공식 발표, 업계 리포트, 신뢰도 있는 기술 전문 매체 보도를 종합하여 작성되었습니다   . 최신 정보를 반영하려 노력했지만, 기술의 특성상 향후 전개는 시장 상황에 따라 달라질 수 있습니다. 각 주제별로 상세한 내용과 출처는 본문 각주에 명기하였으니 참조하시기 바랍니다.
'경제와 산업' 카테고리의 다른 글
| 2026년 한국 경제 전망과 투자 전략 (0) | 2026.01.12 |
|---|---|
| Goldman Sachs Warns of Korean Economic Challenges in 2026 (0) | 2026.01.12 |
| SK하이닉스, 사상 처음으로 삼성전자 연간 영업이익 추월 전망 2025 (0) | 2026.01.12 |
| 2026년 한일 대기업 시가총액 비교 삼전 하닉 도요타 소니 (0) | 2026.01.10 |
| [닐의통찰] 1500원 환율 앞에서 정부 개입 효과가 없는 이유 (0) | 2026.01.10 |