본문 바로가기
IT & Tech 정보

차세대 AI 메모리 기술: SOCAMM과 HBM4의 현재와 전망

by 지식과 지혜의 나무 2025. 6. 11.
반응형


1. 마이크론의 SOCAMM 기술과 경쟁 우위


**SOCAMM(System-On-Chip Advanced Memory Module)**은 LPDDR5X 기반 저전력 DRAM 스택을 작은 모듈 형태로 구현한 차세대 메모리 폼팩터입니다 . 마이크론은 엔비디아와 공동 개발을 통해 세계 최초의 128GB SOCAMM 모듈을 공개했으며, 이는 16-다이 LPDDR5X 칩 4개를 적층한 구성으로 초고용량을 달성합니다  . 모듈 크기는 약 14×90mm로 기존 RDIMM의 1/3 수준에 불과해 공간 활용도가 뛰어납니다 .


SK하이닉스가 2025년 GTC에서 공개한 128GB SOCAMM 모듈. 16Gb LPDDR5x 칩 4개를 적층했으며, 프로토타입 기준 7.5Gb/s의 데이터 전송 속도를 달성했다 . 소형 폼팩터로 AI 서버에 최적화된 커스터마이즈드 DIMM 타입이다.

LPDDR5X 메모리를 활용한 SOCAMM의 가장 큰 강점은 압도적인 전력 효율과 발열 억제입니다. 마이크론의 128GB SOCAMM은 동일 용량의 DDR5 RDIMM 대비 소비전력을 1/3 수준으로 낮춰 동일 용량에서 66% 이상의 전력 절감 효과를 냈습니다 . 실제로 삼성전자 역시 시제품 SOCAMM 모듈의 소비전력이 약 9.2W로 동등 용량 DDR5 모듈보다 45% 이상 효율적이라고 밝혔습니다 . 전력 소모가 크게 줄어든 만큼 발열도 감소하여 고밀도 서버 환경에서도 열 설계에 유리한 것이 특징입니다. 이러한 저전력 특성은 수 Terabyte급 메모리를 장착하는 AI 서버에서 메모리가 CPU보다도 더 많은 전력을 소모하는 기존 한계를 극복하는 열쇠로 주목됩니다 .

또한 대역폭 성능에서도 SOCAMM은 두드러진 우위를 보입니다. 마이크론 SOCAMM은 최대 9.6 GT/s의 데이터 전송 속도를 지원하여 동일 용량 기준 DDR5 RDIMM보다 2.5배 높은 대역폭을 제공한다고 합니다  . 이는 경쟁사인 SK하이닉스가 GTC 2025에서 시연한 SOCAMM(최대 7.5 GT/s)보다도 앞선 수치입니다 . 결합된 LPDDR5X의 낮은 전력 특성과 폭넓은 I/O 병렬성 덕분에, SOCAMM은 높은 대역폭을 유지하면서도 발열 억제에 유리한 메모리 솔루션을 구현했습니다  .

마이크론은 수 년간 모바일 LPDDR 기술을 데이터센터급으로 강화하는 연구를 통해 신뢰성 향상 기술도 적용했습니다 . 데이터센터는 모바일 환경보다 엄격한 신뢰성이 요구되므로, 마이크론은 테스트 플로우 개선 등으로 LPDDR5X 모듈의 서버 적합성을 높였다고 밝혔습니다 . 그 결과 마이크론 SOCAMM은 높은 용량과 성능, 낮은 전력을 모두 만족하며, 엔비디아 Grace-Blackwell 플랫폼에 채택되는 등 경쟁사 대비 한발 앞서 시장에 선보이게 되었습니다  . 업계 분석가들에 따르면 “엔비디아가 모든 메모리 파트너와 협력하고 있지만 마이크론이 가장 앞서 있다”는 평가를 받을 정도로 마이크론 SOCAMM의 선점 효과가 두드러집니다 .

2. SOCAMM이 주목받는 이유와 향후 전망


SOCAMM이 시장에서 큰 주목을 받는 이유는 AI 시대 메모리 아키텍처의 새로운 패러다임을 제시하기 때문입니다. 우선, 대규모 연산을 수행하는 AI 가속기 시스템에서는 **HBM(고대역폭 메모리)**으로 GPU의 대역폭을 충족시키면서도, 병렬 학습을 위한 대용량 메인 메모리가 동시에 요구됩니다 . 기존에는 DDR5 RDIMM을 다수 사용해 용량을 확보했지만, 전력 소모와 발열, 공간 문제가 심각했습니다 . 엔비디아 Grace CPU 사례에서 보이듯, DDR5 대신 LPDDR5X를 사용하면 전력은 낮아지지만 용량을 늘리기 위해 메모리를 기판에 직접 솔더링해야 했고, 교체나 업그레이드가 불가능한 단점이 있었습니다 . SOCAMM은 이러한 문제를 한 번에 해결해주는 모듈형 LPDDR 메모리 표준으로 등장했습니다.

SOCAMM은 탈부착이 가능한 모듈 설계를 통해 서버 메모리의 유지보수와 확장성을 크게 높입니다  . 기존 솔더링된 LPDDR 솔루션과 달리, SOCAMM 채택 시스템에서는 메모리 고장 시 모듈만 교체하면 되고, 향후 더 높은 용량 모듈로 업그레이드도 가능합니다 . 이는 데이터센터 운영 관점에서 다운타임을 줄이고 비용을 절감하는 장점으로 이어집니다. 또한 소형 폼팩터 덕분에 메모리 슬롯 공간을 최소화하여 남는 공간을 AI 가속기에 더 할당하거나, 동일 공간에 더 많은 메모리를 장착할 수 있게 합니다 . 업계에서는 SOCAMM을 **“차세대 HBM”**에 비유하며, 작은 PC나 랩톱에서도 고성능 메모리를 구현할 수 있는 키 포인트로 평가합니다  . 실제로 엔비디아는 2025년 CES에서 **개인용 AI 슈퍼컴퓨터 프로젝트 “DIGITS”**를 발표하며, 1세대 제품에는 개별 LPDDR 패키지를 사용하되 차기 버전에는 SOCAMM 4개를 통합할 계획임을 시사했습니다 . 이는 SOCAMM이 향후 엣지 AI 디바이스나 워크스테이션급 시스템까지 활용 범위를 넓힐 잠재력이 있음을 보여줍니다.

AI 붐으로 인한 폭발적 수요도 SOCAMM의 전망을 밝게 합니다. 엔비디아를 비롯한 업계는 차세대 플랫폼에서 SOCAMM을 표준 채택하기 위해 메모리 3사와 긴밀히 공조하고 있습니다 . 특히 엔비디아는 JEDEC 표준화에 얽매이지 않고 자체 메모리 생태계를 구축하려 하고 있는데, SOCAMM 추진은 그러한 전략의 일환으로 평가됩니다 . 아직 SOCAMM 자체가 JEDEC 공식 표준은 아니지만, 마이크론·삼성·하이닉스가 모두 참여하는 사실상의 컨소시엄 형태로 개발되고 있어 업계 표준으로 자리잡을 가능성도 거론됩니다 . 향후 엔비디아뿐 아니라 AMD, 인텔 등의 플랫폼에도 SOCAMM 개념이 파급될 수 있으며, 이는 서버 메모리 시장의 지형 변화를 가져올 수 있습니다.

물론 SOCAMM이 널리 상용화되기 위해서는 남은 과제들도 있습니다. 높은 신뢰성 확보를 위해 ECC 지원, 채널 설계 최적화 등이 병행되어야 하고 , 차세대 규격으로 JEDEC 인증을 받을지도 지켜봐야 합니다 . 그럼에도 불구하고, 메모리 업계는 **“AI 시대의 게임체인저”**로서 SOCAMM을 주목하고 있으며, 2025년 이후 출시될 차세대 AI 시스템에 본격 적용될 전망입니다  . 낮은 전력과 발열, 높은 용량과 대역폭을 모두 갖춘 SOCAMM은 AI 인프라의 핵심 구성요소로 부상할 가능성이 큽니다.

3. 삼성전자와 SK하이닉스의 SOCAMM 개발 현황 및 지연 배경


삼성전자와 SK하이닉스 역시 마이크론에 뒤질세라 SOCAMM 개발에 박차를 가하고 있습니다. 두 회사 모두 2025년 3월 엔비디아 GTC에서 자사 SOCAMM 시제품을 선보이며 기술력을 과시했습니다 . SK하이닉스의 시연 모듈은 128GB 용량에 전송속도 7.5 GT/s를 구현했다고 밝혀졌는데, 이는 마이크론 초기 제품보다는 낮지만 LPDDR5X 기반 서버 모듈의 가능성을 입증한 수치입니다 . 삼성전자는 구체 제원을 공개하지 않았으나, 엔비디아에 다수의 SOCAMM 샘플을 공급할 정도로 개발을 진척시킨 것으로 전해졌습니다. 삼성 시제품은 약 9.2W의 소비전력을 보이며 DDR5 DIMM 대비 45% 이상의 에너지 효율을 달성했다고 알려져, 마이크론 제품과 유사한 전력 특성을 보입니다 . 다만 양산 시점에 있어서는 두 회사 모두 신중한 입장입니다. SK하이닉스는 “시장 개화 시점에 맞춰 SOCAMM을 양산할 계획”이라고 밝혔는데 , 이는 실제 수요가 발생하는 2025년 이후(엔비디아 차세대 플랫폼 시기)에 생산을 맞추겠다는 뜻으로 해석됩니다. 삼성전자도 비슷하게 필요한 시점에 공급할 준비를 갖추는 전략으로 보입니다.

이러한 시기의 신중함에는 엔비디아 납품 일정의 변화가 크게 작용했습니다. 당초 엔비디아는 Grace-Blackwell 기반 차세대 시스템에 SOCAMM을 적용할 계획이었던 것으로 알려졌으나, 2025년 5월 경 해당 계획을 연기한 것으로 전해졌습니다 . 업계 소식통을 인용한 보도에 따르면, 엔비디아는 “차세대 저전력 DRAM 모듈(IP)의 상용화를 당분간 보류한다”는 결정을 메모리 파트너사들에 통보했습니다  . 이로 인해 당초 Grace-Blackwell 칩용으로 준비되던 SOCAMM 표준은 이번 세대에는 도입되지 않고, 차세대 GPU 아키텍처(코드명 Rubin)로 연기된 것으로 알려졌습니다  . 실제 엔비디아는 GTC 2025에서 차세대 Rubin GPU를 미리 공개하면서, **SOCAMM을 위한 새로운 보드 설계(Cordelia)**를 한때 검토했으나 결국 기존 LPDDR5X 솔더다운 설계(Bianca 보드)로 회귀한 정황이 포착되었습니다  .

엔비디아가 SOCAMM 도입을 연기한 배경에는 기술적 완성도 문제가 있던 것으로 보입니다. ZDNet Korea의 보도에 따르면, Blackwell GPU와 연동되는 SOCAMM 채택 보드(Cordelia)에서 신호 무결성 저하와 데이터 오류 등 신뢰성 이슈가 발견되었습니다 . 또한 LPDDR5X 모듈 여러 개를 병렬 운용하면서 발열 해소 문제도 제기되는 등, 새로운 폼팩터의 초기 난관이 존재했습니다 . 엔비디아는 이러한 설계∙패키징 난제를 해결하기 위해 충분한 시간을 갖기로 하고, 완성도가 확보된 차세대에 SOCAMM을 투입하기로 전략을 선회한 것입니다  . 이로써 삼성과 하이닉스는 엔비디아향 SOCAMM 양산을 당장 시작하기보다는, 2026년 이후 Rubin 플랫폼에 맞춰 일정을 재조정하게 되었습니다 . 실제로 양사는 2025년 하반기~2026년에 본격 양산을 개시할 것으로 예상되며, 그 사이에 모듈 신뢰성 보강과 속도 향상을 위한 개발을 지속할 전망입니다.

향후 전략 측면에서 삼성전자와 SK하이닉스는 마이크론을 빠르게 추격하며 엔비디아 플랫폼을 반드시 확보하겠다는 목표를 가지고 있습니다. 마이크론이 선점했지만 SOCAMM은 엔비디아가 주도하는 표준이기에, 두 회사 모두 참여하지 않을 수 없는 상황입니다 . SK하이닉스는 자사의 LPDDR5X 기술력과 서버 메모리 설계 노하우를 살려 양산 시 안정성과 성능을 모두 충족시키겠다고 밝혔고 , 삼성전자도 차세대 메모리 폼팩터에서 주도권을 놓치지 않기 위해 대규모 샘플 공급 및 엔지니어링 협업을 이어가는 것으로 알려졌습니다. 특히 양사는 자체 검증 및 엔비디아 검증 과정을 통해 발견된 발열, 신뢰성 이슈를 해결하는 데 주력하고 있습니다. 엔비디아의 일정 변화로 다소 시간적 여유가 생긴 만큼, 완성도를 높여 Rubin 세대에 안정적으로 납품하는 것이 이들의 핵심 대응 전략입니다. 업계에서는 결국 Rubin 플랫폼에서 삼성·하이닉스·마이크론 3사 모두 SOCAMM을 공급하며 경쟁하게 될 것으로 보고 있습니다 .

4. 엔비디아 차세대 AI 가속기 ‘Rubin’의 사양과 SOCAMM 연계


엔비디아의 차세대 AI 가속기 아키텍처 **“Rubin”**은 현世 최고의 성능을 목표로 2025년 이후 출시 준비 중인 GPU 세대입니다. Rubin GPU는 엔비디아 최초로 칩렛(chiplet) 디자인을 도입한 GPU로 알려져 있으며, TSMC의 3nm (N3P) 공정으로 제작되고 첨단 CoWoS-L 패키징 기술을 활용합니다 . 하나의 Rubin GPU는 기존 Hopper/Blackwell 같은 모놀리식 구조가 아닌 다수 칩렛의 집합체로 구성되며, I/O 다이 등을 별도로 패키지 내 통합(TSMC 5nm 공정의 I/O 다이)할 것으로 전해졌습니다 . 단일 GPU 다이 면적은 Blackwell 대비 더 커져 **실리콘 면적이 4배(4x reticle)**에 달할 것이라는 소식도 있어, 엄청난 트랜지스터 집적과 연산 성능 향상이 기대됩니다 . 이러한 설계는 AI 트레이닝에 요구되는 방대한 연산량을 처리하기 위한 것으로, TSMC 3nm 공정+첨단 패키징+칩렛 아키텍처의 결합이 Rubin 세대의 핵심 특징으로 꼽힙니다.

Rubin GPU의 메모리 아키텍처 역시 대폭 업그레이드됩니다. 차세대 HBM4 메모리를 세계 최초로 채택하여, 기존 HBM3E 대비 60% 이상 향상된 메모리 대역폭을 제공할 전망입니다 . 실제 SK하이닉스는 세계 최초 12단 적층 HBM4 샘플을 2024년 초 고객사에 출하했는데, 업계에서는 이 12-Hi HBM4가 엔비디아 Rubin GPU용으로 활용될 것이라고 보고 있습니다 . 12-Hi HBM4 한 개만으로 초당 2TB 이상의 데이터 처리가 가능할 정도로 성능이 뛰어나며 , Rubin GPU에는 이러한 HBM4 스택 여러 개가 탑재되어 현세대 대비 압도적인 메모리 대역폭을 확보할 것으로 예상됩니다. (참고로 현 세대 Hopper/Blackwell GPU는 HBM3/3E를 68개 사용하여 GPU당 34TB/s 수준의 대역폭을 달성했습니다.) 또한 Rubin 플랫폼에는 차세대 Grace CPU 후속격인 “Vera” CPU도 함께 개발되고 있다는 보도가 있으며 , 추후 Rubin GPU + Vera CPU가 결합된 슈퍼칩 형태로 출시될 가능성도 거론됩니다. 이러한 CPU와 GPU의 결합 솔루션에서는 CPU 측 메모리로 SOCAMM 모듈이 활용되고 GPU 측에는 HBM4가 탑재되어, HBM의 속도와 SOCAMM의 대용량을 모두 갖춘 시스템을 구현할 것으로 전망됩니다 .

엔비디아는 GTC 2025 기조연설에서 차세대 Rubin GPU의 일부를 선공개하며 큰 관심을 끌었습니다. 특히 **“Rubin Ultra”**라 명명된 최고성능 버전을 예고했는데, 무려 576개의 Rubin GPU로 구성된 AI 서버와 차세대 NVLink 인터커넥트(프로젝트 Kyber)를 시연하며 이 플랫폼이 2027년 하반기 출시될 것임을 언급했습니다 . 이는 Rubin 아키텍처를 기반으로 한 최상위 데이터센터 제품이 2027년에 등장함을 시사하는 것이며, 주류 Rubin 가속기 자체는 그보다 앞선 2026년 경 양산될 것으로 예상됩니다 . 실제 업계 보고에 따르면 Rubin 칩은 2025년 중 테이프아웃을 완료하고 2025년 말 샘플 출하, 2026년 초 양산을 목표로 순조롭게 개발 중이라고 합니다  . Rubin 세대에서는 앞서 언급한 SOCAMM도 다시금 주요 기술로 포함될 전망입니다. 엔비디아가 Grace-Blackwell 세대에선 SOCAMM을 한발 늦추었지만, Rubin 아키텍처와 함께 SOCAMM 표준을 도입할 것이 유력합니다 . 따라서 2026~2027년에 출시될 엔비디아의 GPU 가속기 시스템에는 HBM4와 더불어 SOCAMM 모듈이 본격 장착되어, 메모리 대역폭과 용량 양면에서 획기적인 성능을 발휘할 것으로 기대됩니다.

5. 마이크론 HBM4 개발 동향 및 열 관리 기술의 차별점


마이크론은 HBM 분야에서 후발주자였으나, 최근 공격적인 투자를 통해 HBM3E 양산 및 HBM4 개발을 빠르게 따라잡고 있습니다 . 마이크론은 2024년 초 엔비디아의 HBM3E 검증을 완료하고 HBM3E 양산에 돌입했으며, 2024~2025년 생산물량이 모두 완판될 정도로 수요를 확보했습니다 . 나아가 차세대 HBM4에 대해서는 2026년 양산 목표로 개발 중이며, 그 성능은 현행 HBM3E 대비 대역폭 60%+ 향상을 자신하고 있습니다 . 이는 HBM3E 한 스택당 1.2TB/s 내외인 점을 감안하면, HBM4에서는 스택당 약 2TB/s에 육박하는 속도를 달성한다는 의미입니다. 마이크론은 HBM4 이후 2027~28년경 HBM4E 세대까지 로드맵을 제시하며, 업계 선두 수준의 기술 개발 의지를 보이고 있습니다  .

HBM은 칩을 수십 층 적층하는 3D 패키징 특성상 **열 관리(발열 억제)**가 중요한 기술 이슈입니다. 각사마다 열 관리를 위해 미세 접속 기술을 발전시켜왔는데, 마이크론과 삼성은 HBM3까지 주로 TC-NCF(열압착+비도전성 필름) 공정을 활용했고, SK하이닉스는 MR-MUF(몰드 언더필) 공정을 써왔습니다 . 이러한 마이크로범프(microbump) 기반 접합 방식은 비교적 성숙하지만, 적층 높이가 높아지고 I/O 수가 증가할수록 저항과 열저항이 증가하여 성능과 효율의 한계로 지적되었습니다 . 이를 타개하기 위해 부상한 기술이 **하이브리드 본딩(hybrid bonding)**으로, 칩과 칩을 마이크로범프 없이 직접 Cu-Cu 접합함으로써 접합 피치를 10㎛ 이하로 줄이고 전기적 저항과 신호지연, 발열을 동시에 개선합니다  .

삼성전자는 차세대 HBM4에 하이브리드 본딩 도입을 공식화하며, 이를 통해 열 발산 특성 개선과 초광대역 인터페이스 구현을 추진하고 있습니다 . 반면 SK하이닉스는 비용 및 수율 측면에서 하이브리드 본딩 장비 도입을 신중하게 검토 중이며, 우선은 기존 MR-MUF 공정을 고도화한 “advanced MR-MUF” 방식으로 HBM4를 구현하겠다는 입장입니다 . SK하이닉스는 개선된 MR-MUF 공정을 통해 적층 높이를 더 얇게 만들 수 있다고 밝혔는데, 이는 HBM의 발열을 줄이는 데도 일부 기여할 수 있습니다 . 얇은 적층은 열이 옆으로 퍼질 거리가 줄어들고, 전체 패키지 높이가 감소해 냉각체와의 접촉 효율이 올라가는 장점이 있기 때문입니다. 요약하면, 삼성은 적극적 신기술 도입으로 성능 극대화 노선을, SK하이닉스는 검증된 공정의 극한 개선으로 안정적 이행 노선을 택한 것입니다  .

마이크론의 HBM4 패키징 전략도 경쟁사들과 맥락을 같이 합니다. 마이크론은 2024년에 대규모 TC 본더 장비 투자를 단행하며 HBM 적층 능력을 강화했고 , TSMC와 협업하여 고객 맞춤형 HBM 솔루션 개발에도 참여하고 있습니다 . 이는 SK하이닉스처럼 TSMC의 3D 패키징 생태계(고객사 맞춤 로직 베이스 다이 등)에 합류함으로써, 향후 하이브리드 본딩 등 최신 기술 도입 시기도 조율하겠다는 전략으로 보입니다 . 아직 마이크론이 HBM4에 하이브리드 본딩을 적용할지 공식 언급은 없지만, 경쟁사 대비 뒤처지지 않도록 필요한 경우 적극 기술 채택을 검토할 가능성이 높습니다. HBM4의 JEDEC 표준화가 완료되어 업계 공통 규격이 갖춰진 만큼, 마이크론도 안정적인 공정으로 시작해 차차 진화된 패키징을 도입할 것으로 예상됩니다  . 중요한 것은, 마이크론이 HBM4 세대에서 경쟁사와 동등한 열관리 기술 역량을 확보하면서, 한편으로 자사 1β, 1γ 공정의 낮은 소비전력 메모리 셀 기술을 활용해 HBM 자체 전력소모도 최소화하려 한다는 점입니다 . 마이크론은 자사의 HBM3E가 업계 대비 30% 낮은 전력을 구현했다고 주장한 바 있으며 , 이러한 메모리 셀 레벨의 효율 향상도 발열 억제에 강점으로 작용하고 있습니다.

결론적으로, HBM4 시대의 열관리 경쟁에서 삼성은 하이브리드 본딩으로 발열 경로를 단축하고, SK하이닉스는 얇은 적층으로 방열 효율을 높이는 방향을 추구하며, 마이크론은 공정 미세화로 근본적 전력 감소와 첨단 패키징 기술의 균형을 맞추는 전략을 택하고 있습니다. 이 모두가 궁극적으로는 HBM 적층에서 발생하는 발열을 억제하고, 높은 대역폭을 안정적으로 구현하기 위한 각사의 해법이라 볼 수 있습니다.

6. 마이크론의 HBM 글로벌 생산 인프라 및 투자 계획


AI 열풍으로 HBM 수요가 폭증함에 따라, 마이크론은 전 세계에 걸쳐 HBM 생산능력을 확충하고 있습니다. 주요 거점은 **싱가포르, 일본(히로시마), 미국(뉴욕주), 대만(타이중)**으로, 각 지역별로 역할과 투자가 조금씩 다릅니다.
• 싱가포르: 마이크론은 2025년 1월 싱가포르에 HBM 전용 첨단 패키징 공장 건설을 시작했습니다. 기존 싱가포르 Fab 내 부지에 신설되는 이 팹은 약 **70억 달러(S$95억)**를 투자하여 2026년 가동, 2027년 본격 생산능력 확장을 목표로 하고 있습니다  . 싱가포르 최초의 HBM 패키징 시설로서, 주로 **HBM 칩 적층 및 테스트(백엔드 공정)**를 담당하게 되며, 2027년 이후 글로벌 HBM 패키징 캐파의 큰 비중을 맡을 전망입니다  . 이 투자로 초기 1,400여명의 고용이 창출되며, 향후 3,000명까지 확대될 계획입니다 . 싱가포르 정부도 적극 지원하여 동남아 지역의 AI 반도체 공급망에서 싱가포르의 위상을 강화하는 효과를 기대하고 있습니다  .
• 일본 히로시마: 일본은 마이크론의 주력 DRAM 생산기지 중 하나로, HBM 메모리의 프론트엔드(전공정) 생산을 맡고 있습니다. 현재 히로시마의 Fab 15 공장에서 HBM3E 등의 웨이퍼 생산 및 TSV 홀 가공이 이뤄지고 있으며 , 적층 및 테스트는 대만으로 보내는 방식입니다. 마이크론은 늘어나는 수요에 대응하기 위해 Fab 15 인근 부지에 신규 드램 공장 건설을 추진 중입니다 . 이 새 공장은 2026년 초 착공하여 2027년 말 건물 완공 및 장비 반입을 목표로 하며, 투자액은 약 **엔화 6,0008,000억 엔(약 57조 원)**으로 추산됩니다  . 해당 팹은 마이크론 최초로 **EUV 공정(1Γ 노드)**을 도입하여 차세대 DRAM을 생산하고, HBM 제품에 용량을 집중할 예정입니다  . 일본 정부 역시 마이크론 히로시마 투자에 약 **1,920억 엔(약 1.3조 원)**의 보조금을 승인하며 힘을 실어주고 있습니다 . 이를 통해 2020년대 후반부터 마이크론은 일본에서 첨단 HBM용 DRAM 칩을 대량 생산하고, 일부 TSV 공정까지 현지 처리하여 대만/싱가포르로 보내 적층하는 프로세스를 갖출 것으로 보입니다.
• 미국 뉴욕주: 미국에서는 자국 내 첨단 메모리 생산을 위한 초대형 투자가 진행되고 있습니다. 마이크론은 2022년 발표한 바에 따라 뉴욕주 클레이(Clay)에 향후 20년에 걸쳐 최대 1,000억 달러를 투자해 메가 DRAM 팹 단지를 조성할 계획입니다. 이 프로젝트의 1단계로, 미 상무부는 2024년 말 CHIPS법 인센티브로 61억 달러의 지원을 확정하여 마이크론에 제공했습니다  . 마이크론은 이 지원을 바탕으로 2030년까지 약 500억 달러를 집행하여 뉴욕주에 최첨단 DRAM 생산라인을 구축할 예정이며, 이를 통해 미국 내 첨단 메모리 생산 점유율을 현재 2% 미만에서 2035년경 10% 수준까지 끌어올린다는 목표입니다  . 뉴욕 팹은 **차세대 고대역폭 DRAM(HBM)**을 포함한 최고 성능 메모리를 생산하여, AI 시대에 필요한 국내 공급망을 확보하는 전략적 거점이 될 것입니다  . 마이크론은 또한 미국 아이다호 본사에도 250억 달러를 투자해 기존 라인을 개량하고 연구개발을 강화할 계획으로, 이를 통해 HBM과 같은 고부가 메모리의 설계~생산 풀라인 역량을 미국 내에 구축하려 하고 있습니다  .
• 대만 타이중: 대만은 마이크론 HBM 생산 체계에서 백엔드 적층 및 테스트의 핵심 거점입니다. 현재 타이중에 위치한 마이크론 백엔드 공장에서 HBM 칩들의 적층 조립과 테스트가 이루어지고 있으며, 히로시마 Fab에서 만들어진 HBM 웨이퍼를 이곳에서 TSV 접합하고 패키징하는 프로세스를 운영 중입니다 . 업계 보고에 따르면, 마이크론은 늘어나는 수요를 감당하기 위해 2025년부터는 대만에서 HBM 웨이퍼 전공정과 TSV 공정까지 일부 수행할 예정입니다 . 이는 대만에 있는 자사 DRAM 팹 (이전에 인수한 Rexchip 등)이 HBM 전용 라인으로 부분 전환됨을 의미하며, 향후 일본-대만-싱가포르를 잇는 HBM 생산 밸류체인을 더욱 견고히 하게 될 전망입니다. 대만 정부도 첨단 패키징 클러스터 육성 정책의 일환으로 이러한 투자를 지원할 것으로 알려졌습니다.

以上의 글로벌 인프라 투자로, 마이크론은 HBM 생산능력을 비약적으로 확대하고 시장 점유율을 끌어올릴 채비를 하고 있습니다. 2023년 기준 HBM 시장에서 마이크론의 점유율은 약 5%에 불과했으나 , 2024년에도 비슷한 수준을 유지하면서 향후 2025년에 20~25%까지 점유율을 확보하는 것을 목표로 하고 있습니다 . 이는 공격적인 설비 투자를 통해 공급능력을 5배 이상 늘리겠다는 뜻으로 해석됩니다. 참고로 2023년 HBM 시장은 SK하이닉스와 삼성이 각각 약 47.5%씩 양분하였고, 2024년에는 SK하이닉스 52.5%, 삼성 **42.4%**로 SK 쪽으로 추가 기울 것이 전망됩니다  . 마이크론은 이러한 양강 구도에 도전하여 제3의 공급자에서 동등한 경쟁자로 도약하려 하고 있습니다.

이처럼 SK하이닉스가 현 시장을 선도하고 삼성전자가 그 뒤를 쫓는 형세이지만, 고객사 확보 측면에서는 세 업체 모두 핵심 고객들을 나누어 갖고 있습니다. SK하이닉스는 엔비디아의 H100/H200(AI GPU)에 HBM3를 사실상 독점 공급하며 초반 시장을 주도했고 , AMD의 MI250 등에도 HBM2E를 공급한 바 있습니다. 삼성전자는 AMD에 적극 접근하여 MI300 시리즈에 자사 HBM3E 공급을 성사시켰고, 이를 통해 향후 점유율을 빠르게 끌어올릴 것으로 평가받습니다 . 또한 엔비디아의 GH200(H100 업그레이드 모델) 및 향후 B200(Blackwell 계열) GPU에도 삼성 HBM3E가 인증되어 공급될 예정입니다  . 마이크론은 엔비디아 Blackwell 세대(GB200/GB300 시스템)에 HBM3E 공급권을 따내며 늦게 합류했지만 , 2024~2025년 물량이 전량 소진될 만큼 큰 수요를 확보했습니다 . 업계에 따르면 마이크론의 HBM3E는 엔비디아 GH200(Grace Hopper Superchip 리비전)에도 일부 사용되고, 2025년 이후 출시될 Blackwell(Rubin) GPU들의 주요 메모리로 채택될 전망입니다 . 그 외에도 신규 AI 칩 스타트업들이 3사 HBM을 분산 구매하고 있어, **AI 가속기 시장의 주요 플레이어(NVIDIA, AMD, Intel, 등)**들은 모두 멀티소싱 전략 하에 3사 HBM을 활용하게 될 것으로 보입니다.

마이크론은 특히 엔비디아와의 긴밀한 협력을 바탕으로 HBM 시장에 안착하고 있습니다. 엔비디아 역시 삼성과 하이닉스 의존도를 낮추고 공급망을 다변화하기 위해 마이크론을 적극 수용하는 모습입니다 . 마이크론은 앞서 살핀 바와 같이 일본, 대만, 싱가포르에 걸친 생산 인프라 확충으로 공급 역량을 비약적으로 높이고 있어, 2025년 이후 HBM 시장의 3강 구도는 더욱 공고해질 것으로 전망됩니다. 궁극적으로 HBM 수요가 폭증하는 AI 시대에는 **“공급이 곧 점유율”**을 결정짓는 만큼, 공격적 투자를 이어가는 마이크론이 향후 어느 정도 성과를 거둘지 주목됩니다. 또한 3사 모두 HBM4 개발 및 양산 시점을 놓고 치열한 경쟁을 예고하고 있어, 차세대 AI 메모리 분야에서 기술과 생산력 양면의 각축전이 지속될 것입니다.

반응형