E24
ETF24

AI 데이터센터 : HBM부터 광 인터커넥트까지 하드웨어 혁명

2026. 03. 03·By Matt
[글로벌 마켓 인사이트]

AI 데이터센터 – HBM·패키징·전력·냉각·광 인터커넥트의 연결 구조

2026. 03. 03
AI 데이터센터 5가지 병목 총정리 일러스트
Source: ETF24 Insight

최근 몇 주간 AI 데이터센터 5가지 병목을 중심으로 AI 하드웨어 인프라 이야기를 계속 써왔다.

HBM 반도체, 어드밴스드 패키징, GaN·SiC 전력 반도체, 액체 냉각, 광 인터커넥트. 주제가 달라 보이지 않았나? 사실 하나의 이야기였다. AI 데이터센터를 실제로 돌리기 위해 지금 이 순간 바뀌고 있는 물리적 인프라의 이야기다.

충격적이다.

HBM이 부족하면 GPU를 만들어도 소용없다. 패키징 용량이 없으면 그 HBM을 붙일 수 없다. 전력 인프라가 못 따라오면 거대한 GPU 클러스터를 켤 수 없다. 냉각이 안 되면 켜놓을 수 없다. 인터커넥트가 막히면 GPU들이 서로 소통할 수 없다.

이 다섯 개가 하나의 체인이다.

이 글에서는 지금까지 다룬 각 AI 데이터센터 5가지 병목이 어떻게 서로 연결되는지, 그리고 2027년 AI 데이터센터가 어떤 모습으로 수렴할지 종합한다. 퍼즐의 마지막 조각이다.

5가지 병목은 어떻게 연결되나? – AI 데이터센터 5가지 병목 흐름

솔직히 처음엔 각각 별개의 이야기처럼 보인다.

HBM은 메모리 이야기고, 패키징은 공정 이야기고, 전력은 인프라 이야기다. 그런데 이게 정말 따로 노는 걸까? 전체를 놓고 보면 하나의 흐름이다.

HBM → 어드밴스드 패키징
연결이 있다. HBM은 GPU 바로 옆에 붙어야 한다. 붙이는 기술이 어드밴스드 패키징이다. 아무리 HBM 수요가 폭발해도 패키징 용량이 없으면 제품이 출하되지 않는다. TSMC CoWoS 라인이 HBM과 GPU를 하나로 만드는 조립 공장이다. 원료(HBM)가 있어도 공장(패키징)이 막히면 끝이다.

어드밴스드 패키징 → GaN·SiC 전력 반도체
패키징 밀도가 높아질수록 칩 하나당 전력 소비가 폭발한다. Blackwell GB200 rack이 120kW를 넘는 이유가 여기 있다. 이 전력을 효율적으로 공급하려면 기존 실리콘 전력 소자로는 부족하다. GaN·SiC가 필요해지는 배경이다. 2편이 3편의 원인이다.

AI 데이터센터 5가지 병목의 상호 연결 구조
Source: ETF24 Insight

GaN·SiC 전력 반도체 → 액체 냉각
전력을 많이 쓸수록 열이 많이 난다. 열 밀도가 공랭의 물리적 한계를 넘으면 액체 냉각이 필수가 된다. GaN·SiC로 전력 효율을 높여도 120kW rack에서는 공기로 식힐 방법이 없다. 전력 문제가 냉각 문제를 만든다.

액체 냉각 → 광 인터커넥트
냉각으로 열 문제를 잡으면 rack 밀도를 더 높일 수 있다. 그러면 데이터센터가 커진다. rack 수가 수천 개를 넘어 수만 개 규모가 되면 이번엔 연결이 병목이 된다. 구리 케이블로는 수십만 GPU를 연결할 수 없다. 냉각이 데이터센터를 키우고, 그 규모가 광 인터커넥트 수요를 만든다.

결국 HBM에서 시작한 이야기가 광 인터커넥트에서 완성된다. 하나의 체인이다.

AI 데이터센터 5가지 병목 현황 비교

병목 현황 (2026년 기준)
  • HBM 반도체: Sold Out 지속, HBM4 전환 중
  • 어드밴스드 패키징: TSMC CoWoS 용량 부족, 증설 진행 중
  • GaN·SiC 전력 반도체: 수요 급증, SiC 웨이퍼 공급 부족
  • 액체 냉각: 신규 데이터센터 필수 채택, 레거시 전환 진행 중
  • 광 인터커넥트: 800G→1.6T 전환 시작, CPO 2027년 본격화
▼ Timeline ▼
해소 전망 (2027~2028년)
  • HBM 반도체: HBM4 양산 확대, 공급 점진적 완화
  • 어드밴스드 패키징: CoWoS 증설 완료, 3D 패키징 전환 시작
  • GaN·SiC 전력 반도체: 웨이퍼 증설 진행, 가격 하락 시작
  • 액체 냉각: 표준화 진행, 대규모 채택 가속
  • 광 인터커넥트: CPO 상용화, 1.6T 전환 완료

핵심 메시지: AI 데이터센터 5가지 병목 중 하나라도 해소되지 않으면 AI 데이터센터 확장의 속도가 제한된다.

2027년 AI 데이터센터는 어떤 모습인가

그렇다면 어떻게 될까?

2027년 데이터센터를 지금과 비교하면 거의 다른 건물이다. 진짜로. 5가지 레이어가 동시에 바뀌는 것이기 때문이다.

2027년 AI 데이터센터 5가지 병목이 해소된 청사진
Source: ETF24 Insight
  • 메모리: HBM4 기반 GPU가 표준이 된다. 칩당 탑재 HBM이 수백 GB를 넘는다. 단순 메모리가 아니라 연산 기능을 가진 메모리로 진화한다.
  • 패키징: TSMC SoIC를 중심으로 3D 패키징이 차세대 AI 칩에 적용되기 시작한다. 칩 간 직접 본딩으로 대역폭이 다시 한 단계 올라간다.
  • 전력: 48V를 넘어 400V 직류 배전이 신규 하이퍼스케일 데이터센터 표준으로 자리잡는다. GaN 기반 전력 변환 모듈이 서버 전원 공급 장치(PSU)의 주류가 된다.
  • 냉각: 신규 데이터센터의 절반 이상이 직접 액체 냉각(DLC) 또는 침수 냉각으로 설계된다. 공랭은 저밀도 레거시 인프라에서만 남는다.
  • 인터커넥트: 1.6T 광 모듈 전환이 완료되고 일부 최첨단 스위치에 CPO가 적용되기 시작한다. 구리는 rack 내부 단거리 연결에서만 쓰인다.

이 다섯 가지가 동시에 바뀐다. 농담이 아니다.

왜 이게 중요한가? 하나씩 교체하는 것과 다섯 개가 동시에 교체되는 것은 시장 규모가 다르다. 지금 데이터센터 인프라 시장 전체가 교체 사이클에 들어간 것이다.

투자 인사이트 및 리스크 팩터

하나의 흐름이 관통하고 있다.

AI 소프트웨어 레이어의 valuation이 리셋되는 동안, 하드웨어 인프라 레이어로 자금이 이동하고 있다. 이 흐름은 2026년에 시작됐고 2027~2028년까지 이어질 가능성이 높다.

흥미로운 점이 있다. 이 패턴, 눈치챘는가? AI 데이터센터 5가지 병목이 해소되는 순서대로 다음 병목이 주목받는 구조다. HBM이 주목받은 다음 패키징이 부각됐다. 이제 전력·냉각·광 인터커넥트 순으로 시장의 관심이 이동하는 흐름이 포착된다.

시장 참여자들의 관심이 이미 “AI 칩을 만드는 기업”에서 “AI 칩을 작동시키는 인프라 기업”으로 이동하고 있다. Vertiv, Coherent, Wolfspeed, ASE 같은 이름들이 AI 인프라 수혜주로 재평가되고 있는 이유가 여기 있다.

그런데 한 가지 더 있다. 각 병목 레이어의 원소재·장비를 쥔 기업들이 구조적으로 유리하다. HBM 웨이퍼를 쥔 SK하이닉스, SiC 웨이퍼를 쥔 Wolfspeed, 패키징 장비를 쥔 한미반도체처럼. 원소재를 쥔 기업이 결국 시장을 쥔다는 공식이 하드웨어 체인 전반에 반복되고 있다.

가장 큰 리스크 팩터

  • ① AI capex 사이클 전환: 이게 전부다. 사실상. 하이퍼스케일러들의 AI 인프라 투자가 꺾이면 5가지 병목이 모두 동시에 완화된다. 2026년 하반기 hyperscaler 실적 발표와 capex 가이던스가 가장 중요한 선행 지표다.
  • ② 모델 경량화 충격: DeepSeek 사례처럼 AI 모델이 갑자기 효율화되면 인프라 투자 수요가 예상보다 느려질 수 있다. 더 적은 GPU로 같은 성능을 낸다면? 하드웨어 병목의 심각도 자체가 낮아진다.
  • ③ 지정학 리스크: TSMC 패키징, SK하이닉스 HBM, TSMC 파운드리. 공급망이 동아시아에 집중돼 있다. 만약 지정학적 충격이 발생하면? 체인 전체가 흔들린다. 미국의 반도체 자립 정책이 이 리스크를 줄이려 하지만 단기간에 해소되지 않는다.
  • ④ 기술 융합으로 병목 우회: 특정 레이어의 혁신이 다른 레이어의 필요성을 낮출 수 있다. 예를 들어 광 인터커넥트 기술이 빠르게 발전하면 HBM 수요 증가 속도에 영향을 줄 수 있다. 체인은 연결돼 있기 때문에 한 레이어의 변화가 다른 레이어로 파급된다.

Editor’s Note

하드웨어 인프라 주제를 계속 써오면서 드는 생각이 있다.

AI는 결국 물리적 세계의 이야기다. 아무리 뛰어난 알고리즘도 하드웨어 없이는 돌아가지 않는다. HBM 한 개, CoWoS 라인 하나, 냉각수 한 줄기가 AI의 속도를 결정한다.

개인적으로 가장 인상 깊었던 부분은 병목들의 연결 구조다. 각 레이어는 독립적으로 보이지만 실제로는 하나의 체인이다. HBM 수요가 패키징을 막고, 패키징 밀도가 전력 문제를 만들고, 전력이 냉각을 요구하고, 냉각이 클러스터를 키우고, 클러스터가 인터커넥트를 요구한다.

이 체인이 끊어지지 않는 한, 데이터센터 혁명은 계속된다.

자주 묻는 질문 (FAQ)

Q1. AI 데이터센터의 5가지 병목을 한 줄로 요약하면?
A: AI를 돌리는 하드웨어 인프라의 모든 레이어(메모리·패키징·전력·냉각·인터커넥트)가 동시에 교체되고 있으며, 각 레이어가 서로 연결된 하나의 병목 체인이다. 하나라도 막히면 전체 AI 데이터센터 확장이 제한된다.

Q2. 5가지 병목 중 지금 가장 심각한 것은?
A: 2026년 기준으로 HBM과 어드밴스드 패키징이 GPU 출하량을 직접 제한하는 가장 즉각적인 병목이다. 전력·냉각·광 인터커넥트는 구조적으로 심각하지만 아직 수요 증가를 일부 따라가고 있다. 2027년 이후로 가면 광 인터커넥트 병목이 부각될 가능성이 높다.

Q3. AI 인프라 투자가 언제까지 지속될까요?
A: AI 모델 훈련과 추론 수요가 유지되는 한 인프라 투자는 지속된다. 2026~2027년은 현재 투자 사이클의 정점 구간으로 분석된다. 다만 AI 모델의 효율화나 capex 사이클 둔화가 변곡점이 될 수 있다. hyperscaler들의 분기별 capex 가이던스가 가장 신뢰할 수 있는 선행 지표다.

Q4. 한국 기업들은 이 흐름에서 어떤 포지션인가요?
A: 긍정적인 포지션이다. SK하이닉스가 HBM에서 글로벌 1위다. 삼성전자는 HBM·패키징·파운드리 수직 통합 구조를 가지고 있다. 한미반도체는 패키징 장비, 예스파워테크닉스는 SiC 소자 시장에 진입 중이다. AI 인프라 수요의 상당 부분이 한국 기업들을 통과하는 구조다.

Q5. 다음에 다룰 병목 주제가 있나요?
A: 있다. 이번에 다루지 못한 주제들이 있다. CXL 기반 메모리 풀링, AI 가속기용 특수 네트워킹 프로토콜(UALink), 그리고 데이터센터 전력망 자체(발전·송전 인프라)가 다음 병목으로 부상하고 있다. 특히 AI 데이터센터 전력망 문제는 반도체 수준을 넘어 에너지 인프라 전체로 확장되는 이야기다.

📌 핵심 3줄 요약
  • Problem (문제): AI 칩 성능이 폭발하면서 HBM, 패키징, 전력, 냉각, 인터커넥트라는 AI 데이터센터 5가지 병목이 동시에 발생하여 클라우드 확장을 위협하고 있다.
  • Strategy (전략): 5가지 병목 레이어는 독립적인 것이 아니라 꼬리를 물고 이어지는 하나의 체인이며, 이 하드웨어 인프라 톨게이트를 쥔 기업들로 스마트머니가 이동 중이다.
  • Opportunity (기회): 2027년의 AI 데이터센터는 HBM4, 3D 패키징, 400V 배전, 액체 냉각, 1.6T 광통신을 전면 채택하며 완전히 새로운 거대 시장 사이클을 창출할 것이다.
본 콘텐츠는 글로벌 시장 동향에 대한 정보 제공을 목적으로 작성되었으며, 특정 종목이나 금융 상품에 대한 투자 권유를 의미하지 않습니다. 시장 데이터와 전망은 수시로 변동될 수 있으며, 모든 투자 판단의 최종 책임은 투자자 본인에게 있습니다.

📩 ETF24 주간 인사이트 받아보기

매주 금요일, 핵심 기술 트렌드와 투자 아이디어를 메일로 받아보세요

무료 구독하기 →

✓ 언제든 구독 해지 가능 · ✓ 스팸 없음

📚 함께 읽으면 좋은 글