산업뉴스/반도체&AI

구글, AI 인프라에 109조 투자…HBM 반도체 수요 지형도 바뀐다?

myview0310 2025. 4. 13. 20:36
반응형

최근 AI 반도체 시장에서 한 가지 흥미로운 변화가 감지되고 있습니다.
바로 구글의 차세대 TPU(텐서 프로세싱 유닛) 공개와 함께 HBM 수요 확대 가능성이 언급된 것이죠.

AI 관련 반도체 이야기는 대부분 엔비디아가 중심이었는데, 이번에는 구글이 직접 '메모리 용량과 대역폭'을 강조하면서 국내 반도체 기업에도 긍정적 흐름이 나타나고 있습니다.

구글 7세대 TPU 아이언우드(구글 홈페이지)


구글 TPU ‘아이언우드’, HBM 메모리 6배 증가

이번에 공개된 구글의 7세대 TPU **‘아이언우드(Ironwood)’**는 AI 추론 연산에 최적화된 주문형 반도체입니다. 기존 6세대 대비 놀라운 수준의 사양 향상이 있었습니다.

  • HBM 용량: 32GB → 192GB (6배 증가)
  • HBM 대역폭: 약 1.6TBps → 7.2TBps (4.5배 증가)

이는 현재 엔비디아의 최신 AI GPU인 **블랙웰(B200)**과도 유사한 수준이며, HBM3E 탑재 가능성이 높다는 분석이 나옵니다.

구글 TPU 제품의 사양(구글 홈페이지)


왜 HBM 수요에 주목해야 할까?

HBM(High Bandwidth Memory)은 고성능 AI 반도체에서 핵심 부품으로,
데이터 처리 속도를 극대화할 수 있는 메모리 기술입니다.

✅ 현재 HBM 시장 점유율

  • SK하이닉스: 약 70%
  • 삼성전자, 마이크론: 후발주자지만 잠재 성장 여지 있음

✅ 수요처

  • 기존: 엔비디아 중심
  • 앞으로: 구글, MS, 메타 등으로 고객사 다변화 예상

구글, AI 인프라에만 109조 원 CAPEX 투자

구글의 모회사 알파벳은 **2024년 한 해 동안 109조 원(750억 달러)**을 AI 인프라에 투자하겠다고 밝혔습니다.
이 중 상당 부분이 데이터센터 확장, 서버 성능 강화, 그리고 HBM 탑재형 AI 칩 설계에 투입될 예정입니다.

💬 순다르 피차이 CEO 발언 요약:

“AI 컴퓨팅 수요 증가에 대응하기 위한 투자이며, 글로벌 고객을 위한 클라우드 지원 역량을 강화하는 데 집중한다.”


시장 확대가 의미하는 것

  • HBM 시장이 더 이상 엔비디아에만 의존하지 않음
  • 삼성전자, 마이크론 등 후발주자도 공급 기회 증가
  • 메모리 기업 입장에서 시장 안정성 확보 + 고객 기반 다변화

단기적으로 공급량 확대가 명확하지는 않더라도, 전체 메모리 생태계에 긍정적 시그널이라는 점에는 이견이 없습니다.


마무리하며

이번 구글 TPU 발표는 단순한 신제품 공개가 아니라,
AI 반도체 시장에서 ‘HBM 수요처’의 다변화가 시작됐다는 신호일 수 있습니다.

SK하이닉스뿐 아니라 삼성전자, 마이크론 등 글로벌 메모리 기업 입장에서는 중요한 전환점이 될 수 있는 시기죠.

AI, 반도체, 클라우드 인프라에 관심 있는 분들이라면
이번 구글 발표의 의미를 조금 더 깊게 살펴보는 것도 흥미롭지 않을까요?

반응형