最新消息

AI算力爭奪戰:雲端巨頭自研晶片,Google可能成台積電第二大客戶

作者:小編 於 2026-03-16
20
次閱讀

如果最近有在關注半導體產業,你大概會發現一件有趣的事情:AI算力需求仍然在暴衝,但整個供應鏈卻開始出現一些「卡關」的跡象。

其中最明顯的,就是高頻寬記憶體(HBM)。AI GPU的性能不只取決於運算核心,還高度依賴記憶體頻寬。而當HBM供應出現瓶頸時,就算晶片設計再強大,整個產品節奏仍然可能被迫調整。近期市場傳出,下一代AI GPU平台 Rubin 的投片規模可能下修。原因不是需求不足,而是HBM4供應鏈出現技術與產能調整。

這件事表面上看起來只是產品時程的變動,但如果把視角放大,會發現背後其實反映出三件重要趨勢:

HBM記憶體供應變成AI晶片關鍵瓶頸
雲端巨頭開始加速自研AI ASIC
先進製程與封裝產能競爭更加激烈

AI算力爭奪戰:雲端巨頭自研晶片,Google可能成台積電第二大客戶

HBM4供應瓶頸為何影響AI晶片

在AI運算架構中,HBM(High Bandwidth Memory)幾乎可以說是GPU的最佳搭檔。

原因很簡單:AI模型需要大量資料吞吐量,而HBM提供的頻寬遠高於傳統記憶體。

記憶體類型主要用途頻寬
DDR一般伺服器
GDDR顯示卡
HBMAI GPU極高

但HBM製造難度非常高,不僅需要先進製程,也需要先進封裝技術。

因此一旦供應鏈出現任何變動,就會影響整個AI晶片市場。

Rubin GPU與Blackwell平台差異

市場原本預期,Rubin GPU將在2026年逐步取代Blackwell平台。

GPU平台推出時間主要特色
Blackwell2024AI運算能力大幅提升
Rubin預計2026新一代AI架構

然而HBM4供應限制,使Rubin量產節奏可能延後。

AI GPU供應鏈結構

AI GPU其實是一個高度複雜的供應鏈整合產品。

供應鏈環節代表廠商
GPU設計NVIDIA
晶圓代工TSMC
HBM記憶體SK海力士、三星
封裝CoWoS先進封裝

雲端巨頭ASIC晶片崛起

在AI GPU高度集中於NVIDIA的情況下,雲端服務商開始尋找替代方案。

這些公司希望透過自研晶片降低成本,同時提高算力控制權。

TPU與MTIA競爭

公司AI晶片用途
GoogleTPUAI訓練
MetaMTIA推薦系統
AWSTrainium雲端AI
MicrosoftMaiaAI運算

台積電先進製程產能競局

AI晶片需求暴增,使的先進製程產能變得更加搶手。

製程量產時間
3奈米2024
2奈米2025

CoWoS先進封裝的重要性

AI晶片的另一個關鍵技術,就是先進封裝。

其中CoWoS技術能讓GPU與HBM記憶體高速連接,是AI伺服器的核心。

AI晶片產業未來趨勢

  • HBM需求持續增加
  • ASIC晶片加速發展
  • 先進封裝需求大幅成長
  • 2奈米製程成為下一個競爭焦點

結論

AI算力競賽仍然在加速,但供應鏈瓶頸開始逐漸浮現。

HBM4供應限制、先進製程產能競爭,以及雲端巨頭ASIC晶片崛起,都將重新塑造半導體產業格局。

未來幾年,誰能掌握製程、封裝與記憶體資源,誰就更有機會在AI晶片競賽中取得優勢。

AI算力爭奪戰:雲端巨頭自研晶片,Google可能成台積電第二大客戶