最新消息AI算力爭奪戰:雲端巨頭自研晶片,Google可能成台積電第二大客戶
次閱讀
如果最近有在關注半導體產業,你大概會發現一件有趣的事情:AI算力需求仍然在暴衝,但整個供應鏈卻開始出現一些「卡關」的跡象。
其中最明顯的,就是高頻寬記憶體(HBM)。AI GPU的性能不只取決於運算核心,還高度依賴記憶體頻寬。而當HBM供應出現瓶頸時,就算晶片設計再強大,整個產品節奏仍然可能被迫調整。近期市場傳出,下一代AI GPU平台 Rubin 的投片規模可能下修。原因不是需求不足,而是HBM4供應鏈出現技術與產能調整。
這件事表面上看起來只是產品時程的變動,但如果把視角放大,會發現背後其實反映出三件重要趨勢:
HBM記憶體供應變成AI晶片關鍵瓶頸
雲端巨頭開始加速自研AI ASIC
先進製程與封裝產能競爭更加激烈
AI算力爭奪戰:雲端巨頭自研晶片,Google可能成台積電第二大客戶
文章目錄
HBM4供應瓶頸為何影響AI晶片
在AI運算架構中,HBM(High Bandwidth Memory)幾乎可以說是GPU的最佳搭檔。
原因很簡單:AI模型需要大量資料吞吐量,而HBM提供的頻寬遠高於傳統記憶體。
| 記憶體類型 | 主要用途 | 頻寬 |
|---|---|---|
| DDR | 一般伺服器 | 中 |
| GDDR | 顯示卡 | 高 |
| HBM | AI GPU | 極高 |
但HBM製造難度非常高,不僅需要先進製程,也需要先進封裝技術。
因此一旦供應鏈出現任何變動,就會影響整個AI晶片市場。
Rubin GPU與Blackwell平台差異
市場原本預期,Rubin GPU將在2026年逐步取代Blackwell平台。
| GPU平台 | 推出時間 | 主要特色 |
|---|---|---|
| Blackwell | 2024 | AI運算能力大幅提升 |
| Rubin | 預計2026 | 新一代AI架構 |
然而HBM4供應限制,使Rubin量產節奏可能延後。
AI GPU供應鏈結構
AI GPU其實是一個高度複雜的供應鏈整合產品。
| 供應鏈環節 | 代表廠商 |
|---|---|
| GPU設計 | NVIDIA |
| 晶圓代工 | TSMC |
| HBM記憶體 | SK海力士、三星 |
| 封裝 | CoWoS先進封裝 |
雲端巨頭ASIC晶片崛起
在AI GPU高度集中於NVIDIA的情況下,雲端服務商開始尋找替代方案。
這些公司希望透過自研晶片降低成本,同時提高算力控制權。
TPU與MTIA競爭
| 公司 | AI晶片 | 用途 |
|---|---|---|
| TPU | AI訓練 | |
| Meta | MTIA | 推薦系統 |
| AWS | Trainium | 雲端AI |
| Microsoft | Maia | AI運算 |
台積電先進製程產能競局
AI晶片需求暴增,使的先進製程產能變得更加搶手。
| 製程 | 量產時間 |
|---|---|
| 3奈米 | 2024 |
| 2奈米 | 2025 |
CoWoS先進封裝的重要性
AI晶片的另一個關鍵技術,就是先進封裝。
其中CoWoS技術能讓GPU與HBM記憶體高速連接,是AI伺服器的核心。
AI晶片產業未來趨勢
- HBM需求持續增加
- ASIC晶片加速發展
- 先進封裝需求大幅成長
- 2奈米製程成為下一個競爭焦點
結論
AI算力競賽仍然在加速,但供應鏈瓶頸開始逐漸浮現。
HBM4供應限制、先進製程產能競爭,以及雲端巨頭ASIC晶片崛起,都將重新塑造半導體產業格局。
未來幾年,誰能掌握製程、封裝與記憶體資源,誰就更有機會在AI晶片競賽中取得優勢。