最新消息💡 推理模型為何更耗能?從 DeepSeek 到 Gemini 3,看懂矽谷如何築起「算力長城」
次閱讀
中國 AI 新創 DeepSeek 發布 R1 模型滿週年,曾以其超高成本效益震撼全球市場,引發對美系「算力霸權」的強烈質疑。然而,《晶片戰爭》作者克里斯.米勒於 2026 年初最新評論中點破,當時的恐慌多源於對事實的扭曲。指出,DeepSeek 的成功僅是全球演算法優化趨勢中的一個縮影,而非打破了「規模定律」。事實上,具備思考能力的「推理模型」對算力需求不減反增。美國科技巨頭如 Google 與 OpenAI 透過更高密度的運算投入,依然在處理複雜流程的穩定性上保持絕對領先。隨著 OpenAI 轉向開源反擊,中國模型的市佔優勢正受到挑戰。米勒強調,美中競爭的核心差距仍繫於「運算資源」的投入量,美國憑藉掌控高階晶片供應鏈與龐大的資本支出,依舊穩居全球 AI 賽道的領袖地位。
💡 推理模型為何更耗能?從 DeepSeek 到 Gemini 3,看懂矽谷如何築起「算力長城」
📖 文章快速導覽
引言:回首 DeepSeek R1 震撼——是一場技術革命,還是資本恐慌?
🛡️ 破解「效率迷思」:米勒如何解讀 DeepSeek 的低成本策略
🧬 推理模型的耗能真相:為什麼「思考」比「背誦」更貴?
📊 2026 全球 AI 算力支出與領先模型比較表
🏗️ 封閉 vs. 開源:OpenAI 如何靠「開源轉身」反擊中國新創
💡 專家建議與未來展望:晶片規模是不可逾越的「物理牆」
✅ 結論:矽谷依然是 AI 賽道的領跑者
🌪️ 引言:一場驚動華爾街的「深度求索」
2025 年初,全球科技界與金融圈共同經歷了一場震撼:來自中國的 AI 新創公司「深度求索(DeepSeek)」發布了 R1 推理模型。這款模型宣稱僅耗費了傳統大廠極小比例的預算與晶片數量,卻在多項基準測試中達成了媲美 OpenAI 頂尖模型的表現。這一訊息在當時引發了全球資本市場的劇烈大地震。
投資者開始質疑,如果 AI 訓練真的可以如此「廉價」,那麼輝達(Nvidia)動輒數萬美元的 GPU 還有誰會買?這股恐慌導致輝達及相關半導體類股股價一度出現恐慌性拋售,單日市值蒸發規模甚至接近兆元美金。
然而,在 DeepSeek R1 發布屆滿週年的 2026 年初,《晶片戰爭》作者**克里斯.米勒**在《巴隆周刊》撰文指出,回頭檢視這段歷史,當時的恐慌顯然「扭曲了事實」。他強調,儘管 DeepSeek 的技術確實展現了高度的軟體工程智慧,但這僅僅是全球 AI 大趨勢中的一環,**晶片規模)**依然是區分「平庸 AI」與「頂級 AI」的最核心關鍵,更是美中競爭中不可逾越的物理高牆。
🛡️ 破解「效率迷思」:米勒如何解讀 DeepSeek 的低成本策略
📍 1. 效率進步是產業共識,而非中國專利
米勒在評論中精準點出,DeepSeek 當初宣稱其訓練或部署所需的晶片數量遠低於對手,這聽起來像是某種「黑科技」,但放眼全球,這其實是整個產業的集體進化。
📈 數據點而非轉折點: 從 Meta 的 Llama 系列到 Mistral,全球的軟體工程師都在尋找用更少參數、更低能耗達成更高智慧的方法。DeepSeek 的成本降低,只是演算法效率提升趨勢中的一個顯著「數據點」,它證明了軟體優化的潛力,但並非打破了 AI 發展的物理規律。
🧩 軟體補償算力: 米勒分析,中國企業之所以在演算法效率上如此激進,本質上是因為受到美方高階晶片(如 H100/B200 系列)嚴格出口管制的倒逼。在缺乏「暴力算力」支援的情況下,中國新創被迫在受限的框架內開發出更精簡的混合專家架構(MoE)。這是一種「資源受限下的被迫創新」,雖然令人佩服,但也暴露出其硬體資源的短缺。
📍 2. 演算法紅利的遞減效應
雖然透過更聰明的數據清洗與架構設計,開發者可以讓 1,000 顆晶片發揮出過去 5,000 顆的效果,但這種紅利是有天花板的。
⚖️ 規模定律的殘酷性: 當美國企業(如 OpenAI 或 Google)同時擁有最先進的演算法,且手中握有 10 萬顆甚至 100 萬顆最新型晶片時,雙方的能力鴻溝非但不會縮小,反而會因為「算力基數」的巨大差異而持續擴大。這就像兩名賽車手,即便落後者的駕駛技術(演算法)再精湛,若對方的賽車引擎(晶片)馬力強大十倍,落後者依舊難以在直道上完成超越。
🧬 推理模型的耗能真相:為什麼「思考」比「背誦」更貴?
💡 1. 推理模型的運作邏輯
米勒特別指出,DeepSeek 所引發的「推理模型」風潮,本質上是非常耗費算力的。
慢思考機制:模型在回答前會進行大量的邏輯推演與自我檢驗。
訓練量的反增:為了讓模型學會「如何思考」,在訓練階段投入的數據與算力密度反而比傳統模型更高。
🚀 2. 算力與能力的「線性正相關」
米勒列舉 2025 年底至 2026 年初發布的領先模型:
Google Gemini 3:展現了極致的多模態整合。
Anthropic Opus 4.5:在複雜長文本推理上達到新高度。
這些模型的突破都證明了一件事:只要持續投入更多算力,AI 的上限依然看不到終點。 這正是為什麼美國科技公司對資料中心與 AI 晶片的需求並未放緩,反而加速擴張。
📊 2026 全球 AI 算力支出與領先模型比較表
根據摩根大通高盛的最新數據,美中雙方在算力規模上的差距依然巨大。
| 廠商 / 陣營 | 旗艦模型 | 算力投入規模 (Est.) | 2025 資本支出 | 核心技術定位 |
| OpenAI / MS | GPT-5.2 | 超百萬顆 GPU 集群 | 約 $1,200 億美元 | 封閉式專有模型、全能通用型 |
| Gemini 3 | 自研 TPU v6 集群 | 約 $950 億美元 | 原生多模態、Google 生態系整合 | |
| Anthropic | Opus 4.5 | 高密度運算架構 | 約 $500 億美元 | 深度推理、高安全性代碼編寫 |
| DeepSeek (中) | V3.2 / R1 | 受限於中低階 GPU | 約 $100 億美元 | 開源、極致成本優化 |
🏗️ 封閉 vs. 開源:OpenAI 如何靠「開源轉身」反擊中國新創
🛡️ 1. 免費的代價:品質與算力成本
米勒指出,雖然 DeepSeek 與阿里巴巴等公司推出了大量免費開源模型,但這並未動搖美國企業的獲利根基。
算力仍要收費:模型軟體雖然免費,但運行模型的算力依然昂貴。
品質溢價:高階企業用戶(如製藥、金融、法律)能夠明顯察覺模型在處理複雜流程時的品質差異,他們更願意付費使用更穩定、更強大的封閉式服務。
🚀 2. 史上最快下載:OpenAI 的戰術反擊
研究開源生態的學者藍珀特統計,OpenAI 在 2025 年 8 月釋出的開源模型,成為史上下載速度最快的模型,甚至超越了所有中國競爭對手。這顯示出當美國領先者決定進入開源市場時,其品牌與技術實力仍具壓倒性。
💡 專家建議與未來展望:晶片規模是不可逾越的「物理牆」
🎯 1. 晶片限制政策的辯論
米勒認為,美中 AI 競爭的核心差距不在於人才(兩國人才同樣優秀),而在於**「訓練時投入的運算資源」**。這證實了美國對華晶片出口管制政策的戰略意義:
限制天花板:如果中國無法獲取最新的高效能晶片,其開源模型的品質在長期來看「不太可能」超越美國的領導者。
🔮 2. 來自 DeepSeek 的自我警訊
最具參考價值的訊息並非來自矽谷,而是來自 DeepSeek 自己。在其 V3.2 模型的技術報告中,DeepSeek 坦承:「雖然開源在進步,但封閉式專有模型的性能成長正在明顯加快。」 這說明當算力堆疊到一定規模時,封閉式系統的優化效率將遠超分散的開源社群。
✅ 結論:矽谷依然是 AI 賽道的領跑者
DeepSeek 震撼週年後,市場方向並未因那場「輿論風暴」而改變。米勒的結論非常明確:美國企業在 AI 晶片、模型品質、與銷售表現 上依舊保持絕對領先。
摩根大通指出,美國雲端巨頭去年的資本支出仍高達 3,400 億美元。這筆巨資不僅是用來買晶片,更是用來築起一道名為「算力規模」的物理長城。只要規模定律持續發揮作用,掌控晶片供應鏈的美國將繼續主導 AI 產業的未來。
專營台灣/日本/泰國/越南
工業地產/房地產 買賣出租
物件眾多、無法即時刊登
請直接加LINE ID:803033
0981-681-379 曾先生 告知需求
相關連結
新青安房地產租售專區
👉🏻 https://www.yungsheng.com.tw/HouseList.aspx?AC=0&s=YS011
詠騰廠房租售專區
👉🏻 https://www.yuteng.com.tw/?f=2ab1f4
詠騰工業地租售專區
👉🏻 https://www.yuteng.com.tw/?f=2ab1f4
詠騰農/建地租售專區
👉🏻 https://www.yuteng.com.tw/?f=013b70
詠騰歷年成交專區
👉🏻 https://www.facebook.com/h56792000/?locale=zh_TW
詠騰社群連結
官方Facebook粉專👉🏻https://www.facebook.com/www.yuteng.com.tw
官方IG👉🏻instagram.com/yuteng.tw?igsh=MXM5Y2Vib2J4NDEzcw==
官方Tiktok👉🏻tiktok.com/@yutengtw
官方Youtube👉🏻https://www.youtube.com/channel/UCuJkPV3xU7YNnFJV9c_yrXQ