Google TPU 協議是這篇文章討論的核心

Meta 與 Google TPU 協議引發 AI 芯片權力重組:科技巨頭如何在 2026 年重新定義算力遊戲規則?
Meta 與 Google 的 TPU 協議象徵著 AI 基礎設施权力的轉移



💡 核心結論

Meta 與 Google 的 TPU 交易不僅是簡單的晶片採購,而是 AI 時代基礎設施權力的重新分配。Google 正透過 TPU 從「雲端服務商」轉型為「硬體供應商」,直接挑戰 NVIDIA 的霸主地位。

  • 這筆交易可能使 Google TPU 成為 NVIDIA GPU 之外的最大單一代工订单
  • Meta 透過多元供應鏈策略,降低對 NVIDIA 的依賴,強化自身 AI 模型訓練自主權
  • 台積電將成為最大受益者,CoWoS 封裝需求將持續吃緊至 2027 年
  • ASIC 市場將在 2027 年迎來 explosive growth,Global AI Server Compute ASIC 出貨量預估將從 2024 年翻三倍

算力戰爭進入新紀元:我們觀察到什麼?

根據 The Information 獨家報導並經 Reuters 與 Yahoo Finance 證實,Meta Platforms 與 Alphabet(Google)正在洽谈一項價值數十億美元的 AI 芯片合作协议。這不是普通的企业采购,而是 AI 基礎設施领域的一次深度捆绑。

從表面上看,Meta 將租賃 Google 自研的 TPU(Tensor Processing Unit)用於大模型訓練,並可能購買這些芯片部署在自己的數據中心。但實際上,這反映了當前科技巨頭面對 NVIDIA H100/H200 供不應求的困局時,正在ifactoring 的供应链重构蓝图。

根據 NVIDIA 官方財報,2025 年 Q1 收入 441 億美元,Q2 收入 467 億美元,年增率分別為 69% 和 56%。然而與此同時, Jensen Huang 在CES 2026 坦言 H200 在中國市場的需求依然強勁,全球供應鏈仍面臨長達 1.5 年的短缺期(TSMC 預測)。

Google TPU 能做到什麼讓 NVIDIA 緊張的事?

Google 的 TPU 歷史可追溯至 2016 年,但真正讓市場正視的是 2024 年 12 月發布的 Trillium TPU(第六代)。根據 Google Cloud 官方部落格,Trillium TPU 已正式商用(GA),並用於訓練 Gemini 2.0 —— Google 最強大的 AI 模型。

從技術規格來看,Trillium TPU v6 在 AI 訓練、微調和推理方面都有顯著提升。更有業內分析(SemiAnalysis)指出,Google 即將推出的 TPU v7(Ironwood)可能成為 CUDA 生態的潛在威脅。這對於長期以 CUDA 軟體護城河為主導的 NVIDIA 而言,無疑是敲響了警鐘。

TPU vs GPU 性能成本對比示意圖 比較 Google TPU 與 NVIDIA GPU 在 AI 訓練與推理任務的性能指標與成本效益,展示 TPU 在大規模模型訓練中的優勢 性能/成本曲線對比 規模指數增长 相對於基準之性能效率 Google TPU (效率曲線) NVIDIA GPU (基準曲線)
Expert Insight:TPU 的優勢不僅在於 ASIC 硬體的定制能力,更在於它原本就是為 Google 自身的大規模 AI 工作負載設計的。根據 CloudOptimo 的分析,TPU 在模型訓練階段的 %
token 成本 通常比同級 GPU 低 15-20%,但這取決於軟體生态的成熟度。然而,Google 正面臨軟體生態的挑戰 —— 開發者習慣 CUDA 後,遷移至 TPU 需要重寫代碼,這解釋了為何 TPU 雖然技術領先但市場份額不如 GPU。

但這次 Meta 交易的不同之處在於:Google 將 TPU 出售給客戶部署在客戶自己的數據中心,而非僅限於 Google Cloud 租賃。這標誌著 TPU 商業模式的重大轉變 —— 從「雲端服務附加品」變成「獨立硬體產品」。

Meta 的「去 NVIDIA 化」战略佈局:真的可行嗎?

Meta 並非僅僅是被動應對 GPU 短缺,而是推行了一套多重供應鏈策略。早在 2023 年 12 月,Meta 就公開部署 AMD Instinct MI300X GPU 作為 inference 工作負載的替代方案。根據 X 平台業內分析師整理時間線,Meta 與 AMD 的合作關係持續深化,AMD MI300X 目前負責 Llama 3/4 的圖像編輯、AI 貼紙等 inference 任務。

更關鍵的是,Meta 自身也開發了第二代 AI 芯片 MTIA(Meta Training and Inference Accelerator)。根據 Meta AI 官方部落格,MTIA 系列是專為 Meta 獨特工作負載定制的高效能架構,已实现对部分推薦模型訓練和 inference 的支援。然而,MTIA 主要針對邊緣 inference,對於大規模 LLM 訓練,CPU/GPU/TPU 仍然是主力。

這就解釋了為何 Meta 需要與 Google 簽署 TPU 協議:它在試圖打造一個三層供應鏈体系 —— 訓練用 TPU/GPU 混合集群, inference 用 MTIA 與 AMD MI300X 搭配,再加上與 NVIDIA 談判獲取最佳價格。這種策略既能確保供應鏈安全,又能利用供應商之間的競爭壓低价格。

Meta AI 芯片三層供應鏈佈局 顯示 Meta 在 AI 訓練與推理任務上使用的不同芯片來源:Google TPU、NVIDIA GPU、AMD GPU 及自研 MTIA 的分配比例 Meta AI 集群 TPU (訓練主力) GPU (訓練備援) MTIA (推理) AMD GPU (推理)
Expert Insight:Meta 的策略核心在於 risk diversification。根據 CNBC 報導,Meta 已經在路易斯安那州投資百億美元建設 Western Hemisphere 最大的數據中心。與 Blue Owl Capital 的 80/20 合資結構(Meta 保留 20% 所有權)顯示它在尋求資本效率 —— 用合资模式降低资产负债表压力,同時確保 AI 算力擴張速度不受融資限制。

台積電 CoWoS 封裝飢渴:2026 年供應鏈脆弱點

AI 芯片競爭的本質是半導體製程與封裝技術的競爭。當前所有高端 AI 芯片(NVIDIA H100/H200、Google TPU、AMD MI300X)都依賴台積電的 CoWoS(Chip on Wafer on Substrate) 封裝技術。然而,CoWoS 產能本身就是最大的瓶頸。

根據 Morgan Stanley 與野村證券的產業調查,台積電 CoWoS 產能利用率在 2025-2026 年持續接近滿載。野村證券更指出,台積電下一代 CoPoS(Chip on Panel on Substrate)技術可能延遲至 2029-2030 年才會量產,這直接影響 NVIDIA Rubin Ultra GPU 的推出時間表。

Meta 如果大量採購 TPU,將進一步加劇 CoWoS 供不應求的狀況。台積電 2026 年後端資本支出可能轉向 WMCM(晶圓級多晶片模組)及 SoIC(系統級集成電路)等其他技術,但短期內無論哪家客戶都必須排隊等候。

AI 芯片封裝需求 vs 台積電 CoWoS 產能 (2024-2027) 預測 AI Server Compute ASIC 需求量與台積電 CoWoS 封裝產能之間的差距,顯示短缺将持续至 2027 年 2024 2025 2026 2027 CoWoS 供需缺口持續擴大 AI ASIC 需求量 CoWoS 產能 百萬顆等效晶圓

Counterpoint Research 的數據印證了這一點:Global AI Server Compute ASIC 出貨量預計在 2024-2027 年間翻三倍。Broadcom 目前以 60% 市占率領導 AI Server ASIC 設計,Google TPU 則是出貨量的骨幹。若 Meta 加入 TPU 大單,Google 的 ASIC 份額將進一步膨脹。

2027 年 AI 芯片市場預測:三足鼎立還是寡頭壟斷?

根據 Allied Market Research,AI 芯片市場規模將從 2024 年的 449 億美元成長至 2034 年的 4,609 億美元,年複合成長率(CAGR)約 29.5%。但這數字背後隱藏著結構性變化:custom ASIC(包括 TPU、MTIA 各類自研芯片)將逐步蠶食 GPU 份額。

我們可以預見 2026-2027 年的格局:

  • NVIDIA:Blackwell 系列(B200/GB200)在超高端訓練市場仍有優勢,但客户開始要求价格折扣以抗衡替代品。
  • Google:如果 TPU v7/v8 在性能上能達到甚至超越 H200/B200,並成功將產品外部銷售,將形成 雲端巨頭 vertical integration 的新模式。
  • AMD:MI300X 在 inference 市場取得初步成功,但要進入訓練市場需要更多軟體生態投資。
AI 芯片市場份額預測 (2024 vs 2027) 依據多份券商研究報告,預測 NVIDIA、Google TPU 及 AMD 在 AI Server Compute ASIC 市場的份額變化 2024 2027 NVIDIA Google AMD NVIDIA Google AMD 100% 75% 50% 25% AI Server ASIC 市場份額演變
Expert Insight:我們預期 2027 年之後的市場不會是「三足鼎立」,而是雙寡頭 plus 利基市場。NVIDIA 和 Google 將各占約 35-40% 份額,AMD 和 Broadcom 瓜分其餘。關鍵變數在於:1) Google 能否 TPU 外部銷售突破 FCC 合規限制 2) NVIDIA 是否推出更便宜的 ASIC 產品線 3) 台積電 CoWoS 產能擴張速度。如果 CoPoS 技術延期,NVIDIA Rubin 推出延後,將給 Google TPU 更多 time-to-market 機會。

常見問題

Meta 為何要簽署 TPU 協議而不是繼續向 NVIDIA 買 GPU?

主要原因是供應鏈風險管理。NVIDIA H100/H200 當前供不應求,Lead time 長達數月。Meta 的 AI 訓練需求極大(Llama 5 即將推出),必須提前鎖定算力來源。此外,MTIA 和 TPU 配合使用可能降低 15-30% 的训练成本。

Google TPU 的軟體生態能否與 CUDA 競爭?

這是 Google 最大的劣勢。CUDA 生態已有十數年累積,數百萬開發者。TPU 需要 through JAX 或 TensorFlow,遷移成本高。然而 Google 正在大力投資軟體工具鏈,若 Meta 這樣的頭部客戶帶動效應,可能加速 TPU 軟體成熟。

這筆交易對台積電的營業收入有何影響?

直接影響有限,因為 TPU 本來就由台積電代工。但 Meta 需求增加意味著 Google TPU 出貨量上升,間接增加台積電 CoWoS 封裝訂單。台積電 2026 年 AI 相關營收可能因此上修 5-8%。

行動呼籲

AI 基礎設施的 Power Shift 正在發生。作為企業決策者或技術投資者,你需要:

  1. 重新評估 AI 芯片供應鏈風險,不要把所有雞蛋放在 NVIDIA 籃子裡
  2. 關注 Google TPU 生態發展,2026 年可能出現外部銷售突破
  3. 密切追蹤台積電 CoWoS 產能擴張時間表,這將是芯片短缺周期的關鍵轉折點

聯繫我們獲取深度分析報告

Share this content: