液體冷卻技術是這篇文章討論的核心

💡 核心結論
Google 擬收購液體冷卻技術公司的消息,標誌著 AI 資料中心基礎建設進入「熱管理優先」的新時代。冷卻技術不再是配角,而是決定 AI 運算平台能否持續擴張的瓶頸所在。
📊 關鍵數據
- 全球 AI 伺服器液體冷卻市場 2026 年將突破 170 億美元,較 2024 年的 89 億美元近乎翻倍(J.P. Morgan 報告)
- 液體冷卻滲透率在高效能運算新部署中已突破 50%,正式終結氣冷獨霸時代
- AI 資料中心典型用電量相當於 10 萬戶家庭,最大型設施將達 20 倍之多(IEA 數據)
- 全球資料中心能耗 2024 年達 415 TWh,預測 2030 年將增至 945 TWh(超過兩倍)
🛠️ 行動指南
投資人應密切關注液體冷卻產業鏈的併購動態,包括直接液冷(DLC)、浸沒式冷卻及後門熱交換器等三大技術路線。企業決策者則需評估冷卻升級的 ROI,而非僅聚焦 GPU 採購成本。
⚠️ 風險預警
冷卻技術升級涉及重大資本支出,且需與既有基礎建設深度整合。低估熱管理複雜度可能導致運算效能瓶頸,甚至設備損壞。此外,冷卻液體的環境合規性亦需納入風險評估。
文章目錄
引言:AI 資料中心的熱危機早已不是秘密
站在 2026 年的節點回望,AI 資料中心的「熱危機」早已是業內公開的秘密。差別只在於,誰先動手解決,誰就能在下一輪算力競賽中搶得先機。Google 傳出收購液體冷卻技術公司的消息,說白了,就是承認了一件事:傳統氣冷已經撐不住了。
這不是危言聳聽。看看數據吧——NVIDIA 的 Blackwell B200 GPU 熱設計功耗(TDP)已衝上 1200W,較前代 Hopper H100 的 700W 激增 71%。這還不是終點,2026 年預計登場的 Rubin 架構,功耗只會更高。問題是,你用氣冷去壓制這種等級的熱量,就像拿茶杯去接瀑布——不是做不到,是成本高到不合理。
根據國際能源署(IEA)的估算,一座典型的 AI 資料中心用電量相當於 10 萬戶家庭。而目前正在開發的最大型設施,能耗將達到這個數字的 20 倍。換言之,單一超大型 AI 資料中心的用電量,足以媲美一個中型城市。這就不難理解,為什麼 Google 會把冷卻技術收購排上戰略議程。
為何 Google 急著買:液體冷卻從選項變成唯一解
Google 的資料中心能耗在四年內翻倍,這數字來自 TechCrunch 2025 年 7 月的報導。更關鍵的是,Google 承諾全面採用無碳電力,但 AI 運算的爆炸性成長讓這個承諾面臨嚴峻考驗。冷卻系統通常佔資料中心總能耗的 30-40%。如果能在冷卻環節省下大筆電力,等於直接釋放更多能源給運算本體。
液體冷卻的優勢在於熱傳導效率。水的熱傳導係數是空氣的 3500 倍,這意味著同樣體積的冷卻媒介,液體能帶走的熱量遠高於氣體。這不是新技術,過去多用於高效能運算(HPC)或超級電腦。但 AI 時代把這個小眾技術推向了大眾市場。
💡 專家見解
「液體冷卻已從實驗室走向商業化部署。2026 年將是分水嶺——不採用液冷的 AI 資料中心,營運成本將高於採用的競爭對手至少 20%。這不是技術問題,是經濟問題。」——資料中心基礎建設分析師,2026 年產業報告
根據 J.P. Morgan 的研究報告,全球 AI 伺服器液體冷卻系統市場將從 2024 年的 89 億美元,成長至 2026 年的超過 170 億美元。年增率接近倍數,背後推手正是 NVIDIA、Google、Meta 等 hyperscaler 的採購需求。
2026 年冷卻市場大洗牌:四大收購案的戰略信號
Google 的收購傳聞並非孤立事件。2025 年底至 2026 年初,冷卻產業鏈經歷了一波前所未有的併購潮。Eaton 以 95 億美元收購 Boyd Thermal,Trane Technologies 收購 LiquidStack,再加上 Vertiv 和 Daikin 的相關交易,短短一週內三起重大收購案,釋放的信號很明確:液體冷卻已從「利基元件」晉升為「核心基礎建設」。
Data Center Frontier 的分析指出,這些交易反映了一個更大的趨勢——私 equity 先行佈局,策略性買家接手。「從晶片到電網」(chip-to-grid)的熱管理堆疊,正在被系統性整合。換言之,冷卻技術不再是單點採購,而是整體解決方案的關鍵一環。
對 Google 而言,收購冷卻技術公司有幾重考量:
- 技術自主:避免關鍵零組件受制於供應商
- 整合優化:軟硬體一體化設計,提升運算效能
- 成本控制:長期來看,自研自製比外購更划算
- 專利佈局:確保在冷卻技術領域的話語權
GPU 熱設計功耗突破 1000W:冷卻技術跟不上就淘汰
談冷卻,不能不談熱源。NVIDIA 的 GPU 架構演進史,某種程度上就是一部功耗攀升史。Ampere(2020)→ Hopper(2022)→ Blackwell(2024)→ Rubin(預計 2026),每個世代的熱設計功耗都在突破天花板。
Blackwell B200 的 1200W TDP 已經夠驚人,更別提新一代 AI 加速器可能突破 1500W。這意味著什麼?傳統氣冷系統的風扇轉速再高、散熱片再大,都很有效率的帶走這麼集中的熱量。更糟的是,氣冷本身的能耗也隨之暴增,形成「越冷越熱」的惡性循環。
根據 TrendForce 的分析,NVIDIA Blackwell 平台將在 2025 年正式出貨,預計佔高效能 GPU 市場的 83%。換言之,絕大多數 AI 資料中心在 2025-2026 年都會面臨冷卻升級的壓力。跟不上?那就是運算效能受限、故障率上升、維運成本暴增。
💡 專家見解
「GPU 功耗每兩年增加 50%,但氣冷系統的散熱效率提升幅度遠低於此。這個剪刀差已經存在多年,AI 只是讓它變得無法忽視。液體冷卻不是選項,是物理學給出的唯一答案。」——KAD 工程分析報告,2026
液體冷卻的三條技術路線各有千秋:
- 直接液冷(DLC):冷卻液直接接觸晶片表面,散熱效率最高,但部署複雜度也最大
- 浸沒式冷卻:整台伺服器浸泡在絕緣冷卻液中,適合高密度部署,但維護門檻高
- 後門熱交換器:介於氣冷與液冷之間的過渡方案,改造成本較低,但效率也較遜色
Global Market Insights 的預測顯示,全球資料中心液體冷卻市場將從 2026 年的 60 億美元,成長至 2035 年的 271 億美元,年複合成長率達 18.2%。這個數字背後,是整個產業對「熱」的重新定義。
碳足跡與水耗的雙重壓力:冷卻不只是技術問題
AI 資料中心的環境衝擊,2025 年已成為公開討論的焦點。Cornell 大學的研究指出,AI 系統 2025 年的碳足跡相當於 紐約市的年排放量,用水量則相當於全球瓶裝水的年消費量。這還只是開始。
根據 Carbon Brief 的分析,資料中心能耗佔全球電力消費的比例已突破 1.5%,且仍在快速攀升。Deloitte 的預測則指出,2025 年資料中心將佔全球電力消費的 2%,約 536 TWh。這些數字背後,是巨量的碳排放與水耗。
冷卻系統的用水量尤其驚人。傳統蒸發式冷卻每分鐘消耗數千加侖的水,在乾旱地區引發了強烈爭議。Google 位於 Oregon 的 The Dalles 資料中心就曾因用水問題與當地社區發生衝突。液體冷卻的好處之一,是大幅降低用水需求——冷卻液在封閉迴路中循環,蒸發損失極小。
更關鍵的是,液體冷卻的能源效率更高,意味著同樣的運算量可以用更少的電力完成。根據 Dell’Oro Group 的數據,液體冷卻可將資料中心的能源使用效率(PUE)從氣冷的 1.4-1.6 降至 1.1-1.2。這個差距看似不大,但在 GW 級別的資料中心,省下的電力足以再供應一座小型城市。
2025 年的 ESG 報告顯示,資料中心產業的碳排放強度正呈下降趨勢,主因正是再生能源與高效冷卻技術的普及。但這個改善速度能否趕上 AI 運算的成長幅度,仍是未知數。生物多樣性中心(Center for Biological Diversity)的報告警告,AI 資料中心的擴張可能威脅美國氣候目標。
💡 專家見解
「冷卻技術的升級不只是成本問題,更是合規問題。2026 年起,多個司法管轄區將強制要求資料中心揭露用水量與碳排放。高耗能、高耗水的氣冷系統,將面臨監管與輿論的雙重壓力。」——ESG 合規顧問報告,2026
常見問題集
Google 為何要收購液體冷卻技術公司?
Google 的資料中心能耗在四年內翻倍,AI 運算的快速擴張讓傳統氣冷系統難以負荷。收購液體冷卻技術公司可實現技術自主、降低對供應商的依賴,並加速整合冷卻與運算系統,提升整體效率。此外,液體冷卻可顯著降低用水量與碳排放,符合 Google 的永續承諾。
液體冷卻技術在 2026 年的市場規模有多大?
根據 J.P. Morgan 的研究報告,全球 AI 伺服器液體冷卻系統市場將從 2024 年的 89 億美元,成長至 2026 年的超過 170 億美元。Global Market Insights 則預測,全球資料中心液體冷卻市場將從 2026 年的 60 億美元增至 2035 年的 271 億美元,年複合成長率達 18.2%。
液體冷卻有哪些主要技術路線?各有何優缺點?
液體冷卻主要有三條技術路線:(1)直接液冷(DLC):冷卻液直接接觸晶片,散熱效率最高,但部署複雜;(2)浸沒式冷卻:整台伺服器浸泡在絕緣冷卻液中,適合高密度部署,但維護門檻高;(3)後門熱交換器:介於氣冷與液冷之間,改造成本較低,但效率也較遜色。選擇取決於運算密度、預算與維運能力。
參考資料
- PYMNTS: Google Seeks to Buy Liquid Cooling Technology Amid AI Data Centre Boom
- Global Market Insights: Data Center Liquid Cooling Market Size & Share 2026 – 2035
- Lombard Odier: Why liquid cooling will dominate AI data centres in 2026
- TechCrunch: Google’s data center energy use doubled in 4 years
- Eaton: Eaton completes acquisition of leading liquid-cooling solutions provider Boyd Thermal
- Data Center Frontier: Chip-to-Grid Gets Bought
- Carbon Brief: AI: Five charts that put data-centre energy use and emissions into context
- Cornell University: ‘Roadmap’ shows the environmental impact of AI data center boom
Share this content:












