海洋式冷卻是這篇文章討論的核心



Google 攜手 Envicool 掀起數據中心冷卻革命:海洋式散熱技術如何為 AI 雲端時代省下兆億成本?
現代化數據中心正面臨前所未有的散熱挑戰,而 Envicool 的海洋式冷卻技術或許是解方。Photo: Brett Sayles / Pexels

⚡ 快速精華 Key Takeaways

  • 💡 核心結論:Google 與 Envicool 的合作不只是供應商關係,更是全球雲端巨頭向「綠色數據中心」轉型的風向標,海洋式冷卻技術可將空調能耗削減 60% 以上。
  • 📊 關鍵數據:2026 年全球數據中心冷卻市場規模達 210 億美元,液冷技術市場約 56.3 億美元;預計 2027 年中國液冷伺服器市場年複合成長率達 54.7%,全球綠色數據中心市場將於 2034 年突破 3,968 億美元。
  • 🛠️ 行動指南:企業應評估現有機房 PUE 值,優先導入自然冷卻與液冷混合方案;供應鏈廠商應加速布局全鏈路散熱解決方案。
  • ⚠️ 風險預警:液冷系統的初期投資門檻較高,且需考量洩漏風險與維護成本;地緣政治因素可能影響技術移轉與供應鏈穩定性。

引言:一場安靜卻震撼的散熱革命

說實話,數據中心這玩意兒,外表看起來像是堆滿伺服器的倉庫,實際上卻是一座座「會呼吸的龐然大物」。每一次你對 ChatGPT 下指令、每一次你在雲端硬碟存檔,背後都有數十億次的運算在吞噬電力——而這些電力有將近 40% 最終變成了「廢熱」。

觀察 Google 近年來的動向,不難發現這家搜尋巨頭對「散熱」這件事近乎偏執。從早期的海水冷卻實驗,到芬蘭資料中心的風冷系統,Google 早就意識到:誰能搞定散熱,誰就能在雲端戰爭中佔據成本高地

而這次,Google 選擇了與中國公司 Envicool(英維克)洽談合作,引進其海洋式冷卻技術。這不是一個單純的採購案,而是一場關於「綠色雲端」的深度佈局——其影響層面將橫跨能源政策、供應鏈重組,乃至全球 AI 算力競賽的規則重寫。

Google 為何找上 Envicool?背後的戰略盤算

要理解 Google 的選擇,得先回到一個核心問題:Google 的 2030 年零碳目標,到底有多難達成?

根據 Google 官方永續報告,Google 資料中心的能耗已比業界平均少了 50%,其 PUE(電力使用效率)值長期維持在 1.1 左右——這意味著每 1 度電用於運算,僅額外消耗 0.1 度電在冷卻與照明等輔助系統上。但這還不夠。為了實現 2030 年全供電鏈零碳化,Google 必須在「能耗效率」與「能源來源」兩條戰線同時推進。

🔬 Pro Tip 專家見解

為何 PUE 值如此關鍵? PUE(Power Usage Effectiveness)是衡量資料中心能源效率的黃金指標。當 PUE 等於 1 時,代表所有電力都用在運算上,零浪費;PUE 等於 2 則意味著每運算 1 度電,就額外浪費 1 度電在冷卻上。業界平均 PUE 約為 1.57,而 Google 早已壓到 1.1 以下。Envicool 的技術宣稱可將 PUE 進一步降至 1.15——對於大型雲端服務商而言,這 0.05 的差距意味著數億美元的電費節省。

Envicool 的優勢在於其「海洋式冷卻」技術。這套系統的核心邏輯相當直接:用海水或自然水體的冷量,取代傳統機械製冷。在某些地理條件優越的區域,這種方式可以完全繞過壓縮機,直接用熱交換器把廢熱丟給大海。

但更關鍵的是,Envicool 已經在中國多地完成了「數百兆瓦級」的實證。這意味著什麼?代表這套技術不是停留在實驗室的概念品,而是經過大規模部署驗證的成熟方案。對 Google 這種「全球佈局、本地落地」的雲端巨頭來說,技術成熟度比創新度更重要。

三個關鍵數據,看懂 Google 的盤算

  1. 碳排放壓力:Google 在 2023 年的溫室氣體排放量較基準年增加 48%,主因正是 AI 運算需求暴增。
  2. 能源成本佔比:大型資料中心的電力成本可佔總營運成本的 30-50%,冷卻系統又佔其中 40%。
  3. 市場規模:2026 年全球數據中心冷卻市場規模預計達 210 億美元,液冷技術市場約 56.3 億美元。
數據中心能耗分配示意圖 此圖表展示數據中心能耗的主要分配比例,包括運算設備佔 40%、冷卻系統佔 40%、照明及其他佔 20%,凸顯冷卻系統在能耗中的關鍵地位。 運算設備 40% 冷卻系統 40% 照明及其他 20% 數據中心能耗分配

海洋式冷卻到底是什麼黑科技?

「海洋式冷卻」這詞聽起來很科幻,實際上原理相當樸素:利用自然水體的低溫,直接對資料中心進行熱交換。這跟傳統冷卻系統最大的差異在於——前者幾乎不需要壓縮機。

傳統資料中心冷卻系統的邏輯是這樣的:伺服器產生熱 → 冷卻水帶走熱 → 冷卻水進入「冷水機組(Chiller)」 → 壓縮機製冷 → 冷卻水變冷 → 回到伺服器。這個循環中,「壓縮機製冷」是最耗能的環節,典型的電力黑洞。

而海洋式冷卻則試圖跳過這一步:

海洋式冷卻技術原理圖 此圖表對比傳統冷卻系統與海洋式冷卻系統的運作流程,展示海洋式冷卻如何省略壓縮機環節,大幅降低能耗。 傳統冷卻系統 伺服器產熱 冷卻水帶熱 壓縮機製冷 冷卻水回流 海洋式冷卻系統 伺服器產熱 冷卻水帶熱 海水熱交換 冷卻水回流 省略壓縮機 能耗降低 60%

Envicool 的技術亮點在於「高效熱交換器」的設計。根據其官方資料,這套系統在自然冷卻模式下運行時,可以減少 60% 以上的空調系統能耗,全年運行 PUE 可低至 1.15。這個數字放在全球資料中心產業來看,屬於頂尖水準。

更重要的是,這套系統並非「全有或全無」的設計。在氣候條件不允許自然冷卻的季節,系統可以切換回傳統製冷模式,形成「混合式冷卻」方案。這種彈性,正是大型雲端服務商在全球多地部署時最需要的特性。

🔬 Pro Tip 專家見解

海洋式冷卻的地理限制:這類技術並非放諸四海皆準。它需要資料中心鄰近大型水體(海洋、湖泊、河流),且水體溫度需長期維持在 15°C 以下。Google 在芬蘭、新加坡、台灣等地的資料中心,都有潛力導入這類方案。但對於內陸資料中心(如美國愛荷華州),則需搭配其他冷卻技術。

從中國經驗到全球佈局:Envicool 的實績拆解

Envicool 能進入 Google 的視野,絕非偶然。這家總部位於深圳的公司,早已在中國資料中心冷卻市場打下深厚根基。

根據公開資料,Envicool 是 NVIDIA MGX 生態系合作夥伴,其液冷解決方案已在 2025 年 OCP Global Summit 上亮相,展示的「Google Deschutes 5 CDU」成為展會亮點。此外,Envicool 也曾與 Intel、寶德合作,推動液冷技術在中國資料中心的應用。

更具說服力的是其「1.2+ 吉瓦液冷數據中心案例研究」——這意味著 Envicool 的技術已經在千兆瓦級別的資料中心完成實證。這個規模相當於一個中型核電廠的發電容量,足以證明其技術的成熟度與可靠性。

Envicool 的三大技術優勢

  1. 全鏈路液冷方案:Envicool 的「Coolinside」品牌覆蓋從冷板、CDU(冷量分配單元)到管路系統的完整生態,而非單一產品。
  2. 模組化設計:其液冷快速接頭具備抗腐蝕、零洩漏、高互換性等特性,方便資料中心維運。
  3. 自然冷卻整合:在液冷系統中融入自然冷卻邏輯,最大化利用環境條件降低能耗。

對 Google 而言,選擇 Envicool 的另一層意義在於供應鏈多元化。在全球地緣政治風險升高的背景下,雲端巨頭們都在尋找「非美系」的供應商,以降低單一來源的依賴風險。Envicool 的中國背景,反而成為其競爭優勢之一。

Envicool 液冷方案架構示意圖 此圖表展示 Envicool 的全鏈路液冷解決方案架構,包括冷板、CDU、管路系統及自然冷卻整合模組。 Envicool Coolinside 全鏈路液冷架構 冷板模組 CDU 管路系統 快速接頭 自然冷卻 整合模組 全球部署實績:1.2+ GW 液冷數據中心案例

2026-2027 產業變局:液冷市場的爆發前夕

如果說 2023 年是「生成式 AI 元年」,那麼 2026-2027 年很可能會被記載為「液冷元年」。原因很簡單:AI 模型的參數量正在以指數級成長,而傳統氣冷技術已經逼近物理極限。

根據 Research Nester 的報告,2026 年全球數據中心液冷市場規模預計為 56.3 億美元,預計到 2035 年將以 25.5% 的年複合成長率增長,達到 443.9 億美元。而 IDC 的預測更為激進:中國液冷伺服器市場 2022-2027 年的年複合成長率將達 54.7%,2027 年市場規模將大幅擴張。

三大驅動力,推動液冷市場爆發

  1. AI 運算密度突破:單一機櫃功率需求已突破 30kW,氣冷技術難以有效散熱。
  2. 碳中和法規壓力:歐盟碳邊境調整機制(CBAM)將在 2026 年試行,資料中心能耗成本將直接反映在碳稅上。
  3. 技術成本下降:液冷系統的初期投資門檻正逐年降低,ROI 回收期已縮短至 2-3 年。

但值得關注的是,NVIDIA 執行長黃仁勳在 2026 年 CES 上拋出的「水冷式冷卻機無用論」,引發產業震盪。黃仁勳指出,新一代 Vera Rubin 平台可以用 45°C 熱水直接散熱,意味著傳統 Chiller 將被淘汰。這番言論導致 Johnson Controls、Modine Manufacturing 等冷卻設備商股價重挫 6-7.5%。

這看似與液冷趨勢矛盾,實則不然。黃仁勳批判的是「傳統冷水機組」,而非液冷技術本身。相反地,這恰恰凸顯了「直接晶片液冷」與「自然冷卻整合」的重要性——這正是 Envicool 的強項。

全球液冷市場規模預測(2026-2035) 此圖表展示全球數據中心液冷市場規模從 2026 年的 56.3 億美元成長至 2035 年的 443.9 億美元,年複合成長率達 25.5%。 全球數據中心液冷市場規模預測 2026 2027 2028 2029 2030 2033 2035 56.3億 70.7億 88.7億 111.3億 139.7億 279.4億 443.9億 市場規模(億美元)

🔬 Pro Tip 專家見解

2027 年後的市場格局:隨著液冷技術普及,傳統冷卻設備商將面臨轉型壓力。具備「液冷 + 自然冷卻整合」能力的供應商(如 Envicool)將佔據優勢;而純氣冷方案供應商的市場份額將被壓縮。預計 2027 年後,全球前十大資料中心冷卻供應商名單將出現顯著洗牌。

企業該如何佈局?三大務實策略

面對這場冷卻技術的範式轉移,企業該如何應對?以下是三個務實的建議:

策略一:立即盤點 PUE 基線

在導入任何新技術之前,企業必須先搞清楚現有資料中心的 PUE 基線。建議採用國際標準(如 ISO/IEC 30134)進行測量,而非依賴設備商提供的理論值。若 PUE 超過 1.5,代表冷卻系統存在顯著優化空間。

策略二:優先評估混合冷卻方案

對於多數企業而言,全面導入液冷系統的成本與風險仍然偏高。更務實的做法是採用「混合冷卻」方案:在關鍵運算節點(如 AI 訓練伺服器)使用液冷,其餘部分維持氣冷,並整合自然冷卻邏輯。

策略三:關注供應鏈多元化

地緣政治風險下,企業應避免過度依賴單一供應商或單一國家的技術方案。Envicool 的崛起提供了一個「非美系」的選項,值得納入評估名單。

企業冷卻技術升級路徑圖 此圖表展示企業從傳統氣冷升級至液冷混合方案的三階段路徑,包括評估期、試點期與全面導入期。 企業冷卻技術升級路徑 第一階段 PUE 基線盤點 ・ISO/IEC 30134 測量 ・能耗熱點分析 ・ROI 預估 時間:1-3 個月 第二階段 試點導入 ・選定關鍵節點 ・混合冷卻方案 ・效能監控 時間:3-6 個月 第三階段 全面導入 ・液冷 + 自然冷卻 ・全鏈路整合 ・持續優化 時間:6-12 個月

常見問題 FAQ

海洋式冷卻技術適合所有類型的資料中心嗎?

不盡然。海洋式冷卻技術需要資料中心鄰近大型水體(海洋、湖泊、河流),且水體溫度需長期維持在較低水準。對於內陸資料中心,建議採用液冷搭配其他自然冷卻技術(如風冷或蒸發冷卻)的混合方案。

導入液冷系統的投資回收期大約多久?

視資料中心規模與現有設備狀況而定。一般而言,液冷系統的初期投資回收期約為 2-3 年,主要來自電費節省與碳排放成本降低。若配合政府節能補助政策,回收期可進一步縮短。

Envicool 與其他液冷供應商的主要差異是什麼?

Envicool 的核心優勢在於其「全鏈路」液冷方案,涵蓋從冷板、CDU 到管路系統的完整生態。此外,其技術已在中國多地完成數百兆瓦級實證,具備成熟的部署經驗。作為 NVIDIA MGX 生態系合作夥伴,Envicool 的解決方案也具備良好的生態相容性。

結語:散熱,是雲端時代的「隱形戰場」

當我們談論 AI 革命時,多數人聚焦於演算法、算力、應用場景。但實際上,散熱才是決定這場革命能走多遠的關鍵變數

Google 與 Envicool 的合作,釋放出一個明確訊號:未來的雲端競爭,不只是「誰的晶片更快」,而是「誰的機房更涼」。海洋式冷卻技術的引入,將為全球資料中心產業帶來一場安靜卻深遠的變革——降低能耗、削減碳足跡、壓低營運成本,最終重塑 AI 時代的基礎設施版圖。

對於企業決策者而言,現在正是評估冷卻技術升級的關鍵時刻。無論是從 PUE 基線盤點開始,還是直接切入試點導入,都應儘速展開行動。畢竟,在這場「隱形戰場」中,落後者將付出高昂的能源成本代價。

參考資料

Share this content: