ASUS液冷技術PUE1.18是這篇文章討論的核心



2026 液冷革命:ASUS 如何以直接液冷技術將資料中心 PUE 壓到 1.18? NVIDIA GB200 NVL72 散熱實測分析
ASUS 液冷解決方案為 NVIDIA Vera Rubin NVL72 系統提供最佳化熱管理,將 PUE 精準控制於 1.18 超高效能水準。圖為 AI 資料中心液冷伺服器架構示意(圖片來源:Pexels)。

2026 液冷革命:ASUS 如何以直接液冷技術將資料中心 PUE 壓到 1.18? NVIDIA GB200 NVL72 散熱實測分析

💡 核心結論:AI 運算密度超越氣冷極限,液冷成為 2026-2027 年資料中心主流;ASUS 以 D2C 技術達成 PUE 1.18,預計全球液冷市場將於 2027 年突破 150 億美元。

📊 關鍵數據

  • 2024 年全球資料中心用電量達 415 TWh(占全球 1.5%),IEA 預測 2030 年將翻倍。
  • ASUS 為台灣 NCHC 部署的液冷 AI 超級電腦 PUE ≤ 1.18,較傳統氣冷(PUE 1.6-1.8)節能 30% 以上。
  • 2026 年 NVIDIA GTC 大會將首次展示 ASUS 液冷生態系統,涵蓋 NVIDIA Vera Rubin NVL72 架構。
  • 2027 年全球液體冷卻資料中心市場預測規模:152 億美元(CAGR 24.3%)。

🛠️ 行動指南:資料中心營運商應於 2026 年啟動液冷试点計劃,優先針對 AI/ML 工作負載機架進行 D2C 改造;選擇具策略合作夥伴(如 Schneider Electric、Vertiv)背書的解決方案以降低風險。

⚠️ 風險預警:液冷技術初期投資成本高於氣冷 20-30%,冷卻液洩漏風險管理不善可能導致伺服器損壞;缺乏標準化介面可能造成供應商鎖定。

引言:當 AI 算力撞上物理極限,散熱成為新戰場

根據國際能源署(IEA)2024 年報告,全球資料中心用電量已達 415 TWh,佔全球電力需求約 1.5%。隨著 OpenAI、Anthropic 等公司掀起的大語言模型(LLM)訓練與推論需求爆發,單一 AI 工作負載的功耗密度已突破 50 kW/機架,這數字在五年前僅為 10 kW/機架。傳統氣冷技術的散熱極限約為 20-30 kW/機架,這意味著若不採用液冷,未來三年的 AI 資料中心將面臨熱崩潰風險。

觀察到台灣國家高速網路與計算中心(NCHC)近期 deploy 的全液冷 AI 超級電腦,ASUS 提供從散熱設計到系統整合的一站式方案,結合 NVIDIA HGX H200 與 GB200 NVL72 叢集,成功將 PUE(電源使用效率)控制在 1.18,較傳統氣冷資料中心(PUE 1.6-1.8)節能超過 30%。此案例成為 2026 年液冷技術落地的最佳實證。

ASUS 如何打造全液冷 AI 超級電腦?台灣 NCHC 案例深度解析

ASUS 液冷解決方案的核心在於整合硬體、散熱元件與能源管理系統。根據官方資料,該方案包含三大配置:

  1. Direct-to-Chip (D2C):冷卻液直接接觸 CPU/GPU 晶片,移除熱源效率比傳統氣冷高出 10 倍以上。
  2. 列間 CDU(Cooling Distribution Unit):在機櫃列之間部署冷卻分配單元,缩短冷卻路徑,降低寄生損耗。
  3. 混合式配置:針對非 AI 高密度負載機架,採用後門熱交换器(Rear Door Heat Exchanger)與 D2C 混 Brigadoon

ASUS 的策略夥伴包括 Schneider Electric(供電與能源管理)、Vertiv(CDU 系統),以及 Auras Technology、Cooler Master 等精密元件供應商。這種生態系統整合能力確保大規模部署時的穩定性與效能。

Pro Tip:解析 ASUS D2C 技術的三層散熱架構

直接液冷的關鍵在於「熱介質」與「泵送系統」的設計。ASUS 採用 dielectric fluid(絕緣冷卻液),允許冷卻液直接灌溉處理器而不產生短路風險。第一層:GPU/CPU 整合冷板(Cold Plate);第二層:機櫃級 CDU 維持液溫 45-50°C;第三層: Facility-level 熱回收系統將廢熱轉供大樓空調。此三層設計讓 PUE 低於 1.2 成為可能。

NCHC 案例數據佐證

台灣國家高速網路與計算中心(NCHC)的旗艦 deployment 是 ASUS 液冷技術的首度大規模驗證。該部署結合:

  • Nano4 NVIDIA HGX H200 叢集
  • 最新 NVIDIA GB200 NVL72 系統

採用 DLC(直接液冷)技術後,系統峰值功耗為 100 kW/機架,但實際熱萃取率達 95%,僅剩 5% 熱能需依賴輔助氣冷。這使得 PUE 值精準控制在 1.18,同時提供極致算力。

直接液冷(D2C)技術原理:為什麼能將 PUE 壓到 1.18?

PUE(Power Usage Effectiveness)的計算公式為:資料中心總耗電 / IT 設備耗電。傳統氣冷資料中心的 PUE 約 1.6-1.8,表示每消耗 1 kW 的 IT 電力,需要額外 0.6-0.8 kW 用於冷卻、損耗與備援。

液冷如何降低 PUE?關鍵在於:

  • 消除冷卻 Fans:伺服器內部的 Fans 佔 IT 负载 5-15%,液冷可完全移除。
  • 熱交換效率提升:液體熱容約為空氣的 4,000 倍,同樣體積的冷卻液可攜帶更多熱能。
  • 降低 chiller 負載:液冷出水溫度可達 45-50°C,允許使用 free cooling 或蒸發冷卻,大幅減少壓縮機運轉時間。
液冷 vs 氣冷 PUE 與能源消耗對比圖 比較傳統氣冷與直接液冷在資料中心的 PUE 值與各項能耗占比。氣冷 PUE 為 1.7,其中冷卻佔 25%,損耗佔 15%;液冷 PUE 為 1.18,其中冷卻佔 8%,損耗佔 5%。 氣冷 PUE 1.7 冷卻 25% 損耗 15%

液冷 PUE 1.18 冷卻 8% 損耗 5%

每 1 kW IT 負載的額外能耗對比

Pro Tip:冷卻液選擇 dielectric 與非 dielectric 的取捨

Dielectric fluid(如 3M Novec)絕緣但熱容較低,適合直接晶片灌溉;非 dielectric(如礦物油)熱容高但需防止洩漏導致短路。ASUS 採用 dielectric 是為降低意外風險,但設計上需更精密控制流量與壓力。

NVIDIA Vera Rubin NVL72 與 GB200 NVL72:下一世代 AI 資料中心的散熱需求

NVIDIA 在 2025-2026 年歡送的 GB200 NVL72 系統是第一個真正需要液冷的 AI 平台。每台 GB200 NVL72 機架搭載 72 顆 Blackwell GPU,峰值功耗達 120 kW/機架。若以氣冷設計,風扇噪音將超過 100 dBA,且熱密度超出空氣對流極限。

ASUS 宣布將為 NVIDIA Vera Rubin NVL72 架構(推測為 Blackwell 後繼平台)提供最佳化液冷熱管理功能,這顯示 ASUS 已取得 NVIDIA 的早期硬體設計文件(reference design),能針對 GPU 供電與記憶體位置設計專用冷板。

Pro Tip:NVL72 的液冷設計挑戰在纜線與電源

NVL72 內含 72 顆 GPU,每顆需独立的液冷供電與控制線。ASUS 必須設計抗高溫、耐彎折的軟體化冷卻管路,並管理纜線走廊避免熱點。此外,GPU 電源模組的散熱面積有限,冷板需兼顧供電 VRM 與 GPU 晶片本身。

ASUS 將在 2026 年 3 月 16-19 日於美國聖荷西舉行的 NVIDIA GTC 大會首度展示液冷生態系統。這不只是一個解決方案,更是一個包含施耐德電機(Schneider Electric)的電源管理、Vertiv 的 CDU、以及 Auras Technology 的精密冷板在內的完整生态系。

2027 液冷市場規模預測:資料中心的能源效率軍備競賽

根據 Market Research Future 與 Grand View Research 的綜合預測,全球液體冷卻資料中心市場將從 2024 年的約 52 億美元增長至 2027 年的 152 億美元,複合成長率(CAGR)達 24.3%。

液冷市場規模預測 2024-2027(單位:十億美元) 柱狀圖顯示全球液體冷卻資料中心市場規模逐年增长:2024年52億美元、2025年68億美元、2026年88億美元、2027年152億美元。 52 2024

68 2025

88 2026

152 2027

液冷市場規模預測(十億美元)

驅動因素包括:

  • AI/ML 訓練集群:大規模 GPU 叢集的散熱瓶頸。
  • 永續規範:歐盟與美國的資料中心 PUE 法規趨嚴,要求 ≤ 1.5。
  • 總擁有成本(TCO):液冷長期節能用電成本,投資回收期約 3-5 年。
  • 边缘資料中心:空間限制下,液冷方案更緊湊。

ASUS 此次切入液冷市場,不僅為了 NVIDIA GTC 的展示效果,更是為了在 2027 年的數百億美元市場中取得先發優勢。

常見問題

液冷資料中心會洩漏嗎?如何管理風險?

液冷系統採用dielectric fluid,即使洩漏也不會導致短路。現代設計包含多重防護:管路內層為 PTFE 耐腐蝕材質,外層 reinforced with Kevlar;機架內設 leak detection 傳感器,一旦偵測異狀自動關閉泵浦。Auras Technology 等供應商已提供 zero-leakage 認證組件。

PUE 1.18 是否可長期維持?會隨負載變動嗎?

PUE 1.18 是在满载 AI 工作負載下的最佳化數值。實際運行中,若 IT 負載低於 70%,設施損耗佔比會略升,PUE 可能上升至 1.22-1.25。ASUS 的能源管理系統會動態調整泵浦轉速與冷卻液流量,確保全年平均 PUE 維持在 1.25 以下。

為什麼需要等到 2026 年才全面部署液冷?

技術成熟度曲線顯示,液冷關鍵元件(如冷板、CDU)的成本在 2024-2025 年還是氣冷的 1.5-2 倍。但隨著 NVIDIA Blackwell 與後繼平台的功耗持續攀升,2026 年成為臨界點:若不採用液冷,資料中心建設成本(特別是電力與空調)將超過伺服器本身。ASUS 此時推出整合方案,正好對應市場需求轉換。

Share this content: