aicooling是這篇文章討論的核心

⚡ 快速精華
- 💡 核心結論:Google與英維克的合作談判並非單純採購案,而是AI算力密度飆升下,全球數據中心散熱架構從風冷向液冷範式轉移的戰略訊號。液體導熱效率是空氣的25倍,成為高密度算力叢集的唯一解決方案。
- 📊 關鍵數據:全球數據中心冷卻市場2026年預計達210億美元,2027年突破240億美元;AI基礎設施市場2026年規模達754億美元,2034年將逼近5000億美元。輝達新一代Rubin Ultra平台單機櫃功耗突破200kW,向1MW邁進。
- 🛠️ 行動指南:投資者應密切關注液冷供應鏈廠商(CDU、冷板、浸沒式槽體)、電源架構升級受惠者,以及具備系統整合能力的溫控節能解決方案提供商。
- ⚠️ 風險預警:液冷技術普及仍面臨既有硬體改造、維運人員培訓、液體外洩風險管理等挑戰;地緣政治因素可能影響跨境技術合作進程。
📑 文章目錄
一、觀察筆記:從一場跨國談判看AI基礎設施的熱危機
這事兒其實挺有意思。當路透社爆出Google正與中國散熱解決方案供應商英維克(Envicool)及其他廠商談判,擬採購數據中心冷卻系統時,很多人第一反應是「Google不是自己有DeepMind在優化冷卻嗎?」沒錯,DeepMind確實曾讓Google數據中心冷卻能耗降低40%,但問題是——當你面對的不是「如何讓風冷更聰明」,而是「風冷根本壓不住」的局面時,這種合作就變成了戰略必然。
根據TradingView與多家財經媒體報導,這次談判的核心,是Google為了應對AI算力增長帶來的散熱需求,積極尋找高效冷卻技術合作夥伴。說白了,就是AI把數據中心的「熱度」推向了一個全新量級,原本的散熱套路已經不夠用了。
🎯 Pro Tip:專家見解
散熱效率已成為制約AIDC(AI數據中心)發展的核心瓶頸。當單張GPU功耗達到700W-1000W,輝達GB300超級芯片峰值功耗突破1400W,傳統風冷的物理極限已被撞破。液冷不是選項,而是高密度算力叢集的唯一技術路徑。這場Google與Envicool的談判,實質上是全球雲端巨頭對「液冷時代」到來的一次戰略確認。
值得玩味的是,Envicool並非冷門角色。這家成立於2005年的深圳企業,早已在精密溫控節能領域深耕多年,在國內外都有重量級合約。Google找上門,既說明Envicool的技術實力獲得頂級玩家認可,也折射出AI時代散熱供應鏈的話語權正在重構。
二、數據解密:2026年散熱市場規模與AI算力密度的碰撞
先看一組令人咋舌的數字。根據Global Market Insights、Fortune Business Insights等機構綜合數據,全球數據中心冷卻市場2024年估值約184億美元,2025年預計達208億美元,2026年將突破210億美元,預計2034年將接近500億美元大關,年複合成長率(CAGR)維持在10%-17%的高速區間。
但這些數字單獨看沒甚麼感覺,關鍵是要和「AI算力密度」放在一起理解。AI數據中心因GPU叢集並行運算需求,單機櫃功率已從傳統的5-10kW躍升至30-100kW,部分高端AI機架更向1MW級別突破。這意味著甚麼?機櫃每小時產生的熱量相當於幾十台家用冷氣同時運轉,而且這熱量是持續、集中、必須精準移除的。
同時,全球AI基礎設施市場正以驚人速度擴張。根據Precedence Research數據,2025年AI基礎設施市場規模約720億美元,2026年預計達754億美元,2034年將逼近4659億美元。Bain & Company更預測,AI產品和服務市場在2027年可能達到7800億至9900億美元——這就是為何散熱問題會變成Google、Meta、微軟等巨頭必須優先解決的戰略級議題。
數據會說話:當輝達新一代Rubin Ultra平台單機櫃功耗突破200kW,摩根士丹利預測2026年Rubin平台機櫃需求將激增至6萬台。熱,正成為AI發展最難纏的對手。
三、技術革命:為何液冷成為高密度算力的唯一解?
要理解液冷為何突然「紅了」,得先明白傳統風冷的物理天花板在哪裡。根據維基百科「電腦冷卻」條目,電腦散熱的核心原理是將廢熱從熱源(如CPU、GPU)轉移到環境中,維持組件在安全工作溫度範圍內。風冷依靠空氣對流和散熱片,但空氣的比熱容和導熱係數都很有限。
液體則完全不同。根據行業研究,液體的導熱效率是空氣的25倍,攜熱能力更達空氣的3000倍。這意味著在同樣體積下,液冷可以帶走的熱量遠超風冷,而且更精準、更穩定。
目前主流的液冷技術分為幾大類:
- 冷板式液冷:在GPU或CPU上安裝帶有流道的金屬板,冷卻液流經帶走熱量。這是目前大規模部署最成熟的方案,微軟已在Azure AI基礎設施中採用。
- 浸沒式液冷:將伺服器整體或部分浸沒在絕緣冷卻液中,熱量直接傳遞給液體。散熱效率最高,但部署門檻也最高。
- 後門熱交換器:機櫃後門安裝液冷盤管,風扇將熱空氣吹過盤管降溫。屬於過渡方案,適合既有數據中心改造。
🎯 Pro Tip:技術選型建議
對於新建的AI數據中心,冷板式液冷搭配浸沒式液冷的混合架構將成為主流選擇。冷板式處理GPU/CPU等主要熱源,浸沒式覆蓋記憶體、電源模組等次要熱源,可實現PUE(能源使用效率)低於1.1的超高效運行。這也是Google、Meta等巨頭正在評估的技術路線。
更重要的是,液冷不只是散熱效率更高,還能讓數據中心基礎設施縮小約三分之一。根據ScienceDirect發表的研究,浸沒式液冷有潛力將數據中心基礎設施體積減少三分之一,這意味著同樣面積可容納更多算力,或降低新建數據中心的資本支出。
Google在這方面早有佈局。根據Google Cloud官方博客,Google已在OCP(開放運算項目)峰會上展示支援1MW機櫃的液冷架構,並推動+/-400 VDC高壓直流供電和液冷的系統級整合。這次與Envicool的談判,很可能是為了加速這套架構的量產部署。
四、供應鏈重組:Envicool憑什麼打動Google?
英維克(Envicool)這家公司,在散熱領域其實早有「底氣」。成立於2005年,總部位於深圳,專注精密溫控節能解決方案。根據Envicool官網介紹,該公司定位為「世界領先的精密溫控節能解決方案和產品提供商」,在數據中心、新能源車、儲能等領域都有佈局。
真正讓Envicool站上舞台中心的,是其在OCP Global Summit 2025上發布的Google Deschutes 5 CDU(冷卻分配單元)。根據LinkedIn上的技術社群爆料,這款CDU具備2MW冷卻能力,六項關鍵技術指標重新定義了液冷基準。能與Google聯名發布產品,說明雙方的合作關係早已超越單純的買賣層級。
從供應鏈角度分析,Envicool的優勢在於:
- 技術整合能力:不只是CDU,而是從冷板、管路、控制系統到運維服務的全棧方案。
- 量產交付經驗:在國內外已有大型數據中心項目實績,對Google的全球化佈局具備支撐能力。
- 成本競爭力:中國供應鏈在精密製造和成本控制上的優勢,對Google這類對價格敏感的巨頭具吸引力。
- 技術迭代速度:AI散熱需求變化極快,Envicool展現出快速回應客戶定制需求的能力。
但這背後也有風險。根據路透社報導,這次談判涉及跨境技術合作,在中美科技競爭的大背景下,任何涉及敏感技術轉移的合作都可能面臨審查壓力。這或許也是為何談判消息選擇在2026年3月由路透社披露——既是試探市場反應,也是向監管層釋放訊號。
五、2026產業鏈展望:從風冷到液冷的範式轉移
站在2026年這個節點回望,Google與Envicool的合作談判很可能成為一個分水嶺時刻。它標誌著AI算力密度已突破傳統散熱架構的承載極限,全球數據中心產業正式進入液冷時代。
這波範式轉移將帶來多重產業鏈影響:
🔧 散熱供應鏈價值重估
液冷系統的單價遠高於風冷,單kW價值量可能突破1000美元。這意味著散熱在數據中心資本支出中的佔比將顯著提升,相關供應商(CDU、冷板、浸沒式槽體、管路系統)將迎來量價齊升。
⚡ 電源架構同步升級
高密度算力不只挑戰散熱,也挑戰供電。AI數據中心正從傳統UPS架構轉向HVDC(高壓直流)架構,Google推動的+/-400VDC供電方案就是代表。電源供應商、固態變壓器廠商將同步受惠。
🏗️ 數據中心設計範式變革
液冷普及將改變數據中心空間配置、樓層承重、機電設計等核心參數。新建數據中心將圍繞液冷重新設計,既有數據中心則面臨改造升級壓力。具備系統整合能力的工程服務商將迎來新商機。
🌍 全球能源與碳排放議題升溫
根據維基百科「數據中心」條目,2024年全球數據中心電力消耗約415 TWh,約佔全球電力需求的1.5%,國際能源署(IEA)預測2030年可能翻倍。液冷的高能效特性,將成為數據中心實現碳中和目標的關鍵技術路徑。
對投資者而言,這波範式轉移意味著必須重新評估數據中心基礎設施板塊的投資邏輯。純風冷設備供應商面臨轉型壓力,而具備液冷技術儲備和系統整合能力的玩家將迎來黃金期。
六、常見問題
Q1:為何Google選擇Envicool而不是其他散熱大廠?
關鍵在於技術契合度和交付能力。Envicool在OCP 2025發布的Google Deschutes 5 CDU已證明其具備支撐Google 1MW級液冷架構的能力。同時,中國供應鏈的成本優勢和快速迭代能力,對Google加速全球數據中心升級具備戰略價值。
Q2:液冷技術會完全取代風冷嗎?
短期不會。風冷在低功率密度場景仍有成本優勢,但對於AI訓練和推理的高密度機櫃,液冷將成為標配。未來數據中心很可能採用風液混合架構,根據工作負載特性靈活配置。
Q3:一般企業如何評估是否需要升級液冷?
主要看機櫃功率密度。如果單機櫃IT負載超過30kW,風冷效率會顯著下降,液冷應納入評估。同時要考慮業務成長曲線——如果AI運算需求在未來2-3年內會顯著增加,提前佈局液冷基礎設施更具成本效益。
參考資料與延伸閱讀
- Reuters: Google in talks with China’s Envicool, others to buy data centre cooling systems
- Global Market Insights: Data Center Cooling Market Size, Share & Forecast Report, 2034
- Google Cloud Blog: AI infrastructure is hot – New power distribution and liquid cooling
- McKinsey: Keeping cool in the data age – Liquid-cooled data centers
- Vertiv: Immersion cooling systems for AI data centers
- Precedence Research: Artificial Intelligence (AI) Infrastructure Market Size
Share this content:













