當前美國正經歷著史上規模最大的運算基礎設施建設浪潮之一,這與一百多年前電網建設的發展十分相似。如同當時電廠的規模化和電力成本的下降,我們如今也見證著資料中心的規模化、超大規模雲端運算公司的巨額資本支出以及 AI 運算成本的急劇下降。本文將探討 AI 專用資料中心的基礎設施建設,以及它對科技產業和能源產業帶來的巨大影響。
AI 資料中心:新一代的運算巨獸
這些「AI 工廠」規模龐大,最大的資料中心在土地、電力、冷卻設備、建設成本、GPU 等方面的花費可達數十億美元。單一大型資料中心的電力消耗甚至可以達到 1GW,相當於為電網增加一個紐約市的用電負擔。
AI 資料中心的價值鏈主要包括:資料中心的初始建設、支援資料中心的工業設備、資料中心的運算基礎設施以及為資料中心供電的能源。此外,還有一些公司擁有或租賃資料中心,為消費者提供最終服務。
資料中心的演變史
最早期的運算模式與今天的資料中心類似,使用集中式的電腦來解決運算密集型任務。巨人電腦和 ENIAC 是早期的例子,它們都位於被視為「最早的資料中心」的設施內。
1950 年代,IBM 推出大型電腦,引領科技領域的發展。1969 年,ARPANET 發佈,這個網路的目標是連接美國越來越多的電腦,被認為是網際網路的早期版本。
1990 年代,隨著網際網路的發展,資料中心需求不斷增加。電信公司像 AT&T 已經建立了通信基礎設施,資料中心業務的擴展對它們來說是順理成章的事情。然而,網路泡沫的破裂讓資料中心增長放緩。
直到 2006 年,隨著 AWS 的發表,資料中心需求才逐漸恢復增長。從那時起,美國的資料中心規模一直保持著穩定的增長。
2023 年,AI 熱潮席捲全球,引發了對資料中心規模的新關注。訓練 AI 的工作負載需要更強大的運算能力,資料中心需要被設計成運算單元,而不是僅僅是裝伺服器的設施。
AI 資料中心的建設要素
運算提供商需要找到電力充足的土地,並雇用總承包商管理建設過程,分包商則負責各個功能(如電力、管道、暖通空調等)。
資料中心的工業設備主要包括電力設備和冷卻設備。電力設備從主開關設備開始,連接到配電單元、不斷電供應系統(UPS)以及連接伺服器機架的電纜。冷卻設備包括冷水機、冷卻塔、暖通空調設備等。
運算基礎設施包括 GPU、CPU、存放裝置、記憶體和網路等設備。這些設備將被安裝在資料中心的伺服器內。
能源供應鏈包括能源來源、發電、輸電和配電等環節。能源成為 AI 資料中心擴展的關鍵瓶頸。
AI 資料中心的挑戰與機會
電力擴容需要時間,資料中心有兩種選擇:併網與離網。併網透過電網輸電,離網則繞開電網,使用現場發電。
相關連結:
siuleeboss – 為您提供一站式的有用AI資訊、食譜和數位教學
Share this content: