液冷AI資料中心來襲:Supermicro打造NVIDIA優化雲端解決方案

Featured Image
美超微(Supermicro)宣布推出可立即部署式液冷型 AI 資料中心,專為雲端原生解決方案而設計。這個資料中心利用 SuperCluster 加速各界企業對生成式 AI 的運用,並針對 NVIDIA AI Enterprise 軟體平台最佳化,適用於生成式 AI 的開發與部署。這個液冷型 AI 資料中心利用 Supermicro 的 4U 液冷技術,能夠充分發揮 NVIDIA 近期推出的 Blackwell GPU 在單一 GPU 上的 20 PetaFLOPS 的 AI 效能。相較於較早的 GPU,Blackwell GPU 提供了 4 倍的 AI 訓練效能與 30 倍的推論效能,同時還能節省額外成本。

Supermicro 近期針對 NVIDIA Blackwell 架構推出了完善的產品系列,支援新型 NVIDIA HGXTM B100、B200 和 GB200 Grace Blackwell Superchip。Supermicro 的液冷解決方案能夠降低資料中心 40% 的持續用電量,並透過能持續降低用電量的優勢為客戶提供額外價值。Supermicro 在打造與部署具有機櫃級液冷技術的 AI 解決方案方面持續領先業界。

在台北國際電腦展(COMPUTEX 2024)上,Supermicro 展示了即將推出的基於 NVIDIA Blackwell GPU 最佳化的系統,包括基於 NVIDIA HGX B200 的 10U 氣冷系統和 4U 液冷系統。此外,Supermicro 還將提供 8U 氣冷型 NVIDIA HGX B100 系統、NVIDIA GB200 NVL72 機櫃(具有 72 個透過 NVIDIA NVLink 交換器互連的 GPU)與新型 NVIDIA MGX 系統(支援 NVIDIA H200 NVL PCIe GPU 與最新發表的 NVIDIA GB200 NVL2 架構)。

NVIDIA 創辦人暨執行長黃仁勳表示,生成式 AI 正在推動整個運算堆疊的重置,新的資料中心將會透過 GPU 進行運算加速,並針對 AI 最佳化。Supermicro 設計了頂尖的 NVIDIA 加速運算和網路解決方案,使價值數兆美元的全球資料中心能夠針對 AI 時代最佳化。

隨著大型語言模型(LLM)的快速發展以及 Meta 的 Llama-3 和 Mistral 的 Mixtral 8x22B 等開源模型不斷推出,企業更容易取得並使用當今最先進的 AI 模型。簡化 AI 基礎設施並以最具成本效益的方式提供存取能力,對於支援目前的快速 AI 變革至關重要。Supermicro 雲端原生 AI SuperCluster 使即時存取的雲端便利性和可攜性之間得以連結,並透過 NVIDIA AI Enterprise 讓任何規模的 AI 專案,從評估測試階段順暢地進行到實際作業階段。這提供了能在任何地方運行並安全管理資料的靈活性,包括自架系統或地端大型資料中心。

Supermicro 與 NVIDIA 密切合作,確保完善且靈活地從 AI 應用的實驗和評估試行推動至作業部署和大規模資料中心 AI。這個順暢的流程是藉由 NVIDIA AI Enterprise 軟體平台的機櫃、叢集級最佳化而實現,能使從初步探索至可擴展 AI 落地的過程更流暢無阻。

託管服務涉及基礎架構的選擇、資料共享和生成式 AI 策略控管。NVIDIA NIM 微服務作為 NVIDIA AI Enterprise 的一部分,可在無缺陷情況下提供託管生成式 AI 和開源部署優勢。其多功能推論運行環境透過微服務,可加速從開源模型到 NVIDIA 基礎模型等各類型生成式 AI 的部署。此外,NVIDIA NeMoTM 可實現透過資料庋用、進階自訂和檢索增強生成(RAG)的客製模型開發,以實現企業級解決方案。與搭配 NVIDIA AI Enterprise 的 Supermicro SuperCluster 整合後,NVIDIA NIM 能為可擴展、加速型生成式 AI 作業的部署提供最快途徑。

以上是有關美超微推出可立即部署式液冷型 AI 資料中心的資訊。Supermicro 的液冷技術以及與 NVIDIA 的合作,將為企業提供更強大且高效的 AI 解決方案,並在生成式 AI 的開發和部署方面取得突破。這將有助於企業更好地應對 AI 時代的挑戰,並提升效能和效率。

Share this content: