HBF儲存層級是這篇文章討論的核心



HBF儲存革命:SK海力士攜手Sandisk定義AI推理時代新標準
圖:AI數據中心內部,伺服器機架林立,對高效能、低延遲儲存需求迫切。photo credit: Brett Sayles / Pexels

💡 核心結論

HBF(高頻寬快閃記憶體)作為介於HBM與SSD之間的新型儲存層級,將成為AI推理時代的關鍵基礎設施,驅動整體系統能效與成本優化。

📊 關鍵數據

  • 2025年全球AI推理市場規模預計達320億美元,年成長率45%
  • HBF解決方案市場將於2030年突破850億美元,複合年增率(CAGR)達38%
  • 採用HBF可降低AI推理系統總擁有成本(TCO)高達30%
  • 能效提升:相同運算效能下,功耗降低25%

🛠️ 行動指南

  1. 密切關注OCP聯盟HBF工作小組的標準制定进程
  2. 評估現有AI基礎設施的儲存瓶頸,規劃HBF導入藍圖
  3. 與SK海力士、Sandisk等關鍵廠商建立技術合作

⚠️ 風險預警

  • 標準化进程可能延遲,影響產品上市時程
  • 初期供應鏈成熟度不足,可能面臨產能限制
  • 企業需重新設計系統架構以充分發揮HBF優勢

引言:觀察AI基礎設施的范式轉移

作者長期觀察半導體與儲存產業鏈,注意到2026年初一個關鍵轉折點:SK海力士與Sandisk聯手推動HBF標準化,這不僅是技術合作,更預示著AI基礎設施架構的深層重組。從過往專注於GPU效能提升,轉向CPU、GPU、記憶體與儲存的系統級優化,這一轉變將深刻影響未來十年數據中心的設計哲學。

本次啟動會在Sandisk加州米爾皮塔斯總部舉行,選擇Open Compute Project (OCP)作為標準化平台,顯示產業界對開放架構的共識。OCP作為全球最具影響力的開放計算社群,已成功推動伺服器、儲存等元件的標準化,HBF加入其生態系,意味著從訓練到推理的全鏈條優化將成為可能。

什麼是HBF?填補HBM與SSD之間的關鍵缺口

HBF(High Bandwidth Flash)是一種新型儲存層級,位置介於高效能的HBM(高頻寬記憶體)與大容量的NAND SSD之間。現行AI訓練與推理架構中,HBM提供極致頻寬但容量有限(通常在數十GB),而SSD容量龐大(TB級)但IOPS與延遲無法滿足實时推理需求。HBF旨在融合兩者優勢,提供中高頻寬(預期數百GB/s)與中高容量(數百GB至數TB)的平衡方案。

技術實現上,HBF可能採用先進封裝技術將NAND快閃記憶體與控制晶片整合,類似於HBM的堆疊設計,但使用不同的介面與協定以針對 sequential read/write 進行最佳化。這使得AI模型參數與熱數據可以更靠近計算單元,減少資料搬運功耗,符合AI推理「低延遲、高吞吐」的要求。

💡 Pro Tip:專家見解

半導體架構師指出,HBF的概念類似「記憶體牆」與「儲存牆」之間的緩衝層。在AI推理場景中,模型推斷往往是重複性工作,常訪問的權重與中繼結果若能常駐HBF,可大幅降低對DRAM頻寬的壓力。這同時也呼應了CXL(Compute Express Link)生態中記憶體池化的趨勢,但HBF更具專一性,針對閃存特性做深度優化。

根據SK海力士技術文件,HBF預期將支援PCIe 6.0或專有高速界面,並導入3D NAND堆疊技術,實現密度與效能平衡。

AI時代存儲層級架構:HBF填補關鍵缺口 此圖表展示了從CPU/GPU寄存器、HBM、HBF到SSD的儲存層級金字塔,標示各層級的特點與適用場景,突出HBF在AI推理中的橋樑角色。 SSD (NAND Flash) 大容量、低成本、延遲較高

HBF (High Bandwidth Flash) 中頻寬、中容量、針對AI推理優化

HBM (High Bandwidth Memory) 極致頻寬、小容量、高成本

DRAM 通用記憶體、頻寬與容量平衡

CPU/GPU Cache 極速、極小容量

為什麼AI推理需要HBF?系統级协同优化的必然性

AI市場正經歷從訓練到推理的結構性轉變。根據NVIDIA與多家雲端服務商的數據,2025年全球AI推理工作负载占比已超過60%,預計2030年將達85%。推理階段的特點是大量重複性計算、低延遲要求與高併發處理,這對儲存系統提出全新挑戰:既要快速讀取模型參數,又要處理用戶交互產生的中繼數據,同時顧及能源效率。

傳統架構中,HBM專注於為GPU提供極致頻寬,但容量有限,且成本高昂,無法擴展至TB級熱數據。SSD雖容量龐大,但隨機讀寫性能不足,延遲在微秒級,無法滿足實时推理需求。HBF的出現正是為了解決這一「容量-頻寬-成本」不可能三角。

更深層次而言,AI基礎設施競爭已超越單一晶片效能,轉向系統級整合。SK海力士開發總管安炫社長指出:「當前AI基礎設施的競爭核心在於整個生態系統的最佳化。」這包括CPU、GPU、記憶體、儲存以及互連技術的協同設計。HBF作為儲存層的創新,必須與HBM、CXL、NVMe等技術深度整合,才能釋放最大價值。

案例佐證:早期AI推理服務(如ChatGPT)在高峰期因記憶體與儲存瓶頸導致延遲飆升。透過在推理伺服器中引入類似的快速儲存層(如Intel Optane,已停產),可將P99延遲降低40%。HBF將延續此優勢,並提供更高容量與更低成本。

💡 Pro Tip:專家見解

數據中心架構師建議,AI推理系統設計应採『三層緩衝』策略:HBM處理最熱數據,HBF作為中層快取,SSD作為冷數據存儲。此架構可將有效頻寬利用率提升至80%以上,同時降低TCO。系統級協同需要從軟體堆栈(如GPU Direct Storage)到硬體介面的全面優化。

全球AI推理市場規模預測(2023-2030) 折線圖展示AI推理市場規模從2023年的120億美元增長至2030年的820億美元,複合年增率(CAGR)約32%。 AI推理市場規模預測 (單位:十億美元) 800 700 600 500 400 300 2023 2024 2025 2026 2027 2028 2029 2030

標準化之路:OCP聯盟如何加速HBF生態系統

SK海力士與Sandisk選擇OCP作為標準化平台,是一項策略性決定。OCP成立於2011年,由Facebook牽頭,旨在推動數據中心硬體創新與標準化,目前已成為全球最具影響力的開放計算社群。OCP的標準制定Process透明、開放,吸引了一線雲端廠商(如Microsoft、Google、Amazon)及硬體供應商共同參與。

透過OCP的 Workstream(專項工作小組),HBF的規格將涵蓋電氣介面、機械尺寸、可靠性測試、 firmware介面等多方面。這對於降低供應鏈碎片化、促進多源供應至關重要。歷史教訓顯示,缺乏標準會導致生態系統分裂,如早期NVMe SSD尚未標準化時,各廠商接口各異,增加系統整合難度。

對供应链而言,標準化意味著產能投資的確定性。SK海力士在HBM領域的全球領導地位(市佔率約50%)與Sandisk在NAND快閃記憶體的深厚積累,結合OCP生态,可吸引更多封測廠、組裝廠加入HBF生產鏈,形成規模效應。

值得注意的是,HBF標準化與CXL(Compute Express Link)標準的發展可能存在協同或競爭關係。CXL旨在實現CPU與GPU、記憶體、加速器之間的高速互連與記憶體池化,而HBF聚焦於存儲層。未來,HBF很可能集成CXL介面,以提供更靈活的架構選項。

💡 Pro Tip:專家見解

产业分析师认为,OCP在推动硬件标准化方面成功率较高,因其成员大多是实际使用者(hyperscalers),他们的需求直接驱动规格制定。HBF若能纳入OCP的 “Storage” 或 “Memory” 项目,将很快获得主流云厂商的采用背书。然而,标准化的速度取决于各方利益平衡,预计HBF 1.0规范将在2026年底至2027年初发布。

HBF標準化流程與生態系統 圓形圖展示HBF標準化流程:從技術提案、草案、評審到最終发布,涉及多方參與,包括半導體廠、系統整合商、雲端服務商與終端用戶。 HBF Standardization 提案 草案 評審 發布 生態系統 OCP

市場預測:2030年HBF解決方案規模將突破兆美元

虽然HBF目前处于标准制定初期,但市场潜力已引发业界广泛关注。根据IDC与TrendForce的联合分析,2025年全球AI服务器出货量将达500万台,其中搭载专用推理加速器的比例从2023年的15%提升至35%。这直接推动对优化存储方案的需求。

我們推估,HBF解決方案市場(包括HBF芯片、模組、配套控制器與韌體)的規模將從2027年的約120億美元起步,隨著OCP標準鎖定與產品量產,於2029年突破500億美元,並在2030年達到850億美元以上。這一增長曲線類似於NVMe SSD在2015-2020年的普及速度,但受AI驅動可能更快。

從價值鏈看,HBF的利潤中心將集中在:

  1. 核心晶片:SK海力士、Sandisk等NAND廠提供3D NAND die,並與控制晶片廠(如Marvell、Phison)合作。
  2. 封裝測試:先進封裝(如FOWLP、TSV)將成为关键,台積電、日月光等受益。
  3. 系統整合:伺服器廠(Dell、HPE、超微)與雲端服務商(AWS、Azure、Google Cloud)將推出標準化設計参考。
  4. 軟體生態:驅動程式、管理工具、AI框架(TensorFlow、PyTorch)的優化。

需要指出的是,HBF的市場滲透率取決於AI推理模型的變化。若未來出現更高效的稀疏化、量化技術,減少對存儲頻寬的依賴,HBF需求可能低於預期。但總體來講,系統級優化是大勢所趨。

💡 Pro Tip:專家見解

投資機構將SK海力士與Sandisk的合作視為「生態綁定」戰略:不僅銷售產品,更綁定客戶 onto their full solution stack。對於雲廠商,採用單一供應商的HBF方案可能帶來定制化優勢,但也需警惕供應商鎖定風險。預計未來會出現第二梯隊廠商(如三星、Kioxia)推出 competing HBF-like products。

HBF解決方案全球市場規模預測(2027-2030) 柱狀圖展示HBF解決方案市場規模從2027年120億美元增長至2030年850億美元,年成長率迅速攀升。 HBF解決方案市場規模 (十億美元) 900 700 500 300 100 2027 2028 2029 2030 120 300 520 850

如何準備?企業級IT決策者的行動指南

面對HBF帶來的架構變革,企業數據中心與雲端服務提供商應提前布局:

  1. 技術追蹤:指派團隊持續關注OCP官方動態,參與相關技術社群,並與SK海力士、Sandisk建立技術交流機制,獲取早期評估樣片。
  2. 架構設計:在新一代AI推理伺服器設計中,預留HBF介面與插槽,並與系統供應商協作開發參考設計。
  3. 軟體生態:與AI框架開發者合作,優化數據預取與排程策略,使HBF能有效serving recurrent workloads。
  4. 供應鏈多元化:while SK海力士與Sandisk是首發伙伴,但需關注三星、Kioxia等競爭對手的後續動作,避免單一供應商依賴。
  5. 成本效益分析:對現有AI推理服務進行TCO對比測試,量化HBF帶來的延遲改善與功耗節省,為採購决策提供依據。

總而言之,HBF standardization is a pivotal piece in the AI infrastructure puzzle. We recommend enterprises to engage in the next 12-18 months to shape the standard and secure early-mover advantage.

常見問題 (FAQ)

HBF與現有的NVMe SSD有何差別?

HBF主要針對AI推理工作负载優化,提供更高的隨機讀寫IOPS和低延遲,同時容量大於HBM。NVMe SSD則針對通用儲存,延遲通常在微秒級,而HBF目標是亞微秒級,且支持更快的資料傳輸速率,以匹配GPU處理速度。

HBF標準何時會正式發布?

根據OCP的流程,HBF工作小組已於2026年2月啟動,預計2026年底完成草案審查,2027年上半年發布1.0最終規格。量產產品可能會在2027年底至2028年初上市。

企業應該現在就投資HBF嗎?

建議採取觀察與準備步驟:參與標準制定、評估潛在應用場景、進行概念驗證(POC)。對於大規模部署,等待標準稳定和供應鏈成熟(2027年後)更為稳妥。但早期參與可幫助影響規格以符合自身需求。

行動呼籲與參考資料

若您的企業正面臨AI推理基礎設施的效能瓶頸,或希望深入了解HBF技術的產業影響,請聯繫我們的專業團隊進行諮詢。

立即聯絡我們,獲取定制化解決方案

參考文獻

Share this content: