hbf是這篇文章討論的核心

AI記憶體革命來了:SanDisk HBF聯盟如何打造2026年最強AI服務器內存層級?
資料中心內,新一代AI伺服器正等著記憶體技術的突破——SanDisk HBF聯盟的誕生背後,是全球AI市場對記憶體頻寬與容量的極致追求




核心精華快速掌握

💡 核心結論:SanDisk 與 SK Hynix 组成的 HBF 联盟不是简单的技术升级,而是在 AI 推理时代重新划定内存层级——在 HBM 的「速度」與 SSD 的「容量」之间开闢第三条路。这个新层级将在 2026-2027 年支撑起全球 AI inference 部署的内存需求。

📊 關鍵數據:全球 HBM 市場預計在 2028 年達到 1000 億美元 TAM;訓練工作量消耗約 80% HBM(2025)將降至 64%(2027),inference 需求暴增;SK Hynix 在 2026 年初控制超過 60% 高端 HBM 市場;記憶體供應商已將高達 40% 的晶圓產能重新分配給 AI 產品。

🛠️ 行動指南:AI 基礎設施決策者應立即評估 HBF 混合架構對推理工作負載的成本效益;企業 IT 戰略規劃需將 HBM 短缺風險纳入 2026-2027 年供應鏈彈性評估;晶片設計團隊應優先關注 OCP 標準化進度以降低採用風險。

⚠️ 風險預警:HBM 短缺至少持續到 2027 年底,價格波動劇烈;HBF 標準化仍在進行中,量產時間表可能延後;三大記憶體巨頭 SK Hynix、Samsung、Micron 的策略重資投向 HBM,可能限制 HBF 的生態系統廣度。

引言:記憶體之牆,AI計算的最大絆腳石

我們在 2026 年觀察到一個悖論:AI 晶片的算力每年成長 3 倍,但記憶體頻寬只增加不到 1 倍。這就是所謂的「記憶體之牆」——當 GPU 準備好吞噬數據時,記憶體供不應求,結果算力空轉。不管是訓練超大語言模型還是進行real-time inference,這個瓶頸造成的成本浪費驚人。

在大型科技公司內部,工程師們私下討論,一個 LLM 訓練任務的總成本裡面,高達 30-40% 其實花在等記憶體讀寫數據上——而不是純粹的算力。這解釋了為什麼 Nvidia 2026 年的 Blackwell 架構ilverstream B200 如此強調記憶體子系統,也解釋了為什麼 SanDisk 和 SK Hynix 突然宣佈結盟,端出一個叫做 HBF(High Bandwidth Flash)的東西。

什麼是 HBF?High Bandwidth Flash 技術深度剖析

HBF 簡單來說,就是把 NAND 閃存做出來的高頻寬。聽起來矛盾,但 SanDisk 的 CBA(CMOS directly Bonded to Array)技術真的做到了:讓 NAND flash 的讀寫速度逼近 HBM,同時容量吊打 HBM——理論上達到 4TB 甚至更高。

關鍵在於堆疊與連接方式。HBM 是把 DRAM die 用 TSV 垂直堆起來,用 1024-bit 的 ultra-wide bus 連接 GPU。HBF 則是把 NAND flash die 堆起來,但焦点在讓讀取路徑極致優化,達到接近 HBM 的 latency 和 bandwidth。SanDisk 宣稱性能差距在 2.2% 以內,但容量可以多出 8-16 倍。

HBF vs HBM 容量與頻寬對比示意圖 比較 High Bandwidth Flash (HBF) 與 High Bandwidth Memory (HBM) 在容量與頻寬上的定位,顯示 HBF 在保持接近 HBM 頻寬的同時,提供显著更高的容量,形成 AI 推理工作負載的理想記憶體層級。 HBM (DRAM) 頻寬: 2-3 TB/s 容量: 0.5-2 GB 延遲: 奈秒級 功耗: 較高

HBF (Flash) 頻寬: 1.8-2.9 TB/s 容量: 16-512 GB 延遲: 微秒級 功耗: 較低

中間層級 Market Gap

Pro Tip: HBF 的實際位置在系統架構圖上不是取代 HBM,而是成為「HBM + Cache + SSD」之間的新記憶體層。這種三層式架構(Compute die → HBM cache (fastest) → HBF buffer (middle) → SSD/NAND (capacity))會是 2027 年後 AI 伺服器的標準設計。

HBF vs HBM:不是取代,而是補完的記憶體層級

很多媒體報導把 HBF 當成 HBM killer,這太誇張了。 really,HBM 在 training 階段依然不可替代——你需要每秒數 TB 的頻寬去同步梯度。但 inference 場景完全不同:LLM 推理時,模型權重只需要載入一次,然後重複查詢。這時候容量比極致頻寬更重要。

我們用一組數據說明:訓練 GPT-4 等級模型,每小時会产生 400TB 網絡流量,需要極致頻寬。但部署一個企業私有 LLM,如果每天有 10 萬次查詢,模型權重有 50GB,HBM 根本放不下,HBF 却很適合。

所以 HBF 聯盟瞄準的是 inference 市場空白,而 inference 市場的增長速度比 training 更快。TrendForce 的數據顯示,HBM 需求中 training 占比會從 80%(2025)降到 64%(2027),inference 占比從 20% 升到 36%。

Pro Tip: 請注意 HBF 的 2.2% 性能差距指的是 read throughput。對於 write-intensive 工作負載(如定期模型更新),HBM 仍然領先。HBF 的優勢在於 read-heavy inference,尤其是 RAG(檢索增強生成)場景中需要頻繁載入外部知識庫的情况。

AI inference 革命:從訓練為王到部署為王的轉折點

2026 年的 AI 市場正發生一個 silently shift:大头支出不再是訓練,而是 inference。OpenAI、Anthropic 訓練一次模型花數千萬美元,但 inference 的運營成本才是長期負擔。企業客戶真正在意的是「每次查詢的成本」,而非訓練成本。

這就是為什麼 AI 公司紛紛推出 smaller, optimized models(如 Llama 3.2 1B、Gemma 2 9B)——它們可以在 inference 硬體上高效運行,降低每 token 定價。但硬體本身也需要配合:如果推理 servers 的記憶體夠大,就能裝更多模型,提高 GPU 利用率,直接攤薄成本。

HBF 的出現,讓人類第一次有可能在單一 GPU 上同時裝載多個大模型(例如 3-4 個 70B parameter models),而不用牺牲延迟。這對AI service providers 來說是巨大利好——他们可以賣更便宜的 API price,保持 margin。

Pro Tip: 3-4 個 70B models 同時裝載的具體數值:假設 70B 模型以 BF16 精度運行需要約 140 GB VRAM,HBM3E 頂級 96GB 放不下兩個;HBF 512GB 可以放下 3-4 個,剩餘空間給 KV cache 和系統开销。這意味着單台 AI inference 伺服器的吞吐量提升 3-4 倍,直接影響每 million tokens 的 AWS/GCP 定價。

市場衝擊波:HBF 聯盟如何改變 2026-2028 年半導體版圖

聯合 announcement 本身就有多重含義:SanDisk 剛從 WD 分拆沒多久,急需一個 big vision;SK Hynix 則是 HBM 市場的霸主,但看到 inference 需求崛起,想提前 lock in the next layer。

這個聯盟的核心戰略目標是透過 OCP(Open Compute Project)推动 standardization。過往記憶體規格由 JEDEC 主導,速度太慢。AI 世界裡,Nvidia 一年推出新 GPU,如果記憶體規格不跟上,產品周期對不上。透過 OCP,他們可以更快推出 spec,且雲端巨頭(Google、Meta、Microsoft)可以直接在 spec 裡寫入自己的需求。

市場數據方面,我們引用 TrendForce 2026 年 1 月的 spotlight report:AI memory market 2027 年達到 peak revenue。HBM 供應短缺至少持續到 2027 年底,這給了 HBF 充足的時間窗口。SK Hynix 已經投資 130 億美元在先进封裝,2025 就控制 60% HBM 市場。

但风险也存在:Micron 和 Samsung 目前 focus 在 HBM,還沒加入 HBF 联盟。如果 HBM 產能快速釋放,HBF 可能只是个小众 niche。然而,根據我們對 AI 部署曲線的理解,inference 需求將在 2027-2028 年爆发,屆時 HBM 仍會供不應求,HBF 反而成為香餑餑。

AI記憶體市場預測與技術棧演進 2025-2028 Line chart showing HBM market growth and inference market share increase from 2025 to 2028. The chart illustrates the timing opportunity for HBF technology as HBM remains constrained while inference workloads surge. 2025 2026 2027 2028 HBM Market ($B) Inference Share

80% 72% 64% ~100B

從產業鏈角度,HBF 聯盟的成功關鍵在於說服雲端供應商採用。Amazon(AWS)、Google(GCP)、Microsoft(Azure)每天早上都在為 inference 成本頭疼。如果 HBF 能把每 million tokens 的成本降低 20%,他們會願意買單。而這正是联盟承諾的:降低 AI inference 成本並提高可擴展性。

常見問題

HBF 會取代 HBM 嗎?

不會。HBF 針對不同的工作負載進行了優化。HBM 仍然是最適合訓練階段和極致頻寬需求的解決方案。HBF 填補了 HBM 和 SSD 之間的空缺,特別是大容量推理工作負載。兩者會長期共存,甚至在混合架構中一起使用。

HBF 的量產時間表為何?

根據联盟發布的消息,HBF 標準化工作已在 2025-2026 年展開,首批產品預計在 2027 年初問世。然而,標準化進度、晶圓廠產能分配以及 OCP 的認可速度都會影響實際量產時間。3080ti

企業現在該如何為 HBF 做準備?

企業應關注 AI 基礎設施的長期規劃,評估當前 GPU 利用率。如果 inference 负载占主導且 VRAM 緊張,2026-2027 年部署新伺服器時,HBF 支持的平台值得優先考慮。 CIO 們也應該與記憶體供應商保持溝通,了解 migration 路徑。

CTAs 與參考資料

這次 SanDisk HBF 聯盟的技術突破,確實為 AI 基础设施開闢了新的可能性。作為長期關注半導體與 AI 交叉領域的觀察者,我們會持續追蹤 OCP 標準化進展與 2027 年的首批商用產品。

如果你負責企業的 AI 基礎設施決策,現在正是重新評估記憶體策略的好時機。可以透過以下方式進一步交流:

聯絡我們討論AI基礎設施策略

權威資料來源

所有連結均為真實存在來源,截至 2026 年 2 月訪問確認。

Share this content: