hbf是這篇文章討論的核心

核心精華快速掌握
💡 核心結論:SanDisk 與 SK Hynix 组成的 HBF 联盟不是简单的技术升级,而是在 AI 推理时代重新划定内存层级——在 HBM 的「速度」與 SSD 的「容量」之间开闢第三条路。这个新层级将在 2026-2027 年支撑起全球 AI inference 部署的内存需求。
📊 關鍵數據:全球 HBM 市場預計在 2028 年達到 1000 億美元 TAM;訓練工作量消耗約 80% HBM(2025)將降至 64%(2027),inference 需求暴增;SK Hynix 在 2026 年初控制超過 60% 高端 HBM 市場;記憶體供應商已將高達 40% 的晶圓產能重新分配給 AI 產品。
🛠️ 行動指南:AI 基礎設施決策者應立即評估 HBF 混合架構對推理工作負載的成本效益;企業 IT 戰略規劃需將 HBM 短缺風險纳入 2026-2027 年供應鏈彈性評估;晶片設計團隊應優先關注 OCP 標準化進度以降低採用風險。
⚠️ 風險預警:HBM 短缺至少持續到 2027 年底,價格波動劇烈;HBF 標準化仍在進行中,量產時間表可能延後;三大記憶體巨頭 SK Hynix、Samsung、Micron 的策略重資投向 HBM,可能限制 HBF 的生態系統廣度。
自動導航目錄
引言:記憶體之牆,AI計算的最大絆腳石
我們在 2026 年觀察到一個悖論:AI 晶片的算力每年成長 3 倍,但記憶體頻寬只增加不到 1 倍。這就是所謂的「記憶體之牆」——當 GPU 準備好吞噬數據時,記憶體供不應求,結果算力空轉。不管是訓練超大語言模型還是進行real-time inference,這個瓶頸造成的成本浪費驚人。
在大型科技公司內部,工程師們私下討論,一個 LLM 訓練任務的總成本裡面,高達 30-40% 其實花在等記憶體讀寫數據上——而不是純粹的算力。這解釋了為什麼 Nvidia 2026 年的 Blackwell 架構ilverstream B200 如此強調記憶體子系統,也解釋了為什麼 SanDisk 和 SK Hynix 突然宣佈結盟,端出一個叫做 HBF(High Bandwidth Flash)的東西。
什麼是 HBF?High Bandwidth Flash 技術深度剖析
HBF 簡單來說,就是把 NAND 閃存做出來的高頻寬。聽起來矛盾,但 SanDisk 的 CBA(CMOS directly Bonded to Array)技術真的做到了:讓 NAND flash 的讀寫速度逼近 HBM,同時容量吊打 HBM——理論上達到 4TB 甚至更高。
關鍵在於堆疊與連接方式。HBM 是把 DRAM die 用 TSV 垂直堆起來,用 1024-bit 的 ultra-wide bus 連接 GPU。HBF 則是把 NAND flash die 堆起來,但焦点在讓讀取路徑極致優化,達到接近 HBM 的 latency 和 bandwidth。SanDisk 宣稱性能差距在 2.2% 以內,但容量可以多出 8-16 倍。
Pro Tip: HBF 的實際位置在系統架構圖上不是取代 HBM,而是成為「HBM + Cache + SSD」之間的新記憶體層。這種三層式架構(Compute die → HBM cache (fastest) → HBF buffer (middle) → SSD/NAND (capacity))會是 2027 年後 AI 伺服器的標準設計。
HBF vs HBM:不是取代,而是補完的記憶體層級
很多媒體報導把 HBF 當成 HBM killer,這太誇張了。 really,HBM 在 training 階段依然不可替代——你需要每秒數 TB 的頻寬去同步梯度。但 inference 場景完全不同:LLM 推理時,模型權重只需要載入一次,然後重複查詢。這時候容量比極致頻寬更重要。
我們用一組數據說明:訓練 GPT-4 等級模型,每小時会产生 400TB 網絡流量,需要極致頻寬。但部署一個企業私有 LLM,如果每天有 10 萬次查詢,模型權重有 50GB,HBM 根本放不下,HBF 却很適合。
所以 HBF 聯盟瞄準的是 inference 市場空白,而 inference 市場的增長速度比 training 更快。TrendForce 的數據顯示,HBM 需求中 training 占比會從 80%(2025)降到 64%(2027),inference 占比從 20% 升到 36%。
Pro Tip: 請注意 HBF 的 2.2% 性能差距指的是 read throughput。對於 write-intensive 工作負載(如定期模型更新),HBM 仍然領先。HBF 的優勢在於 read-heavy inference,尤其是 RAG(檢索增強生成)場景中需要頻繁載入外部知識庫的情况。
AI inference 革命:從訓練為王到部署為王的轉折點
2026 年的 AI 市場正發生一個 silently shift:大头支出不再是訓練,而是 inference。OpenAI、Anthropic 訓練一次模型花數千萬美元,但 inference 的運營成本才是長期負擔。企業客戶真正在意的是「每次查詢的成本」,而非訓練成本。
這就是為什麼 AI 公司紛紛推出 smaller, optimized models(如 Llama 3.2 1B、Gemma 2 9B)——它們可以在 inference 硬體上高效運行,降低每 token 定價。但硬體本身也需要配合:如果推理 servers 的記憶體夠大,就能裝更多模型,提高 GPU 利用率,直接攤薄成本。
HBF 的出現,讓人類第一次有可能在單一 GPU 上同時裝載多個大模型(例如 3-4 個 70B parameter models),而不用牺牲延迟。這對AI service providers 來說是巨大利好——他们可以賣更便宜的 API price,保持 margin。
Pro Tip: 3-4 個 70B models 同時裝載的具體數值:假設 70B 模型以 BF16 精度運行需要約 140 GB VRAM,HBM3E 頂級 96GB 放不下兩個;HBF 512GB 可以放下 3-4 個,剩餘空間給 KV cache 和系統开销。這意味着單台 AI inference 伺服器的吞吐量提升 3-4 倍,直接影響每 million tokens 的 AWS/GCP 定價。
市場衝擊波:HBF 聯盟如何改變 2026-2028 年半導體版圖
聯合 announcement 本身就有多重含義:SanDisk 剛從 WD 分拆沒多久,急需一個 big vision;SK Hynix 則是 HBM 市場的霸主,但看到 inference 需求崛起,想提前 lock in the next layer。
這個聯盟的核心戰略目標是透過 OCP(Open Compute Project)推动 standardization。過往記憶體規格由 JEDEC 主導,速度太慢。AI 世界裡,Nvidia 一年推出新 GPU,如果記憶體規格不跟上,產品周期對不上。透過 OCP,他們可以更快推出 spec,且雲端巨頭(Google、Meta、Microsoft)可以直接在 spec 裡寫入自己的需求。
市場數據方面,我們引用 TrendForce 2026 年 1 月的 spotlight report:AI memory market 2027 年達到 peak revenue。HBM 供應短缺至少持續到 2027 年底,這給了 HBF 充足的時間窗口。SK Hynix 已經投資 130 億美元在先进封裝,2025 就控制 60% HBM 市場。
但风险也存在:Micron 和 Samsung 目前 focus 在 HBM,還沒加入 HBF 联盟。如果 HBM 產能快速釋放,HBF 可能只是个小众 niche。然而,根據我們對 AI 部署曲線的理解,inference 需求將在 2027-2028 年爆发,屆時 HBM 仍會供不應求,HBF 反而成為香餑餑。
從產業鏈角度,HBF 聯盟的成功關鍵在於說服雲端供應商採用。Amazon(AWS)、Google(GCP)、Microsoft(Azure)每天早上都在為 inference 成本頭疼。如果 HBF 能把每 million tokens 的成本降低 20%,他們會願意買單。而這正是联盟承諾的:降低 AI inference 成本並提高可擴展性。
常見問題
HBF 會取代 HBM 嗎?
不會。HBF 針對不同的工作負載進行了優化。HBM 仍然是最適合訓練階段和極致頻寬需求的解決方案。HBF 填補了 HBM 和 SSD 之間的空缺,特別是大容量推理工作負載。兩者會長期共存,甚至在混合架構中一起使用。
HBF 的量產時間表為何?
根據联盟發布的消息,HBF 標準化工作已在 2025-2026 年展開,首批產品預計在 2027 年初問世。然而,標準化進度、晶圓廠產能分配以及 OCP 的認可速度都會影響實際量產時間。3080ti
企業現在該如何為 HBF 做準備?
企業應關注 AI 基礎設施的長期規劃,評估當前 GPU 利用率。如果 inference 负载占主導且 VRAM 緊張,2026-2027 年部署新伺服器時,HBF 支持的平台值得優先考慮。 CIO 們也應該與記憶體供應商保持溝通,了解 migration 路徑。
CTAs 與參考資料
這次 SanDisk HBF 聯盟的技術突破,確實為 AI 基础设施開闢了新的可能性。作為長期關注半導體與 AI 交叉領域的觀察者,我們會持續追蹤 OCP 標準化進展與 2027 年的首批商用產品。
如果你負責企業的 AI 基礎設施決策,現在正是重新評估記憶體策略的好時機。可以透過以下方式進一步交流:
權威資料來源
- SK hynix and Sandisk Begin Global Standardization of Next-Generation Memory HBF (2026-02-26)
- Sandisk and SK hynix join forces to standardize High Bandwidth Flash
- SanDisk to Collaborate with SK hynix to Drive Standardization of High Bandwidth Flash
- SK hynix Unveils AI Chip Architecture with HBF
- TrendForce: HBM Market Bulletin (2025-01-15)
- CNBC: AI memory is sold out, causing an unprecedented surge in prices
- Astute Group: AI Memory Boom Tightens NAND and DRAM Supply
- Introl: The AI Memory Supercycle
- SanDisk Blog: Scaling the Memory Wall: Behind Sandisk’s High Bandwidth Flash
- Western Digital Introduces New AI Data Cycle Storage Framework
所有連結均為真實存在來源,截至 2026 年 2 月訪問確認。
Share this content:













