Marvell 硬體多極化是這篇文章討論的核心

Marvell 再起之路:AI時代的硬體多極化革命
快速精華|先搶先看
💡 核心結論:Marvell 不再只是儲存晶片供應商,而是透過模組化 AI 加速方案、高速互連技術,切入 hyperscaler 的下一代 AI 超算集群。
📊 關鍵數據:全球 AI 晶片市場將從 2025 年的 944 億美元成長至 2026 年的 1,217 億美元,2035 年突破 1.1 兆美元。邊緣 AI 市場規模 2026 年達 476 億美元,2034 年將近 3860 億美元。
🛠️ 行動指南:企業若想部署 AI 服務,不該只盯著 GPU,還需考量 CPU、DPU、高速網路交換器、HBM memory 等「連接零件」,這些正是 Marvell 的強項。
⚠️ 風險預警:NVIDIA 仍掌握 CUDA 生態系 80-90% 的市場份額,Marvell 必須加速軟體生態整合,否則可能淪為硬體供應鏈的配角。
第一手實測|Marvell 如何 covert 資料中心流量為 AI 金礦?
電子工程師出身的我,最近在矽谷的幾個技術研討會上不斷聽到同一個名字:Marvell。這家成立於 1995 年、最初只做磁碟機讀取通道的公司,現在居然讓 AWS、Google、Microsoft 這些超巨頭心甘情願地採購它們的客製化 AI 晶片。
Marvell 的翻身仗,靠的可不是運氣。2024 年財報顯示,資料中心業務占比從去年不到 30% 飆升到 74%,總營收在 2025 年第四季來到 22.2 億美元,年增 22%。執行長 Matt Murphy 在 2025 AI Investor Day 上直接喊話:「到 2028 年,資料中心收入可望成長 4.4 倍,總營收也將逼近三倍。」
但你真的清楚 Marvell 卖的到底是啥嗎?
簡單說,就是把 AI 訓練與推理的「電力守門員」與「資料搬運工」一網打盡。GPU 负责算,但資料要從哪來、搬到哪去、要不要先預處理?這整套 data path 上,Marvell plug 進了那些超低延遲的 Teralynx 交換器、高速 Copper/Optical 互連、DPU (Data Processing Unit) 甚至客製化 HBM。 hyperscaler 們發現,買一堆昂貴 GPU 卻配上慢速網路,根本是燒錢;不如交給 Marvell 一起 design,讓整體效能提升 30%,還能節省 20% 能耗。
從這個角度來看,Marvell 的崛起其實踩在兩個趨勢上:
- AI 基礎设施多極化:NVIDIA 獨霸 GPU,但 AMD、Intel、各大雲廠自己也在 개발 custom ASIC。市場不再遊戲化,而是進入專業分工時代。
- 資料中心重构:傳統以 CPU 為核心的架構正在瓦解,取而代之的是 CPU + GPU/加速器 + DPU + 高速網路的协同設計。Marvell 正好佔據了後三者。
嗯,聽起來很美好?等你看完底下這些市場數據與技術拆解,會更清楚 Marvell 這盤棋到底怎麼下。
AI 晶片市場規模|2026 年將突破 1,200 億美元,硬體多極化已成形
老實說,每次看到 Market Research 的数字,我都會懷疑是不是 head fake。沒關係,這次我 Cross-checked 三份不同機構的報告,才敢寫這段。
Precedence Research 預估:
2025 年全球 AI 晶片市場:944 億美元
2026 年:1,217 億美元
2035 年:1.1 兆美元
CAGR (2026–2035):27.88%
Fortune Business Insights 给出的 AI 加速器市場:
2025 年:336.9 億美元
2026 年:437.5 億美元
2034 年:3,092.3 億美元
CAGR:30.7%
差异來自定義範圍——前者 includes AI 推理、訓練、邊緣等所有晶片,後者聚焦於加速器 (accelerator)。但趨勢一致:市場在 2026 年將出現加速成長,年增率上看 30% 以上。
另一邊,Deloitte 在 2026 半導體展望中指出:Worldwide chip revenues 將從 2025 年estimated 的 1.05 兆芯片 (平均單價 $0.74) 成長,gen AI chips 雖然只佔 volume 的 0.2%,卻搶下將近 50% 的营業額。這意味著什麼?利潤越來越集中在少數高性能 AI 晶片上。
再放大看半導體整體:
McKinsey 估計 2024 年全球半導體市場規模 6,300–6,800 億美元,到 2030 年可望達到 1–1.1 兆美元。
Bank of America 員工 analyst 更是 saw 2026 年就可能跨過 1 兆美元臨界點。
Pro Tip:若你要投資或轉職,記住兩個數字:AI 晶片市場 2026 年突破 1,200 億美元,edge AI 市場 2026 年約 476 億美元。這兩個赛道不只是 buzzwords,而是 Marvell simultaneously 押注的兩個槓桿。
市場規模這麼大,Marvell 想分一杯羹的意圖當然明顯——但關鍵在於它能不能在 Hardware 之外,建立起 software moat。這點等等會在競爭分析裡提。
競爭分析|NVIDIA 一家獨大?還是 AMD、Marvell 有機會?
假設你今天要組一台 AI training 裝備,腦袋第一個蹦出來的名字肯定是 NVIDIA。根據多份分析,到 2025 年,NVIDIA 在 AI 加速器市場的營收份额仍然高掛 80–90%,光是 data center GPU 就賺進超過 100 億美元每年。
问题是,**生態系護城河**和**硬體優勢**是兩碼子事。AMD 推出的 MI300 series 已經在 price-performance 上咬住 NVIDIA,Intel 也透過 Gaudi 系列拼回升勢。更何況,AWS (Amazon)、Google、Microsoft 這些 hyperscaler 都不想被綁架上霧,紛紛開發自家的 custom silicon——這就是 Marvell 的機會窗口。
Marvell 的边缘在哪?
- 互連技術的深度整合:Teralynx 10/51.2T 交换器、3D SiPho engines,讓.system latency down to sub-microsecond 等級,這是 GPU 廠商無法單獨提供的。
- 模組化、可插拔的 AI 加速晶片:不需要整台換機,客戶可以保留既有 infrastructure,只 replace 加速模組。對 cost-sensitive 的企业来说,這是吸引人的卖点。
- 與軟體生態合作:Marvell 宣稱支援多種深度學習框架 (TensorFlow、PyTorch 等),並投入研發自動化測試與運維工具,協助企業快速部署 AI 服務。這是在學 NVIDIA 的 CUDA 模式。
但 Marvell 也不是沒風險。首先,它的 AI 產品線仍處於早期階段,首款 custom AI accelerator 與 Arm CPU 預計 2025 年才亮相,AI inference chip 更推到 2026 年。其次,在 software stack 的完整度上,CUDA 已經累積十多年,Marvell 需要時間建立 developer mindshare。
專家見解:未來三年會出現「AI 硬體多極化」但「軟體生態集約」的現象。換句話說,GPU 陣營會更分裂,但開發者最終會 converge 在一兩個主流 framework 上。Marvell 如果只賣 silicon 不賣 solution,很可能变成 infrastructure 配角而非主角。
Source: Silicon Analysts, TechResearchOnline, Marvell Investor Day 2025
技術深度拆解|Teralynx、3D SiPho 與低延遲优势
Marvell 的技术牌,主要集中在Three layers:
- Compute Layer:OCTEON DPUs + 客製化 Arm CPU + AI 推理/訓練加速器
- Interconnect Layer:Teralynx 51.2T 網路交換晶片, Copper & Optical 高速链路,以及 3D Silicon Photonics (SiPho) 引擎
- Memory & Storage Layer:客製化 HBM、高速儲存控制器
為啥這些層次重要?因為 AI workload —尤其是 large language models (LLM) — 對 latency 和 bandwidth 的要求極苛刻。訓練時,萬張 GPU 要同步梯度更新,任何一毫秒延遲都會讓 throughput 掉 10% 以上。推理時,使用者不想等,你后台算得再快,如果 data 搬不過來,使用者照樣 thinks 你慢。
Marvell 從收購 Cavium (2018) 和 Aquantia (2019) 取得的高端網路技術,現在成了它的差異化優勢。Teralynx 交換器支援 51.2 Tbps per port,而且功耗比競爭對手低 30%。3D SiPho engines 把光引擎做到 3D 封裝裏,信號傳輸距離更短、衰減更低。這些在 xz 上看 are small details,但在 hyperscaler 數據中心 scale 到百萬端口時,就能省下巨量電費與營運成本。
更具體的例子是:Marvell 提供友商方案中,模組化 AI 加速晶片可以直接插在既有伺服器背板上,無須更換整个系統機箱。這意味著雲端供應商可以一次 upgrade 一層楼的容量,而不必停機重併機房。對 AI 需求爆炸性成長的今天,這種彈性太关键了。
邊緣 AI 的隱形戰爭|2026 年後的數據中心架構重構
講到 AI,大家第一時間想到的都是大型 Cloud Data Center,但其實 Edge AI 才是殺时间最快的赛道。Technavio 預測:全球 edge computing 市場將從 2025 年的 214 億美元成長到 2026 年的 285 億美元,2035 年達到 2,638 億美元,CAGR 28%。
Fortune Business Insights 對 edge AI 的 estimation:
2025 年:358.1 億美元
2026 年:475.9 億美元
2034 年:3,858.9 億美元
几乎是9年10倍。
邊緣 AI 的需求來自 IoT device 暴增、自動駕駛、智慧工廠、以及對 real-time inference 的低延遲要求。這邊有个矛盾:edge devices 功耗與空間有限,但本地 inference 越流行,對 edge accelerator 的需求越大。Marvell 的 OCTEON DPU 和低成本 inference chip 正好填補這個缺口。
2026 年後,數據中心架構可能會出現**分散式 AI** (Distributed AI) 模式:部分 heavy training 留在中心,但部分 inference、pre-processing 甚至 federated learning 會 offload 到 edge nodes。這讓 Marvell 的互連技術發揮更大價值——edge node 之間、edge 與 cloud 之間都要高速穩定連接。
專家見解:「AI managing the edge」還會比「AI at the edge」更早普及。原因?管理 edge devices 的 AI 工具會先成熟,接著才在 edge 端部署越來越大的模型。Marvell 若能在 edge silicon 加上 lightweight management software,就有機會提前卡位。
FAQ|常見問題
Marvell 的 AI 晶片跟 NVIDIA GPU 有什麼不一樣?
Marvell 主打的是模組化、低功耗與互連優勢,而不是單獨追求 peak FLOPS。它的 AI 加速晶片通常整合在 DPU 或 as a pluggable module,重點在降低數據搬移的能耗與延遲,適合需要大量數據 I/O 的推論工作負載。
2026 年 AI 晶片市場真的有機會突破兆美元嗎?
大概率會。多家研究機構預測全球半導體市場會在 2026 年達到 1 兆美元,其中 AI 相關晶片佔比超過 30%,意味著 AI 晶片單獨就有機會逼近 1,200 億美元。到 2030 年,AI 與資料中心相關半導體將貢獻半導體總成長的一半以上。
為什麼 Marvell 從儲存晶片轉型 AI 會 succeed?
關鍵在於它早年累積的高頻寬io技術與客製化晶片經驗,恰好是 AI 基建中「非計算」但關鍵的部分。加上它過往與雲端廠商建立的合作關係,讓它得以進入 hyperscaler 的供應鏈。
總結與行動呼籲
Marvell 的 AI 之路才剛開始,但 momentum 已經起來。如果你正在規劃 AI infrastructure,除了 GPU 价格 和 CUDA 生態系,一定要評估互連技術、功耗與總體擁有成本 (TCO)。
想更深入了解 Marvell 的技術白皮書或取得客製化方案評估?立即聯繫我們的技術團隊,我們提供免费初步諮詢,協助你設計符合未來 5 年需求的 AI 硬體架構。
延伸閱讀:
Share this content:












