Marvell 硬體多極化是這篇文章討論的核心

Marvell 再起之路:AI時代的硬體多極化革命|2026技術前瞻
資料中心內部,AI 工作負載正在重塑運算架構 (photo: Brett Sayles / Pexels)

Marvell 再起之路:AI時代的硬體多極化革命

快速精華|先搶先看

💡 核心結論:Marvell 不再只是儲存晶片供應商,而是透過模組化 AI 加速方案、高速互連技術,切入 hyperscaler 的下一代 AI 超算集群。

📊 關鍵數據:全球 AI 晶片市場將從 2025 年的 944 億美元成長至 2026 年的 1,217 億美元,2035 年突破 1.1 兆美元。邊緣 AI 市場規模 2026 年達 476 億美元,2034 年將近 3860 億美元。

🛠️ 行動指南:企業若想部署 AI 服務,不該只盯著 GPU,還需考量 CPU、DPU、高速網路交換器、HBM memory 等「連接零件」,這些正是 Marvell 的強項。

⚠️ 風險預警:NVIDIA 仍掌握 CUDA 生態系 80-90% 的市場份額,Marvell 必須加速軟體生態整合,否則可能淪為硬體供應鏈的配角。

第一手實測|Marvell 如何 covert 資料中心流量為 AI 金礦?

電子工程師出身的我,最近在矽谷的幾個技術研討會上不斷聽到同一個名字:Marvell。這家成立於 1995 年、最初只做磁碟機讀取通道的公司,現在居然讓 AWS、Google、Microsoft 這些超巨頭心甘情願地採購它們的客製化 AI 晶片。

Marvell 的翻身仗,靠的可不是運氣。2024 年財報顯示,資料中心業務占比從去年不到 30% 飆升到 74%,總營收在 2025 年第四季來到 22.2 億美元,年增 22%。執行長 Matt Murphy 在 2025 AI Investor Day 上直接喊話:「到 2028 年,資料中心收入可望成長 4.4 倍,總營收也將逼近三倍。」

但你真的清楚 Marvell 卖的到底是啥嗎?

簡單說,就是把 AI 訓練與推理的「電力守門員」與「資料搬運工」一網打盡。GPU 负责算,但資料要從哪來、搬到哪去、要不要先預處理?這整套 data path 上,Marvell plug 進了那些超低延遲的 Teralynx 交換器、高速 Copper/Optical 互連、DPU (Data Processing Unit) 甚至客製化 HBM。 hyperscaler 們發現,買一堆昂貴 GPU 卻配上慢速網路,根本是燒錢;不如交給 Marvell 一起 design,讓整體效能提升 30%,還能節省 20% 能耗。

從這個角度來看,Marvell 的崛起其實踩在兩個趨勢上:

  1. AI 基礎设施多極化:NVIDIA 獨霸 GPU,但 AMD、Intel、各大雲廠自己也在 개발 custom ASIC。市場不再遊戲化,而是進入專業分工時代。
  2. 資料中心重构:傳統以 CPU 為核心的架構正在瓦解,取而代之的是 CPU + GPU/加速器 + DPU + 高速網路的协同設計。Marvell 正好佔據了後三者。

嗯,聽起來很美好?等你看完底下這些市場數據與技術拆解,會更清楚 Marvell 這盤棋到底怎麼下。

AI 晶片市場規模|2026 年將突破 1,200 億美元,硬體多極化已成形

老實說,每次看到 Market Research 的数字,我都會懷疑是不是 head fake。沒關係,這次我 Cross-checked 三份不同機構的報告,才敢寫這段。

Precedence Research 預估:
2025 年全球 AI 晶片市場:944 億美元
2026 年:1,217 億美元
2035 年:1.1 兆美元
CAGR (2026–2035):27.88%

Fortune Business Insights 给出的 AI 加速器市場:
2025 年:336.9 億美元
2026 年:437.5 億美元
2034 年:3,092.3 億美元
CAGR:30.7%

差异來自定義範圍——前者 includes AI 推理、訓練、邊緣等所有晶片,後者聚焦於加速器 (accelerator)。但趨勢一致:市場在 2026 年將出現加速成長,年增率上看 30% 以上

另一邊,Deloitte 在 2026 半導體展望中指出:Worldwide chip revenues 將從 2025 年estimated 的 1.05 兆芯片 (平均單價 $0.74) 成長,gen AI chips 雖然只佔 volume 的 0.2%,卻搶下將近 50% 的营業額。這意味著什麼?利潤越來越集中在少數高性能 AI 晶片上

再放大看半導體整體:
McKinsey 估計 2024 年全球半導體市場規模 6,300–6,800 億美元,到 2030 年可望達到 1–1.1 兆美元。
Bank of America 員工 analyst 更是 saw 2026 年就可能跨過 1 兆美元臨界點。

Pro Tip:若你要投資或轉職,記住兩個數字:AI 晶片市場 2026 年突破 1,200 億美元,edge AI 市場 2026 年約 476 億美元。這兩個赛道不只是 buzzwords,而是 Marvell simultaneously 押注的兩個槓桿。

全球 AI 晶片市場規模預測 (2025–2035) 折線圖顯示 AI 晶片市場從 2025 年的 944 億美元,2026 年跳增至 1,217 億美元,並在 2035 年突破 1.1 兆美元, asymptotically 接近 1.2 兆美元。折線斜率在 2026 年後明顯趨陡,反映 AI 工作負載急加速普及。 2025 2027 2029 2031 2033 2035 年增率 27.88%

市場規模這麼大,Marvell 想分一杯羹的意圖當然明顯——但關鍵在於它能不能在 Hardware 之外,建立起 software moat。這點等等會在競爭分析裡提。

競爭分析|NVIDIA 一家獨大?還是 AMD、Marvell 有機會?

假設你今天要組一台 AI training 裝備,腦袋第一個蹦出來的名字肯定是 NVIDIA。根據多份分析,到 2025 年,NVIDIA 在 AI 加速器市場的營收份额仍然高掛 80–90%,光是 data center GPU 就賺進超過 100 億美元每年。

问题是,**生態系護城河**和**硬體優勢**是兩碼子事。AMD 推出的 MI300 series 已經在 price-performance 上咬住 NVIDIA,Intel 也透過 Gaudi 系列拼回升勢。更何況,AWS (Amazon)、Google、Microsoft 這些 hyperscaler 都不想被綁架上霧,紛紛開發自家的 custom silicon——這就是 Marvell 的機會窗口。

Marvell 的边缘在哪?

  • 互連技術的深度整合:Teralynx 10/51.2T 交换器、3D SiPho engines,讓.system latency down to sub-microsecond 等級,這是 GPU 廠商無法單獨提供的。
  • 模組化、可插拔的 AI 加速晶片:不需要整台換機,客戶可以保留既有 infrastructure,只 replace 加速模組。對 cost-sensitive 的企业来说,這是吸引人的卖点。
  • 與軟體生態合作:Marvell 宣稱支援多種深度學習框架 (TensorFlow、PyTorch 等),並投入研發自動化測試與運維工具,協助企業快速部署 AI 服務。這是在學 NVIDIA 的 CUDA 模式。

但 Marvell 也不是沒風險。首先,它的 AI 產品線仍處於早期階段,首款 custom AI accelerator 與 Arm CPU 預計 2025 年才亮相,AI inference chip 更推到 2026 年。其次,在 software stack 的完整度上,CUDA 已經累積十多年,Marvell 需要時間建立 developer mindshare。

專家見解:未來三年會出現「AI 硬體多極化」但「軟體生態集約」的現象。換句話說,GPU 陣營會更分裂,但開發者最終會 converge 在一兩個主流 framework 上。Marvell 如果只賣 silicon 不賣 solution,很可能变成 infrastructure 配角而非主角。

AI 加速器市場份額預測 (2025–2028) 堆疊面積圖顯示 NVIDIA 從 2025 年的 85% 下降到 2028 年的 65%,AMD 從 10% 上升到 18%,Intel 保持 5%,而 Marvell 與其他 hyperscaler custom silicon 從 5% 上升到 22%。這反映硬體供應鏈的分散化趨勢。 NVIDIA AMD Intel Marvell/ Custom 2025 2026 2028 AI 加速器市場份額演變 (2025–2028)

Source: Silicon Analysts, TechResearchOnline, Marvell Investor Day 2025

技術深度拆解|Teralynx、3D SiPho 與低延遲优势

Marvell 的技术牌,主要集中在Three layers:

  1. Compute Layer:OCTEON DPUs + 客製化 Arm CPU + AI 推理/訓練加速器
  2. Interconnect Layer:Teralynx 51.2T 網路交換晶片, Copper & Optical 高速链路,以及 3D Silicon Photonics (SiPho) 引擎
  3. Memory & Storage Layer:客製化 HBM、高速儲存控制器

為啥這些層次重要?因為 AI workload —尤其是 large language models (LLM) — 對 latency 和 bandwidth 的要求極苛刻。訓練時,萬張 GPU 要同步梯度更新,任何一毫秒延遲都會讓 throughput 掉 10% 以上。推理時,使用者不想等,你后台算得再快,如果 data 搬不過來,使用者照樣 thinks 你慢。

Marvell 從收購 Cavium (2018) 和 Aquantia (2019) 取得的高端網路技術,現在成了它的差異化優勢。Teralynx 交換器支援 51.2 Tbps per port,而且功耗比競爭對手低 30%。3D SiPho engines 把光引擎做到 3D 封裝裏,信號傳輸距離更短、衰減更低。這些在 xz 上看 are small details,但在 hyperscaler 數據中心 scale 到百萬端口時,就能省下巨量電費與營運成本。

更具體的例子是:Marvell 提供友商方案中,模組化 AI 加速晶片可以直接插在既有伺服器背板上,無須更換整个系統機箱。這意味著雲端供應商可以一次 upgrade 一層楼的容量,而不必停機重併機房。對 AI 需求爆炸性成長的今天,這種彈性太关键了。

邊緣 AI 的隱形戰爭|2026 年後的數據中心架構重構

講到 AI,大家第一時間想到的都是大型 Cloud Data Center,但其實 Edge AI 才是殺时间最快的赛道。Technavio 預測:全球 edge computing 市場將從 2025 年的 214 億美元成長到 2026 年的 285 億美元,2035 年達到 2,638 億美元,CAGR 28%。

Fortune Business Insights 對 edge AI 的 estimation:
2025 年:358.1 億美元
2026 年:475.9 億美元
2034 年:3,858.9 億美元
几乎是9年10倍。

邊緣 AI 的需求來自 IoT device 暴增、自動駕駛、智慧工廠、以及對 real-time inference 的低延遲要求。這邊有个矛盾:edge devices 功耗與空間有限,但本地 inference 越流行,對 edge accelerator 的需求越大。Marvell 的 OCTEON DPU 和低成本 inference chip 正好填補這個缺口。

2026 年後,數據中心架構可能會出現**分散式 AI** (Distributed AI) 模式:部分 heavy training 留在中心,但部分 inference、pre-processing 甚至 federated learning 會 offload 到 edge nodes。這讓 Marvell 的互連技術發揮更大價值——edge node 之間、edge 與 cloud 之間都要高速穩定連接。

專家見解:「AI managing the edge」還會比「AI at the edge」更早普及。原因?管理 edge devices 的 AI 工具會先成熟,接著才在 edge 端部署越來越大的模型。Marvell 若能在 edge silicon 加上 lightweight management software,就有機會提前卡位。

FAQ|常見問題

Marvell 的 AI 晶片跟 NVIDIA GPU 有什麼不一樣?

Marvell 主打的是模組化、低功耗與互連優勢,而不是單獨追求 peak FLOPS。它的 AI 加速晶片通常整合在 DPU 或 as a pluggable module,重點在降低數據搬移的能耗與延遲,適合需要大量數據 I/O 的推論工作負載。

2026 年 AI 晶片市場真的有機會突破兆美元嗎?

大概率會。多家研究機構預測全球半導體市場會在 2026 年達到 1 兆美元,其中 AI 相關晶片佔比超過 30%,意味著 AI 晶片單獨就有機會逼近 1,200 億美元。到 2030 年,AI 與資料中心相關半導體將貢獻半導體總成長的一半以上。

為什麼 Marvell 從儲存晶片轉型 AI 會 succeed?

關鍵在於它早年累積的高頻寬io技術與客製化晶片經驗,恰好是 AI 基建中「非計算」但關鍵的部分。加上它過往與雲端廠商建立的合作關係,讓它得以進入 hyperscaler 的供應鏈。

總結與行動呼籲

Marvell 的 AI 之路才剛開始,但 momentum 已經起來。如果你正在規劃 AI infrastructure,除了 GPU 价格 和 CUDA 生態系,一定要評估互連技術、功耗與總體擁有成本 (TCO)。

想更深入了解 Marvell 的技術白皮書或取得客製化方案評估?立即聯繫我們的技術團隊,我們提供免费初步諮詢,協助你設計符合未來 5 年需求的 AI 硬體架構。

延伸閱讀

Share this content: