Marvell 光學互連是這篇文章討論的核心

快速精華
💡 核心結論:Marvell 不再是傳統儲存晶片供應商,而是透過 32.5 億美元收購 Celestial AI 的 Photonic Fabric 技術,成為 AI 光學互連領域的隱形冠軍。
📊 關鍵數據:全球 AI 晶片市場預計在 2027 年突破 1 兆美元,其中 AI 推理市場將從 2025 年的 1061.5 億美元增長至 2030 年的 2549.8 億美元(CAGR 19.2%)。
🛠️ 行動指南:關注 Marvell 的 2nm 製程設計成果與光學互連晶片的量產節奏,並評估其在邊緣 AI 與 5G 基礎設施的佈局潛力。
⚠️ <風險預警>光學互連技術的商業化不及預期、AI 基礎設施投資泡沫化,以及地緣政治對半導體供應鏈的干擾。
從資料儲存到算力樞紐:Marvell 的戰略轉型
半導體行業老將 Marvell Technology 在 2026 年完成了漂亮的戰略轉身。根據我們對財報與業界評論的追蹤,这家公司不再只是硬碟讀取通道晶片的供應商,而是在 AI 基礎設施領域打出 combos:Celestial AI 的光學互連 + 模組化 XPU + 低延遲網路。
Pro Tip:Marvell 收購 Celestial AI 不只是為了技術,更是為了鎖定 hyperscaler 的頂級設計案。光學互連在 AI Scale-up 架構中的成本占比預計從 2024 年的 12% 提升至 2027 年的 23%。
從 1995 年創立至今,Marvell 經歷過 Seagate 的早期訂單、Cavium 的處理器佈局,到現在的 AI 晶片與光學互連整合,每一步都踩在資料中心算力暴增的節奏上。2024 財年營收達 55 億美元,員工數超過 6500 人,專利持有量突破 10000 項——這些數字背後是長期累積的混合訊號 IC 設計實力。
Photonic Fabric 衝擊波:光學互連如何顛覆 AI 能耗
Marvell 在 2025 年底宣布以 32.5 億美元收購 Celestial AI,這筆交易的技術核心是 Photonic Fabric——一種專為 AI scale-up 架構設計的光學互連平台。與傳統電力銅纜相比,Photonic Fabric 能在單一機架內實現晶片間的光學連接,將傳輸延遲降至微秒級,同時功耗降低 40% 以上。
根據國際能源署(IEA)的警示,資料中心用電量預計在 2026 年突破 1000 TWh,幾乎是 2022 年 460 TWh 的兩倍。而 AI 訓練與推理工作負載是主要推手。Marvell 的光學互連方案直擊痛點:每當 AI 模型規模擴大 10 倍,晶片間通信能耗就暴增 4 倍,光學連接成為打破 this bottleneck 的關鍵。
Pro Tip:光學互連的商業化時程比Experts預期更快。Celestial AI 的技術 originally 定位在 3D co-packaged integration,但因為 hyperscaler 的迫切的 power density 壓力,提前至 2026 年量產。
這項技術的戰略意義在於:它讓 Marvell 從單純的晶片供應商升級為「連接解決方案」provider。當 AI 集群擴展到數十萬顆 GPU 時,光學互連就能決定整體系統的能效比。
設計奪標實錄:40% 年成長的祕密
Marvell 在 2026 財年 Q3 交出 20.75 億美元的營收成績單,並 Reveals 與一家「新興 hyperscaler」簽署高量產設計案。這不是偶然——公司同步推进 2nm 製程的 XPU 設計與 UALink switch roadmap,光學互連技術直接補強後者。
分析師將 Marvell 定位為「AI 互連之王」。當我們深入檢視其產品路線圖時發現,以下三點构成了成長引擎:
- 模組化 XPU 設計:支援多種深度學習框架,讓 hyperscaler 能快速部署自有 AI 加速器。
- 低延遲網路晶片:利用其在通訊領域的積累,將資料中心東西向傳輸延遲壓到的最低。
- 光學互連整合: Celestial AI 的 Photonic Fabric 與 UALink switch 结合,提供 co-packaged optical 方案。
這三條product lines 相互強化,形成 Marvell 在 AI 硬體供應鏈 多極化 趨勢中的關鍵位置。
永續計算:當 AI 需求撞上能源極限
2026 年的 AI 基礎設施投資高潮中,能源成本成為企業最敏感的議題。Bloom Energy 的報告指出,AI 驅動的算力需求已經開始超越电网的供電容量。Marvell 的技術策略精準對應這痛點:其晶片設計強調 低功耗又高可擴展性,加上光學互連降低傳輸損耗,帳面數據顯示能將 AI 工作負載的每 watt 性能提升 30%。
我們觀察到一個趨勢:大型雲端供應商(如 Google、Amazon)在 2026 年開始要求硬體合作夥伴提供 「瓦特效率優化報告」,不再只看 peak TFLOPS。Marvell 的 modular chiplet 架構允許企業依需求配置accelerators count,間接減少闲置功耗。
然而我們不能忽視的風險是:光學互連的量產良率與散熱管理仍是技術難關。Celestial AI 的 Photonic Fabric 依賴thermal stability 實現 3D co-packaged integration,但 AI 晶片的發熱密度狂奔下,這個平衡點在哪?
生態系博弈:與 NVIDIA、AMD 的邊緣較量
Marvell 的策略不是直接與 NVIDIA 的 GPU 陣營對抗,而是鎖定 定制晶片(custom ASIC) 與 基礎設施連接 兩個 niche。Gartner 數據顯示,2027 年 AI 半導體收入將達 1194 億美元,其中 infra-ASIC 佔比將從 2024 年的 18% 提升至 27%。
在邊緣 AI 與 5G 融合的場景中,Marvell 的 OCTEON 處理器與 5G infrastructure processors 已經打入 Nokia、Ericsson、Samsung 的供應鏈。這條路線的優勢是:邊端推理的功耗預算更緊,光學互連的優勢更明顯。
Pro Tip:AMD 的 Instinct MI300 系列主打 unified memory architecture,而 Marvell 聚焦在 unified optical fabric。這兩條技術路線在超大规模 AI 集群中可能並存,分別優化不同 workloads。
Marvell 還在投資 自動化測試與運維工具,協助企業快速部署 AI 服務。這個看似次要的環節實際上是贏得 hyperscaler 訂單的 key——雲端巨頭需要的是 end-to-end solution,而不是單一晶片。
常見問題
Marvell 的 AI 晶片與 NVIDIA GPU 有何不同?
Marvell 主打定制化 XPU 與光學互連整合,主要用於 AI 集群的 scale-up 連接與邊緣推理,不直接競爭 NVIDIA 的 GPU 訓練市場。其方案強調功耗效率與快速部署。
Photonic Fabric 技術何時能量產?
根據 Celestial AI 收購案的披露,first application 已經進入 hyperscaler 的 qualification 階段,預計 2026 年下半年開始小批量出貨,2027 年擴大至多個資料中心集群。
2027 年 AI 半導體市場是否會出現泡沫?
雖然需求強勁,但 SEMI 與 IEA 接連警告資料中心電力供應瓶頸。真正的風險來自過度投資在相同類型的 GPU 集群,而忽略了像 Marvell 這種專注連接與能效的解決方案。多極化供給將是健康成長的關鍵。
總結:AI 基礎設施的第二个圖景
我們觀測到 Marvell 正在打造 AI 算力世紀中的 數字高速公路。當大家聚焦在 GPU 算力的軍備競賽時,这家公司悄悄鎖定了 能源效率 與 連接密度 這兩個更嚴峻的挑戰。若其光學互連方案順利落地,2027 年 AI 晶片市場的 1 兆美元蛋糕,Marvell 有望分到比市場預期更大的 slice。
立即联系我們获取 Marvell AI 基础设施深度分析报告
參考資料
- Marvell Technology. (2025). Accelerated Infrastructure for the AI Era. PDF 技術白皮書
- McKinsey & Company. (2024). Hiding in Plain Sight: The Underestimated Size of the Semiconductor Industry. 分析報告
- Bank of America Research. (2026). Global Semiconductor Sales Projected to Reach $1 Trillion by 2027. 市場預測
- Gartner. (2023). Forecast: AI Semiconductors, Worldwide, 2021-2027. 研究文件
- International Energy Agency. (2026). Energy Demand from AI. 能源報告
- Celestial AI. (2025). Photonic Fabric Technology Platform. 技術介紹
Share this content:












