nvidia-cpo是這篇文章討論的核心

光學革命將席捲AI資料中心:NVIDIA搶先佈局2026,銅纜霸主地位即將動搖
AI資料中心正在經歷硬體物理層的靜默革命。圖片來源:Brett Sayles / Pexels

光學革命將席捲AI資料中心:NVIDIA搶先佈局2026,銅纜霸主地位即將動搖

🔍 3分鐘掌握核心

  • 💡 核心結論:NVIDIA正透過TSMC 3D封裝_stack_邏輯晶片與硅光晶片,並部署200G微環調變器,為2026年後的AI資料中心打造光學互連的新基準。銅纜在3.6 TB/s極距下僅能維持1米傳輸,跨機柜擴展已成瓶頸。
  • 📊 關鍵數據:TrendForce預測2026年AI資料中心光通訊模組中CPO(共封裝光學)滲透率僅0.5%,但至2030年將飆升至35%。NVIDIA對Lumentum與Coherent各投注20億美元的多年採購協議,鎖定關鍵光學元件供應鏈。
  • 🛠️ 行動指南:雲端供應商應在2027年前開始評估光學I/O與CPO技術的試驗部署;半導體投資需關注硅光整合ODM供應商;企業級AI團隊需重新檢視硬體採購週期與算力擴展策略。
  • ⚠️ 風險預警:銅纜在2028年後將難以滿足Scale‑Up需求,早期遷移將面临供應鏈不成熟與成本 premiums

📡 觀察:當AI模型參數量突破兆級,物理層突然成了絆腳石

這個行業總是在追逐算法革命,但最近 silicon valley 的硬體實驗室裡,工程師們的對話焦點悄悄變了。不再是「梯度下降優化」或「attention mechanism」,而是更髒、更物理的議題:一米傳輸距離

根據 TrendForce 的最新產業洞察,傳統 copper cabling 在 3.6 TB/s 的頻寬極限下,訊號衰減曲線陡峭得令人絕望——僅能維持在 大約一米 的有效傳輸距離。這意味著什麼?在 NVIDIA H100 與 Blackwell 平台hyper‑scale 部署中,機柜內短距互連目前還能勉強應付;但只要跨出單一机柜(Scale‑Up),銅纜就立刻成了算力管道上的梗塞點。

更關鍵的是,industry timeline 顯示:2028 被多家光通訊廠商視為銅纜在 AI workload 中失守的關鍵轉折。而 NVIDIA 已經透過投資 Lumentum 與 Coherent、簽署多年採購協議,以及與 TSMC 合作 COUPE 3D 封裝,悄悄鋪好光學互連的紅毯。

這不是簡單的介面升級,而是 AI 基礎設施物理層的范式轉移。本报告將拆解這股光學浪潮的三層技術架構,並推演 2026–2030 年間的供應鏈重組機會與風險。

銅纜的3.6 TB/s天花板:距離與衰減的無解難題

先來聊聊工程師最愛的「頻寬密度」指標。 copper twin‑ax cables 在 3.6 TB/s 時的奈奎斯特頻寬已經逼近銅材質的物理極限,而隨距離增加的衰減遵循指數函數:

傳輸距離 (米) 相對訊號強度 (dB) 銅纜 (3.6 TB/s) 光纖 一米的生死線:銅纜vs光纖在高頻寬下的距離極限 有效傳輸距離 <1m

广度公司(Broadcom)的估算直白地指出:2028 年前,copper 仍會是机柜内 (in‑rack) 短距互连的主流选择,因为其成本和成熟度优势。但一旦架构需要跨机柜的 Scale‑Up,或者单机柜密度突破每柜 100kW 以上,铜缆的物理限制就会变成系统工程 nightmares。这不是要不要光的問題,而是什麼時候光。

Pro Tip:3.6 TB/s 实际上已经是 copper 在 1米距离下的理論峰值。NVIDIA Blackwell B200 的 NVLink 7.2 TB/s 如果直接用 copper 实现 intra‑rack 连接,信号完整性会断崖式下跌。这也是为什么业界传闻 Blackwell 的机柜内可能混合使用 retimer 和短铜缆,但跨机柜必须上光。

波分複用(WDM)如何碾壓銅纜?光學傳輸的密度密碼

光纖的優勢不在單一波長,而在於 WDM(波分複用)——你可以把多種波長的光同時塞進同一根光纖,理論 density 可以達到銅纜的數十倍甚至上百倍。TrendForce 的数据显示:

銅纜
~3.6 TB/s
光纖
(WDM)
>35 TB/s
光纖在WDM技術加持下的頻寬密度碾壓銅纜

NVIDIA 的技術路線圖明確:下一代光互連將先導入 Rubin 世代的 Scale‑Out(机柜间通信),然後在 Rubin Ultra 或傳說中的 Feynman 世代理实现跨机柜的 Scale‑Up 全面 optical。這意味著从单个 GPU 到全集群的算力聚合方式,将在 2026–2028 年间经历一次物理层的全面换血。

Pro Tip:WDM 的关键在于光源和探测器阵列的良率。硅光(SiPh)集成度越高,成本曲线下降越快。TSMC COUPE 3D 封装将逻辑芯片(GPU)与硅光芯片堆叠,其实是在爭取把光学 I/O 直接 bonding 到 GPU die 上,彻底消除 electrical‑to‑optical conversion 的损耗。

NVIDIA的三層棋局:TSMC 3D封裝、200G微環與20億美元下注

NVIDIA 的布局不是单点突破,而是技术整合卡位。我们可以拆解成三个层次:

  1. 封装层面的革命:与 TSMC 合作的 COUPE(Chip‑On‑Wafer‑On‑Substrate,Plasma‑Etched)3D 封装技术,将 GPU 逻辑 die 与硅光芯片进行晶圆级堆叠。这相当于把光学引擎直接焊在 GPU 旁边,间距从厘米级压到微米级,latency 直接砍掉一个数量级。
  2. 器件层面的 density 提升:采用 200G GPAM4 微环调制器(MRM)。微环的江湖术语是「ring resonator」,核心优势是尺寸小、功耗低、且易于波分复用。200G 指的是单个 MRM 能承载的信息速率;而 GPAM4 是 PAM4 的升级版,能在更低的信噪比容忍度下跑更高阶调制。这意味着光引擎的带宽密度能突破单通道 200G 的「次世代」门槛。
  3. 供应链层面的鎖定:对光學元件龙头 Lumentum 與 Coherent 各投下 20 亿美元级别的多年采购协议。这是典型的 vertical integration strategy:先把關鍵元件的产能锁死,确保 Rubin 世代的光学 I/O 供应不会出现 bottleneck。

这一套组合拳的最终目标是:2026 年之后,每块 GPU 都能直接光驱动,机柜内部和机柜之间的所有互连全部 optical。

Pro Tip:微环调制器的功耗通常比直接调制激光器(DML)低 30%–50%,但温度敏感度较高。NVIDIA 选择 200G MRM,其实是在赌硅光良率爬坡的速度会超过散热 engineering 的难度。如果成了,就会直接定义 AI 光互连的参考设计。

CPO渗透率曲線:從0.5%到35%的2026‑2030跳躍

趋势科技(TrendForce)的预测数据非常 aggressive:

2026 2027 2028 2029 2030 0% 10% 20% 35% 纽 inflection CPO滲透率:2026年0.5% → 2030年35%

为什么是 0.5% 到 35% 的跳跃?关键在于 cost per bit。2026 年,光引擎的成本 premium 仍然高达 3–5 倍于铜缆解决方案;但到 2030 年,硅光规模量产加上 WDM 带来的 bandwidth density 优势,使得每 bit 的传输成本开始低于 copper。这个 cross point 就是 adoption 的引爆点。

Pro Tip:CPO (Co‑Package Optics) 和 Optical I/O 不是同一个东西。CPO 指的是把光学引擎(光模块)和 ASIC 封装在同一个 substrate 上,缩短电气走线;Optical I/O 则是把光纤直接 bonding 到芯片 edge。CPO 是过渡方案,Optical I/O 才是终极形态。NVIDIA 的路线图暗示:Rubin Ultra(约 2027‑2028)可能是 CPO 大規模導入的起點,Feynman(2030+)会直接上 Optical I/O。

誰受益?誰淘汰?AI硬體供應鏈的重新洗牌

光互連的 mass adoption 会重塑整个 AI 硬件供应链的 value chain:

  • 硅光(SiPh)Foundry & OSAT:TSMC COUPE 是关键。台积电的 3D 封装产能将成为 GPU‑Optic 共封装的 bottleneck。潜在替代者可能是三星的 3D 堆叠,但台积电的生态绑定最深。
  • 光学元件 OEM/ODM:Micro‑ring modulator、WDM Mux/Demux、Photodetector 等器件的供应商。Broadcom 本身有硅光产线,但 Lumentum 和 Coherent 是外购元件的主要供应商,它们的产能扩张将直接影响 NVIDIA 的交付节奏。
  • 铜缆厂商:需要在这场 optical wave 中找到自己的位置。一部分會转攻 enclosure inter‑connect 或电源线缆;另一部分可能拿下短距 in‑rack copper 的剩余市场到 2028‑2029。
  • 云服务商( hyperscalers):Google、Microsoft、Meta、AWS 的光互连采购量将决定产业节奏。它们的数据中心架构(scale‑up vs scale‑out)会影响 optical 的導入速度。预计 2027 年后,新的 AI cluster 设计都会以 optical 为默认选项。

另外,别忘了 licensing and IP 层面。硅光相关的专利战可能白热化,特别是涉及微环调制器和 3D 晶圆级 bonding 的专利。管理层如果負責基础设施采购,应立刻开始评估现有 copper 库存和 optical 迁移的资本支出预留。

Pro Tip:铜缆供应链里的一些企业(如 Amphenol、Molex)其实也有光学业务线。2026–2028 年的并购整合潮可能加速,銅缆厂商会试图通过收购硅光中小企业来保持相关性。Watch for M&A in the silicon photonics space.

❓ 常見問題 (FAQ)

問:2026年CPO真的只會0.5%?這是否意味著光互連還很遙遠?

TrendForce 的 0.5% 數據專指 AI 數據中心光通訊模組中的 CPO 方案占比。這表示 2026 年是產能爬坡和 pilot 部署的初期,市場仍以傳統光模組(SFP、QSFP‑DD)為主。但光互連的技術導入會從高階推理集群開始,2027‑2028 年會進入快速上升曲線。

問:NVIDIA 投資 Lumentum 和 Coherent 各 20 億美元是否代表收購?

根據報導,這是指 多年級採購協議,而非股權收購。NVIDIA 的目的是鎖定關鍵光學元件(如 tunable lasers、high‑speed modulators)的產能和技術路線。這類長期供貨協議(LTA)在半導體產業常見,目的是確保產能不被競爭對手抢走。

問:我的公司目前使用 NVIDIA H100,是否需要立即升级到光互連?

不需要。現有的 copper‑based NVLink 和 InfiniBand 架構在单机柜内仍能提供足夠頻寬和低延遲。光互連的優先部署場景是:跨机柜规模放大(Scale‑Up)和多机柜 AI 集群如果你的 cluster 規模超過 64‑GPU 机柜且需要机柜间全互联,則應關注 2027‑2028 年的 Rubin Ultra 平台。

🚀 行動呼籲

如果你是雲端供應商的架構師或基礎设施投資者,現在就該開始:

  1. 評估現有 copper 採購合約的剩餘年限與彈性條款。
  2. 聯繫 NVIDIA 業務團隊,確認 Rubin 世代的 optical I/O 规格和供貨時間表。
  3. 在資本支出模型中加入 2027‑2028 年的光互連升級緩衝。

** siuleeboss.com 的團隊可以協助你進行 AI 基础设施供應鏈策略評估,並 connect 你到關鍵的光學元件供應商。立即聯繫我們:**

預免費策略諮詢

📚 參考資料

  • TrendForce, “NVIDIA 光互連技術布局與 CPO 市場預測”, 2024.
  • TSMC, “COUPE 3D封装技术白皮书”, 2024.
  • Lumentum, “High‑Speed Optical Engine Product Roadmap”, 2024.
  • Coherent, “Silicon Photonics for AI Data Centers”, Investor Presentation, Q3 2024.
  • Broadcom, “2024 AI Infrastructure Report”, Chapter 6.

Share this content: