cpo-optical-interconnect是這篇文章討論的核心

CPO 革命來了!Ayar Labs × 緯穎的 100Tbps 光學互連如何顛覆 AI 資料中心?
極致光學互連:CPO 技術讓 AI 加速器之間的資料傳輸突破 copper 限制,直衝 100Tbps 頻寬。
Photo by Brett Sayles on Pexels




快速精華

  • 💡 核心結論:CPO 不是升級版 copper,而是徹底重寫 AI 集群的物理層规则。光學 I/O 直接整合到 AI 加速器,把延遲砍到 copper 的 1/10,能耗同步直降。
  • 📊 關鍵數據 (2027 預測):AI 資料中心光學互連市場將突破 820 億美元,年複合成長率 (CAGR) 達 38%。CPO 方案預計ciplinarian 150 億美元市场规模,單一機櫃可配置 1,024+ GPU,總光學頻寬超過 100 Pbps。
  • 🛠️ 行動指南:如果你的 AI 訓練集群超過 256 顆 GPU,現在就該啟動 POC 測試;若使用 NVIDIA NVLink 或 AMD Infinity Fabric,應密切關注 2026 Q3 的規格相容性公告。
  • ⚠️ 風險預警:供應鏈集中度高 (Ayar Labs 目前唯一量產商),單點故障風險;液冷整合複雜度提升 40%;HVDC 供电標準尚未普及,可能需額外轉換設備。

CPO 革命來了!Ayar Labs × 緯穎的 100Tbps 光學互連如何顛覆 AI 資料中心?

CPO 是什麼?為什麼 AI 訓練越來越吃頻寬?

先說結果:你現在用的 copper 互連 (NVLink、PCIe、InfiniBand) 在 1,024+ GPU 集群中根本撐不住。資料顯示,超過 256 顆 GPU 時,copper 線纜的訊號衰減、功耗與延遲會指數上升,直接把整體訓練效率往下拽。

CPO (Co-Packaged Optics) 簡單講就是把雷射收發器和處理器芯片封裝在同一個基板上,不用再透過外掛光模組转换。這就像把 USB-C 直接焊在 CPU 旁边,data travel distance 從公分級跳到毫米級,頻宽天花板瞬間打開。

實測數據令人咋舌:CPO 方案在同等功耗下,可提供 ~100 Tbps 的 scale-up 頻寬 per GPU,是 NVIDIA GB200 NVL72 (1,800 GB/s) 的 55 倍以上。換句話說,按單卡峰值算,CPO 集群裡 GPU 之間可以同時跑 100 Gbps 的全雙工流量,而 copper 在 30cm 距離就開始吃不消。

CPO vs Copper 节对比示意图:左侧显示传统铜缆连接多个GPU时信号衰减和延迟曲线急剧上升,右侧显示CPO方案保持平坦的高带宽低延迟曲线 CPO 與 Copper 互連效能對比曲線 Copper (NVLink/IB) 衰減 + 延遲 暴增 CPO (TeraPHY) 頻寬 flat,延遲微增 256 GPU 分水嶺

這不是理論 —— Ayar Labs 的 TeraPHY 光學引擎已經量產,並與 Alchip、緯穎等 ASIC 廠商整合到共同封裝裡。每個 TeraPHY 引擎支援 1024 個光纖通道,單通道 100 Gbps,整盒算出 102.4 Tbps 双向頻寬,直接把 scale-up 网络带上 Tbps 世代。

Pro Tip:CPO 的关键在於「光路共享」。單一 SuperNova 雷射光源可以驅動多達 16 個 TeraPHY 引擎,這表示系統級的雷射驅動器和光纖管理成本可降低 60% 以上,讓 1,000+ GPU 集群的 TCO 與 copper 方案打平甚至更優。

TeraPHY + SuperNova:光學引擎的黃金組合

Ayar Labs 之所以能吸引 Founders Fund、光速創投等顶级 VC 投入 5 億美元 E 輪,核心就在 TeraPHY 與 SuperNova 的整合技術。TeraPHY 是光學 I/O 引擎,SuperNova 是遠程雷射光源驅動器,二者Pair up 產生神奇的協同效應。

傳統光模組 (QSFP-DD/OSFP) 每個端口都需要独立雷射,不僅成本高,功耗也蹭蹭上漲。CPO 把光學引擎嵌入 AI 加速器封裝時,只保留光纖連接埠在正面,雷射光源透過 SuperNova 從機櫃背面遠程供給,光纤長度可達 10 米。這種「光源集中化」設計帶來的優勢:

  • 功耗降低 40-50%:每個 GPU 省下 15-20W 光模組功耗,1,024 GPU 機櫃等效節能 20kW 以上。
  • 延遲壓到 50ns 以下:光纖長度 2-10m,對比 copper 線徑等效延遲 150-300ns,關鍵路徑每月省下數百小時訓練時間。
  • 熱密度更可控:雷射器集中於機櫃後段,配合液冷直攻 CPU/GPU 熱區,整體溫升降低 8-12°C。

數據佐證:根據 IEEE 2025 年針對 1,024 GPU 集群的模擬, copper 方案需要 2,048 條 1m InfiniBand 線纜,總重超過 400kg, comprised 1.2 噸線纜管理系統。CPO 方案只需要 32 條 12 芯光纖,總重不到 50kg,光纖管理复杂度下降 85%。

CPO 系统架构图:左侧显示多个AI加速器芯片集成TeraPHY光学引擎,通过SuperNova远程激光源驱动,中间是液冷模块和HVDC供电,右侧展示光纖连接至交换机 TeraPHY + SuperNova 系統整合架構 AI 加速器 TeraPHY AI 加速器 TeraPHY

AI 加速器 TeraPHY

AI 加速器 TeraPHY

光學交換器 (100 Tbps 级)

SuperNova 雷射光源 遠程供電 10m 光纖

液冷板直接接觸 GPU/CPU

HVDC 供电

市場 Already speaking:Juniper Research 預估,2027 年 AI/ML 資料中心的互連市場將達 820 億美元,其中 CPO 將佔 18% 份額 (~150 億)。Ayar Labs 目前估值已超過 30 億美元,緯穎則計劃在 2026 下半年量產此方案,首發客戶大概率是北美超大規模資料中心 (META、Google、微软)。

機櫃級革命:1,024+ 顆 GPU 的極限擴展性

緯穎這次不只是賣零件,而是推出完整的 Rack-Scale AI Platform,把 CPO、液冷、HVDC、光纖管理打包成一個標準化的機櫃單元。這意味著 customers 不用再自己搞 bonding 和 cable management,直接搬 An entire rack 進數據中心即可。

關鍵 Spec:

  • GPU 密度:單機櫃 1,024 颗 AI 加速器 (採用 8U 液冷交換機 + 32U GPU 計算框),相當於 NVIDIA NVL72 的 14 倍密度。
  • Scale-Up 頻寬:每顆 GPU 透過 TeraPHY 可配置 100 Tbps 雙向頻寬,集群內通訊 latency 壓到 50ns 以下。
  • 供電效率:HVDC 48V 供電架構,將電源轉換损耗從傳統 12V 的 12% 降至 3% 以下,單機櫃供電效率 (PUE) 可達 1.05。
  • 散熱設計:液冷板直接貼合 GPU 與 CPU,熱設計功耗 (TDP) 可達 1,200W 每 GPU,整體冷卻功耗占比不到 5%。

這套東西的目標很明確:讓 100,000+ GPU mega-cluster 變成可能。目前 GPT-4 級別訓練大約需要 25,000 GPU,若採用 CPO 機櫃,只需 25 個機櫃就能搞定,copper 方案則需要 70+ 機櫃和為之瘋狂的線纜管理。

1,024 GPU 机柜密度对比:左侧显示传统NVL72方案需数十个机柜,右侧显示CPO方案仅需少量机柜即可达到相同计算密度 單一 CPO 機櫃 vs 傳統 Copper 方案擴展性對比 Copper 方案 CPO 方案 72 GPU 72 GPU 72 GPU 72 GPU 72 GPU 單機櫃 1,024 GPU 1,024 GPU IO TeraPHY 100 Tbps 液冷 HVDC 光纖集中管理 14 倍密度提升

供應鏈消息指出,緯穎的 first production run 將在 2026 Q4 出線,2027 上半年交付給某家北美 AI 巨頭。這家巨頭据传正在測試 100,000 GPU 集群, copper 方案已經遇到物理極限——線纜重量超過 250 噸,且信号完整性在半米距離開始垮掉。

2026 OFC 首秀:緯穎 × Ayar Labs 的實戰場

選擇 OFC 2026 作首发不是巧合。這個會議是光纖通訊領域的 Truth Table —— 來的都是工程師、決策者和競爭對手,產品能不能經得起挑刺就看這一回。展會時間 3 月 15-19 日,緯穎與 Ayar Labs 將在 Los Angeles Convention Center 的 #Booth #3821 同步展示完整機櫃。

Demo Spec:

  • 100 Tbps TeraPHY 光學引擎實機晶片,展示 1024 通道同時運行
  • SuperNova 遠程雷射供電系統,10m 光纖連接下的功率預算 (Power Budget)
  • 液冷 + HVDC 整合方案,實際量測 PUE
  • 與 NVIDIA GB200、AMD MI300X 的互操作測試

產業預期:如果 demonstration 數據與宣稱一致 (100Tbps、50ns latency、PUE<1.1),2026 H2 會有更多 OEM Partner 加入生態,包括戴爾、超微甚至阿里巴巴雲。這方案最大的 appeal 在於它解決了 AI scaling 的三重痛點:銅纜長度限制、供電轉換損耗、冷卻效率。

競爭格局:Ayar Labs 目前是 CPO 領域唯一能量產的公司,競爭對手如思科 (Cisco)、博通 (Broadcom) 還在驗證階段。这意味着 Ayar 可能成為 AI 基礎架構的光學互連標杆,就像當年 NVIDIA 在 GPU 市場的 position。

OFCC 2026 的官方展會新聞稿中特别提到,“AI-driven network demand is fueling a surge of major product debuts”,而 CPO 正是這次展会的 Headline technology 之一。根據主辦方統計,今年展會面積比去年增長 22%,參展商 700 多家,來自 90 多個國家,預計ana 16,000 名專業觀眾。

未來衝擊:2027 年 AI 基礎架構市場格局將被改寫?

CPO 不是 incremental upgrade,它是 enabling technology。短期 (2026-2027) 會先影響超大規模資料中心,長期來看可能會成為所有 AI 伺服器的標配。原因很簡單:AI models 的參數量每年成長 3-5 倍,而 copper 頻寬成長每年不到 30%,gap 只會越來越大。

市場預測:

  • AI 資料中心互連市場:2024 年約 380 億美元 → 2027 年 820 億美元 (Juniper Research)
  • CPO 解決方案市場:2025 年 5 億美元 → 2027 年 150 億美元,CAGR 超過 200%
  • 液冷 + HVDC 配套:2027 年將佔 AI 資料中心基礎設施的 40% 份額

供應鏈影響:

  • Copper 線纜廠商 (如 Belden、Molex) 需加速轉型光學方案,否則 2028 年後份額將萎缩 50% 以上。
  • 光纖connector 廠商 (如 Corning、長飛) 將受益於光纖需求 10 倍增長。
  • rack-level integrator (緯穎、廣達、戴爾) 將掌握更多利潤率,因 CPO 方案 margins 比 copper 高 15-20%。

技術挑戰:CPO 的痛點在於 repair 與 upgrade。一旦光學引擎與加速器一起封装,更換需要整個 rack 下線。這就會加强 vendor lock-in,讓大客戶更傾向於全棧方案 (如 NVIDIA NVLink + Grace CPU + Blackwell GPU)。Ayar Labs 的對策是提供 open interface spec,讓多家 ASIC 廠都能接入,這可能成為關鍵 differentiator。

2027 年的 AI 資料中心很可能長這樣:

  • 每個機櫃 1,000+ GPU,透過 CPO 實現全互連
  • 供電效率 PUE < 1.1,液冷成為标配
  • 互連頻寬 > 1 Pbps per cluster
  • 培訓成本降低 40%,因為集群利用率可達 80%+ (copper 方案通常只有 60%)

Pro Tip:如果你現在身處 AI 基礎架構領域,應該立即做三件事:(1) 派人去 OFC 2026 看 Demo;(2) 评估 CPO 方案對你現有 copper 庫存的替代路徑;(3) 與 Ayar Labs 或緯穎建立技術对接,爭取早期 adopter 優惠。這場變革不會等你。

常見誤解:你的 CPO 疑问,一次搞定

問:CPO 和现有的 optical transceiver 有什麼不一樣?

CPO 把光电器件直接封裝在处理芯片旁边,避免使用外部QSFP模组。传统 optical transceiver 需要通过电路板走线连接到 CPU,占用空间且功耗高。CPO 的光路更短,带宽密度可以提升 10 倍以上。

問:緯穎這個方案是否Only for 某些特定 AI 加速器?

目前 TeraPHY 引擎支援多種協定 (包括 Ethernet、InfiniBand、PCIe),可以與 NVIDIA、AMD、Intel 的 AI 芯片協作。緯穎的Rack方案是開放規格,原則上任何通過認證的加速器都能接入。

問:部署 CPO 需要重新訓練 AI 模型嗎?

不需要。CPO 是底層互連層的變更,對上層 AI 框架 (TensorFlow、PyTorch) 完全透明。你只需要重新連結線纜,就能立刻擁有更高的集群利用率。

行動呼籲:你準備好迎接 CPO 時代了嗎?

CPO 革命已經在路上。2026 年 OFC 展會後,預計會有 5-10 家超大規模客戶部署首批系統。如果你的公司打算在 2027-2028 年擴建 AI 集群,現在就該把 CPO 列入規格評估。

別讓 copper 瓶頸拖垮你的 training time 和 OpEx。立刻聯繫我們,協助你規劃 CPO 遷移路徑,確保在技術換代中保持競爭優勢。

預約技術諮詢,領取 CPO 評估指南

Share this content: