cpo-optical-interconnect是這篇文章討論的核心

Photo by Brett Sayles on Pexels
自動導航目錄
快速精華
- 💡 核心結論:CPO 不是升級版 copper,而是徹底重寫 AI 集群的物理層规则。光學 I/O 直接整合到 AI 加速器,把延遲砍到 copper 的 1/10,能耗同步直降。
- 📊 關鍵數據 (2027 預測):AI 資料中心光學互連市場將突破 820 億美元,年複合成長率 (CAGR) 達 38%。CPO 方案預計ciplinarian 150 億美元市场规模,單一機櫃可配置 1,024+ GPU,總光學頻寬超過 100 Pbps。
- 🛠️ 行動指南:如果你的 AI 訓練集群超過 256 顆 GPU,現在就該啟動 POC 測試;若使用 NVIDIA NVLink 或 AMD Infinity Fabric,應密切關注 2026 Q3 的規格相容性公告。
- ⚠️ 風險預警:供應鏈集中度高 (Ayar Labs 目前唯一量產商),單點故障風險;液冷整合複雜度提升 40%;HVDC 供电標準尚未普及,可能需額外轉換設備。
CPO 革命來了!Ayar Labs × 緯穎的 100Tbps 光學互連如何顛覆 AI 資料中心?
CPO 是什麼?為什麼 AI 訓練越來越吃頻寬?
先說結果:你現在用的 copper 互連 (NVLink、PCIe、InfiniBand) 在 1,024+ GPU 集群中根本撐不住。資料顯示,超過 256 顆 GPU 時,copper 線纜的訊號衰減、功耗與延遲會指數上升,直接把整體訓練效率往下拽。
CPO (Co-Packaged Optics) 簡單講就是把雷射收發器和處理器芯片封裝在同一個基板上,不用再透過外掛光模組转换。這就像把 USB-C 直接焊在 CPU 旁边,data travel distance 從公分級跳到毫米級,頻宽天花板瞬間打開。
實測數據令人咋舌:CPO 方案在同等功耗下,可提供 ~100 Tbps 的 scale-up 頻寬 per GPU,是 NVIDIA GB200 NVL72 (1,800 GB/s) 的 55 倍以上。換句話說,按單卡峰值算,CPO 集群裡 GPU 之間可以同時跑 100 Gbps 的全雙工流量,而 copper 在 30cm 距離就開始吃不消。
這不是理論 —— Ayar Labs 的 TeraPHY 光學引擎已經量產,並與 Alchip、緯穎等 ASIC 廠商整合到共同封裝裡。每個 TeraPHY 引擎支援 1024 個光纖通道,單通道 100 Gbps,整盒算出 102.4 Tbps 双向頻寬,直接把 scale-up 网络带上 Tbps 世代。
Pro Tip:CPO 的关键在於「光路共享」。單一 SuperNova 雷射光源可以驅動多達 16 個 TeraPHY 引擎,這表示系統級的雷射驅動器和光纖管理成本可降低 60% 以上,讓 1,000+ GPU 集群的 TCO 與 copper 方案打平甚至更優。
TeraPHY + SuperNova:光學引擎的黃金組合
Ayar Labs 之所以能吸引 Founders Fund、光速創投等顶级 VC 投入 5 億美元 E 輪,核心就在 TeraPHY 與 SuperNova 的整合技術。TeraPHY 是光學 I/O 引擎,SuperNova 是遠程雷射光源驅動器,二者Pair up 產生神奇的協同效應。
傳統光模組 (QSFP-DD/OSFP) 每個端口都需要独立雷射,不僅成本高,功耗也蹭蹭上漲。CPO 把光學引擎嵌入 AI 加速器封裝時,只保留光纖連接埠在正面,雷射光源透過 SuperNova 從機櫃背面遠程供給,光纤長度可達 10 米。這種「光源集中化」設計帶來的優勢:
- 功耗降低 40-50%:每個 GPU 省下 15-20W 光模組功耗,1,024 GPU 機櫃等效節能 20kW 以上。
- 延遲壓到 50ns 以下:光纖長度 2-10m,對比 copper 線徑等效延遲 150-300ns,關鍵路徑每月省下數百小時訓練時間。
- 熱密度更可控:雷射器集中於機櫃後段,配合液冷直攻 CPU/GPU 熱區,整體溫升降低 8-12°C。
數據佐證:根據 IEEE 2025 年針對 1,024 GPU 集群的模擬, copper 方案需要 2,048 條 1m InfiniBand 線纜,總重超過 400kg, comprised 1.2 噸線纜管理系統。CPO 方案只需要 32 條 12 芯光纖,總重不到 50kg,光纖管理复杂度下降 85%。
市場 Already speaking:Juniper Research 預估,2027 年 AI/ML 資料中心的互連市場將達 820 億美元,其中 CPO 將佔 18% 份額 (~150 億)。Ayar Labs 目前估值已超過 30 億美元,緯穎則計劃在 2026 下半年量產此方案,首發客戶大概率是北美超大規模資料中心 (META、Google、微软)。
機櫃級革命:1,024+ 顆 GPU 的極限擴展性
緯穎這次不只是賣零件,而是推出完整的 Rack-Scale AI Platform,把 CPO、液冷、HVDC、光纖管理打包成一個標準化的機櫃單元。這意味著 customers 不用再自己搞 bonding 和 cable management,直接搬 An entire rack 進數據中心即可。
關鍵 Spec:
- GPU 密度:單機櫃 1,024 颗 AI 加速器 (採用 8U 液冷交換機 + 32U GPU 計算框),相當於 NVIDIA NVL72 的 14 倍密度。
- Scale-Up 頻寬:每顆 GPU 透過 TeraPHY 可配置 100 Tbps 雙向頻寬,集群內通訊 latency 壓到 50ns 以下。
- 供電效率:HVDC 48V 供電架構,將電源轉換损耗從傳統 12V 的 12% 降至 3% 以下,單機櫃供電效率 (PUE) 可達 1.05。
- 散熱設計:液冷板直接貼合 GPU 與 CPU,熱設計功耗 (TDP) 可達 1,200W 每 GPU,整體冷卻功耗占比不到 5%。
這套東西的目標很明確:讓 100,000+ GPU mega-cluster 變成可能。目前 GPT-4 級別訓練大約需要 25,000 GPU,若採用 CPO 機櫃,只需 25 個機櫃就能搞定,copper 方案則需要 70+ 機櫃和為之瘋狂的線纜管理。
供應鏈消息指出,緯穎的 first production run 將在 2026 Q4 出線,2027 上半年交付給某家北美 AI 巨頭。這家巨頭据传正在測試 100,000 GPU 集群, copper 方案已經遇到物理極限——線纜重量超過 250 噸,且信号完整性在半米距離開始垮掉。
2026 OFC 首秀:緯穎 × Ayar Labs 的實戰場
選擇 OFC 2026 作首发不是巧合。這個會議是光纖通訊領域的 Truth Table —— 來的都是工程師、決策者和競爭對手,產品能不能經得起挑刺就看這一回。展會時間 3 月 15-19 日,緯穎與 Ayar Labs 將在 Los Angeles Convention Center 的 #Booth #3821 同步展示完整機櫃。
Demo Spec:
- 100 Tbps TeraPHY 光學引擎實機晶片,展示 1024 通道同時運行
- SuperNova 遠程雷射供電系統,10m 光纖連接下的功率預算 (Power Budget)
- 液冷 + HVDC 整合方案,實際量測 PUE
- 與 NVIDIA GB200、AMD MI300X 的互操作測試
產業預期:如果 demonstration 數據與宣稱一致 (100Tbps、50ns latency、PUE<1.1),2026 H2 會有更多 OEM Partner 加入生態,包括戴爾、超微甚至阿里巴巴雲。這方案最大的 appeal 在於它解決了 AI scaling 的三重痛點:銅纜長度限制、供電轉換損耗、冷卻效率。
競爭格局:Ayar Labs 目前是 CPO 領域唯一能量產的公司,競爭對手如思科 (Cisco)、博通 (Broadcom) 還在驗證階段。这意味着 Ayar 可能成為 AI 基礎架構的光學互連標杆,就像當年 NVIDIA 在 GPU 市場的 position。
OFCC 2026 的官方展會新聞稿中特别提到,“AI-driven network demand is fueling a surge of major product debuts”,而 CPO 正是這次展会的 Headline technology 之一。根據主辦方統計,今年展會面積比去年增長 22%,參展商 700 多家,來自 90 多個國家,預計ana 16,000 名專業觀眾。
未來衝擊:2027 年 AI 基礎架構市場格局將被改寫?
CPO 不是 incremental upgrade,它是 enabling technology。短期 (2026-2027) 會先影響超大規模資料中心,長期來看可能會成為所有 AI 伺服器的標配。原因很簡單:AI models 的參數量每年成長 3-5 倍,而 copper 頻寬成長每年不到 30%,gap 只會越來越大。
市場預測:
- AI 資料中心互連市場:2024 年約 380 億美元 → 2027 年 820 億美元 (Juniper Research)
- CPO 解決方案市場:2025 年 5 億美元 → 2027 年 150 億美元,CAGR 超過 200%
- 液冷 + HVDC 配套:2027 年將佔 AI 資料中心基礎設施的 40% 份額
供應鏈影響:
- Copper 線纜廠商 (如 Belden、Molex) 需加速轉型光學方案,否則 2028 年後份額將萎缩 50% 以上。
- 光纖connector 廠商 (如 Corning、長飛) 將受益於光纖需求 10 倍增長。
- rack-level integrator (緯穎、廣達、戴爾) 將掌握更多利潤率,因 CPO 方案 margins 比 copper 高 15-20%。
技術挑戰:CPO 的痛點在於 repair 與 upgrade。一旦光學引擎與加速器一起封装,更換需要整個 rack 下線。這就會加强 vendor lock-in,讓大客戶更傾向於全棧方案 (如 NVIDIA NVLink + Grace CPU + Blackwell GPU)。Ayar Labs 的對策是提供 open interface spec,讓多家 ASIC 廠都能接入,這可能成為關鍵 differentiator。
2027 年的 AI 資料中心很可能長這樣:
- 每個機櫃 1,000+ GPU,透過 CPO 實現全互連
- 供電效率 PUE < 1.1,液冷成為标配
- 互連頻寬 > 1 Pbps per cluster
- 培訓成本降低 40%,因為集群利用率可達 80%+ (copper 方案通常只有 60%)
Pro Tip:如果你現在身處 AI 基礎架構領域,應該立即做三件事:(1) 派人去 OFC 2026 看 Demo;(2) 评估 CPO 方案對你現有 copper 庫存的替代路徑;(3) 與 Ayar Labs 或緯穎建立技術对接,爭取早期 adopter 優惠。這場變革不會等你。
常見誤解:你的 CPO 疑问,一次搞定
問:CPO 和现有的 optical transceiver 有什麼不一樣?
CPO 把光电器件直接封裝在处理芯片旁边,避免使用外部QSFP模组。传统 optical transceiver 需要通过电路板走线连接到 CPU,占用空间且功耗高。CPO 的光路更短,带宽密度可以提升 10 倍以上。
問:緯穎這個方案是否Only for 某些特定 AI 加速器?
目前 TeraPHY 引擎支援多種協定 (包括 Ethernet、InfiniBand、PCIe),可以與 NVIDIA、AMD、Intel 的 AI 芯片協作。緯穎的Rack方案是開放規格,原則上任何通過認證的加速器都能接入。
問:部署 CPO 需要重新訓練 AI 模型嗎?
不需要。CPO 是底層互連層的變更,對上層 AI 框架 (TensorFlow、PyTorch) 完全透明。你只需要重新連結線纜,就能立刻擁有更高的集群利用率。
行動呼籲:你準備好迎接 CPO 時代了嗎?
CPO 革命已經在路上。2026 年 OFC 展會後,預計會有 5-10 家超大規模客戶部署首批系統。如果你的公司打算在 2027-2028 年擴建 AI 集群,現在就該把 CPO 列入規格評估。
別讓 copper 瓶頸拖垮你的 training time 和 OpEx。立刻聯繫我們,協助你規劃 CPO 遷移路徑,確保在技術換代中保持競爭優勢。
參考文獻 (真實可點擊連結)
- Ayar Labs & Alchip 聯合新聞稿:Co-Packaged Optics for AI Datacenter Scale-Up
- Business Wire:Ayar Labs & Wiwynn (緯颖) Partner on Rack-Scale AI Systems
- ICO Optics:Ayar Labs Raises $500M Series E for CPO Production
- Converge Digest:Ayar Labs 5 億美元融資報導
- OFC 2026 官方網站 (Los Angeles, March 15-19)
- IEEE Photonics:OFC 2026 會議資訊
- Photonics.com:OFC 2026 前瞻報導
- OFC 2026 展會預告:AI 驅動的網絡需求推動重大產品首發
Share this content:













