AI 互連技術路線是這篇文章討論的核心




黃仁勳 GTC 2026 一錘定音:銅線不死、CPO 登場,AI 資料中心互連技術路線全解析
AI 資料中心的運算核心:NVLink 高速互連架構支撑著每秒數百 PB 的資料吞吐量(圖片來源:Pexels)

⚡ 快速精華 Key Takeaways

  • 💡 核心結論:NVIDIA CEO 黃仁勳在 GTC 2026 明確表態——銅線互連在機櫃內部的優勢地位將維持至 2027 年以後,矽光子 CPO 技術則鎖定機櫃間的 Scale-out 場景,兩者並非取代關係而是分工協作。
  • 📊 關鍵數據:全球 AI 支出預計 2026 年達 2.52 兆美元(Gartner),AI 資料中心市場規模 2034 年將突破 1.98 兆美元(Global Market Insights),Kyber 機櫃架構可容納高達 144 顆 GPU 於單一 NVLink 域。
  • 🛠️ 行動指南:投資人應重新評估光通訊供應鏈的短期估值預期,資料中心營運商需優先升級銅纜背板與散熱系統,硬體工程師應關注 NVLink 5 與 CPO 整合方案。
  • ⚠️ 風險預警:CPO 技術大規模量產時程仍存在不確定性,矽光子封裝良率與成本結構尚待驗證,過度押注單一技術路線可能面臨供應鏈錯配風險。

引言:GTC 2026 現場直擊與技術路線定調

聖荷西 SAP Center 的聚光燈再次聚焦在那個穿著招牌黑色皮衣的身影上。2026 年 3 月,NVIDIA GTC 大會迎來了創辦以來最關鍵的一場主題演講——不只因為黃仁勳揭曉了代號「Feynman」的新一代 GPU 架構與「Kyber」機櫃系統,更因為這位「AI 產業教父」對產業界爭論已久的問題給出了明確答案:銅線與光纖,誰才是 AI 資料中心的未來?

答案出乎許多分析師預料。「矽光子封裝技術還需要幾年才能成熟,」黃仁勳在台上直言,「在這之前,我們應該把銅線技術用到極致。」這番話讓場內不少光通訊類股投資人眉頭一皺——但真相遠比表面複雜。NVIDIA 的策略並非「二選一」,而是精準切割應用場景:機櫃內部持續押注銅線,機櫃之間則導入 CPO(Co-Packaged Optics,共封裝光學)技術。

這不是技術保守主義的勝利,而是工程現實主義的展現。當一張 GPU 叢集訂單金額動輒突破數億美元、交付周期拉長到 12 個月以上,穩定性與成熟度往往比「技術先進」更重要。讓我們深入拆解這場技術路線大辯論的來龍去脈。

Feynman 與 Kyber 架構:NVIDIA 的下一個運算十年

GTC 2026 的核心硬體發布圍繞兩個代號展開:Vera Rubin 平台與 Feynman 架構。前者是 2026 下半年量產的數據中心 GPU,後者則是預定 2028 年登場的下一代架構,採用台積電 1.6nm 製程,電晶體數量預計突破 500 億顆大關。

但真正改變遊戲規則的是 Kyber 機櫃架構。這套繼 Oberon 之後的新一代機櫃設計,將 NVLink 域的容量翻倍——單一機櫃可容納 144 顆 GPU,透過全新的垂直插入式背板設計,實現前所未有的叢集密度。根據 NVIDIA 官方技術文件,Kyber 還引入了 800V 直流電架構,將機櫃功率密度推向 1MW 大關。

NVIDIA Kyber 機櫃架構示意圖:銅線與 CPO 混合互連方案 圖表展示 Kyber 機櫃內部 144 GPU NVLink 域的銅線互連架構,以及機櫃間採用 CPO 技術的 Scale-out 連接方案。銅線負責短距離高速傳輸,CPO 負責長距離光訊號轉換。 Kyber 機櫃 A GPU Cluster (NVLink Domain) 銅線背板 (Copper Backplane) Kyber 機櫃 B GPU Cluster (NVLink Domain) 銅線背板 (Copper Backplane) CPO 光互連模組 Co-Packaged Optics 機櫃間 Scale-out 連接 銅線互連 (機櫃內) CPO 光互連 (機櫃間) GPU 運算節點

🔍 Pro Tip 專家見解

Kyber 的核心創新不在於「更多 GPU」,而在於重新定義機櫃內部的拓撲架構。傳統的「平躺式」主機板設計會隨著 GPU 數量增加而讓 PCB 面積呈指數膨脹,Kyber 改用「垂直插入式」背板,讓 144 顆 GPU 在物理空間上緊湊排列,同時保持銅線傳輸路徑在 2 公尺以內——這是維持訊號完整性的臨界距離。

換句話說,NVIDIA 用機械設計解決了電氣問題,這也是為什麼銅線能持續支撐更大規模的叢集。

值得關注的是,Kyber 並非完全摒棄光學技術。根據富途牛牛報導,黃仁勳在 GTC 2026 明確表示 Kyber 機櫃將混合採用 CPO 與銅線互連以實現 Scale-up 擴展。這意味著 NVIDIA 的策略是「光銅並用」而非「二選一」,具體分配則取決於傳輸距離與功耗預算。

銅線 vs 光纖:為什麼黃仁勳說「銅線還能打好幾年」?

在 AI 運算需求每六個月翻倍的背景下,為什麼 NVIDIA 仍選擇在機櫃內部堅守銅線?這不是技術倒退,而是功耗、成本與可靠度的三角平衡

功耗黑洞:光訊號轉換(電→光→電)需要雷射驅動器、調變器與光檢測器,每一個環節都在消耗能量。根據 Marvell 的技術白皮書,每 bit 資料透過 CPO 傳輸的功耗約為 1-2 pJ/bit,而高速銅纜(如 NVLink 5)可壓到 0.5 pJ/bit 以下。當你的 GPU 叢集每秒吞吐 100 PB 資料,這個差距會放大成兆瓦級別的電費差異

成本結構:矽光子晶片的製造需要專用產線,良率目前仍低於標準 CMOS 製程。Cignal AI 的市場報告指出,CPO 的大規模部署預計要等到 2027-2029 年,主要原因就是封裝複雜度與成本尚未達到商業化甜蜜點。對比之下,高階銅纜的供應鏈已經成熟,價格曲線趨於平緩。

可靠度與維護:光纖接頭對灰塵、震動與溫度變化極為敏感,一個微米級的汙染就可能導致訊號衰減。銅纜則相對「粗勇」,適合資料中心那種每年數萬次插拔的運維節奏。ServeTheHome 的分析提到,NVIDIA 新的背板設計讓更多矽晶片能透過銅線連接在同一機櫃內,「省電又可靠」

銅線與 CPO 技術特性對比圖表 比較銅線互連與 CPO 光互連在功耗、成本、傳輸距離與成熟度四個維度的差異。 銅線 vs CPO 技術特性對比 功耗效率 成本優勢 傳輸距離 技術成熟度 銅線:0.5 pJ/bit 銅線:供應鏈成熟,成本低 銅線:<2m 銅線:高度成熟,良率穩定 CPO:1-2 pJ/bit CPO:封裝成本高 CPO:可達數百公尺 CPO:2027-2029 商業化 CPO:發展中 銅線互連 (短距離、低成本) CPO 光互連 (長距離、高頻寬)

當然,銅線不是沒有短板。隨著頻寬需求持續攀升,銅纜的有效傳輸距離會縮短——網路頻寬每兩三年翻倍,銅線的「安全距離」就得跟著壓縮。這也是為什麼 NVIDIA 必須在機櫃設計上持續創新,用更短的路徑換取更高的傳輸效能。

CPO 技術戰略定位:機櫃間互連的破局點

如果銅線這麼好用,為什麼 NVIDIA 還要投入 CPO 研發?答案很簡單:銅線的物理極限就在那裡,而 AI 叢集的規模還在指數增長

當你需要把多個 Kyber 機櫃串接成「AI 工廠」,機櫃間的距離動輒數十公尺甚至上百公尺。這時候銅線的衰減問題就無法忽視——訊號品質下降、功耗攀升、線材體積爆炸。CPO 正是為了Scale-out 場景而生的解決方案。

根據 Optica 報導,NVIDIA 在 GTC 2025 就已經發布了採用矽光子技術的 Spectrum-X 與 Quantum-X 網路交換平台,目標是「連接數百萬顆 GPU」。CPO 的核心優勢在於將光學引擎與交換晶片封裝在同一基板上,大幅縮短電光轉換路徑,實現超低能耗的長距離傳輸

🔍 Pro Tip 專家見解

CPO 的真正價值不在於「取代銅線」,而在於讓 AI 叢集的拓撲架構獲得設計彈性。傳統上,資料中心規劃師必須在「叢集規模」與「傳輸延遲」之間做取捨——更大的叢集意味著更長的纜線、更高的延遲。CPO 讓這個等式重新改寫,光訊號在光纖中的傳播速度接近真空中光速,且不受電磁干擾影響,延遲表現更可預測

不過,CPO 的商業化路徑仍有挑戰。Yole Group 的產業分析指出,矽光子異質整合(SiPh + TFLN / III-V 平台)的封裝良率目前仍落後標準半導體製程。這也是為什麼業界普遍預測 CPO 的大規模部署會落在 2027 年以後

市場震盪與產業鏈重組:誰贏誰輸還不好說

GTC 2026 的訊息發布後,資本市場的反應堪稱「冰火兩重天」。與光纖相關的概念股應聲下跌,而銅纜供應商與高階連接器廠商則逆勢上揚。但這種短期波動真的反映了產業基本面嗎?

細看數據會發現更細膩的圖景。LightCounting 的市場預測指出,乙太網路光收發模組(包括 LPO 與 CPO)的銷售額將在 2030 年前持續成長,年複合成長率約 20-30%。換句話說,「銅線稱王」不等於「光學已死」——兩個市場都在擴張,只是應用場景分流。

對投資人而言,關鍵問題是:你的標的公司在哪一個應用層級?

  • 機櫃內互連(Scale-up):銅纜、背板連接器、高速 PCB 材料供應商將持續受惠於 NVIDIA Kyber 架構的放量。
  • 機櫃間互連(Scale-out):CPO、矽光子晶片、光纖模組廠商的成長曲線會在 2027 年後加速。
  • 終端應用:雲端服務商(AWS、Azure、GCP)與 AI 新創公司將持續採購兩類技術的混合方案。

根據 Gartner 預測,全球 AI 支出將在 2026 年達到 2.52 兆美元,年增率 44%。麥肯錫更指出,到 2030 年全球資料中心需要 6.7 兆美元 的投資才能滿足需求。這不是一個「零和遊戲」,而是一個技術分工協作的兆美元市場。

2027 年以後:銅光共存的漸進式演進

回頭看 NVIDIA 的技術路線圖,從 Blackwell(2024-2025)→ Vera Rubin(2026-2027)→ Feynman(2028),架構迭代週期正在壓縮。這意味著互連技術的演進也必須加速

ByteIota 的分析指出,Feynman 架構預計採用台積電 1.6nm 製程,電晶體密度將比 Hopper 提升 4 倍以上。更高的運算密度意味著更嚴峻的互連挑戰——更多資料、更短時間、更有限空間。這時候,單一技術方案很再獨撐大局。

我們可以預期以下發展軌跡:

  1. 2026-2027:Kyber 機櫃量產,銅線背板主導機櫃內互連,CPO 開始在頂級 AI 叢集中試點。
  2. 2027-2028:CPO 技術成熟度提升,成本曲線下降,開始滲透主流資料中心。
  3. 2028-2030:Feynman 架構登場,銅線與 CPO 的混合方案成為標準配置,應用邊界更清晰。
  4. 2030+:光運算(Optical Computing)與光互連進一步整合,但銅線在短距離場景仍有成本優勢。

🔍 Pro Tip 專家見解

別被「銅線 vs 光纖」的二元對立誤導。真正的產業趨勢是「異質整合」——銅線、光纖、無線傳輸各司其職,根據傳輸距離、功耗預算與可靠性需求動態配置。NVIDIA 的 Kyber 架構正是這個理念的具體實踐,「光銅並用」才是 AI 基礎建設的未來

對於工程師與架構師而言,現在是重新學習互連技術的關鍵時刻。NVLink 5 的訊號完整性設計、CPO 模組的熱管理策略、背板佈線的 EMI 抑制技巧——這些都將成為下一個十年的核心競爭力。

常見問題 FAQ

Q1:為什麼 NVIDIA 不直接全部改用光纖互連?

A:光纖互連在短距離(<2 公尺)場景的功耗與成本都高於銅線。NVIDIA 的策略是讓每種技術在它最擅長的距離區間發揮價值——銅線負責機櫃內的高速傳輸,CPO 負責機櫃間的長距離連接。這種分工模式能最大化整體系統的效能與成本效益。

Q2:CPO 技術何時會成為 AI 資料中心的標準配置?

A:根據 Cignal AI 與產業報告,CPO 的規模部署預計在 2027-2029 年間啟動,主要障礙在於封裝良率與成本結構。NVIDIA 已在 GTC 2025 發布採用 CPO 的交換平台,但大規模商用仍需等待供應鏈成熟。

Q3:投資人應如何調整 AI 基礎建設相關的投資組合?

A:建議採取「雙軌策略」——短期布局銅纜、連接器與高速 PCB 材料供應鏈(受惠於 Kyber 架構放量),中期關注矽光子晶片與 CPO 模組廠商的技術突破。避免過度集中單一技術路線,因為「銅光共存」將是未來 5-7 年的主流態勢。

參考資料與延伸閱讀

本文數據與技術資訊來自 NVIDIA GTC 2026 官方發布、Gartner、McKinsey、LightCounting 等權威機構報告,並結合產業分析師觀點進行解讀。市場預測存在不確定性,投資決策請參考多方資訊來源。

Share this content: