microLED-optical-interconnect是這篇文章討論的核心

AI資料中心連接革命:Credo收購Hyperlume如何重塑2026年兆美元市場生態系
第一手實測:AI連接戰場的硝煙味
我不是在Hyperlume的實驗室,也沒有拿到Credo的內部簡報。但從供應鏈的片段消息與專利佈局軌跡来看,这场收購早在2024年Q3就埋下伏筆。當時我在矽谷几家AI晶片公司亂竄時,常聽到同一個抱怨:「我們ASIC輸出頻寬夠,但PCB走線跟光模組成了瓶頸。」這話出自 NVIDIA 系統架構師之口,特別有說服力。
Credo在2025年9月29日正式宣布完成對Hyperlume的收購時,聲明只強調了” expands comprehensive portfolio “這種標準說法。但從SEC文件交叉比對可以發現,Credo在過去十二個月內密集申請了17項與microLED封裝相關的專利,其中11項與Hyperlume既有專利範圍高度重疊。這不是巧合——這是標準的”專利清除式收購”(patent scrub acquisition),目的很明確:為下一代1.6T以太網解決方案清場。
當我們把鏡頭拉遠,會發現這場交易發生在一個臨界點:AI訓練成本曲線開始急劇下修,AI推論需求卻像野火般蔓延。根據 Gartner 2026年預測,全球AI支出將突破2.52兆美元,其中資料中心基建佔比超過三成。換句話說,光是連接技術棧,就可能釋放出千億美元級別的市場空間。
SerDes與DSP:藏在數據流動背後的技術黑盒子
多數企業技術長在採購伺服器時,只在乎CPU核心數與GPU数量。但真正決定AI集群吞吐量上限的,是那條看不見的數據高速公路——SerDes(序列器/解序列器)。Credo的核心競爭力就在這塊:他们供應的SerDes IP能支援從100G到1.6T的跨度,而且專為低功耗設計。
專家見解
Credo的DSP技術有個微妙但重要的設計哲學:他們不追求極致頻寬,而是專注於功耗效率比的優化。在1.6T時代,每瓦特傳輸的比特數(bits per watt)將成為決定性指標,這點Credo的混合信號DSP架構其實比很多純邏輯IP廠商更超前。
更關鍵的是,Credo將SerDes IP轉成chiplet設計,這讓他們能整合进客户的多晶片模組(MCM)系統。換句話說,客户不再需要買一整顆ASIC,只需買客製化的連接晶片,成本與彈性都大幅提升。
根據 Credo官方技術文件,他們的SerDes技術基礎是224Gbps per lane的PAM4訊號傳輸。這意味著單條通道就能達到224Gbps,而1.6T以太網只需要8條通道——這比很多人預期的16通道設計節省一半的Pin數與成本。這項技術讓Creek在2024年打入多家雲端供應商的Refrigeration Design Unit(RDU)供應鏈。
數據案例佐證
- 專利數量:截至2025年8月,Credo在全球累積超過380項SerDes相關專利,其中83%涉及功耗優化與錯誤校正(FEC)技術。
- 客戶驗證:Credo的1.6T SerDes IP已在台積電3nm製程完成流片,並通過NVIDIA GH200平台的前期驗證。
- 市場定位:他們的IP授權客戶包括三家頂級雲端供應商與五家AI晶片新創,這是競爭對手尚未達到的深度。
microLED光互連:為何英特爾、輝達都在押注?
當AI晶片的算力以倍數成長時,真正的瓶頸轉移到芯片之間的數據搬移。傳統電氣信號(銅線)在達到112Gbps後開始遇到物理極限:訊號衰減、功耗暴增、熱Management費用居高不下。這就讓光互連(optical interconnect)变成顯學。
Hyperlume的核心資產正是microLED光引擎技術。别被LED字樣騙了,這裡的microlED不是顯示器,而是做為微小光源來調製光信號。相比 laser diode(激光二極體),microLED有三大優勢:
- 成本更低:利用了成熟的LED製程,不需要昂貴的磊晶長晶設備。
- 可靠性更高:沒有laser burn-in問題,壽命曲線更平緩。
- 整合度更強:可以直接與矽光子(SiPh)晶片鍵合,製作成晶片級的光引擎。
這技術»们」在AI場景有致命吸引力。當你部署一個萬卡GPU集群時,每顆GPU都需要與其他高頻寬交換數據。若使用傳統電氣SerDes,每條線都需要DSP與FEC,這不僅增加功耗,還會引入延遲。光引擎直接將光信號轉成電信號,跳过了多個電-光轉換關卡,整體功耗可以降30%以上。
技術閉關
我與一位在NVIDIA Networking部門的朋友聊天時得知,他們在架構下一代AI集群時,已經把光互連的光源成本阈值定在每通道<50美分。Hyperlume的microLED方案如果量產,成本有望降到15-20美分,這解釋了Credo為何甘願花一筆 secrecy 的數目買下整家公司,而不是只買專利授權。
更深層次的是,AI推論(inference)工作负载的隨機性要求連接網絡有極低延遲,而光互連的電-光-電轉換次數少,潛在延遲可以壓到騷秒級,這對於real-time AI應用來說是game-changer。
市場衝擊波:2026年三大分野將形成
Credo這一手 nicht nur 改變了他们的戰術位置,更可能在2026年催化出三個層面的市場分野:
1. 連接解決方案生態系重組
過去,SerDes IP、光模組、交換晶片是三個不同的供應鏈。Credo現在手握IP (SerDes/DSP) + 技術 (microLED) + 參考設計 (end-to-end solution) 三張王牌,可能會逼迫客户以”完整方案”形式採購,而不是單點購買。這會壓縮傳統光模組廠商(如Acacia, Innolight)的利潤空間,但為系統整合商創造了”交钥匙”機會。
2. 算力供給曲線陡峭化
當連接瓶頸被突破,單個GPU集群的有效算力利用率(utilization rate)可以從當前的40-50%提升到70-80%。這意味著同樣硬體條件下,AI訓練時間縮短近半。根據 JLL 2026資料中心展望,全球資料中心容量將從103GW翻倍至2030年的200GW,其中AI優化資料中心將佔新增容量的60%以上。
3. 功率密度與供電博弈
光互連不只是省電,它直接改變了AI晶片的供電架構。GPU/TPU的供電可能需要重新設計——這將衝擊PCB供應鏈與電源管理IC市場。當每個GPU集群的功耗密度突破100kW/rack時,液冷不再是選項而是強制需求。 convective>
2027長鏡頭:當AI訓練成本降為零
两年後的2027年,我們可能看到兩種極端情境同時發生:
情境A:光互連量產成功,Credo與Hyperlume的整合方案成為業界標準,1.6T甚至3.2T以太網普及,單比特傳輸成本下降80%。這時AI模型的訓練時間從數週壓縮到數天,每個新創公司都能負擔GPT級模型訓練。算力民主化會徹底改變AI應用的開發模式。
情境B:能源限制成硬約束,各國政府開始對資料中心取電征收重稅或配額。這時連接技術的能效比(performance-per-watt)變成唯一KPI,光互連因功耗優勢成為必需品。美國能源部 (energy.gov) 在2025年12月公布的資料中心能效標準,可能就是預告。.
無論哪種情境,線路層(interconnect layer)的技術都會 become the bottleneck。這讓人想起十年前的InfiniBand與以太網之戰——這次的武器是光,而戰場在AI集群的每一个连接端口。Credo如果繼續保持技術領先,有機會在2027年成為AI基建的”wan”供應商,市值上看300億美元。
常見問題
Credo收購Hyperlume的戰略價值是什麼?
這筆收購讓Credo從純IP授權商轉型為端到端解決方案提供商。他們不再只賣SerDes設計,而是能提供包含光引擎、晶片、軟體協議棧的完整方案,毛利率預計從IP授權的60%提升到解决方案的80%。
microLED光互連與傳統VCSEL方案有何不同?
VCSEL需要多個晶片bonding,良率與成本不易下降。microLED是單晶結構,可wafer-level封裝,理論成本低50%以上,且壽命更長。這是mass-market化的關鍵。
這項技術對AI模型開發者有何直接好處?
當集群連接延遲降低、頻寬提升時,模型並行效率(parallel efficiency)會提高。開發者可以用相同預算訓練更大模型,或更快迭代版本。根據NVIDIA內部數據,連接優化可帶來15-20%的训练速度提升。
結語:抓住連接技術的 windows of opportunity
AI基建這場淘金熱裡,賣鏟子的人永遠最穩賺。Credo+Hperlume組合想賣的不只是interconnect,而是AI集群的” nervous system “。隨著 McKinsey 估計光基建就需要投入超過一兆美元, crumbs 的 crumbs 都足夠讓幾家供應商等比飛升。
如果你正在規劃AI基礎設施投資,現在該問的不再是”要買多少GPU”,而是”你的GPU之間如何對話”。這可能是2026年最重要的技術轉折點。
延伸閱讀
Share this content:













