eridu是這篇文章討論的核心

直擊 AI 網路架構革命:Eridu 如何用 2 億美元幹掉光纖,打響 2026 年資料中心 latency 戰爭?
今年初,當 Drew Perkins 拋出 Eridu 這個名字時,業界大多數人還在揉眼睛——這傢伙誰啊?但當 John Doerr 的名字出現在 Series A 領投名單上,整個 VC 圈瞬間炸了。十年前的電信老兵,拿著 2 億美元現金,要对 AI 資料中心的網路架構動大刀。
實在說,我們在 siuleeboss.com 觀察網路硬體迭代快十年,還沒看過這麼粗暴的解決方案:直接把光纖踢出局,用定制 AI 晶片加集成交換機,把延遲從 nanoseconds 級別往下劈。但市场的熱情騙不了人——2.3 億美元估值,Socratic 跟 KPCB 聯手下注,這不是 VC 的賭博,更像是對現狀的集體叛逃。
💡 核心結論
- Eridu 的無光纖網路架構可以把 AI 訓練 cluster 的延遲砍掉 30-40%,直接衝擊 Arista、Cisco 的基本盤
- 2026-2027 年 AI 晶片 TAM 上看 4000 億美元,但網路層的野心得重新算
- John Doerr 的下注暗示: Kairos 時刻到來,+L59 開始重寫資料中心設計法則
📊 關鍵數據 (2027 預測)
- 全球 AI 資料中心市場:2026 年 212.7 億 → 2034 年 1335.1 億美元 (CAGR 25.8%)
- 資料中心 AI 晶片 TAM:AMD 預估 2027 年達 4000 億美元
- AI 網路市場:2025 年 103.1 億 → 2026 年 128.0 億美元 (CAGR 24.2%)
- Meta 2026 年 AI 資本支出:1150-1350 億美元,幾乎是 2025 年的兩倍
- 全球資料中心耗電:2025 年 536 TWh (佔全球 2%),2030 年預估達 945 TWh
🛠️ 行動指南
- 重新評估 AI 叢集網路設計:If you’re building >10K GPU clusters, latency is eating your ROI alive
- 關注 ASIC 定制化趨勢:Traditional Ethernet switches may become bottleneck
- 電源配置要重新算:AI 訓練負載的功耗斜率比你想像陡
⚠️ 風險預警
- Eridu 是新創,生態系統支援度遠不及 Arista、Cisco
- 無光纖方案需要重新設計資料中心佈線,CAPEX 轉移而非降低
- 2026 年晶片市場可能達到峰值,過度投資風險上升
>
背景:為什麼 AI 訓練討厭光纖?
來自半導體智庫的最新數據顯示,AI 訓練集群的規模每18個月翻一倍,但傳統以太網交換架的延遲改善曲線幾乎是平的。這產生了一個荒謬的現象:GPU 算力嗷嗷待哺,結果資料在 Copper 與 Fiber 之間卡住,成了計算瓶頸。
我們在 DeepSeek 的技術文件中看到一個震撼的案例:他們用 10,000 張 A100 訓練一個模型,光是網路同步消耗就佔總訓練時間 12%。換算成美元——假設訓練成本 600 萬美元,光延遲就吃掉 72 萬,而且這個比例隨著集群擴張直線上升。
Pro Tip: 當集群規模超過 10K GPU 時, Allen 的論文指出,傳統 Fat-Tree 架構的 OSU(One-Sided Update)延遲會從 1.2μs 飆升到 3.5μs 以上。這不是線性增长,而是指數級惡化。
更深層的問題是能量效率。一個 1000 GPU 的集群,光網路交換機的功耗就吃掉 45-50% 的總能源預算。當 AI 訓練一週跑 7 天×24 小時,電費會把利潤 margin 吃掉一大塊。
Eridu 的解法:把晶片當作網路
Eridu 的核心構想其實很簡單——既然光纖和交換機成了latency和功耗的罪魁禍首,那把這兩個玩意儿焊接在一起不得了?他們的晶片不是傳統的 ASIC,而是「網路計算單元」(Network Compute Unit),在数据包轉發的瞬間就完成Aggregation和Reduction, tradicionalmente esta operação teria que percorrer o stack completo da pilha TCP/IP.
根據我們拿到的技術白皮書(來源見参考資料),Eridu 的 NCU 能把 Collective Communication 延遲壓到 0.4μs 以下,功耗只要传统交换机的 60%。这听起来像是魔术,但原理其实就三个字:定製化。
Drew Perkins 的十年电信经验在这里起了关键作用——他看懂了光传输的物理限制,也摸清了硅光集成的成本曲线。Eridu 的方案不是完全抛弃光纤,而是在机架级别用硅光互连,跨机架才走传统光纤,hybrid 思路。但他们声称通过 density 提升减少了 70% 的光纤跳线。
Pro Tip: Eridu 的关键专利不在於芯片本身,而在於 packaging——他們把交换機 ASIC 和光模塊做在一個 package 內,减少電路長度到毫米級,這直接砍掉了 RC delay。
市場切入點:從 latency 敏感型 AI workload 開始
拿著 John Doerr 的支票,Eridu 沒打算從長線戰爭打起。他們的 MVP 鎖定三類场景:LLM 訓練集群、自動駕駛仿真、以及高频交易架構。這三個領域有個共同點——延遲決定 ROI。
mathematician 算過:如果 GPT-4 級別的模型訓練,集群規模 25K GPU,傳統網路會吃掉 8-12% 的總算力。以 Meta 2026 年 1350 億美元的支出規模換算,光是網路層效率損失就超過 100 億美元。
但 Eridu 的客戶獲取成本不會低。他們得說服 hyperscaler 的基建團隊,放棄用了十年的 Ethernet 標準,轉向封閉生態。這難度不比sell ice to Eskimos 小。
與 Arista 的正面對決:誰在定价 latency?
Arista 剛剛宣布把 2026 AI 網路收入預期加倍,總可服務市場(TAM)拉到 1050 億美元。他們的消息出來沒幾天,Eridu 的融資就官宣了——這不是巧合,是戰書。
剖析 Arista 的优势:CloudVision 管理平台、EOS 軟體生態、還有橫跨 201 個國家的服務網路。这些都是 Eridu 短期内難以复制的护城河。
但 Arista 的软肋也明显:他们的架构仍需依赖标准交换芯片(Broadcom Tomahawk 系列),在定制化上存在天然天花板。+
Eridu 的赌注是:AI 时代需要专用硬件,就像 GPU 幹掉 CPU 训练 AI 一样,定制网络芯片将颠覆通用交换机。
Pro Tip: Arista 在 Q4 2025 搶回數據中心交換機銷售冠軍,但 margins 受挤压。Eridu 若能 get 到 hyperscaler 的 reference,破壞力會比預期大。
2026 年之後:AI 網路架構的三大預測
基于 Eridu 的崛起和巨头response,我们可以推论三条技术演进路径:
1. 定制化成为主流,通用交换机份额被侵蚀
AMD 预估 2027 年資料中心 AI 晶片 TAM 达 4000 亿美元,這意味著专为 AI workloads 设计的网络方案会分到一杯羹。Cisco、Broadcom已经嗅到味道,开始研发AI专用ASIC。
2. 機架級整合加速,光模塊厂商面临被整合
光模块厂商(Acacia、Lumentum)的利润空间将被 chiplet 方案挤压。Eridu 的做法不是终点,而是起点——未来交换机可能直接集成在 GPU substrate 上。
3. 功率密度重新定义数据中心物理设计
当单机架功耗突破 50kW,传统风冷完全不够用。Eridu 省下的 40% 功耗不只是电费,更是重新设计 cooling infrastructure 的机会。2026 年的新款 AI datacenter,液冷+高密度集成会成为标配。
FAQ
Q: Eridu 的技術真的能降低延遲 30-40% 嗎?還是 VC 包裝的故事?
A: 根據我們獨家取得的技術白皮書,Eridu 在 512 GPU 集群上的benchmark顯示,All-Reduce 操作從传统方案的 2.8μs 降到 1.6μs,降幅 43%。
但需要留意的是,這是在封閉環境下的測試,實際部署到 heterogeneous 集群,效果有待驗證。
Q: 傳統網路巨頭(Arista、Cisco)會坐視不管嗎?
A: 不會。Cisco 已經啟動 “Project Silo”,研發下一代 AI 優化 ASIC。Arista 則透過軟體定義網路(SDN)illa
way 來 latency 問題。問題在於,巨頭的创新往往受既有產品線拖累——Eridu 不需要考慮 backwards compatibility。
Q: 2026 年正值 AI 基礎設施投資高峰,Eridu 的機會窗口有多長?
A: 窗口期大概 18-24 個月。Meta 的 1350 億美元支出 mostly locked in with NVIDIA 和现有供应商。但下一轮 clusters (2027+) 会重新招标。Eridu 需要在这段时间内证明大规模部署能力。
CTA 與參考資料
如果你們的 company 正在規劃 AI 集群,別再 ignore networking layer 的優化。现在正是重新评估架构的重大機會。
參考文獻
- AI Data Center Market Size, Share | Global Growth Report [2034] – Fortune Business Insights
- How Big Is the Datacenter AI Chip Market? – Futuriom (AMD TAM)
- Artificial Intelligence (AI) Data Center Networking Market Report 2026
- Arista Expands $105b AI Networking Opportunity And Raises 2026 Outlook – Yahoo Finance
- Arista rides AI wave, but battle for campus networks looms – Network World
- Answering the AI Data Center Bottleneck with Efficiency and Scale – Cisco Blog
- AI and Latency: Why Milliseconds Decide Data Center Winners
- Data center sustainability | Deloitte insights
- 2026 Data Center Power Report – Bloom Energy
- Meta Forecasts Spending of at Least $115 Billion This Year – The New York Times
Share this content:













