光學 AI 晶片是這篇文章討論的核心



光學處理器革命:Sherman 如何用光子技術顛覆 AI 算力格局?2026 深度預測
Missouri Blues – “Fiber Optic Switch with Bright Connectors in Studio” 的光學數據中心場景,完美象徵光子網路的高密度連接與未來感(圖源:Pexels)

💡 核心結論

光學 AI 晶片透過光子替代電子處理神經網路運算,可實現 數百倍延遲降低數量級能量效率提升,2026 年將迎來商業化關鍵突破。

📊 關鍵數據

  • 光學 AI 感測器市場:90 億美元(2022)→ 320 億美元(2027),CAGR 28.6%
  • 光子 AI 晶片市場:314 億美元(2026)→ 2000 億美元(2035)
  • 硅光市場:230 億美元(2026)→ 1780 億美元(2035),CAGR 25.3%
  • 數據中心耗電量:最壞情境下 2026 年將翻倍至 1,000 TWh

🛠️ 行動指南

企業應關注 Coherent Sherman 廠的 InP 晶圓產能擴張、Lightmatter 光學互連方案,並評估將邊緣 AI 工作負載遷移至光學加速器的時機。

⚠️ 風險預警

光學計算的 OEO(光-電-光)轉換損耗仍是瓶頸,且 nonlinear optical device 技術尚未完全成熟,可能延遲全面商用進程。

從 2024 年底到 2025 年,整個 AI 硬體生態圈悄悄進行一場靜默革命。Lightmatter 陸續發布 Passage L20 光學引擎(6.4 Tbps 雙向頻寬)與 Envise 光子計算晶片,Coherent 德州 Sherman 廠則提前一年完成 6 吋 InP 晶圓量產。這種現象不是偶然——AI 算力需求正以指數成長,但传统硅基晶片的功耗與熱密度已經逼近物理極限。根據 IEA 2025 報告,數據中心用電量在worst-case scenario下將於 2026 年突破 1,000 TWh,相當於全球用電的 2% 以上。當摩爾定律放緩,光學計算不再只是替代選項,而是維持 AI 發展的必需品。

為什麼光學 AI 晶片能突破硅基晶片的物理極限?

光學計算的核心優勢在於直接用光子執行矩陣乘法——這是深度學習大部分計算的根本操作。傳統 GPU 需要將數據在記憶體和運算單元之間來回搬運(memory wall),而光子波導則允許近乎零距離的模擬計算。

根據 Nature 2025 年刊載的一篇論文,研究團隊展示了一個包含 16,000 多個光學元件 的單晶片光子加速器,能以高達 1 GHz 的速度執行 MAC 操作,極小延遲比小規模電路降低 500 倍。更重要的是,由於光子之間幾乎沒有交互作用,熱產能得到根本解決。

MIT 團隊同樣開發出完全整合的光子處理器,能在單晶片上完成深度神經網路的所有關鍵計算,應用範圍涵蓋 LiDAR、天文研究與自主導航。這些系統的共同特色是:將計算密度推向極限,同時將每瓦特效能提升到電子處理器無法企及的數量級。

🔬 Pro Tip|光學神經網路的物理限制
光學計算的爭議在於真實世界的邏輯系統需要訊號重置、扇出與隔離,這些功能在電子晶片裡由低成本、高速的電晶體提供。光學邏輯若要全面競爭,仍需要突破非線性光學裝置技術,或徹底改變運算模型。不過對於矩陣乘法這種相對單純的操作,光學實現已經展現壓倒性優勢。

光學 vs. 電子 AI 晶片效能對比 左軸為相對延遲(越短越好),右軸為相對能耗(越低越好)。光學晶片在兩指標均大幅優於電子 GPU。

相對延遲 相對能耗

光學晶片 電子 GPU

0.02x

1.0x

0.1x

1.0x

光學晶片 vs. 傳統 GPU:延遲與能耗對比

這種差異來自於光傳播速度(≈ 真空光速的三分之二)遠超電子 drift velocity(約 10⁵ m/s)。單一條光纖就可以同時傳輸數以萬計的波長多工信道,而電路基板需要複雜的布線與緩衝電路。因此,Lightmatter 宣称其光學互連可實現 100 倍 faster chip-to-chip 通訊,直接消除 GPU idle time。

Sherman 德州製造基地如何成為北美光子網路的心臟?

當多數人聽到「Sherman」這個地名, primera thing 是德州的偏遠小鎮。但現在,它成為美國光子半導體戰略的核心。Coherent Corp. 在 Sherman 的設施可谓是 global photonics leader 的北美 Manufacturing consolidation point,專門生產 磷化銦(InP) 晶圓——這是高端雷射與高速光調制器的關鍵材料。

2024 年 12 月,Coherent 簽署了 CHIPS Act 的 preliminary memorandum,獲得最高 3,300 萬美元 聯邦資助,用於現代化與擴建成於 Sherman 的現有 70 萬平方英尺設施。2026 年 2 月,德州 Semiconductor Innovation Fund 又追加 1,407 萬美元,加上 Coherent 自身超過 1.54 億美元 的資本投資,目標是將 6 吋 InP 晶圓產能提升到前所未有的規模。

這個時間點非常重要。研究團隊提前一年完成 6 吋 InP 的 transition to full production,顯示 demand 急遽上升。而 Sherman 廠的產品主要供應 AI 基礎設施——包括 Lightmatter 這類光學 AI 晶片公司的調制器與光源。換句話說,德州北部這個小鎮,竟是決定 AI 光學化速度的戰略要地

InP(磷化銦)能同時提供增益與調制功能,被視為「III-V 族半導體」的王者。但成本高昂,晶圓尺寸受限。硅光子則借助 CMOS 成熟製程,成本低廉但效能受限。未來高階 AI 加速很可能採用 heterogeneous integration ——在硅平台上鍵合 InP 有源元件,取得兩者平衡。Sherman 廠的擴產正是在為這種混合架構鋪路。

此外,NVIDIA 在 2025 年合計投入 40 億美元 入股光學元件供應商 Lumentum 與 Coherent,這個信号明確顯示:光學互連不再是可選配件,而是下一代 AI 資料中心 必須內建 的組件。當 Amber Group 估算光傳輸將取代銅纜成為 rack-scale 以上連接的唯一選項時,Sherman 廠的角色便從半導體供應商升級為 AI 基礎設施的關鍵閘道。

2026-2030 光學 AI 晶片市場規模能衝到多少億美元?

市場研究機構對光學 AI 的預測頗為樂觀。Yole Group 把硅光市場從 2026 年的 23 億美元上修到 2035 年的 178 億美元(CAGR 25.3%)。Business Research Insights 則將光子 AI 晶片市場定為:2026 年 314 億美元,2035 年 200 億美元

業界abulously growth 的動力來自兩個層面:

  1. 供給端:Coherent、Lumentum、Lightmatter 等公司在光學互連與加速器上的突破,使 AI 集群的 GPU idle time 降低 30% 以上,直接提升每瓦算力产出。
  2. 需求端:大型語言模型(LLM)訓練與推理的能源成本已經占到總運算預算的 40-60%,企業被迫尋找更高效的計算范式。

若把範圍縮小到 AI 專用光學感測器,WorldMetrics 預測全球市場將從 2022 年的 9 億美元成長至 2027 年的 32 億美元,CAGR 高達 28.6%。這顯示光學不仅在加速運算,還在智慧感測、邊緣 AI 等領域全面開花。

📈 Pro Tip|市場预测的落差與機會
各家機構對「光學 AI」的定義不盡相同:有的強調硅光互連,有的聚焦光學神經網路加速器,還有的包含光學感測器。這造成數字有時無法 directly compare。投資者應注意:光子 AI 晶片( photonic AI chips )的市場規模相對單純,主要指執行矩陣乘法的光學加速器;而 硅光市場 則涵蓋所有通訊與數據中心的光學互連產品。後者的基數更大,但前者代表了技術護城河最高的層次。

光學 AI 晶片市場規模預測(2022-2035) 分為 AI 光學感測器、光子 AI 晶片、硅光市場三條曲線,顯示從 2022 到 2035 年的十億美元級成長。

市場規模(十億美元) 年份

AI 光學感測器 光子 AI 晶片 硅光市場

2022 2024 2026 2028 2030 2032 2034 2035

200 150 100 50 0

值得注意的是,這些數字的前提是 技術突破持續發生。如果光學計算的良率與成本無法達到 CMOS 的經濟規模,成長曲線將被显著下修。但截至目前為止,Coherent、Lightmatter、Intel、TSMC 都在加大研發投入,顯示業界對光學 AI 的長期信心。

光學處理器在邊緣 AI 與雲端數據中心的實際應用場景

光學 AI 晶片的應用分為三大塊:

  1. 雲端 AI 訓練與推理加速:Lightmatter Envise 的 photonic tensor cores 可以直接集成到 PCIe 卡或 UCIe 标准 chiplet 中,為 LLM 訓練提供比 GPU 快 5-10 倍、能效高 20 倍的矩陣運算。
  2. 數據中心互連:Co-Packaged Optics(CPO)將光學引擎直接封裝到交換器晶片附近,將 rack-scale 通訊延遲從毫秒級降到微秒級。Lightmatter Passage L20 达到 6.4 Tbps per fiber,足够支撑未来万卡集群的 East-West traffic。
  3. 邊緣 AI 低延遲處理:自主車輛、工廠自動化與擴增實境都需要 sub-millisecond 的回應時間。光學神經網路在感測器端直接執行特徵提取,避免原始數據的數位化傳輸延遲。

根據 Effect Photonics 的分析,邊緣 AI 裝置的功耗限制(通常 5-10W)使得傳統 GPU 無法實用。光子晶片在相同算力下功耗可降到 1W 以下,為 edge AI 開啟全新可能。

🚀 Pro Tip|部署光學 AI 的三個檢查點
企業在導入光學 AI 解決方案前,需要先評估:
1️⃣ 工作負載特性:是否以矩陣乘法為主(Transformer 注意力機制、卷積網路)?是否 memory-bound?
2️⃣系統整合複雜度:光學晶片需要精密的光路對齊與溫控,現有數據中心是否需要改造?
3️⃣ 總擁有成本(TCO):初期採購成本高,但電力與冷卻節省可能在 2-3 年內平衡。計算每瓦特 inference cost 是關鍵指標。

我們觀察到,大型雲端供應商(AWS、Google、Microsoft)已經在 build-out 階段落實光學互連,但內部 AI 訓練集群仍以 GPU 為主。真正的轉折點將是第一個光學 AI 加速器達到或超越 GPU 的通用性,同時成本持平。 Sherman 廠的 InP 產能擴張將決定這個時間表。

常見問題(FAQ)

光學 AI 晶片與傳統 GPU 相比,實測效能差距有多大?

根據多篇研究,光學神經網路在執行矩陣乘法時可實現 500 倍延遲降低和 10 倍以上能效提升。Large-scale photonic accelerator 已展示 1 GHz 操作頻率與每 MAC operation 僅僅數 pJ 的能量消耗。然而這些數字多在實驗室條件下達成,實際產品(如 Lightmatter Envise)在真實 AI 模型上的 speedup 約為 5-20 倍,視模型稀疏性與 batch size 而定。

Sheridan 德州廠的 InP 晶圓產能對光學 AI 產業鏈有何影響?

Sherman 廠是全球首條 150mm InP 量產線,目標是取代目前 100mm 的小批量生產。6 吋晶圓可提升約 2.25 倍的面積利用率,同時降低單片 InP 磊晶與製造成本。隨著 CHIPS Act 與德州州政府補助,該廠產能將從 2025 的年產數千片擴大到 2027 年的數萬片級別。這將直接舒緩光子 AI 晶片(如 Lightmatter、Lightelligence)的元件供應Constraint,使他們能把焦點轉移到系統整合應用層面。

光學處理器是否會取代 GPU?

短期內不會,而是互補。光學 AI 目前最擅長的是特定運算(稠密矩陣乘法、卷積),但缺乏 GPU 的通用性與成熟的軟體生態(CUDA)。未來 3-5 年可能看到 heterogenous 系統:CPU + GPU + 光學加速器(optical accelerator)的混合架構。當光學晶片通過 OpenXLA 或 PyTorch 的 pluggable backend 整合後,開發者便可根據 cost-per-inference 選擇合适硬體。

馬上聯絡我們,獲取光學 AI 導入諮詢


Share this content: