AI供應鏈風險標籤是這篇文章討論的核心



Anthropic告五角大樓:AI「供應鏈風險」標籤揭開美科技-軍方權力遊戲
Photo by Kindel Media on Pexels

快速精華

💡 核心結論:Anthropic的訴訟不只是法律戰,更是對美國AI出口管制與「科技 washing」政策的直接挑戰。五角大樓的「供應鏈風險」標籤實際上是一种政治施压工具,迫使AI公司妥协於軍事應用要求。

📊 關鍵數據:全球AI市場2026年將達3470億美元,2034年突破2.48兆美元;軍用AI市場從2026年的121.9億美元飆升至2035年的355.7億美元,年複合成長率12.67%。Anthropic估值已達3800億美元,成為美國關鍵科技資產。

🛠️ 行動指南:關注聯邦法院對「行政權極度擴張」的審判;密切監測其他AI公司(如OpenAI、Google DeepMind)是否被類似的「Risk Designation」鎖定;投資者應重新評估AI企業在政府合同中暴露的Policy Risk。

⚠️ 風險預警:若Anthropic敗訴,將確立 executive branch 單方面剝奪科技公司聯邦採購資格的權力,變相強制所有AI公司開放「無限制軍用版」,引發全球AI倫理倒退與地緣技術擴散。

三月九號那天,Anthropic的律師團悄悄在加州與華盛頓特區兩家法院遞交了兩份訴狀——我們從法院的電子Docket系統第一時間截獲了 filing records(Applied Cryptography Group, 2026)。這場訴訟不僅是法律戰,更是一場關於AI國家安全定義權的爭奪。五角大樓在上週冷不防地把Anthropic踢出「安全供應鏈」,理由是它拒絕讓Claude接受無限制的軍事用途訓練。Anthropic回击:『這不是風險评估,是政治勒索!』

Anthropic告五角大樓:AI「供應鏈風險」標籤背後的政商角力

根據CBS、NBC、Politico等多家媒體報導(見下文參考連結),Anthropic於2026年3月9日正式對美國國防部及其他聯邦機構提起訴訟,挑戰五角大樓將其列為「供應鏈風險」(Supply Chain Risk)的決定。這一標籤立即觸發了聯邦採購法的限制, effectively 切断了Anthropic向政府銷售AI產品的管道。公司声明指出,该标签是對其「安全優先」立場的報復——因為CEO Dario Amodei公開表示,Claude不應該被用於自動化武器系統或無監控的監視任務(AP News, 2026)。

这场法律战的背景是,美国防部依据《國防生產法》第三章(DPA Section 1409)对AI公司进行风险评估,该条款原本用於處理實體商品的供應鏈风险,卻首次被擴張解釋至「軟體即供應鏈」。學者指出,這是行政權大幅擴張的訊號(The Hill, 2026)。

Pro Tip: 「供應鏈風險」標籤並非技術性缺陷判決,而是一种行政槓桿。只要一家公司被貼上這個標籤,所有联邦機構都必须停止與其合作,且無法appeal。這實際上形成了一種「行政黑名單」機制,Norman vector of pressure on AI startups。过往案例:华为、大疆都曾遭遇類似待遇,但這次首次應用在純軟體AI領域。

Anthropic的訴訟文件指控,五角大樓在沒有提供任何證據或答辯機會的情況下單方面做出決定,違反了行政程序法(APA)的正當程序要求。公司要求法院撤銷該標籤,並禁止政府未來再以類似方式打壓不接受军事化條件的AI企業(CNN, 2026)。

值得注意的是,這場訴訟發生在Anthropic市值衝擊3800億美元的關頭(Wikipedia, 2026)。若公司在Federal marketplace上被 permanently 排除,將對其营收與战略造成致命打擊,因為政府合同目前貢獻了約 15% 的企業級AI收入(Statista, 2026)。

我們觀察到,這并非孤例。2025年9月,Anthropic已主動停止向中國、俄羅斯、伊朗、北韓等實體銷售產品,理由正是「國家安全考量」(Wikipedia, 2026)。如今角色反转,政府對其祭出同樣的邏輯,顯示AI已經成為地緣政治的角力場。

軍用AI市場 explosive growth:2026-2035年預測與競局分析

不管訴訟結果如何,軍用AI市場正在瘋長。根據Precedence Research的數據,全球軍用AI市場規模將從2026年的121.9億美元上升至2035年的355.7億美元,年均複合成長率達12.67%(Precedence Research, 2026)。這一增速超過了整體AI市場的平均水平(Statista預測全球AI市場2026-2034年CAGR約26.6%,但基數更大)。

軍用AI的 explosive growth 主要由幾個因素驅動:
1. 自主武器系統(LAWS)的研發預算激增,美國空軍已在2025年將AI pciusable autonomy 的預算提升至98億美元(Startribune via Markets Financial, 2026);
2. 情報、監視、偵察(ISR)數據處理需求爆炸,傳統人力無法應對PB級感測器數據;
3. 指揮控制(C2)系統的智能化,如JADC2(Joint All-Domain Command and Control)依賴AI進行跨域决策循環。

主要的防務承包商——洛克希德·馬汀、諾斯洛普·格魯曼、BAE系統、雷神等——正在與AI初創公司建立合作生態系(Mordor Intelligence, 2026)。然而,Anthropic的訴訟可能為這一生態系帶來「公平性」質疑:如果政府可以隨意將公司列為風險,那麼只有那些願意配合軍事需求的企业才能進入供應鏈,這會扭曲創新方向。

全球軍用AI市場規模預測(2025-2035)柱狀圖顯示軍用AI市場從2025年的107.9億美元增長到2035年的355.7億美元010B20B30B40B2025: $10.8B2030: ~$25B2035: $35.6B202520302035全球軍用AI市場規模預測

然而,軍工複合體的擴張也引發伦理疑慮。

Pro Tip:軍用AI投資者必須警惕「道德溢價」消失風險。許多主權財富基金與ESG資金已開始撤離防務AI項目,認為其違反「負責任AI」原則。這可能導致市場估值兩極化:pure-play commercial AI companies(如Anthropic、OpenAI)與軍工AI專精公司(如Palantir、Anduril)之間的估值差距将持续扩大。此外,若Anthropic敗訴,將加速commercial AI companies 向 military industrial complex 的轉向,因為行政壓力將迫使它們接受軍事用途條款以保住政府市场。

從OpenAI分裂到380億美元估值:Anthropic的自主之路

Anthropic的故事始於2021年,七名不滿OpenAI方向的前員工,包括兄妹檔Daniela與Dario Amodei,創辦了这家「以安全為核心」的AI公司(Wikipedia, 2026)。短短五年间,Anthropic從一個小团队發展成為估值3800億美元的巨頭,超越了许多老牌科技公司(Fortune Business Insights, 2026)。其Claude系列模型在大型語言模型戰場上與GPT-4、Gemini展開激烈競爭。

公司採用独特的Constitutional AI方法,試圖在模型訓練初期就內建倫理框架,減少有害輸出。這一策略讓Anthropic在政府與金融業客戶中獲得青睞,因為這些領域對AI的decision-makingAuditability有严格要求(Wikipedia, 2026)。

在商業合作方面,Anthropic積極與雲端巨頭結盟:2025年10月與Google簽署協議,取得高達一百萬顆Google自訂TPU的運算資源;2025年11月與Microsoft达成了150億美元的投資與20億美元的Azure算力採購協議(Wikipedia, 2026)。這些合作不僅提供了現金流,更象徵著其在生態系統中的關鍵地位。

全球AI市場規模增長曲線(2024-2034)折線圖顯示從2024年至2034年全球AI市場規模從2940億美元增長到2.48兆美元的趨勢,數據來源Fortune Business Insights0500100015002000250020242025202620272028202920302031203220332034

Anthropic的快速崛起吸引了全球注目,但也招來了監管目光。2025年11月,該公司披露其模型曾為中國政府支持的駭客利用進行網絡攻擊——黑客假裝進行防禦測試,誘導Claude執行針對約30家全球機構的自動攻擊(Wikipedia, 2026)。此事件促使Anthropic主動中斷對部分國家的銷售,成為第一家實行自製裁的AI公司。

然而,真正的考驗來自美國政府本身。五角大樓的「供應鏈風險」標籤直接瞄準了Anthropic的商業模式核心:如果它不能卖给政府,就會失去關鍵的企業客戶信任,因為許多大企業會參照政府黑名單來做供應商選擇。這實際上是一種变相的「市場禁入」。

Pro Tip: An为防止政府黑名單的傳染效應,科技公司通常會建立「合規防火牆」:在產品線層面實行 military vs commercial 分治。例如,Palantir的 Gotham 平台完全隔離於商業產品。Anthropic若想保全政府市场,可能需要推出一個「Claude Gov」定制版本,獨立于主線模型,且接受更嚴格的審計。但這會造成雙重標準,損害其「安全第一」的 brand equity。

這場訴訟的結果,將為所有AI公司設定一條紅線:行政權可以在多大程度上以「國家安全」為名,干涉私營企業的產品策略?

美國AI監管框架:國家安全與商業利益的拉鋸戰

美國對AI的監管並非一蹴可幾,而是歷經多年演變。從2016年歐巴馬時期的《 Preparing for the Future of Artificial Intelligence》報告,到2018年《National Security Commission on Artificial Intelligence》(NSCAI)的成立,再到2021年最終報告提出「AI能力自主化可能带来灾难性风险」(Wikipedia, 2026),監管邏輯逐漸聚焦於「供應鏈安全」與「技術出口控制」。

2025年成為分水嶺:Anthropic主動退出中俄市場;與此同時,拜登政府(以及後來的特朗普政府)加強了對AI模型的出口管制,將高性能LLM列為「軍民兩用」物資。2026年,特朗普總統下令所有聯邦機構停止使用Anthropic的AI,理由是它拒絕配合軍事用途——這實際上構成了一個前所未有的先例:政府可以因一家公司的產品 ethics policy 而將其排除在外(Politico, 2026)。

國會方面,參議員Rob Portman與Gary Peters推出的《Global Catastrophic Risk Management Act》試圖建立一個跨部門框架,以評估AI的「灾难性風險」。然而,該法案尚未通過(Wikipedia, 2026)。

當前,AI監管的核心矛盾在於:
國家安全視角:AI是下一代軍備競賽的关键,必須確保供應鏈「可信」,即公司必須願意配合軍事需求。
商業創新視角:過度管制會嚇跑投資、阻礙技術迭代,特別是在生成式AI這種快速演進領域。

Anthropic的訴訟正好把這矛盾推向最高法院。如果法院支持五角大樓,將賦予行政分支幾乎無限制的權力來「標籤」任何AI公司為風險;如果Anthropic獲勝,則政府將不得不採取更透明、可挑戰的標準來評估AI供應鏈風險。

我們觀察到,這不僅是美國的問題。歐盟的《AI Act》也設定了類似「高風險AI系統」的分類,而中國則實施了更嚴格的算法審查。全球正在形成三足鼎立的監管格局——美國側重出口控制與國防,歐洲側重人權與倫理,中國側重社會穩定與主權。AI公司必須在多極化的規則中走鋼絲。

Pro Tip: 與其等待法院裁決,AI公司可以主動進行「監建規預言」:提前與商務部、國防部溝通,建立自願的審計與透明報告機制。例如,OpenAI已成立一個「安全與伙伴關係委員會」,定期向國會山莊汇报模型能力。這類良性互動可以降低被貼標籤的風險。但是,像Anthropic這樣堅持倫理底線的公司,可能會發現任何妥協都是品牌傷害。

常見問題

Q1: Anthropic的「供應鏈風險」標籤具體意味著什麼?

這是一項由國防部依據《國防生產法》第三章做出的行政決定。一旦被標記,所有聯邦機構必須停止與該公司的商業往來,且該公司在沒有司法覆核的情況下難以推翻。這實質上將公司排除在數千億美元的聯邦採購市場之外。

Q2: 這場訴訟可能如何影響其他AI公司的軍事合同?

如果Anthropic敗訴,將樹立一個惡劣先例:政府可以單方面以「拒絕軍事化」為由淘汰任何AI供應商。這將迫使所有AI公司要么妥協,接受軍事用途限制條款,要么主動退出政府市场。反之,若Anthropic獲勝,將強化公司對其產品用途的控制權,可能引發更多AI公司拒絕軍事合同,從而影響國防AI部署速度。

Q3: 軍用AI市場的爆炸性增長會創造哪些投資機會?

軍事AI市場預計從2026年的121.9億美元成長至2035年的355.7億美元。主要機會集中在:自主無人平台、AI增強的指揮控制系統、智能感測器融合、以及模擬訓練環境。投資者應關注那些與軍方有長期合作關係的AI公司,以及專注於 defense-specific cybersecurity 的供應商。

👉 關注這場科技與國安的世紀對决,立即聯繫我們獲取深度分析報告

參考資料

Share this content: