AI 軍事化爭奪戰是這篇文章討論的核心

五角大樓 vs Anthropic:AI 軍事化爭奪戰引發千億美元訴訟風暴
圖说:科技道德與國家安全之間的拉扯,成為新一代 AI 爭奪戰的核心 (photo by KATRIN BOLOVTSOVA, Pexels)




💡 核心結論

五角大樓對 Anthropic 的「供應鏈風險」標籤,實質上是 AI 軍事化過程中技術管制權力的重新洗牌。這場訴訟不只是两家機構的恩怨,更會決定 2026 年後 AI 能否被用於自主 lethal weapons 的關鍵轉折。

📊 關鍵數據

  • 全球 AI 市場規模:2026 年預計達 2.52 兆美元(Gartner),年增 44%
  • 軍用 AI 投資:美國國防部 FY2026 預算法案編列 134 億美元,首設 AI 與自主性專門預算
  • 生成式 AI:到 2034 年市場規模可能突破 1.3 兆美元,從 2022 年的 40 億美元爆炸性成長
  • Anthropic 估值:截至 2026 年 2 月 reaching 3,800 億美元,成為全球最具價值 AI 新創之一

🛠️ 行動指南

企業在 AI 軍事化趨勢中必須:1) 明確內部倫理準則并对外公佈;2) 建立分層級的技術使用限制;3) 準備好法律戰備以应对政府不當歸類;4) 將 AI 安全研究納入核心投資。

⚠️ 風險預警

انون標籤一旦成立,不僅剝奪政府合約,更會引發民間客戶的信任崩塌。更嚴重的是,這可能開啟行政部門任意打压不聽話科技公司的不平等先例,破壞美國創新生態。

什麼是「供應鏈風險」標籤?五角大樓的數學題怎麼算?

根據多家媒體報導,美國國防部在 2026 年 2 月下旬將 Anthropic 標記為「供應鏈風險」供應商,要求所有政府機構停止使用其 AI 服務。這個決定源於 Anthropic 拒絕讓其旗艦模型 Claude 接受無限制的军事用途審查,特別是同意移除所有安全限制以允許 lethal autonomous weapons 的開發。

Pro Tip:「供應鏈風險」在法律上的定義來自《國防授權法案》第 889 條,原本針對華為、中興等中國電信設備,卻首度應用在 AI 軟體公司。這顯示五角大樓正嘗試將傳統 hardware 供應鏈管控邏輯,套用到算法層面的戰略競爭上。

國防部聲稱,Anthropic 拒絕「完全合作」構成潛在風險,但未提供具體證據。更具爭議的是,該標籤是在公司拒絕簽署一份允许政府任意修改模型安全限制的附加協議後才push through的。

Anthropic 訴訟時間軸 顯示 2021 至 2026 年間 Anthropic 發展關鍵事件與五角大樓衝突時間線 2021 2026 成立 Claude 1 Claude 3 Stop China sales Pentagon label Suing

Anthropic 的底線:為何寧可被告也不讓技術無限制用於軍事?

觀察這場衝突的核心,在於 Anthropic 的「憲法式 AI」設計哲學。公司創立時就設定了一套內建安全協議,稱為 Constitutional AI,要求模型必須遵守一系列原則,包括不能協助製造 weapons 或提供 violent tactics 建議。這套限制不是技術Bug,而是刻在模型權重裡的 core constraints。

根據公司在 2025 年 9 月宣布的政策,Anthropic 已停止向中國、俄羅斯、伊朗、北韓多數擁有的實體銷售產品,但這與五角大樓的要求 still far apart。國防部要的是 unconditional access——能隨時繞過安全層,直接306模式進行 target identification、weapon coordination 甚至 cyber warfare 任務。

Pro Tip:Anthropic 的情況類似醫藥公司拒絕為酷刑提供藥物一样。即使政府是買方,若用途違反公司核心價值,許多科技企業傾向 cash out 而非妥協。但軍用市場的利潤驚人:美國國防部 FY2026 的 1.01 兆美元總預算中,AI 與自主性首次單獨列出 134 億美元,這還不含間接採購。

法律學者指出,五角大樓的「供應鏈風險」標籤滥用可能違反行政程序法,因為沒有提供申訴渠道,且未經實質聽證就全面封殺。Anthropic 在加州和華盛頓特區同時提起兩起訴訟,挑戰這個前所未有的行政指令。

軍用 AI 預算分配比例 (FY2026) 顯示美國國防部 134 億美元 AI 預算在各領域的分配情況 自主無人系統 45% (60.3億)

AI 訓練數據 25% (33.5億)

邊緣 AI 晶片 15% (20.1億)

安全與測試 10% (13.4億)

其他 5% (6.7億)

2026 年軍用 AI 爭奪戰:千億預算與道德底線的碰撞

2026 年標誌著軍用 AI 從「research phase」進入「deployment phase」的關鍵轉折。根據 Gartner 數據,全球 AI 支出將從 2025 年的 1.75 兆美元躍升至 2026 年的 2.52 兆美元,其中超過 15% 直接或間接來自政府國防預算。這不是小數目——單單美國一年投入的金額,就超過許多國家全年 GDP。

但問題在於,AI 軍事化的速度遠超監管框架的建立。五角大樓在 2025 年 12 月推出 GenAI.mil 平台,最初選擇 Google Gemini 作為合作夥伴,這引發內部安全专家強烈反彈。現在又與 Anthropic 爆發衝突, exhibitioning 軍方在「快速部署」與「風險控制」之間的兩難。

Pro Tip:軍事 AI 項目通常冠以「指揮決策輔助」這類无害名稱,但實質上可能包含目標推薦、戰術規劃甚至心理戰內容生成。了解實際應用場景,需要追蹤 DARPA 和 IARPA 的承包項目,而非只看表面宣傳。

Anthropic 的訴訟如果成功,可能迫使國防部重新審視所有 AI 協定的條款,並設立獨立的倫理審查機制。反之,若五角大樓勝訴,將樹立先例——任何拒绝完全軍事化的科技公司都可能被標為「供應鏈風險」,這對整個行業的自由度構成實質威脅。

全球 AI 市場規模預測 (2023-2030) 顯示全球 AI 市場從 2023 年到 2030 年的增長趨勢,單位為兆美元 2023 2024 2025 2026 2027 2028 2029 2030 0.5 1.0 1.5 2.0 2.5

2026: 2.52T 2027: ~1.1T?* 2030: ~1.9T

* 註:不同機構對 2027 年預測差異較大,Bain 預估 780-990 億美元,但这个是排除政府項目的民用市場預測。

科技巨頭與國防部的愛恨情仇:從 Google 到 Anthropic

Anthropic 與五角大樓的衝突並非歷史首例。時間倒回 2018 年,Google 因員工抗議 Project Maven(无人机影像分析)而決定不續約,當時就已顯現科技公司內部的價值分裂。然而,到了 2026 年,局勢已經徹底改變——军方不再502 requests,而是直接以行政权力威脅。

From the guardrails perspective,Google 選擇退出軍事合同後,轉向雲端運算與企業服務,反而在國防市場保留間接影響力。Microsoft 則走相反的 path——通過 Azure Government 雲端提供底層基礎設施,成為軍方最大技術供應商之一。OpenAI 雖然未公開簽訂军事合約,但其模型透過第三方集成 into various DoD systems。

Pro Tip:觀察科技公司對待軍工的態度,關鍵指標是看其成立「政府雲」或「國防專案」團隊的規模。Google、Amazon 都有專門的 public sector division,但他们会把「 lethal autonomy」與「後勤優化」用不同品牌切割,這就是公關策略的差異。

Anthropic 的特殊性在於,它從第一天就將安全研究置於商業利益之上。公司創始人 Dario 和 Daniela Amodei 離開 OpenAI 的主因就是對安全方向的分歧。這次訴訟結果,可能決定這種「倫理優先」模式在美國創投生態是否還能存活。

주요 AI 기업의 국방부 협력 접근 방식 比較 Google、Microsoft、Anthropic、OpenAI 四家 AI 公司與美國國防部的合作模式差異 Google 退出直接項目 透過雲端間接參與

Microsoft 全面合作 Azure Government + AI

OpenAI 模糊地帶 透過合作夥伴間接接入

Anthropic 拒絕無限制 正在訴訟中

conventional approach confrontational stance

未來預測:AI 軍事化將如何重塑全球安全格局?

如果 Anthropic 敗訴,「供應鏈風險」標籤將成為政府打压 dissident AI 企業的标准化工具。這不只影響美國公司,更可能被其他國家複製——中國可能以「国家安全」為由,限制英偉達 AI 晶片出口;歐盟可能nmbr以《AI 法案》高風險类别,將不配合的企業踢出市場。科技 Industry 的全球化分工即將被政治風險切割。

相反地,若 Anthropic 贏得訴訟,則會強化企業抵抗政府過度干預的能力。這可能鼓勵更多 AI 公司公開拒絕 lethal autonomy,形成一股「道德 AI」品牌價值。消費者與企業客戶在選擇供應商時,可能会將軍事合作政策納入評分標準,就像現在評估 ESG 一樣。

Pro Tip:未來五年,我們可能會看到「AI 選擇權」成為地緣政治工具。盟友間會建立可信賴供應鏈俱乐部,排斥不認同共同標準的廠商。這將導致技術標準分裂,類似 5G 時期的華為爭議,但在 AI 層面更複雜,因為算法是可以重新訓練的。

無論訴訟結果,這場官司已暴露出當前 AI 監管的真空狀態。美國缺乏聯邦層面的 AI 军事使用法案,歐洲的《AI 法案》对軍事應用豁免,聯合國仍在討論。這種法律灰色地帶,正是科技公司與国防部門博弈的主戰場。

投資者角度來看,Anthropic 的 3,800 億美元估值已經反映了極高的期待。如果它真的在道德立場上「退讓」,長期品牌傷害可能大於短期合約收益。因此,觀察這場官司的走向,不僅是看法律技術細節,更要理解 2026 年美國政治生態中,科技創新與國家安全之間的新 Power balance。

常見問題 (FAQ)

Q1: Anthropic 的「供應鏈風險」標籤具體影響有哪些?

該標籤要求所有美國聯邦機構停止與 Anthropic 做生意,不僅是直接合同,還包括通過第三方集成 Claude 的服務。這严重影響政府销售收入(估計佔 2025 年收入的 15-20%),更重要的是,私营部門客戶可能因擔心合规問題而卻步,形成寒蟻效應。

Q2: 為什麼國防部突然對 AI 公司這麼强硬?

主因是 2026 年國防預算中 AI 項目急劇增加,卻發現主要 AI 公司 refusal to provide unconditional access。五角大樓認為,若模型無法完全信任(即能繞過安全限制用於 lethal purposes),在 great power competition 下會讓美國處於劣勢。這是一种national security realism 的體现。

Q3: 其他 AI 公司會受到牽連嗎?

目前只有 Anthropic 被標籤,但其他公司如 OpenAI、Google DeepMind 都在接受更嚴格審查。關鍵區別在於:這些公司尚未公開拒絕軍事化要求,因此仍在談判桌上。Anthropic 的案例會設定 baseline,決定未來談判的框架。

這場 AI 倫理與國家安全的碰撞,將決定2026年後科技發展的方向。你是否也在關注 AI 治理與商業策略的交會點?

與我們深入探討 AI 政策趨勢

Share this content: