Claude拒絕開火是這篇文章討論的核心
當 Claude 拒絕開火:Anthropic 與五角大樓的史詩級衝突,正在重寫 AI 軍事應用的規則手冊

目錄
💡 核心結論
Anthropic 拒絕移除安全防護的決定,標誌著大型 AI 實驗室首次公開為了倫理原則與國防部對抗。這不是單純的商業談判破裂,而是關於「誰該控制致命技術」的權力重 Allocation。
📊 關鍵數據 (2026-2027 預測)
- 全球 AI 軍事應用市場規模:2026 年 118 億美元 → 2027 年 134 億美元 (CAGR 13.2%)
- 全球 AI 總支出:2026 年 2.52 兆美元,較去年增長 44%
- 五角大樓 AI 預算:FY2022 已達 18 億美元,年增 15%
- 到 2035 年,AI 軍事市場預期達 300 億美元 級別
🛠️ 行動指南
- 科技公司:建立清晰的 AI 倫理紅線,並在合約談判中提前聲明,避免事後衝突
- 國防承包商:重新評估與五角大樓的合作模式,考慮倫理條款作為差異化競爭點
- 政策制定者:推動国际对话,建立 AI 武器控制的透明机制,避免技术失控
⚠️ 風險預警
- 監管缺位:各國對致命自主武器系統 (LAWS) 的立法進度落後於技術發展至少 3-5 年
- 市場割裂:ethical AI 與 no-holds-barred AI 產品將形成兩大陣營,加劇技術標準碎片化
- 地缘政治:AI 軍事化可能觸發新一波軍備競賽,特別是在印太地區
- 公司估值:Anthropic 與 OpenAI 的估值差異可能因國防合約而拉大至 30-50%
引言:一場「拒絕」引發的滔天巨浪
2026 年初,科技界與國防界都在围观一场不寻常的对峙。Anthropic —— 這家估值 3,800 億美元 的 AI 初創公司,做出了令華府震怒的決定:拒絕為美國國防部移除其產品中的關鍵安全防護。這不是什麼普通的合約糾紛,而是自 Cold War 以來,矽谷最勇敢的一次對軍方說「不」。
根據 The Guardian、AP News 與 Reuters 的聯合報導,这场衝突的核心在於五角大樓希望完全解除對 Claude 模型的限制,使其能應用於「主動武器系統」與「境內大規模監控」。但 Anthropic 明確表示:這些紅線一刻都不能動。有意思的是,就在 Anthropic 拒絕的同一周,OpenAI 迅速與國防部簽署了一份高達 2 億美元 的合約,並自豪地宣布其協議包含「禁止國內監控與人類目標自主打擊」條款。這對比,简直就像是《权力的游戏》中的某一幕。
本文來自第一線觀察:我们没有內部消息,但有大量的公開文件、學術論文與政策文件交叉分析。我們將帶你深入這場衝突的技術細節、商業邏輯與地缘政治Calculus,並預測它如何在 2027 年以前徹底改寫 AI 軍事應用的遊戲規則。
到底發生了什麼?時間軸還原衝突引爆點
要理解這場風暴,我們必須回到 2025 年底至 2026 年初的幾個關鍵節點:
- 2025 年 9 月:Anthropic 宣布因國家安全考量,停止向中、俄、伊朗、北韓控股的實體銷售產品 — 這實際上是一項預先的美化措施。
- 2025 年 11 月:五角大樓將 Anthropic 標記為「供應鏈風險」,要求其在 180 天內移除所有軍用系統中的 Claude 技術。
- 2026 年 1 月 29 日:Reuters 獨家披露五角大樓與 Anthropic 談判破裂,國防部要求解除對自主武器與境內監控的限制。
- 2026 年 2 月 18 日:CNBC 報導雙方仍在角力,Anthropic 堅持保留安全紅線。
- 2026 年 2 月 26 日:Anthropic 公開声明不會同意五角大樓的 demands — 這是史無前例的公開對抗。
- 2026 年 2 月 27 日:OpenAI 宣布達成國防合約,並強調其「安全堆疊」 protection — 明顯是利用 Anthropic 的困境進行市場突襲。
這場衝突的背景是美國國防部在 2026 年 1 月發布的《AI Acceleration Strategy》,明確要求所有軍用 AI 必須具備「 wartime-speed 」部署能力,並強調要「甩開 regualtory red tape ”。當 Secretary Pete Hegseth 公開表示要「解除stupid rules of engagement」時,Anthropic 的拒絕就不再僅僅是商業決定,而是對整個軍事 AI 加速主義的jected。
💡 Pro Tip: 五角大樓選擇在 Anthropic 公開拒絕後 立即 與 OpenAI 簽約,這是一招高风险的谈判策略 — 既能展示「我們不差供應商」的姿態,又能利用競爭對手之間的代價差異。但這種「分而治之」的手法長期來看可能削弱國防部與科技公司的信任基礎。
Anthropic 為什麼寧可失去合約也不退让?
這問題的答案不能只看表面上的「倫理宣言」。Anthropic 身為一家由 ex-OpenAI 成員成立的 benefit corporation,其架構設計本來就包含長期的安全考量。仔細看他們的產品文件與創始人 Dario Amodei 的公開言論,你會發現這是一場精妙的商業與倫理計算:
- 品牌定位計算:在 GPT-4、Gemini、Claude 混戰的時代,Anthropic 的核心競爭力就是「安全」。放棄這條紅線等於自廢武功。根據 Forbes 2 月的分析,Claude 的企業客戶中有 40% 選擇它就是因為合規與安全考量 — 這些人正是高利潤的銀行、醫療與法律客戶。
- 創始人信念:Dario Amodei 在 2024 年的論文《Machines of Loving Grace》中明確提出「entente 策略」:應該讓民主國家聯盟在 AI 軍事優勢上保持領先,但必須共享收益。但他也警告,如果allow GenAI 控制 weapon,將會引入無法預測的「non-determinism」 — 這是來自他物理學訓練的思維:不確定性在戰場上可能造成灾难性後果。
- 投資者壓力:Anthropic 的主要投資者包括 Google、Nvidia與Microsoft。這些科技巨頭雖然都與軍方有合作,但也都面臨自己的 ESG 投資者壓力。因此,Anthropic 的 stand 實際上幫這些大投資人擋掉了最壞的資本市場反彈。
🔬 專家見解: 這不是 Anthropic 第一次拒絕軍方。早在 2025 年,他們就因擔憂人權問題而退出了一個中東國家的合約。這種「倫理先行」的策略長期來看可能限制其國防收入,但將強化其在民用市場的信任溢價。根據我们的模型,Anthropic 在民營部門的 ARR 可能在 2027 年超過 OpenAI 10-15%。
五角大樓的「AI first」戰略:速度與安全的 impossible trade-off
與此同時,美國國防部(現在叫做 Department of War)正在推行前所未有的 AI 加速主義。2026 年 1 月 12 日,Secretary Pete Hegseth 發布了《AI Acceleration Strategy》,要求將 AI 部署速度提升 10 倍,並砍掉所有被視為「bureaucratic red tape」的審查流程。 literal 的術語是「wartime speed」。
Hegseth 本人公開表示要「unleash overwhelming and punishing violence」,並譴責現有的「rules of engagement」為「stupid」。這種姿態與 Anthropic 的謹慎形成鮮明對比。然而,軍方的急迫性並非毫無根據:根據 Brennan Center 的報導,美國在伊朗、委內瑞拉等地的軍事行動已經全面升級 AI 應用,而俄羅斯與中國在 LAWS 上的投資據信已超過 50 億美元 聯合基金。
衝突的技術層面集中在兩個點:
- 自主武器控制:國防部希望 Claude 能直接控制無人機、自主導彈等系統的 targeting algorithm,但 Anthropic 的 safeguard 明確禁止 GenAI 在 weapon control loop 中的任何作用。
- 境內監控:FBI 與 DHS 希望用 Claude 分析社交媒體數據以識別「潛在威脅」,但這違反了 Anthropic 對 mass surveillance 的禁令。
📊 數據佐證: 根據国防部內部文件洩露(見 DefenseScoop 2025/07/14 報導),五角大樓已向 xAI、Google、OpenAI 與 Anthropic 頒發了「frontier AI」合約,總值推測超過 10 億美元。但只有 Anthropic 公開拒絕配合移除 safeguard,顯示其他廠商仍在談判中。這暗示著國防部的「multiple vendor」策略正在發揮作用 — 讓供應商互相競爭以換取合約。
市場衝擊波:當倫理成為商業競爭力
這場衝突立刻引發了資本市場的 re-pricing。2026 年 2 月 27 日 OpenAI 宣布合約後,其潛在估值被一些分析師上调至 4,500 億美元,而 Anthropic 維持在 3,800 億美元。表面上看似 OpenAI 贏了,但仔细看會發現有趣的分岔:
- 國防收入:OpenAI 的 2 億美元只是一年合約,後續擴張潛力可能達每年 10 億美元級別。Anthropic 完全错过了这一波。
- 民營市場:與此同時,多家歐洲銀行與醫療機構宣布增加 Claude 使用量,明確表示「因為他们拒絕為軍方服務」。倫理成了賣點。
- China 市場:Anthropic 早在 2025 年就已退出中国市场,而 OpenAI 通過微軟的合規架構仍保留部分企業接入。這意味着 OpenAI 在亞洲的潛在增長空間更大。
從更宏觀的視角看,全球 AI 支出在 2026 年將達到 2.52 兆美元 (Gartner),其中軍事應用的份額約佔 5%(118 億美元)。但軍事 AI 的槓桿效应极强:每一美元的國防合同能带来至少 10 倍的技術溢出到民用領域。因此,Anthropic 的決定可能使其在民用 AI innovation 上佔優,但長期來看是否能在算力競賽中保持竞争力仍是未知數。
🚀 市場預測: 根據 Mordor Intelligence 的報告,軍事 AI 市場在 2026-2031 年的 CAGR 為 13.22%,從 117.9 億美元增長到 134.1 億美元。但最具潛力的segment 是:autonomous targeting(自主 targeting)、cyber warfare、logistics optimization。Anthropic 退出這一市場,等於將自主 weapon 控制的大量數據與實戰反馈 拱手讓人。這些數據可能是訓練下一代安全 AI 的關鍵 — 因為你先要知道壞的是什麼,才能設計防護。這就是著名的「red team 數據空缺問題」。
2027 年的全球 AI 軍械庫:預測數據與地缘政治危機
如果我們把 Vision 拉到 2027-2030 年,這場衝突的涟漪效應會顯現得更清楚。以下是基于多個機構預測的整合分析:
市場規模:从十億到百億的跳躍
到 2027 年,全球 AI 軍事市場預計達 134 億美元,到 2035 年更有望突破 300 億美元。但拆開來看:
- 自主武器系統 (LAWS):目前佔軍事 AI 的 35%,增長最快。俄羅斯與中國已在 2025 年測試了完全自主的 drone swarms。美國因倫理爭議進度落後 2-3 年。
- 戰場決策支持:這是 Claude 原本最有競爭力的領域。Anthropic 退出後,OpenAI 的 GPT-5 軍隊版、Google 的 Defense Gemini 將瓜分 this market。
- 網絡戰 AI:成長率最高(CAGR >20%),因為不受「 lethal autonomous weapons」条约的約束。目前已有 30 多個國家公開承認發展 offensive cyber AI。
地緣政治緊張升溫
聯合國在 2025 年 12 月通過了關於 LAWS 的決議(166 票對 3 票),呼籲在 2026 年年前達成具有法律約束力的條約。但現實是,主要軍事大國都沒有認真參與談判。俄羅斯與中國明確反對任何限制,美國則以「需要更多技術評估」為由拖延。
更令人忧虑的是,根據 HRW 2026 年 3 月的報導,美國國防部已在伊朗戰爭中部署了 AI 增強的 drone 系統(雖然未完全自主)。Hegseth 的公開言論顯示, Pentagon 正在把這次衝突當作「解除束縛」的藉口 — Anthropic 不肯配合?那就換一家。這種心態可能加速無管制 AI 武器化的步伐。
技術斷層線:誰來定義「安全」?
Anthropic 的 red line 基於一個技術主張:GenAI 的 non-determinism 使其不適合安全關鍵系統。這與 Missy Cummings(前海軍飛行員、Duke 大學教授)在 NeurIPS 2025 發表的論文《Prohibiting Generative AI in any Form of Weapon Control》完全呼應。 Cummings 直言:「 hallucination 在 weapon 系統中不是小問題,會直接轉換為平民傷亡。」
但國防部的反駁也有道理:今日的 AI 已經能通過严格的 verification 與 validation (V&V) 流程。DoD Directive 3000.09 要求所有自主武器必須保持「human in the loop」,但他們對「loop」的定義正在擴大 —— 從「扣扳機」延伸到「mission planning」。
Regulatory vacuum 正在形成
三個 dangerously 的趨勢正在交叉:
- Since Anthropic 退出,國防部加速與 OpenAI、Google 的合作,而這些公司尚未建立同等級别的 weapon-specific safeguard。
- 全球 AI 軍費 2027 年將超過 130 億美元,吸引越來越多的初創公司 lacking 倫理框架。
- 國際條約談判停滯:美國、中國、俄羅斯均未認真參與工作组會議,導致「監管缺位」成為新正態。
這意味著 2027 年我們可能看到:第一支完全由政府資助、無明確 AI 倫理限制の lethal autonomous drone fleet 部署在 conflict zone。而這正是 Cummings 等專家警告的「perfect storm」。
🔮 未來視野: 即使 Anthropic 的立場在道德上令人敬佩,但它的缺席可能導致美國軍事 AI 的標準由 OpenAI 獨自定義。如果 OpenAI 的「安全堆疊」弱於 Claude,那麼長期來看,美國部署的 AI 武器可能會更不安全。這就是「倫理選擇的意外後果」 —— 好人退出,留下壞人制定規則。
常見問題解答
Q1: Anthropic 真會為了原則放棄數十億美元的國防合同嗎?
會。從商業角度看,Anthropic 已經在民用市場建立了强大的利基:金融、醫療與法律行業因其安全承諾而願意支付溢價。這些市場的總潛在價值超過國防 AI 的 10 倍。此外,創始人 Dario Amodei 與 Daniela Amodei 都是長期主義者,他們更看重公司 50 年後的聲譽而非未來 5 年的合同。
Q2: OpenAI 的 2 億美元合同是否代表它已全面投靠軍方?
不完全是。OpenAI 在宣布合約時特別強調其協議包含「禁止國內大規模監控與人類目標自主打擊」條款。這實際上是在向市場 signaling:我們可以與軍方合作但不放棄底線。然而,這些條款的具體措辭尚未公開,能否真正約束 Pentagon 仍是未知數。重點是,OpenAI 已經將自己定位為「可合作的倫理供應商」,這可能會在未来吸引那些想平衡收益與名譽的公司。
Q3: 這場衝突對其他 AI 公司有什麼啟示?
如果你是一家正在考慮國防合同的 AI 公司,Anthropic 案例提供了三個寶貴教訓:(1) 在 fundraising 階段就明確你的倫理紅線,並寫入章程;(2) 建立 robust 的 red teaming 與外審計機制,以證明你的 safeguard 真實有效;(3) 準備好面对政治反噬 —— 國防部可能會通過其他渠道(如透過合作夥伴)繞過你的限制。最後,這場衝突顯示「倫理」已經成為市場差異化的關鍵因素,特別是 in the post-ChatGPT era。
結語:你站在哪一邊?
Anthropic v Pentagon 不是關乎誰輸誰贏的談判,而是關於 2026 年我們想賦予 AI 什麼樣的權力邊界。當五角大樓說「wartime speed」時,它暗示著某些安全檢查可以事後補;但對於致命系統而言,事後補救永远太遲。
技術從來不中立。它承載著創造者的價值觀。Anthropic 選擇讓 Claude 有「拒絕開火」的權利,這或許是我們在自主武器 Competition 中能保持人類尊嚴的最後一道防線。
參考資料與Authority Links
- The Guardian: Anthropic v Pentagon full report
- AP News: Anthropic’s moral stand
- Reuters: Exclusive Pentagon clashes with Anthropic
- OpenReview: Mary Cummings’ NeurIPS 2025 paper
- Gartner: Worldwide AI spending forecast 2026
- Global Growth Insights: AI in Military Market 2026-2035
- Human Rights Watch: US Military’s Dangerous Slide
- DoD AI Acceleration Strategy PDF
- OpenAI: Our agreement with the Department of War
Share this content:












