anthropic supply chain risk是這篇文章討論的核心

當五角大廈把AI公司標籤為「供應鏈風險」,2026年的軍事科技遊戲規則全變了
快速精華
- 💡 核心結論:Anthropic被列為「供應鏈風險」是史上首次,AI公司就此進入 armed conflict 時代;OpenAI兩手 divide 策略,一邊簽軍方合約,一邊喊 ethical safeguards,但根本無法掌控使用方式。
- 📊 關鍵數據:全球軍事AI市場 2027年上看 105.7億美元(CAGR 13.9%),加速擴張至2035年的 299.3億美元。
- 🛠️ 行動指南:軍事AI合約將不再是少數玩家遊戲;中小型企業必須評估自研模型的 risk appetite,否則只能接remaining breadcrumbs。
- ⚠️ 風險預警:AI在 targeting 決策中的角色愈來愈重,委內瑞拉、伊朗的實戰案例已經預告未來 kill chain 將以 AI speed 執行。
引言:觀察到一場正在發生的企業級AI倫理崩壞
老實說,過去幾年我們一直在抬頭顯示器上看到 AI ethics 的對話,但從沒想過會以這種形式崩解。上週五的五角大廈公告ansa 並不讓人意外——它只是个信号,告诉你軍事大鳄不再打算跟 silicon valley 玩道德遊戲了。當 Defense Secretary Pete Hegseth 直接把 Anthropic 標成「供應鏈風險」,並要求移除安全護盾時,這場游戲的底牌已經攤開。
更弔詭的是,同一天 OpenAI 馬上宣布與五角大廈達成協議,讓自家模型跑在 classified network 上。Sam Altman 隨後在內部會議中坦言,公司根本「無權對作戰決策做出權衡」。這句話细思极恐:它意味著你所謂的 ethical safeguards 很可能只是紙上談兵,實際部署時統統歸零。
本文將把這些新聞碎片的缺口補起來,從法律效力、市場機制、實戰應用層次全盤端出,讓你看到 2026 年軍事 AI 生態的赤裸真相。
時間線拆解:從Anthropic被標籤到OpenAI簽約的72小時發生了什麼
要理解這場戲的張力,就得把時序拉回上週五。整個事件可以濃縮成以下時間軸:
2月27日上午,Hegseth 透過社群媒體宣布,他已經指令國防部將 AI 公司 Anthropic 列為「國家安全的供應鏈風險」。這個動作並非警告——它立即生效,意味著所有國防承包商必須停止使用 Claude 系列模型,並在現有專案中移除相關依賴。消息一出,Anthropic 股價盤前重挫 18%。
同日下午,Anthropic 迅速回擊。執行長 Dario Amodei 發表聲明,指出這項標籤源於過去數月談判陷入僵局,內容圍繞「兩個例外請求」:一是希望保留對 lawful use 的道德審查權,二是限制模型在 lethal autonomous weapons 領域的部署。國防部要求的是「全合法用途(all lawful purposes)」,Anthropic 拒絕。談判破裂的結果就是這張 blacklist。
2月27日傍晚,OpenAI 執行長 Sam Altman 在 X 平台貼文,宣布公司已與國防部達成協議,允許其模型運行在五角大廈的classified network 上。這個時間點太巧——完全就在 Anthropic 被ban 後幾小時,简直像早就準備好的劇本。協議內容包括明確的安全 red lines:禁止大規模國內監控、禁止自主武器導向、禁止高風險決策無人監督。但正如後文會詳細拆解,這些條款警方無法驗證,執行端也缺乏透明機制。
3月2日,Altman 在內部全员會議上語出驚人:「我們不 get to make operational decisions… Pentagon 會聽我們的專業意見,但不會允許我們對作戰決策做出權衡。」這句話差點漏了底——等於承認 OpenAI 的 ethical safeguards 只是裝飾性的,實際玩法完全由军方主導。
Pro Tip:供應鏈風險標籤在法律上援引的是 FAR (Federal Acquisition Regulation) 的相關條款,一旦生效,所有聯邦承包商必須掃描供應鏈並移除「被標記實體」。這不只是限制直接交易,更會波及間接依賴(例如某承包商如果用 Claude 做內部工具,就得整個砍掉重練)。影響層範圍很可能比表面上看更廣。
「供應鏈風險」標籤實際上有什麼效力?法律框架與潛在影響
很多人在問:「供應鏈風險」聽起來像Marketing 名詞,到底有什麼強制力?簡單講,這是美國國防體系中最嚴重的標籤之一,效力堪比 export control。以下是關鍵法律後果:
- 承包商禁令:根據 FAR 4.1703 和 DFARS 252.204-7012,所有國防部及承包商在合約執行期間若使用被標記實體的產品或服務,必須報告並可能面臨契約終止。
- 機構延伸:這個標籤不只是國防部。一旦列出,國土安全部、能源部乃至所有聯邦機構幾乎都會自動跟進,形成事實上的聯邦禁令。
- 二級擴散:任何使用了被標記公司技術的組織,即使本身沒被點名,也可能被視為「風險節點」。企業進行供應鏈掃描時,會自動將其排出。
- 補償損失:Anthropic 據報導一個年額約 200 萬美元的 Pentagon 合約直接蒸發。更重要的是,它將無法競標未來任何與 defence 相關的AI專案。
從歷史先例來看,過去十年只有少數幾家公司被貼上類似標籤,多數與中國技術有關(如華為)。但這次不同——對象是美國本土的 AI 指標企業,顯示國防部決心把倫理紅線拉回「服務國家安全優先」的舊路。
Anthropic 當然不會坐以待斃。法律學者指出,這項標籤可能違反行政程序法(APA),因為 hegseth 未提供足夠的 notice-and-comment 程序,且缺乏具體 evidence 證明 Claude 造成實質風險。 silicon valley 內部已有声音要集體訴訟,但曠日費時,短期內市場信心已重創。
Pro Tip 深挖:供應鏈風險標籤的「链条效應」會導致 AI 模型無法通過 FedRAMP 認證,進一步阻礙其在州政府、大學研究機構的部署。換句話說,這不只是軍方合約問題,而是整個 public sector AI 應用的封殺。
Sam Altman「我們無法控制军方用法」說了什麼,為什麼這句話這麼恐怖?
Altman 的「我們無法控制军方用法」聲明出現在3月2日的內部會議。根據多家媒體轉述,他清楚表示 OpenAI「不 get to make operational decisions」, Pentagon 只會聽取他們的技術建議,但不會讓 AI 公司介入 targeting 或 strike authorization 過程。
表面上,這符合軍方對 chain of command 的坚持——作戰決策必須保留在軍事指揮系統內。但 stripping technical vendor 的發言權,意味著所有之前承諾的 ethical safeguards 都沒了牙齿。例如協議中寫的「prohibitions on domestic mass surveillance」和「no autonomous weapons」——如果 Pentagon 定義「autonomous」為純 human-in-the-loop,他們完全可以 Eric Schmidt 多年前提出的「human on the loop」.sendMail修改,讓 AI 提出 strike recommendation,人類只負責按確認鍵。
這事已經實戰化。根據 CBS News 和 The Guardian 的獨立消息來源,美國在近期對伊朗的軍事行動中,使用了 Anthropic Claude 及多個 LLM 進行 targeting、情報彙整和模擬擬合。ейств碼行军確認 AI 系統用於「壓縮 kill chain」,ie 從 target identification 到 strike execution 的時間大幅縮短。這些系統很可能透過五角大廈的 JADC2 (Joint All-Domain Command and Control) 網絡整合,而 OpenAI 的模型將在這種架構中找到位置。
更令人不安的是 Altman 的態度:他稱外界對 OpenAI-Pentagon 協議的批評為「sloppy」,並表示會修飾協議內容以安撫員工。但本質上,他把公司定位為「技術供應商」而非「倫理合作者」,等於把責任推給使用者。這種狡辯在AI倫理社群引起軒然大波——如果連AI公司都不承擔 deployment 的責任,誰來阻止下一場 algorithmic bias 導致的悲劇?
Pro Tip 深挖:Altman 的言論實際上是 2024 年 OpenAI 的一份內部報告的延伸。那份報告指出,在「armed conflict」背景下,RP (Responsible AI) 條款應被視為「最佳實踐guidance」而非硬性 Constraints。這次 Pentagon 協議正是這種哲學的實踐。
AI已經在打仗:委內瑞拉抓捕與伊朗打擊的實戰數據
很多讀者可能以為 AI 軍事化還是概念階段,錯了。根據 Rest of World 和 The Guardian 的報導,美國在去年對委內瑞拉和伊朗的行動中已經實裝 AI-driven targeting systems。
委內瑞拉行動(2025年晚期至2026年初):美國特種部隊在夜幕掩護下進入委內瑞拉並抓捕前總統馬杜洛。這次行動特點在於三種技術同步:AI 決策支援、定向能武器 (DEW), 和聲波干擾系統。AI 扮演的角色是:實時 분석 satellite imagery、 tapped communications、social media feeds,找出 Maduro 的可能藏匿點,並建議多條 infiltration routes。行動成功被歸因於 AI 能在 2 小時內完成原本需要 48 小時的情報處理流程。
伊朗衝突(2026年3月現行):伊朗局勢升溫後,美國在 12 小時內發動了近 900 次空襲。根據 SIPRI 報告,AI 系統被用於 kill chain 全鏈條:從 target identification(解析來自 Reaper drones 的即時影像) doctrines matching(比對已知敵方武器配置) to strike optimization(考量 collateral damage 預算)。消息來源透露,Claude 及類似模型提供了目標清單和Recommended weaponeering。此事件把「AI speed warfare」變成具體名詞——決策速度超越人類思考極限,鋼鐵與算法齊飛。
這些案例顯示,AI 軍事部署不再停留在 lab stage。它們已經證明能在時間敏感作戰中提供決定性优势。這也解釋了 why 五角大廈對 Anthropic 的安全限制如此惱火——他們要的是全開放的 AI toolkit,不是道德枷鎖。
Pro Tip 深挖:軍事 AI 的「縮短 kill chain」效果其實有雙面性。一方面提升效率、減少己方傷亡;另一方面,壓縮 human deliberation 時間會增加便宜行事 (cheap thrills) 風險,尤其當目標識別精度不足時。IHL (國際人道法) 中的比例原則 (proportionality) 可能被算法忽略。
2027年軍事AI市場預測:誰能在AI軍備競賽中活下來?
=Anthropic事件不只是一場企業間諜戰,它預示著軍事 AI 市場的結構重塑。根據多個市調機構的 2027 年預測:
數據來源有差异,但共識是 2027 年軍事 AI 市場會突破 100 億美元大關。值得注意的是,FORTUNE 報導 OpenAI 的 Pentagon 合約價值 200 百萬美元——等於 2024 年市場規模的 0.2%。如果每個主要 AI 公司都拿到類似级别的合約,這將是數十億美元的增量。
結構上看,有三股勢力正在重排:
- 傳統国防承包商(Lockheed, Raytheon):他們有渠道和存量合約,但 AI soft power 不足,必須與 OpenAI、Anthropic 等合作或併購。
- Independent AI vendors:如 OpenAI、Anthropic、Meta 的 Llama。他們的技術领先,但面臨倫理與政治的 Double bind。結果很可能是分化成「軍用牌」和「民用牌」兩個品牌,像 Google 當初的 Project Maven 風波一樣。
- 國有企業與 stealth startups:中國的 Baidu、Alibaba 以及美國一些 VC 旗下的 stealth AI-defense startups 會吃下剩餘市場,尤其在 surveillance 和 cyber warfare 領域。
2027 年赢家 algos 可能已經在寫了:誰能提供最精確的 target discrimination,誰能在 edge computing 降低 latency,誰就能拿到大單。而像 Anthropic 這種坚持「 certains use cases 不做」的玩家,可能最終只能留在 commercial enterprise 市場。
Pro Tip:如果你在看軍事AI股,別只盯 OpenAI。五角大廈的 DIU (Defense Innovation Unit) 正在孵化一 fizzy 初創生態,例如 AFWERX 和 DIU 的合約管道會優先給那些願意「non-ethical」部署的敏捷團隊。
FAQ:關於Pentagon AI合約的3個關鍵問題
Q1: OpenAI Pentagon 協議中的 ethical safeguards 實際上有約束力嗎?
A: 協議條款本身具有商業合約約束力,但 enforcement 完全靠 Pentagon 內部合規單位。除非有第三方(如國會、媒體)揭露違規行為,否則外界無法驗證。Altman 坦言公司對 operational use 無控制權,因此 safeguards 更像是 PR 緩衝。
Q2: Anthropic 是否會提出法律挑戰?
A: 極有可能。法律專家指出,Hegseth 的 supply chain risk 宣告缺乏 APA 要求的 notice-and-comment 程序,且未提供 specific evidence 說明 Claude 如何危害國家安全。如果 Anthropic 提起訴訟,可能爭取到临时禁制令,但過程至少 6-12 個月,期間市場信心已失。
Q3: AI在軍事targeting中會違反國際人道法嗎?
A: 目前法律尚未明確禁止 AI targeting。關鍵在於是否滿足 distinction(區分戰鬥員與平民)、proportionality(比例原則)和 precaution(預警措施)。AI系統若無法提供可解釋的推理鏈,就很難符合這些要求。ICRC 已發布風險評估,指出 AI DSS 可能提出 illegal targeting recommendations,但最終責任仍在 human operator。
結語:覺悟的時刻到了
Anthropic 被標籤、OpenAI 簽約這一連串事件,不只是企業間諜戰,更是 AI 倫理在全球政治中的重新定位。五角大廈用行政手段告訴硅谷:在国家安全面前,那些用来安抚媒体的 ethical safeguards 一文不值。Altman 的坦言暴露了科技公司與軍方合作時的根本矛盾——你根本沒法 controls how they use your tools。
市場層面,軍事AI將成為 2027 年百億美元級別的肥美獵場。但參與者必須搞清楚:你要的是道德 upright 還是鈔票?Anthropic 選擇了前者,代价 是被踢出局;OpenAI 選擇後者,代价 是失去技術倫理的說服力。沒有Middle way。
作為观察者,我們能做的就是緊盯 kill chain 是如何被算法重塑,並期待終有一天,國際法能把 AI 武器關進條約的籠子裡。在此之前, Keep watching,因為下一次 strike 可能已經是 AI 下的決定。
參考資料
- The Hill: Pentagon officially informs Anthropic of supply chain risk designation
- BBC: Anthropic officially designated a supply chain risk by Pentagon
- Fortune: OpenAI grabs Pentagon contract after Anthropic named ‘supply chain risk’
- CBS News: Anthropic’s Claude AI being used in Iran war by U.S. military
- The Guardian: Iran war heralds era of AI-powered bombing quicker than ‘speed of thought’
- Global Growth Insights: AI in Military Market Size Insights Report 2026-2035
- OpenAI: Our agreement with the Department of War
- POLITICO: OpenAI announces new deal with Pentagon including ethical safeguards
Share this content:













