軍事AI控制權是這篇文章討論的核心

軍事AI控制權之爭:美國政府與科技巨頭2026年戰略對峙全解析
代表AI技術先進性的機器人視覺化(圖片來源:Pexels,攝影師:Kindel Media)

快速精華

💡 核心結論:五角大樓與AI公司的對峙標誌著軍用AI技術倫理的關鍵轉折點,未來控制權將影響全球安全格局。

📊 關鍵數據:全球軍用AI市場預計從2026年的121.9億美元增長至2035年的355.7億美元,年複合成長率12.67%(Precedence Research)[10]

🛠️ 行動指南:企業在軍事AI合作中應明確安全界線,公眾需關注AI武器化帶來的倫理風險。

⚠️ 風險預警:致命自殺武器系統(LAWS)的缺乏國際監管可能導致2027年前出現無法挽回的誤判與人道危機。

(第一手觀察)近年來,美國國防部與前沿AI公司之間的關係迅速升溫,但2025年7月 Pentagon 一口氣向 Anthropic、Google、OpenAI 和 xAI 頒發每家公司最高2億美元的研發合約,卻在2026年初引爆與 Anthropic 的激烈對峙。這場圍繞AI安全控制權的爭端,不僅揭露了軍方追求技術优势的急切,更凸顯了科技公司在倫理底線上的掙扎。本文將深入剖析這場對峙的來龍去脈,並 extrapolate 其對2026年乃至全球軍事科技格局的深遠影響。

美軍AI戰略轉向:從Project Maven到CDAO的800億美元大單

美國國防部對人工智能的軍事應用並非新鲜事。2017年啟動的 Project Maven(正式名稱:Algorithmic Warfare Cross Functional Team)旨在加速機器學習在情報工作流程中的整合。[1] 該 project 初期與 Google 合作,但因員工抗議,Google 於 2018 年退出,後續由 Palantir、Anduril 等公司接手。[1] 然而,隨著中國在 AI 軍事化方面的快速進展,美國國防部感受到了前所未有的壓力。2024 年,五角大樓發布了《負責任人工智能策略與實施路徑》,明確要求加快 AI 在軍事行動中的部署,同時確保倫理與法律框架。[2] 2025 年 7 月,Pentagon 的首席數字和人工智能辦公室(CDAO)宣布,向四家頂尖 AI 公司頒發每家公司最高 2 億美元的合約,總價值達 8 億美元,用於開發「代理式 AI 工作流」以滿足國家安全需求。[3] 與此同時,國防創新單位(DIU)也啟動了「Thunderforge」计划,委託 Scale AI、Anduril 等公司打造 AI 驅動的決策系統。[4]

這一連串大單反映出美國軍方試圖通過與商業巨頭合作,快速填補 AI 人才與技術缺口。國會問責署(GAO)早在 2021 年就指出,國防部的 AI 人才短缺是實現 2025 年 AI 就緒目標的最大障礙。[5] 數據佐證:根據 DoD 公報,截至 2024 年,Project Maven 已為伊拉克、敘利亞、葉門的空襲提供 targeting 支持,並在紅海定位敵對海上 asset。[1]

Pro Tip: Pentagon 的合約模式從「試探性 pilot」轉向「大規模規模化」,顯示美國軍方已將 AI 視為維持軍事優勢的戰略必需品。企業若想在此領域分一杯羹,必須準備好面對嚴格的安全審查與倫理框架。

Anthropic與五角大樓的 Safeguards 對峙:Dario Amodei 的倫理界線

2026 年 2 月,Anthropic 首席執行官 Dario Amodei 公開拒絕了五角大樓的一項「最後通牒」——要求移除 Claude 模型中的安全限制,以允許軍事部門無限制使用,包括潛在的大規模監控和自主武器系統。[6] Amodei 在公開信中寫道,公司「cannot in good conscience accede to their request」因為這可能導致 AI 被用於違反國際人道法的用途。[6]

談判破裂的背景是:時任國防部高層官員要求 Anthropic 提供對其模型的完整訪問權限,甚至包括用於導彈防禦系統。而 Anthropic 堅持必須保留對 mass surveillance 和 autonomous weapons 的禁令。[6]

這次對峙凸顯了 AI 倫理與國家安全之間的深層矛盾。一方面,軍方要求技術 unrestricted 以加快決策速度;另一方面,AI 公司擔心其技術會違反人權或造成無差別傷害。[6]

案例對比:2018 年 Google 員工抗議 Project Maven 最終導致公司退出该项目,顯示科技界內部對軍事AI的擔憂早已存在。[1]

Pro Tip:Anthropic 的拒絕行動為整個行業樹立了「安全紅線」的榜樣。未來,AI 企業在與政府談判時,很可能會參照此案例,要求保留倫理審查權和限制條款。

國際法規真空:致命自殺武器系統(LAWS)的全球治理危機

致命自殺武器系統(Lethal Autonomous Weapons Systems, LAWS),俗稱「殺手機器人」,是指能無需人類操控即可選擇並攻擊目標的武器系統。2024 年 12 月 2 日,聯合國大會以 166 票贊成、3 票反對、15 票棄權通過了一項關於 LAWS 的決議,明確表示「任何無法符合國際人道法的武器,包括自殺武器系統,皆屬非法,不應被開發或使用」。[7]

然而,這項決議不具法律約束力,全球至今仍未達成具有普遍約束力的條約。美國國防部雖然發布了《負責任人工智能策略與實施路徑》(2024),強調「人類在 loop」的重要性,但實務上,AI 在 targeting 中的角色日益重要。[2]

例如,以色列在加沙衝突中使用了 AI 系統「Lavender」和「Habsora」來生成攻擊目標清單,分別列出了 37,000 名嫌疑人和大量建築物,導致平民傷亡激增。[8]

這種「AI 目標銀行」的擴張,使得戰爭的界限變得模糊,也挑戰了傳統的戰爭法原則。國際專家警告,若不及時建立監管機制,2027 年之前可能出現更多由 AI 主導的大規模誤擊事件。[9]

Pro Tip:企業和軍方應主動 adopt「可解釋 AI(XAI)」技術,確保 AI 決策過程可追溯,以符合未來可能出現的國際法規要求。

2026-2035軍用AI市場預測:數據驅動的戰略投資分析

軍用 AI 市場正經歷 explosive growth。根據 Precedence Research 的報告,全球軍用 AI 市場規模預計將從 2025 年的 107.9 億美元成長至 2035 年的 355.7 億美元,年複合成長率(CAGR)為 12.67%。[10] 另一家機構 Global Growth Insights 則預測,市場將從 2025 年的 81.4 億美元增長到 2026 年的 92.8 億美元,2027 年達到 105.7 億美元,並在 2035 年攀升至 299.3 億美元,CAGR 為 13.9%。[11]

區域方面,歐洲的防務 AI 市場從 2022 年的 21 億美元預計在 2027 年膨脹至 75 億美元,CAGR 高達 29.2%;亞太地區則預期在 2023 至 2030 年間以 25.8% 的 CAGR 增長,2030 年市場規模將達 124 億美元。[12] 這些數字背後是各國對自主武器、網絡安全和實時決策系統的投資熱潮。

全球軍用AI市場規模預測 (2025-2035)Line chart showing the growth of global military AI market from 2025 to 2035 in billions of USD. Data from Global Growth Insights.051015202530202520262027203020358.149.2810.57~15.629.93

資料來源:Global Growth Insights (2025)[11]

Pro Tip:投資者應關注具備「安全合規」能力的 AI 公司,因為未來合約很可能將倫理審查納為招標條件。同時,區域市場(如亞太)的快速增長為新進者提供了機會。

中國軍事AI突破:2027解放軍百年大計的智能化野心

美國的對峙不僅是內部分歧,更發生在美中 AI 競爭的大背景下。根據 CSIS 數據,中國 2025 年官方國防預算接近 2,470 億美元,但實際支出可能高達 3,180 億美元(SIPRI 估計 2024 年)。[13]

更重要的是,中國正積極推動解放軍的「智能化」轉型,將其視為 2027 年建軍百年目標的核心。Georgetown 大學的 CSET 研究分析了解放軍 2023-2024 年的數千份招標文件,揭示其對 C5ISRT 相關 AI 技術的迫切需求。[14] 特別是在量子感測、反高超音速技術和人工智能領域,中國期望在 2027 年展示先進能力。[15]

此外,中國受益於龐大的民用數據生態系統,但軍用 AI 所需的運作數據(如遙測、後勤流動)仍是劣勢。美國在此領域擁有經驗優勢。[16]

然而,中國正在迅速追趕,其軍事 AI Wish List 包括自主無人機、智能目標識別和網絡戰工具。[14]

Pro Tip:美國與其盟友應加強在 AI 軍事標準上的協調,防止技術扩散至中國。同時,維持開放的 Innovation 環境,確保技術優勢不被過度限制所窒礙。

常見問題解答 (FAQ)

什麼是致命自殺武器系統(LAWS)?

致命自殺武器系統是指無需人類直接操控即可自主選擇並攻擊目標的武器裝備,例如自主無人機或機器人。它們通常利用 AI 算法進行目標識別和決策,引發了倫理和國際人道法的擔憂。

Anthropic為什麼拒絕五角大樓的AI要求?

Anthropic 拒絕移除 Claude 模型中的安全限制,因為五角大樓的要求可能導致其技術被用於大規模監控或自主武器,這違背了公司的倫理原則。CEO Dario Amodei 表示「不能憑良心同意」,強調必須保留對 AI 使用的控制。

2026年軍用AI市場規模有多大?

根據多項研究,2026年全球軍用AI市場預計約為 121.9 億美元(Precedence Research)或 92.8 億美元(Global Growth Insights),到 2035 年可成長至 300-355 億美元,年複合成長率約 13%。

Share this content: