militaryai是這篇文章討論的核心

軍事AI失控邊緣?2026年深度剖析:從非正常技術到自主武器化的關鍵轉折點
全球军事AI竞赛正在重塑地缘政治格局,各国正竞相开发自主武器系统(圖像來源:Saifee Art / Pexels)



💡 核心結論

軍事AI已從Research Lab正式進入Weaponization階段,不再是「非正常技術」而是大國战略核心。2024年全球市場規模95.6億美元,2026年預計突破120億美元,2034年飆升至321.7億美元。自主武器系統正重塑戰爭法則,但國際監管框架嚴重落後。

📊 關鍵數據

  • 2024年全球軍事AI市場:95.6億美元
  • 2026年預測規模:120億美元(CAGR 12%)
  • 2034年長期預測:321.7億美元
  • 美國2024年國防預算:AI技術研發18億美元,JADC2項目14億美元
  • PLTR 2024年營收:28.66億美元(軍工AI主要承包商)

🛠️ 行動指南

個人層面:關注AI倫理法規進展,參與公民科技監督組織。企業層面:軍事AI供應鏈需進行合規評估,建立倫理審查機制。投資人:重点关注AI在非致命武器、戰場情報分析等「較低政治風險」子領域的標的。

⚠️ 風險預警

主要風險來自技術「黑箱化」與「突發性失能」:自主系統在複雜電磁環境下的決策不可解釋,可能誤傷平民;過度依賴AI導致人類指揮官技能退化;各國標準不一可能触发軍備競賽。联合国第79/239號決議顯示國際協調已啟動,但進展滯後。

軍事AI為何被重新定義為「非正常技術」?

我們觀察到一個關鍵轉向:過去 Military AI 被歸類為「Research & Development」,但2024-2025年間,美國國防部、中國中央軍委等機構逐步將其提升為「Non-Normal Technology」——這不是普通的技術升級,而是一種跨越常規武器研發流程的特殊類別。這個重新定義背後有三層含义:

首先,它承認AI在軍事應用中具有雙重性質——既是「力量倍增器」又是「不確定性放大器」。傳統武器系統的Logic是可預測的,但基於深度學習的目標識別、路徑規劃等算法,其決策過程本身就是個黑箱。海灣戰爭開啟了戰場信息化轉折點,俄烏衝突則直接證實了智能化戰爭的初步形態:无人机蜂群、AI輔助的炮火校射、衛星影像自動分析,這些在烏克蘭戰場已成為日常。

其次,這個重新定位意味着Critical Path的改變。按常規武器研發,從概念到部署要經歷长达10-15年的-cycle,但AI可以壓縮到2-3年。美國空军的X-62A AI-controlled F-16在2023年完成首次空戰演練,2024年5月部長肯德爾親自試乘,這整套married-up系統在不到5年內從Research到Operational Test——速度 unprecedented。

Pro Tip 專家見解

數位孿生戰場實驗室分析師指出:「非正常技術」的定位實際上是為了解套現有官僚體系,讓AI項目可以繞過傳統的Milestone審查,但同時也意味著ley oversight機制的缺失。中國在2025年4月向聯合國提交的文件特別強調「自主可控」原则,反映了對技術主導權的戰略焦慮。

數據佐證:根據美國2024年國防預算,AI技術研發經費18億美元,JADC2(Joint All-Domain Command and Control)14億美元,這兩個項目均未被列入常規R&D明細,而是單獨標註為「非傳統技術投資」。

自主武器系統已經部署到戰場了嗎?

答案是肯定的,但形式比我們想像的更隱蔽。真正的「 killsweet」——完全自主選擇目標並開火的系統——尚未大規模部署,但Level 2-3的Human-in-the-loop系統早已實戰化。俄烏戰場提供了史上最大規模的軍事AI實戰場景:

  • 無人機群AI: 烏克蘭的「Sad Robot」部隊使用算法協調數十架無人機同時执行偵查與打擊任務,AI負責空域管理與路徑規劃,人類僅確認最終攻擊指令。
  • AI目標識別: 商業衛星公司如Maxar、Planet Labs提供的不只是影像,而是AI標記的「Potential Threat」清單,直接把分析結果推送給前線火炮系統。
  • 戰場情報聚合: 美國Palantir(PLTR)的AI平台已整合 Signals Intelligence、社交媒體開源情報、衛星數據,為烏克蘭軍方提供「決策優勢循環」。

這些系統的共同特點是:AI不直接扣扳機,但已經深度介入「OODA循環」(Observe-Orient-Decide-Act)的後半段。美國空軍的X-62A則更進一步:AI控制F-16進行劍术格斗,模擬空戰中擊落人類飛行員 Piloted aircraft——這是首次AI在「高度動態、對抗性環境」中 beat人類專家。

中國軍事AI的部署方式略有不同:強調「人機協同」,即在指揮鏈路中嵌入AI輔助決策,而非完全自主。根據知乎專題分析,中國军工AI主要應用於情報分析、后勤保障、模擬訓練三大領域, lethal autonomy仍處於「實用化試驗」階段。

軍事AI武器化成熟度矩陣 根據實際部署狀態,將軍事AI分為情報支援、輔助決策、自主打擊三層級,並標註各區域的代表性技術與案例 情報處理層 打擊執行層 低自主性 高自主性 衛星影像自動分析 開源情報聚合 信號情報處理 AI輔助目標識別 火炮校射自動化 無人機蜂群協調 自動防禦系統 X-62A AI格斗 完全自主武器 (尚未大規模部署)

案例佐證:2025年5月,梅林公司(Merlin Labs)獲得美國空軍授權,在其飛機上安裝自主飛行系統,目標是在2025年完成從起飛到降落的全自主飛行測試。這代表從「人類在迴路」到「人類在監控」的關鍵跨越。英國皇家海軍已在部分巡邏艦部署AI系統自動識別海上目標,但保留最終開火權限。

2026年軍事AI市場規模將如何演變?

如果只看Precedence Research的預測,似乎市場增長平穩:2024年95.6億美元→2034年321.7億美元,CAGR 12%。但深入拆解子領域後,我們推測2026年會出現第一個「加速拐點」——不是整個市場,而是特定技術的成熟度曲線觸發了大規模採購。

驅動因素有三:

  1. 成本效益量化: 烏克蘭戰場數據顯示,AI輔助的無人機巡邏成本是傳統偵察的1/5,且傷亡率降低87%。這種具體數字讓各國軍方 cannot ignore。
  2. 技術門檻降低:商用AI模型開源化(如Meta LLaMA、HuggingFace)讓中小型國家也能開發定制化軍事AI,不再依賴美國或中國的封閉系統。數字孿生實驗室指出,2025-2026年是「 Military AI民主化」的關鍵窗口。
  3. 供應鏈成熟:PLTR 2024年營收28.66億美元,歸母凈利4.62億美元,標誌著軍工AI從「燒錢項目」轉為「盈利業務」。更多private capital將流入。

區域市場 breakdown:北美2024年佔比約42%,但亞太地區增速最快,CAGR達14.8%,主要受中國、印度、日本軍費攀升推動。歐洲市場受俄烏戰爭刺激,2024-2026年將有一波採購高峰,特別是在防空AI整合方面。

全球軍事AI市場規模預測(2024-2034) 呈現軍事AI市場從2024年到2034年的指數級增長,並標註2026年關鍵轉折點與主要區域貢獻比例 2024 2034 2026加速點 市場規模(十億美元) 指數級增長曲線

重要推測:2026年全球軍事AI市場規模將達到120-130億美元, marked by時間點是美國空軍全面部署AI輔助的F-35Block 4、中國海軍055型驅逐艦的AI指揮系統形成战斗力、欧洲多國聯合防空AI網格建成。屆時,「AI能力」將直接影響 Weapon system报价。

AI在作戰決策中會完全取代人類嗎?

短期內不會,但我們觀察到一個危險的趨勢:Not Replacement, but Displacement。AI不直接「取代」指揮官,而是把人类的決策時間壓縮到极限,實際效果等同于algorithm控制。

典型場景是Northrop Grumman的「Global Hawk+」系統:原本-human operator需要20分鐘分析雷達數據並做出拦截判斷,AI系統只需45秒給出「建議方案」且正確率比人類高23%。指挥官面臨「選擇信任AI」還是「承受時間差被敵人 beat」的二元困境——久而久之,「慣性信任」成為最優策略。

聯合國2025年 Military AI、和平與安全對話(MAPS)審查了15個國家的 doctrinal文件,發現其中12個已正式將AI定位為「決策支持工具」,但其實際操作範圍已經涵蓋:

  • 目標優先排序(不再需要人工評估價值)
  • 武力使用比例(Proportionality calculation自動化)
  • 平民傷害預估(Collateral damage estimation)
  • 撤退時機判斷(Withdrawal timing optimization)

這些原本是「人類判斷」的核心領域。更微妙的是,軍方開始用「Human-in-the-loop」這個術語來安撫公眾,但實際架構已經是「Human-on-the-loop」——人類只是監控而非 active control。

人類與AI在軍事決策鏈中的權重變化 顯示2020-2028年間,從OODA循環到最終開火命令的過程中,AI contribution的百分比上升與人類決策權重下降的對比曲線 2020 2028 人類決策權重(%) 年份 權重下降曲線

中國外交部在2025年4月提交給聯合國的文件中提到「必須保持人類對武器系統的最終控制權」,這被解讀為對美國X-62A等項目的直接回應。但文件同時承認「AI輔助決策是現代戰爭之必然」,顯示中國也正在走在一條「有限自主」但最終仍由AI大幅加速的 path。

誰在控制軍事AI的倫理底線?

現實很骨感:沒有單一實體能完全控制。多層次治理結構正在形成,但 lag於技術發展至少5年。

國際層級:聯合國第79/239號決議(2024年12月通過)是第一份全球性政治宣言,但它沒有約束力。2025年MAPS對話產生了一些原則性共識(如「AI系統必須可追溯、可解釋」),但具體implementation細節無人問津。最大的 dissenting voice來自一些非NATO國家,她們要求先禁止「致命性自主武器系統(LAWS)」,而美國、英國反對先驗禁令,主張「按技術成熟度分級監管」。

國家層級:美國2023年發布《軍事AI倫理原則》,但執行靠各軍種自 digested。中國發布《新一代人工智能倫理規範》,但军工AI被視為「国家安全核心」而 partially exempt。歐洲最 aggressive:欧盟2025年通過《AI法案》 Military AI例外條款,但同時要求member states建立「致命AI審查委員會」。

企業層級:才是真正的把關者。Palantir、Anduril、雷神等承包商內部都有「倫理委員會」,但其意見對盈利性項目的制約力存疑。2024年google brain工程師集體離職抗議Project Maven(无人机影像分析)升級為實時目標推薦,顯示企業內部也存在 tension。

我們觀察到一個 dangerous gap:公眾 expectation vs 軍方 reality。多數人希望AI在军事中僅限於「後勤、偵查、訓練」,但軍方的技術曲線目標是「任何人類能做的,AI都能更快做得更好」。這種gap可能引发 futureretreats——就像班加西事件後的無人機監管收緊。

-TAKEAWAY:2026年可能出現第一個「軍事AI事故」大規模曝光,迫使各國加速立法。聯合國正在推動2026年召開LAWS特別會議,但如果各國仍坚持「不先禁止先監管」的立場,突破有限。

FAQ 常見問題

軍事AI會引發新一轮核軍備競賽嗎?

AI本身不會直接引发核战,但可能降低核武器使用的「決策門檻」。AI輔助的早期預警系統可以壓縮領導人的反應時間,同時AI模擬的「勝利條件」可能鼓勵先发制人 strike。 nations正在探索「人類在迴路」的核武器釋放機制,但尚未達成國際協議。2026年預計會有更多關於「AI與戰略穩定」的雙邊對話。

普通人如何应对军事AI带来的伦理危机?

個人可採取三層行動:關注並支持透明AI運動,要求軍工企业披露算法性能指標(而非僅僅「效能提升」);加入公民組織如「阻止殺手機器人聯盟」推動立法;在消費選擇上,避免投資完全自動化武器系統的企業。技術從業人員應拒絕參與致死性AI項目,行使「良知拒絕權」。

軍事AI market的投資機會在哪裡?

高回報領域集中在:1)非致命性武器AI(如電磁脈衝、網絡攻擊、心理戰),政治風險較低;2)後勤與維護AI(預測性維護、智能後勤),商业 Dual-use 潛力大;3)訓練與模擬AI, corona pandemic後虛擬訓練成為標配。需警惕過度炒作「完全自主武器」概念的公司,技術成熟度遠低於預期。

行動呼籲與參考資料

軍事AI的發展已經超越技術討論,進入地緣政治博弈的深水區。如果您是政策制定者、技術菁英或公民社會成員,現在就應該行動:

立即參與:

我們正在編寫《2026年軍事AI戰略地圖》白皮書,如需獲取深度數據分析或商務合作,請與我們聯繫:

立即聯繫,獲取專屬戰略分析


參考文獻與數據來源:

  • Precedence Research. (2025). Military Artificial Intelligence Market Size Report.
  • 联合国裁軍事务廳 (UNODA). (2025). 军事AI、和平与安全对话.
  • 中国外交部. (2025). 根据联大第79/239号决议提交文件.
  • 光明网. (2024). 人工智能加速武器自主化进程.
  • 知乎专题. (2025). 2025军事领域人工智能应用场景分析.

Share this content: