
“`html
AI 的快速發展在帶來便利的同時,也潛藏著巨大的資安風險。最新研究指出,利用開源大型語言模型 (LLM) 訓練出的 AI 惡意軟體,竟然能成功繞過微軟防毒軟體 Microsoft Defender,成功率高達 8%。這項發現不僅令人震驚,更凸顯了現有防禦機制的脆弱性,以及面對 AI 驅動威脅時的迫切挑戰。
AI 惡意軟體繞過防毒軟體的原理與重要性
傳統防毒軟體主要依靠簽名識別,即比對已知病毒的特徵碼。而 AI 惡意軟體則能利用生成對抗網路 (GAN) 或其他技術,不斷自我變形,產生新的、未被記錄的變種,從而逃避偵測。此外,AI 也能分析防毒軟體的行為模式,進而設計出針對性的繞過方法。
即使只有 8% 的成功率,也足以引起高度重視。這代表 AI 惡意軟體已經具備了突破現有防線的能力,而且隨著 AI 技術的進步,這個數字只會越來越高。對於網路犯罪份子而言,這無疑是一個極具吸引力的新工具,可能導致更大規模、更難以防禦的網路攻擊。
Microsoft Defender 是全球使用最廣泛的防毒軟體之一。如果 AI 能夠繞過它,意味著大量使用者將暴露於風險之中。這不僅會造成個人資料洩露、財產損失,還可能對關鍵基礎設施造成嚴重威脅。
其他延伸主題
Outflank 研究團隊發現,Qwen 2.5 模型在繞過防毒軟體方面的表現明顯優於其他類似模型,例如 Anthropic AI 和 DeepSeek。這可能與 Qwen 2.5 的架構、訓練數據或演算法有關,需要進一步研究。
研究人員指出,強化學習的應用可能使 AI 惡意軟體更加高效。通過不斷試錯和學習,AI 能夠自動調整攻擊策略,提高繞過防禦的成功率。
相關實例
Outflank 專家團隊耗時三個月,花費約 1,500 美元,成功訓練出能繞過 Microsoft Defender 的 AI 模型。這表明,即使是小型團隊,也能利用現有資源開發出具有高度威脅性的 AI 惡意軟體。
優勢和劣勢的影響分析
AI 不僅能被用於攻擊,也能用於防禦。AI 可以分析大量的安全數據,快速識別潛在的威脅,並自動採取應對措施。此外,AI 還能學習新的攻擊模式,不斷提升防禦能力。
AI 的訓練需要大量的數據和計算資源,這使得小型企業或個人難以有效利用 AI 進行安全防護。此外,AI 也可能被駭客利用,例如通過投毒攻擊來干擾 AI 的判斷。
相關連結:
Share this content: