人工智慧(AI)技術的快速發展正在改變世界,但其在網路安全領域扮演著雙面刃的角色。安全廠商可以使用 AI 提升防護能力,但威脅行動者也可以藉助 AI 發動更具破壞性的攻擊。根據 Palo Alto Networks 旗下 Unit 42 威脅研究團隊的最新研究發現,利用大型語言模型(LLM)不但能生成新的惡意 JavaScript 程式碼變種,還可以大規模「量產」,甚至可以更有效地規避安全偵測,讓網路安全面臨前所未有的威脅。
AI 武器化:惡意軟體變種的「量產」時代
犯罪分子可以利用 LLM 重寫或混淆現有惡意軟體,使其更難偵測。LLM 也可以誘導更自然的程式碼轉換,進一步提升惡意軟體的偵測難度。隨著時間推移和足夠次數的轉換,惡意軟體分類系統甚至會將這些被轉換或混淆的惡意程式碼視為「良性」。
Unit 42 研究表明,利用 LLM 反覆重寫現有的惡意軟體樣本,可以成功創建 1 萬種 JavaScript 新變種,且這些變種能夠有效地規避現有的深度學習模型偵測。透過對抗性機器學習技術,這些變種能夠保持原始腳本的相同行為,同時獲得更低的惡意評分,甚至能夠在 VirusTotal 平台上逃避其他惡意軟體分析器的偵測。
AI 安全防禦的挑戰
傳統的惡意軟體偵測機制主要依靠模式匹配和特徵碼比對,但在 LLM 的幫助下,駭客能夠快速生成大量的變種,這些變種可能會繞過傳統的防禦機制。
除了傳統的防禦機制外,安全廠商也需要開發更先進的 AI 技術,例如使用深度學習模型進行惡意軟體偵測,以及採用機器學習來分析網路流量和行為模式,以便及早發現和阻止攻擊。
相關實例
WormGPT 是一款由不法分子宣傳的駭客工具,可以自動化製作網路釣魚電子郵件,並設計全新的惡意軟體。這說明 LLM 的惡意濫用情況正在猖獗。
OpenAI 10 月自我揭露封鎖 20 多個試圖利用平台進行偵察、漏洞研究、腳本支援(scripting support)和除錯的惡意行動與欺敵網路,進一步說明當前 LLM 模型遭到攻擊與濫用的情況有多麼嚴重。
AI 武器化的影響分析
AI 可以幫助安全研究人員更有效地分析惡意軟體,並開發新的防禦技術。AI 也能協助自動化一些安全任務,例如漏洞掃描和入侵偵測。
AI 技術的濫用會加劇網路安全威脅,使攻擊更難偵測和防禦。AI 技術的發展也會帶來新的安全漏洞,需要更強大的安全措施來應對。
AI 武器化:未來展望
未來,安全廠商和威脅行動者之間將會展開一場持續的軍備競賽,雙方都會使用 AI 技術來提升自身的能力。這意味著安全領域將會更加複雜,需要更先進的技術和策略才能應對新的威脅。
未來,安全防禦需要更加重視 AI 的運用,例如開發更智能的惡意軟體偵測系統、使用機器學習來分析網路流量和行為模式、以及採用 AI 來自動化安全任務。同時,也需要關注 AI 安全的相關議題,例如 AI 模型的安全性和可解釋性。
Share this content: