隨著人工智慧的快速發展,其應用領域也越來越廣泛。近年來,軍事領域也開始積極探索人工智慧的潛力,希望利用 AI 技術提升軍事能力,這也引發了各界對 AI 在軍事領域應用倫理和安全性的擔憂。最近,有消息指出中國軍方研究人員疑似利用 Meta 公司的 AI 模型開發國防聊天機器人,這進一步加劇了外界對此問題的關注。
中國軍方利用 Meta AI 開發國防聊天機器人引發爭議
據《路透社》報導,中國研究人員,包括兩位與解放軍研發小組相關的學者,使用 Meta 的 Llama 2 AI 模型開發了一款名為 ChatBIT 的軍事聊天機器人。這款機器人旨在收集和處理情報,並為作戰決策提供資訊。
Meta 公司聲稱,使用 Llama 模型開發 ChatBIT 是未經授權的行為,違反了其使用條款。Meta 指出,Llama 模型已經過時,而且它對模型的用途和安全存有疑慮。
目前尚不清楚 ChatBIT 的實際功能和計算能力。儘管《路透社》報導提到了 ChatBIT 的目標,但其具體性能和有效性仍未得到證實。
開放式 AI 模型在軍事領域的應用風險
相關實例
開放式 AI 模型在軍事領域的影響分析
開放式 AI 模型在軍事領域的未來動向
常見問題QA
開放式 AI 模型的普及可能導致軍備競賽,各國可能會加緊研發 AI 武器,這可能會造成全球安全風險。
需要制定嚴格的監管機制,防止開放式 AI 模型被用於非法目的,例如製造假訊息、操控選舉等。
開放式 AI 模型的發展雖然帶來巨大潛力,但也存在潛在風險,需要謹慎開發和應用,確保其安全可靠性。
相關連結:
Share this content: