AI生成的文章可能存在一些問題,例如偏見、毒性文字等。然而,WitnessAI的CEO Rick Caccia認為可以解決這些問題。他在接受TechCrunch的採訪時表示:“保護AI模型是一個真實的問題,對於AI研究人員來說特別有吸引力,但它與保護使用方式不同。”他將其比喻為一輛擁有更強大引擎的跑車,如果沒有良好的剎車和轉向系統,強大的引擎也無法為您帶來任何好處。對於企業來說,確實存在對這些控制的需求。雖然企業對於生成AI提高生產力的潛力持謹慎樂觀的態度,但他們對技術的限制也有擔憂。根據IBM的一項調查,51%的首席執行官正在招聘今年才出現的生成AI相關職位,但只有9%的公司表示他們準備好應對生成AI使用所帶來的威脅,包括隱私和知識產權方面的威脅。
Riskonnect WitnessAI的平台拦截了員工與公司使用的定制生成AI模型之間的活動,而不是像OpenAI的GPT-4那樣通過API訪問模型,而更像Meta的Llama 3,並應用風險減緩政策和保護措施。該平台可以幫助企業解決生成AI風險的不同形式。例如,一個模塊可以讓組織實施規則,防止特定團隊的員工在不應該的情況下使用生成AI工具,例如詢問未發布的收益報告或粘貼內部代碼庫。另一個模塊可以從發送給模型的提示中刪除專有和敏感信息,並實施技術來保護模型免受可能迫使其偏離預期腳本的攻擊。Caccia表示:“我們認為幫助企業的最佳方式是以有意義的方式定義問題,例如安全采用AI,然後提供解決方案來解決這個問題。”他還表示:“CISO希望保護業務,WitnessAI可以通過確保數據保護、防止提示注入和執行基於身份的策略幫助他們實現這一目標。首席隱私官希望確保遵守現有和即將出台的法規,我們提供他們透明度和報告活動和風險的方式。”然而,WitnessAI的隱私問題可能有點棘手。在被問及WitnessAI的隱私政策時,Caccia表示該平台是“獨立的”並且加密,以防止客戶秘密洩露出去。他說:“我們建立了一個毫秒級延遲的平台,並具有內建的法規隔離功能,這是一種與通常的多租戶軟件即服務服務根本不同的獨特、獨立的設計,可以保護企業AI活動。我們為每個客戶創建一個單獨的平台實例,並使用他們的密鑰進行加密。他們的AI活動數據對他們是獨立的,我們無法看到它。”或許這能消除客戶的擔憂。至於員工對WitnessAI平台監控潛力的擔憂,這就很難說了。調查顯示,人們通常不喜歡他們的工作場所活動受到監控,不管是什麼原因。
Share this content: