近年來,KPMG的合夥人Jonathan Dambrot在幫助客戶部署和開發AI系統時,開始注意到一些遵守和安全的空白。據他所說,沒有人能解釋他們的AI是否安全,甚至不知道誰負責確保這一點。
Dambrot在給TechCrunch的電子郵件訪問中說:「從根本上講,數據科學家不了解AI和網絡安全的風險,而網絡專業人士也不像對待其他技術主題那樣理解數據科學。為了確保這些風險得到適當處理,以及組織能夠對安全和可靠的AI系統做出決定,將需要更多的意識和立法。」
Dambrot的觀點促使他向KPMG Studio提出,建議對AI安全和遵守性的挑戰提供資金和孵化軟件創業公司的建議。與兩位共同創始人Felix Knoll和Paul Spicer以及大約25名開發人員和數據科學家一起,Dambrot將這家企業創立為Cranium。
到目前為止,Cranium已經籌集了來自KPMG和SYN Ventures的700萬美元的风险投资。
Dambrot繼續說道:「Cranium是為了發現和提供客戶級別的AI系統可見度,提供安全報告和監控,以及創建遵守和供應鏈可見性報告而建立的。核心產品采取更全面的AI安全和供應鏈觀點,旨在解決其他解決方案中的空白,提供更好的AI系統可見度,提供核心對抗風險的安全性以及提供供應鏈可見性。」
為此,Cranium試圖在現有的機器學習模型訓練和測試環境中映射AI管道,並驗證其安全性,監控外部威脅。你問什么威脅?Dambrot說,這取決于客戶。但其中一些更常見的威脅涉及毒害(污染AI學習的數據)和基于文本的攻擊(用惡意指令欺騙AI)。
Cranium宣稱,在不需要訪問任何原始數據或供應商算法的情況下,它可以直接解決這些威脅。客戶可以捕獲正在開發和已部署的AI管道,包括AI生命周期中涉及的所有相關資產。他們可以建立一個AI安全架構,為安全和數據科學團隊提供一個建立安全計劃的基礎。
Share this content: