Slack數據政策爭議:AI訓練涉嫌侵犯隱私?

Featured Image
Slack 疑使用平台內容訓練
發佈日期:2024年5月19日
閱讀時間:2分鐘

訓練 AI 需要大量數據,因此近來一直出現網上服務平台使用客戶內容來訓練 AI 引起的爭議,Slack 早前亦被發現在數據管理政策中預設存取各種用家的內容。 DuckBill Group 的 Corey Quinn 早前在閱讀 Slack 的數據管理政策時發現,政策註明 Slack 會使用平台上用家的各種數據,包括上傳的檔案、留言以及即時通訊等等,以便開發 AI/ML 模型,如果拒絕的話可以直接與 Slack 聯絡。他批評 Slack 缺乏事前通知和簡單的拒絕方式,在保護私隱和透明度上都有不足。

根據 Corey Quinn 的推文,他對 Slack 使用用戶的私人訊息、文件等內容感到震驚和不滿。他在推文中寫道:「對不起,Slack,你在做什麼,用戶的私人訊息、文件等,我肯定我沒有正確閱讀這個。」他對於 Slack 在數據管理政策中的解釋感到困惑,並批評 Slack 在保護用戶隱私和透明度方面存在缺陷。

對於這一爭議,Slack 在回應中表示,他們僅在平台層面使用用戶內容來改善應用程式內的功能,例如頻道推薦、搜尋結果、自動完成和表情符號建議等。他們聲稱與生成式 AI 無關。然而,許多網民對 Slack 的解釋表示懷疑,並認為這與其在數據管理政策中的內容相矛盾,未能解除人們的疑慮。

作為一個辦公協作平台,Slack 上的許多內容都涉及個人隱私和商業機密。如果這些內容被用於 AI 訓練,確實存在數據外洩的風險。未來,Slack 是否會以更透明的方式向用戶解釋其作法,還有待觀察。

在這個爭議中,Slack 需要更加重視用戶的隱私保護和透明度,並提供更清晰的數據管理政策。只有這樣,Slack 才能維護其用戶的信任,並確保用戶的數據不會被濫用或外洩。

我們將繼續關注這一事件的發展,並希望 Slack 能夠采取積極措施,以恢復用戶對其平台的信心。

分享到:

最新影片

Follow 我們:

[![Image

Share this content: