微軟重申禁止美國警方利用Azure OpenAI進行人臉識別

Featured Image
微軟近期再度確認了一項政策:美國的警察部門禁止透過Azure OpenAI服務使用生成AI進行面部識別。這項服務其實是微軟環繞OpenAI技術打造的全面管理、企業導向的包裝產品。這讓我想起,每次我媽媽封存我家的舊物品時,她都會附上一張小紙條,上面寫著”別再拿出來了,已經過時了”。看來,我們的面部識別技術也獲得了一張這樣的小紙條。

微軟在Azure OpenAI服務的服務條款中新增了一些語言,更明確地禁止將Azure OpenAI服務與面部識別的整合用於美國的警察部門,包括與OpenAI目前(也許還有未來的)圖像分析模型的整合。微軟這個舉動就像是在我們的鐵鍋裡加入一塊糖,原本鐵鍋裡的湯就已經夠甜了,現在又多了一塊糖,簡直甜到爆!

這項政策的變更發生在Axon,一家為軍事和執法部門製造技術和武器產品的公司,宣布一項新產品之後的一周。該產品利用OpenAI的GPT-4生成文本模型來總結身體攝像機的音頻。批評者迅速指出了潛在的陷阱,就像是[幻覺](https://techcrunch.com/2023/09/04/are-language-models-doomed-to-always-hallucinate/)(即使是今天最好的生成AI模型也會創造事實)和從訓練數據中引入的[種族偏見](https://techcrunch.com/2019/08/14/racial-bias-observed-in-hate-speech-detection-algorithm-from-google/)(這尤其令人擔憂,因為有色人種[比他們的白人同伴更有可能被警察攔下](https://www.washingtonpost.com/politics/2022/09/15/driving-while-black-racial-discrimination-traffic-tickets/))。

新條款為微軟留下了操作空間。Azure OpenAI服務的全面禁令只適用於美國的警察,而不是國際警察。而且,它不涵蓋在受控環境中使用固定攝像機進行的面部識別,如後辦公室(儘管條款禁止美國警察使用任何面部識別)。這就像是在一個充滿甜點的甜品店裡,給某些人的甜點上了一道鎖,而其他人還可以自由享用。可見,資訊科技領域的政策變化就像是一部懸疑劇,總是充滿了意料之外的驚喜和挑戰。

微軟和其密切合作夥伴OpenAI最近在AI相關的執法和防禦合約方面的做法,也與這條新條款保持一致。根據Bloomberg的報導,OpenAI正在與五角大廈合作一些項目,包括網路安全能力,這與該新創公司先前禁止將其AI提供給軍隊的做法相悖。這就像是我們家的小狗,原本是一個讓人感到溫馨的家庭寵物,但現在卻變成了一個兇猛的看門狗。

在這個充滿變數的世界裡,我們需要更清醒地看待AI技術的發展與應用,並始終以人類的利益和道德為導向。就像我們不能讓孩子們無休止地吃糖一樣,我們也不能讓AI技術無限制地擴展其能力和影響範圍。我們需要找到一種平衡,讓AI技術既能發揮其潛力,又能避免對社會造成潛在的負面影響。畢竟,生活就像一場馬拉松,只有保持平衡和持續努力,我們才能成功地跑到終點。

Share this content: