OpenAI成立了一個新的委員會,負責監督與公司項目和運營相關的“關鍵”安全和保安決策。然而,OpenAI選擇讓公司內部人員擔任委員會成員,包括首席執行官Sam Altman,這一舉措肯定會引起倫理學家的憤怒。根據公司博客上的一篇文章,Altman和其他安全和保安委員會成員,包括OpenAI的董事會成員Bret Taylor、Adam D’Angelo和Nicole Seligman,以及首席科學家Jakub Pachocki、Aleksander Madry(負責OpenAI的“準備”團隊)、Lilian Weng(安全系統負責人)、Matt Knight(安全主管)和John Schulman(“對齊科學”負責人),將負責在未來90天內評估OpenAI的安全流程和保障措施。委員會將與OpenAI的全體董事會共享其發現和建議,OpenAI表示,屆時將以符合安全和保安要求的方式發布任何採納的建議的更新。
OpenAI寫道:“OpenAI最近開始訓練下一代模型,我們預計這些新系統將使我們在通往\[人工通用智能\]的道路上達到更高的能力水平。”OpenAI表示:“雖然我們為擁有在能力和安全性方面領先業界的模型而感到自豪,但我們在這一重要時刻歡迎進行充分的辯論。”
在過去幾個月中,OpenAI在技術團隊的安全方面見證了一些高調的離職,其中一些前員工對他們所認為的AI安全性優先順序下降表示擔憂。Daniel Kokotajlo曾在OpenAI的治理團隊工作,今年4月,他在個人博客上寫道,失去對OpenAI在越來越有能力的AI發布方面“負責任行事”的信心後離職。而OpenAI的聯合創始人和前首席科學家Ilya Sutskever則在與Altman和Altman的盟友進行的一場持久戰後離職,據報導,這部分原因是Altman急於推出以AI為動力的產品而犧牲了安全工作。最近,Jan Leike,一名前DeepMind研究員,在OpenAI期間參與了ChatGPT和ChatGPT前身InstructGPT的開發,在X上的一系列帖子中辭去了他的安全研究職務,他認為OpenAI“沒有朝著正確的方向”解決與AI安全性和保安相關的問題。上週離職的AI政策研究員Gretchen Krueger也支持Leike的說法,呼籲OpenAI改善其賬戶透明度和警惕性,以及“使用自己技術的注意事項”。
根據TechCrunch的報導,除了Sutskever、Kokotajlo、Leike和Krueger之外,自去年底以來,OpenAI最關注安全的至少有五名員工已經辭職或被迫離職,其中包括前OpenAI董事會成員Helen Toner和Tasha McCauley。在《經濟學人》周報的一篇專欄文章中,Toner和McCauley寫道,他們不相信OpenAI在Altman的領導下能夠自我負責。Toner和McCauley表示:“根據我們的經驗,我們認為自我管理無法可靠地承受利潤激勵的壓力。”根據TechCrunch本月早些時候的報導,OpenAI的“超級對齊”團隊,負責開發管理和引導“超級智能”AI系統的方式,曾承諾獲得公司20%的計算資源,但很少收到其中的一小部分。該超級對齊團隊已經解散,其大部分工作由Schulman和OpenAI去年12月成立的安全顧問團隊負責。
OpenAI一直主張對AI進行規範。與此同時,它也努力塑造這些規範,包括內部遊說人員和越來越多律師事務所的遊說人員。
Share this content: