OpenAI超智能AI管控團隊內鬨,核心成員紛紛離職

Featured Image
OpenAI 的 Superalignment 團隊負責開發治理和引導「超智能」AI系統的方式,根據該團隊的一名成員透露,他們被承諾將獲得公司20%的計算資源。然而,他們對於只需一小部分計算資源的申請經常被拒絕,無法進行工作。這個問題以及其他原因導致幾名團隊成員本週辭職,包括聯合領導人Jan Leike,他是一位前DeepMind研究員,在OpenAI期間參與了ChatGPT、GPT-4和ChatGPT前身InstructGPT的開發。Leike於星期五早上公開了他辭職的一些原因。他在X上發文說:“我和OpenAI的領導層在公司的核心重點上存在分歧已經有一段時間了,直到我們終於到了臨界點。我相信我們應該花更多的精力準備下一代模型,包括安全性、監控、準備工作、安全性、對抗韌性、(超)對齊、保密性、社會影響以及相關主題。這些問題相當難以解決,我擔心我們沒有朝著正確的方向發展。”至於Superalignment團隊承諾和分配的資源,OpenAI並未立即回應該團隊的請求。OpenAI於去年7月成立了Superalignment團隊,由Leike和OpenAI聯合創始人Ilya Sutskever共同領導,[他也從該公司辭職了。該團隊的雄心勃勃目標是在未來四年內解決控制超智能AI的核心技術挑戰。該團隊由OpenAI先前的對齊部門的科學家和工程師以及來自公司其他組織的研究人員組成,該團隊將為公司內部和非OpenAI模型的安全性做出貢獻,並通過研究補助計劃等活動,與更廣泛的AI行業進行合作和分享工作。Superalignment團隊確實成功發表了一系列安全性研究成果,並向外部研究人員提供了數百萬美元的研究補助金。但是,隨著產品推出開始占據越來越多的OpenAI領導層注意力,Superalignment團隊發現自己必須爭取更多的前期投資,因為他們認為這些投資對於實現公司聲明的使命——為全人類發展超智能AI——至關重要。Leike繼續說:“建立比人類更聰明的機器本質上是一項危險的努力,但在過去的幾年裡,安全文化和流程已經不再受到重視,反而變成了亮麗的產品。”Sutskever與OpenAI首席執行官Sam Altman之間的爭執也成為一個重要的干擾因素。Sutskever和OpenAI的舊董事會去年底曾試圖解雇Altman,原因是他未向董事會成員“一貫坦率”。在OpenAI的投資者(包括微軟)以及公司內許多員工的壓力下,Altman最終被恢復職位,董事會的大部分成員辭職,而Sutskever則沒有重返工作崗位。根據消息人士透露,Sutskever不僅對Superalignment團隊的研究做出了貢獻,還成為OpenAI內部其他部門的橋樑。他還充當了一種大使的角色,向OpenAI的關鍵決策者們強調了該團隊工作的重要性。在Leike離職後,Altman在X上寫道他同意還有“很多事情要做”,並且他們“致力於做到”。他暗示將提供更詳盡的解釋,而共同創始人Greg Brockman在星期六提供了更多解釋。儘管Brockman的回應中沒有具體的政策或承諾,但他表示“我們需要建立一個非常緊密的反饋循環,進行嚴格的測試,謹慎考慮每一步,提供世界一流的安全性和功能協調”。在Leike和Sutskever離職後,John Sch

Share this content: