OpenAI核心團隊離職危機:超智能AI發展的轉捩點?

Featured Image
OpenAI 的 Superalignment 團隊負責開發管理和引導「超智能」AI系統的方法,根據該團隊的一位成員透露,該團隊被承諾獲得公司20%的計算資源。但是,他們對於少量計算資源的申請經常被拒絕,阻礙了團隊的工作。這個問題以及其他問題導致了本週的多位團隊成員辭職,包括聯合領導人Jan Leike。Leike在週五早上公開了他辭職的一些原因。他在一系列貼文中寫道:“我與OpenAI的領導層在公司的核心優先事項上有很長時間的分歧,直到我們終於達到了瓶頸。” Leike寫道:“我認為我們更多的帶寬應該花在為下一代模型做準備,包括安全性、監控、準備、安全性、對抗韌性、(超級)對齊性、機密性、社會影響以及相關主題。這些問題相當難以解決,我擔心我們沒有走上正確的軌道。” 對於該團隊承諾和分配的資源,OpenAI並未立即回應詢問。OpenAI於去年7月成立了Superalignment團隊,由Leike和OpenAI聯合創始人Ilya Sutskever領導,Sutskever也在本週辭職。該團隊的雄心勃勃目標是在未來四年解決控制超智能AI的核心技術挑戰。該團隊由OpenAI以前的對齊部門的科學家和工程師以及來自公司其他組織的研究人員組成,該團隊將為公司內部和非OpenAI模型的安全性提供研究支持,並通過研究補助計劃等舉措與更廣泛的AI行業分享工作。Superalignment團隊確實成功發表了一系列的安全研究成果,並向外部研究人員提供了數百萬美元的資助。但是,隨著產品推出占用了越來越多的OpenAI領導層的帶寬,Superalignment團隊發現自己不得不爭取更多的前期投資——他們認為這些投資對於公司以發展造福所有人類的超智能AI的聲明任務至關重要。Leike繼續寫道:“建造比人類更聰明的機器是一個本質上危險的努力。”但是在過去的幾年裡,安全文化和流程已經被鮮亮的產品所取代。” Sutskever與OpenAI首席執行官Sam Altman的鬥爭成為了一個額外的干擾。Sutskever和OpenAI的舊董事會在去年底曾試圖突然解雇Altman,原因是擔心Altman在向董事會成員坦率時不一致。在OpenAI的投資者(包括Microsoft)和公司自己的許多員工的壓力下,Altman最終恢復了職位,董事會的大部分成員辭職,而Sutskever則沒有回到工作崗位。根據消息人士透露,Sutskever對於Superalignment團隊非常重要,他不僅貢獻了研究成果,還充當了與OpenAI其他部門的橋樑。他還充當了一種大使的角色,向OpenAI的關鍵決策者強調團隊工作的重要性。在Leike離職後,Altman在上面寫道,他同意還有“很多事情要做”,並且他們“致力於做到這一點。”他暗示將提供更詳細的解釋,而共同創始人Greg Brockman在周六提供了這一解釋。儘管Brockman的回應中沒有具體的政策或承諾,但他表示“我們需要有一個非常緊密的反饋循環,進行嚴格的測試,在每個步驟上進行仔細的考慮,具有世界一流的安全性和安全性能力的和諧。” 在Leike和Sutskever離職之後,Jo

Share this content: