5月18日凌晨,OpenAI安全主管、“超級智能對齊團隊”負責人JanLeike在社交平臺宣佈,離開OpenAI。這也是本週三OpenAI聯合創始人兼首席科學家IlyaSutskever辭職之後,又有一名高管辭職。

JanLeike在X上公開透露了他離職的部分原因。他的潛臺詞是,他與OpenAI高層在公司的核心優先事項上存在長期分歧,最終雙方的分歧已經嚴重到無法調和的地步。團隊在推動其研究項目和爭取計算資源時遇到了重大阻礙,缺乏資源會嚴重影響研究的進度和質量。

本週五(當地時間5月17日),OpenAI證實,由Ilya和他的親信JanLeike共同領導的“超級智能對齊團隊”已經解散。此後,該團隊的研究工作將被整合到OpenAI的其他研究小組中。至此,一度幾乎導致OpenAI分崩離析的宮鬥事件終於塵埃落定。

馬斯克針對OpenAI的長期人工智能風險團隊已經解散這一消息評價稱:“這顯示安全並不是OpenAI的首要任務。”

OpenAI首席執行官SamAltman感謝並肯定了JanLeike在OpenAI的貢獻和領導能力。並表示,未來幾天內會發表一篇更長的文章,來闡述OpenAI對於產品安全的規劃和所做的事情。

加入OpenAI之前,JanLeike曾在谷歌DeepMind工作,主要負責從人類反饋中進行強化學習的原型設計。在OpenAI期間,參與了InstructGPT、ChatGPT的開發以及GPT-4的安全對齊工作。

對於Ilya、Jan的辭職,有人表示這兩位安全領導高管都辭職了,以後誰來負責OpenAI的產品安全呢?

也有一位網友爆料,想離開OpenAI沒問題,但是你必須簽署一份“離職協議”, 如果你不簽署終身不詆譭承諾,將失去所有已獲得的OpenAI股權。不知道JanLeike的一番吐槽,是否會影響到他的股權。

在去年7月份,OpenAI宣佈成立一個新的研究團隊“超級對齊”,要用AI監督AI的方式,解決超智能“AI對齊”問題。“AI對齊”的意思是,要求AI系統的目標要和人類的價值觀與利益相一致。公司創始人之一伊利亞·蘇茨克沃被任命爲團隊共同負責人。

而現在AI風險團隊解散是公司內部最近出現動盪的又一證據,也再次引發了人們對該公司在開發AI產品時如何平衡速度與安全的質疑。OpenAI章程規定,必須安全地開發通用人工智能(AGI),即可以與人類匹敵或超越人類的技術。

相關文章