每經編輯 杜宇

5月18日凌晨,OpenAI安全主管、“超級智能對齊團隊”負責人Jan Leike在社交平臺宣佈,離開OpenAI。這也是本週三OpenAI聯合創始人兼首席科學家Ilya Sutskever辭職之後,又有一名高管辭職。

Jan Leike在X上公開透露了他離職的部分原因。他的潛臺詞是,他與OpenAI高層在公司的核心優先事項上存在長期分歧,最終雙方的分歧已經嚴重到無法調和的地步。團隊在推動其研究項目和爭取計算資源時遇到了重大阻礙,缺乏資源會嚴重影響研究的進度和質量。

本週五(當地時間5月17日),OpenAI證實,由Ilya和他的親信Jan Leike共同領導的“超級智能對齊團隊”已經解散。此後,該團隊的研究工作將被整合到OpenAI的其他研究小組中。至此,一度幾乎導致OpenAI分崩離析的宮鬥事件終於塵埃落定。

馬斯克針對OpenAI的長期人工智能風險團隊已經解散這一消息評價稱:“這顯示安全並不是OpenAI的首要任務。”

OpenAI首席執行官Sam Altman感謝並肯定了Jan Leike在OpenAI的貢獻和領導能力。並表示,未來幾天內會發表一篇更長的文章,來闡述OpenAI對於產品安全的規劃和所做的事情。

加入OpenAI之前,Jan Leike曾在谷歌DeepMind工作,主要負責從人類反饋中進行強化學習的原型設計。在OpenAI期間,參與了InstructGPT、ChatGPT的開發以及GPT-4的安全對齊工作。

對於Ilya、Jan 的辭職,有人表示這兩位安全領導高管都辭職了,以後誰來負責OpenAI的產品安全呢?

也有一位網友爆料,想離開OpenAI沒問題,但是你必須簽署一份“離職協議”, 如果你不簽署終身不詆譭承諾,將失去所有已獲得的OpenAI股權。不知道Jan Leike的一番吐槽,是否會影響到他的股權。

在去年7月份,OpenAI宣佈成立一個新的研究團隊“超級對齊”,要用AI監督AI的方式,解決超智能“AI對齊”問題。“AI對齊”的意思是,要求AI系統的目標要和人類的價值觀與利益相一致。公司創始人之一伊利亞·蘇茨克沃被任命爲團隊共同負責人。

而現在AI風險團隊解散是公司內部最近出現動盪的又一證據,也再次引發了人們對該公司在開發AI產品時如何平衡速度與安全的質疑。OpenAI章程規定,必須安全地開發通用人工智能(AGI),即可以與人類匹敵或超越人類的技術。

每日經濟新聞綜合公開資料

免責聲明:本文內容與數據僅供參考,不構成投資建議,使用前請覈實。據此操作,風險自擔。

相關文章