來源:財聯社

據媒體週五報道,在兩位關鍵領導人離職後,OpenAI專注於研究人工智能(AI)生存危險的團隊已經全部辭職或被其他小組吸收。

在接受採訪時,OpenAI公司證實,該公司不再將所謂的“超級對齊”團隊作爲一個獨立的實體,而是將該團隊更深入地整合到其研究工作中,以幫助公司實現其安全目標。

在去年7月份,OpenAI宣佈成立一個新的研究團隊“超級對齊”,要用AI監督AI的方式,解決超智能“AI對齊”問題。“AI對齊”的意思是,要求AI系統的目標要和人類的價值觀與利益相一致。公司創始人之一伊利亞·蘇茨克沃被任命爲團隊共同負責人。

而現在AI風險團隊解散是公司內部最近出現動盪的又一證據,也再次引發了人們對該公司在開發AI產品時如何平衡速度與安全的質疑。OpenAI章程規定,必須安全地開發通用人工智能(AGI),即可以與人類匹敵或超越人類的技術。

上個月,超級對齊團隊兩名研究人員因泄露公司機密而被解僱,另一名成員也在2月離開。到了本週二,伊利亞在社交平臺X上宣佈,他將在近十年後離開公司,相信在首席執行官奧爾特曼等人的領導下,能夠打造出既安全又有益的通用人工智能。伊利亞此前與奧爾特曼就AI的發展速度發生過沖突。

隨後,超級對齊團隊另一位負責人Jan Leike也宣佈離職。不過有知情人士聲稱,對Leike來說,伊利亞的退出導致分歧嚴重到了無法調和的地步。

Leike週五發佈聲明稱,超級對齊團隊一直在努力爭取資源。“在過去的幾個月裏,我的團隊一直在逆風航行。有時候我們在計算資源上掙扎,而且越來越難以完成這項關鍵的研究。”

他還表示,他的離職是因爲他與OpenAI在公司的“核心優先事項”上存在一系列分歧,他認爲,公司不夠關注AI相關的安全措施。

OpenAI在週二宣佈,公司聯合創始人JohnSchulman將成爲未來對齊工作的科學負責人。另外,OpenAI在一篇博客文章中表示,已任命研究總監Jakub Pachocki接替伊利亞擔任首席科學家。

相關文章