《科創板日報》5月19日訊(編輯 宋子喬) OpenAI宮斗大戲第二幕開場。

不同於蘇茨克維(Ilya Sutskever)離職時候的禮貌告別——“我相信OpenAI將在阿爾特曼等人的帶領下構建既安全又有益的AGI”,以及阿爾特曼溫情脈脈的說辭——“這讓我很難過……他(Ilya Sutskever)有一些個人意義重大的事情要去做,我永遠感激他在這裏所做的一切”。

最新離職的OpenAI高管,超級對齊團隊負責人Jan Leike直接撕破臉皮,揭露OpenAI聯合創始人兼首席科學家蘇茨克維離職內幕——阿爾特曼不給資源、力推商業化不顧安全

Leike同時也是OpenAI的聯合創始人,屬於“保守派”陣營,他在Sutskever宣佈離職後僅幾個小時就發帖:我辭職了。

官宣離職次日,Leike連發十多條帖子,公開解釋了離職原因——

團隊分配不到足夠的資源:超級對齊團隊過去幾個月一直在“逆風航行”,在計算上很喫力,完成研究越來越困難;

安全並非阿爾特曼的核心優先事項:過去幾年,安全文化和流程已經讓位於更耀眼的產品。“很長一段時間以來,我與OpenAI領導層對公司核心優先事項的看法一直不合,直到我們終於到了臨界點。”

這是OpenAI高管級別的人物首次公開承認公司重視產品開發勝過安全。

阿爾特曼的回應依舊體面,他表示,自己非常感謝Jan Leike對OpenAI的一致性研究和安全文化所做的貢獻,並且很遺憾看到他離開。“他說得對,我們還有很多事情要做,我們致力於做到這一點。我將在未來幾天內發佈一篇更長的帖子。”

▍投資未來?不 阿爾特曼選擇把握現在

OpenAI的超級對齊團隊於2023年7月成立,由Leike和Sutskever領導,成員爲OpenAI前校準部門的科學家和工程師以及來自公司其他機構的研究人員,可以說是一幫技術人員組成的團隊。該團隊旨在確保人工智能與其製造者的目標保持一致,目標是在未來解決控制超級智能AI的核心技術挑戰,“解決如果公司成功構建AGI,實際上會出現不同類型的安全問題。”

也就是說,超級對齊團隊是在爲更強大的AI模型、而非當下的AI模型打造安全罩

正如Leik所說,“我相信我們應該投入更多的精力來爲下一代模型做好準備,關注安全性、監控,做好準備、讓AI具有對抗性的魯棒性、(超級)對齊,關注保密性、社會影響等相關主題。這些問題很難做對,我很擔心我們沒有朝着正確的方向前進。”

Leik還指出,雖然目前超智能AI看似遙遠,但可能在本十年內出現,管理這些風險需要新的治理機構和對齊技術,從而確保超智能AI系統遵循人類意圖。

站在阿爾特曼的立場,維護超級對齊團隊是一項龐大的開支。OpenAI曾經承諾該團隊將獲得該公司20%的計算資源,這勢必會削弱OpenAI新產品開發的資源,而投資超級對齊團隊實際是在投資未來。

據OpenAI超級對齊團隊的一位人士透露,20%計算資源的承諾被打了折扣,其中一小部分計算的請求經常被拒絕,這阻礙了團隊的工作。

▍超級對齊團隊解散 然後呢?

據《連線》等媒體報道,在Sutskever和Leike相繼離職後,OpenAI的超級對齊團隊已被解散。其不再是一個專門的團隊,而是一個鬆散的研究小組,分佈在整個公司的各個部門。OpenAI的一位發言人將其描述爲“更深入地整合(團隊)”。

有消息稱OpenAI的另一位聯合創始人約翰•舒爾曼(John Schulman)可能會接手關於與更強大模型相關的風險的研究。

這不免讓人質疑,Schulman目前的工作任務在於確保OpenAI當前產品的安全,他會重點盯着面向未來的安全團隊嗎?

阿爾特曼另一被人詬病的地方在於“捂嘴”離職員工

自去年11月至今,OpenAI至少有7名注重安全的成員辭職或被開除,但離職員工大多不願公開談論此事。

據Vox報道,部分原因是OpenAI會讓員工在離職時簽署帶有非貶低條款的協議。如果拒絕簽署,就將失去此前拿到的OpenAI的期權,這意味着出來說話的員工可能會損失一筆鉅款。

一位OpenAI前員工爆料,公司入職文件說明中包含一項:“在離開公司的六十天內,你必須簽署一份包含‘一般豁免’的離職文件。如果你沒有在60天內完成,你的股權獲益將被取消。”

阿爾特曼變相承認了此事,他回應稱,該公司的離職文件中有一項關於離職員工“潛在股權取消”的條款,但從未付諸實踐,“我們從未收回任何人的既得股權。”他還表示,公司正在修改離職協議條款,“如果任何簽署了這些舊協議的前僱員對此感到擔心,他們可以聯繫我。”

回到OpenAI高層爭執的原點,也是這場曠日持久的宮斗的核心矛盾點——“保守派”強調先安全再產品,“盈利派”希望儘快落實商業化。

OpenAI將如何平衡產品的安全性與商業化?如何挽回愈發糟糕的公衆形象?

期待阿爾特曼未來幾天內的“小作文”。

相關文章