財聯社4月1日訊(編輯 牛佔林)本週一封由埃隆·馬斯克等人簽署的公開信在網上熱傳,再度將ChatGPT等人工智能(AI)推到了風口浪尖。但隨着時間的流逝,這場活動似乎變成了一場鬧劇。

這封公開信由非營利組織未來生命研究所(Future of Life Institute)對外公佈,其名題爲“暫停巨型AI實驗:一封公開信”。截至週五,已經有1800多名科技公司高管和頂級AI研究人員進行了署名,

他們呼籲暫停訓練比GPT-4更強大的AI系統。最好有六個月乃至更長時間的暫停,將使該行業有時間制定AI設計方面的安全標準,從而防止風險最高的一些AI技術的潛在危害。

首先,這封信最初允許任何人在沒有身份驗證的情況下簽名,這導致鬧出了一些笑話。OpenAI首席執行官Sam Altman的名字出現在名單上,Altman回應稱,他從未在這封信上簽名。Meta首席AI科學家Yann LeCun和Stability AI首席執行官Mostaque等知名人士也遭遇了類似的情況。

其次,也是最爲重要的是,這封公開信聲稱,AI系統對人類構成了深遠的風險,並引用了12項相關專家的研究,這些專家包括大學學者、人工智能專家,以及OpenAI、谷歌及其子公司DeepMind的員工。

如今,這些被引用論文和觀點的專家接連發聲,他們表示並不認可馬斯克等人的觀點,甚至直接稱後者“精神錯亂”。

其中引用的研究包括瑪格麗特·米切爾的著名論文《論隨機鸚鵡的危險》,米切爾現在是人工智能公司Hug Face的首席倫理科學家,她批評了這封信。“通過將許多有問題的想法視爲既定事實,這封信提出了一系列有利於未來生命研究所支持者的人工智能敘事。”

她的合著者蒂姆尼特·格布魯和艾米麗.本德也在推特上批評了這封信,本德稱其中一些說法簡直是“精神錯亂”,充斥着對AI的炒作。格布魯表示:“他們基本上和我們說的相反,還引用了我們的論文。”

康涅狄格大學的助理教授Shiri Dori-Hacohen也對信中引用她的論文提出了異議。她去年與人合著了一篇研究論文,認爲AI的廣泛使用已經帶來了嚴重的風險。

她的研究認爲,目前AI系統的使用可能會影響與氣候變化、核戰爭和其他生存威脅相關的決策。

她最新表示:“人工智能不需要達到人類水平就會加劇這些風險,而有些風險真的非常非常重要,但沒有得到必要的關注。”

而OpenAI首席執行官Altman對此回應稱,從某種意義上說,這是多此一舉,一直以來我們對這些問題的討論是聲音最響、力度最大且持續時間最長的。

相關文章