特斯拉CEO埃隆·馬斯克(Elon Musk)和一羣人工智能專家及行業高管在一封公開信中表示,他們呼籲暫停訓練比GPT-4更強大的人工智能系統至少六個月,理由是這種系統對社會和人類構成潛在風險。

這封信由非營利組織未來生命研究所(Future of Life Institute)發佈,包括馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克和Stability AI首席執行官伊馬德·穆斯塔克(Emad Mostaque)在內的1000多人簽署,呼籲暫停高級人工智能的開發,直到爲此類設計制定、實施並由獨立專家審覈的共享安全協議。

信中寫道:“只有在我們確信它們的效果是積極的,風險是可控的情況下,才應該開發強大的人工智能系統。”

這封信還詳細列出了與人類競爭的人工智能系統以經濟和政治破壞的形式對社會和文明造成的潛在風險,並呼籲開發者與政策制定者就治理問題和監管機構展開合作。

這封信呼籲,所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統至少6個月。這種暫停應該是公開的和可驗證的,並且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入並實行暫停。人工智能實驗室和獨立專家應該利用這次暫停,共同開發和實施一套用於高級人工智能設計和開發的共享安全協議,並由獨立的外部專家進行嚴格審計和監督。這些協議應確保遵守它們的系統是安全的,並且無可置疑。這並不意味着總體上暫停AI開發,只是緊急從奔向不可預測的大型黑盒模型的危險競賽中收回腳步。

OpenAI的ChatGPT自去年發佈以來,已促使競爭對手推出類似產品,並促使企業將其或類似技術集成到自己的應用程序和產品中。

馬斯克此前就曾多次表達對人工智能的擔憂,他在今年2月的一次視頻講話中表示,人工智能是未來人類文明最大的風險之一。他說:“它有積極的一面,也有消極的一面,有巨大的前景也有巨大的能力,但隨之而來的危險也是巨大的。”

馬斯克當時指出,應該監管人工智能的安全問題,即使會放慢這一技術的發展速度。早在2017年,馬斯克就提出了“AI威脅論”,認爲人工智能是人類文明的危險,並指出威脅程度要遠高於車禍、飛機失事、毒品氾濫等。在2018年的一次採訪中,馬斯克更是強調,人工智能要比核武器危險得多。

責任編輯:於健 SF069

相關文章