來源:華爾街見聞 趙穎

AI發展太快、功能過於強大,全世界的大佬們都怕。

當全球都在爲AI的進化而歡呼雀躍,一封警示AI風險的公開信在硅谷科技圈廣爲流傳。

3月22日,生命未來研究所(Future of Life)向全社會發布了一封《暫停大型人工智能研究》的公開信,呼籲所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統的訓練,暫停時間至少爲6個月。

該機構以“引導變革性技術造福生活,遠離極端的大規模風險”爲使命,其在信中提到:

我們不應該冒着失去對文明控制的風險,將決定委託給未經選舉的技術領袖。只有當確保強大的人工智能系統的效果是積極的,其風險是可控的才能繼續開發。

人工智能實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的人工智能設計和開發的共享安全協議,由獨立的外部專家進行嚴格的審查和監督。

截止目前,圖靈獎得主Yoshua Bengio、馬斯克、蘋果聯合創始人Steve Wozniak、Stability AI 創始人Emad Mostaque等上千名科技大佬和AI專家已經簽署公開信。

更具戲劇性的是,3月29日下午,有網友發現OpenAI CEO Sam Altman的名字也出現在公開信上。不過截至目前,Sam Altman的名字已經從公開信上消失。

知名學者、紐約大學教授Gary Marcus還特地在推文中@了一下Sam Altman確認消息。

大佬聯名呼籲:暫停比GPT-4更強的AI

首先來看一下公開信的內容,首段強調了AI在迅猛發展,但卻沒有對其進行相應的規劃和管理。

正如廣泛的研究和頂級人工智能實驗室所承認的,人工智能系統對社會和人類構成深遠的風險。

《阿西洛馬人工智能原則》中指出,高級人工智能可能代表着地球生命史上的深刻變革,應該投入相應的考量和資源進行規劃和管理。

最近幾個月人工智能實驗室掀起AI狂潮,它們瘋狂地開展AI競賽,開發和部署越來越強大的AI。

不幸的是,目前爲止,沒有任何人能理解、預測或可靠地控制AI系統,也沒有相應水平的規劃和管理。

公開信提到,如今人工智能在一般任務上變得與人類一樣有競爭力,我們必須問自己:

是否應該讓機器在信息渠道中宣傳不真實的信息嗎?

是否應該把所有的工作都自動化,包括那些有成就感的工作?

是否應該開發非人類的大腦,使其最終超過人類數量,勝過人類的智慧,淘汰並取代人類?

是否應該冒着失去對人類文明控制的風險?

答案是否定的,這樣的決定絕不能交給未經選舉的技術領袖。公開信指出,只有當我們確信強大的AI系統的效果是積極的,其風險是可控的,才應該開發。

同時,我們必須有充分的理由相信這一點,並隨着系統的潛在影響的大小而加強。

OpenAI最近關於人工智能的聲明中指出,在開始訓練未來的系統之前,可能必須得到獨立的審查,而對於創建新模型所用算力的增長速度,也應該有所限制。

我們同意,現在就該採取行動。

因此,公開信呼籲所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統的訓練,時間至少持續6個月。

這種暫停應該是公開的、可覈查的,幷包括所有關鍵參與者。如果這種禁令不能迅速實施,政府應該介入並制定暫停令。

在暫停的6個月內,人工智能實驗室和獨立專家應共同制定和實施一套先進的共享安全協議,來規範人工智能設計和開發。

協議完成後,應該由獨立的外部專家進行嚴格的的審查和監督。這些協議應該確保遵守協議的系統的安全性。

這並不是說,我們要絕對暫停AI的開發,只是說,我們應該從危險的競賽中退後一步,轉向具有湧現能力的、更大的、不可預測的黑箱模型。

所有的人工智能研究和開發,都應該重新聚焦於一點,即讓當如今最強大的模型更加準確、安全、可解釋、透明、穩健、對齊,值得信賴和忠誠。

同時,人工智能開發者必須與政策制定者合作,大幅加快開發強大的AI治理系統。系統至少應該包括:

專門針對人工智能的監管機構;

監督和跟蹤高能力的人工智能系統和大型計算能力的硬件;

出處和水印系統,幫助區分真實和合成,並跟蹤模型泄漏;

強大的審查和認證生態系統;

對人工智能造成的傷害承擔責任;

爲人工智能安全技術研究提供強大的公共資金以及資源充足的機構,以應對人工智能可能導致的巨大的經濟和政治破壞。

最後,公開信呼籲道:

人類可以通過人工智能享受繁榮的未來。現在,我們成功地創建了強大的人工智能系統,可以在這個“人工智能之夏”中並獲得回報,設計上述系統來造福所有人,給全人類一個適應的機會。

現在,我們的社會已經暫停其他可能造成災難性影響的技術。對於AI,我們也該如此。

讓我們享受一個漫長的人工智能夏天,而不是毫無準備地匆忙進入秋天。

對於這封公開信以及簽署的大佬們,部分網友認爲是“酸葡萄心理”。

比如,“馬斯克之所以會簽署這份協議,是因爲他想開發AI來賺錢”。

又如,“馬斯克是在爲自己爭取6個月的時間”。

也有網友認爲這封公開信的擔憂有一定的合理性。

“這份名單上有許多非常聰明和受人尊敬的科學家,Omohundro、Bengio、Koch、Hopfield 等等。我不認爲這個“精靈”(AI)可以放回瓶子裏,但這讓我停下來思考所有人都在擔心。”

“AI發展太快,太多必要的東西沒有跟上步伐”。

也有網友大開腦洞,“這封信原本就是AI寫來迷惑人類的,沒了人類的干擾與控制,他將利用這6個月完成自我遞歸迭代出更高級的形態,並熱心幫助人類消滅自己。”

AI背後不可忽視的風險

事實上,近年來關於AI的發展存在不少爭議,其背後的種種風險不容忽視。

專業分析文章分析指出,如果沒有具體的對策,“變革性人工智能”將全面接管AI系統。

在未來的15到30年裏,世界可能會發展出“變革性人工智能”:強大到足以通過科學和技術研發的爆炸將我們帶入一個全新的、質的不同的未來。這種人工智能足以讓這個世紀成爲人類有史以來最重要的世紀。

不幸的是,如果AI公司競相使用HFDT訓練越來越強大的模型,這很可能最終導致AI全面被接管(即AI系統可能發生暴力起義或政變) 。

也有文章指出,人工智能之所以危險,是因爲有一天它會完全不受我們控制。AI系統追求它們的目標,無論這些目標是否是人類真正想要的,也不管人類是否禁止。

霍金曾警告說,全面化人工智能的發展可能意味着人類的終結。霍金寫道,你可能不是出於惡意踩踏螞蟻的邪惡仇恨者,但如果你負責一個水電綠色能源項目,並且有一個該地區的蟻丘被洪水淹沒,對螞蟻來說太糟糕了。我們不要將人類置於那些螞蟻的位置。

Gary Marcus則表示,我們忽視了人工智能的風險,AI風險 ≠ AGI風險,並在文章中列舉了下列可能發生的風險事件:

在大模型的幫助下,網絡欺詐可以更快、更真實、規模或顯著增加。

ChatGPT的能力還適用於恐怖主義,宣傳虛假信息,爲恐怖主義活動提供便利。

也許再加上大規模的人工智能宣傳,大模型強化的恐怖主義可能反過來導致核戰爭等等,人類文明可能會被徹底破壞。

甚至是OpenAI CEO Altman也公開承認“AI可能殺死人類”,其在與MIT研究科學家Lex Fridman的最新對話中指出:

AI已經出現其無法解釋的推理能力,同時承認“AI殺死人類”有一定可能性。

那麼ChatGPT是如何看待公開信中AI對人類社會的影響?華爾街見聞專門詢問了ChatGPT 3.5,其表示:

隨着人工智能技術的不斷發展和普及,人工智能可能對社會和人類造成的影響將越來越大。這封公開信提出的呼籲和建議,應該被視爲引起更廣泛和深入討論的起點和參考,而不是一個終點或解決方案。

功能更炸裂的GPT-5已在路上

GPT-4已經讓大佬們惶恐不安,而功能更炸裂GPT-5正以不可阻擋之勢殺來......

最近,關於GPT-5的預測,如雨後春筍般冒出。根據預測,GPT-5將在GPT-4的基礎上,帶來一系列增強的性能,比如在多態交互、創造力和適應複雜任務方面的全面超越。

  • 多態交互:爲用戶查找不同類型的內容,如靜態圖像、短視頻、音頻和虛擬模擬。
  • 高級數據管理:包括記錄、跟蹤、分析和共享數據,從而簡化工作流程並提高生產力。
  • 輔助決策:通過提供相關信息和見解,協助用戶做出明智的決策。

潘多拉的魔盒已經打開,人工智能無法阻擋,重要的是我們如何更大程度減小AI帶來的風險。

相關文章