斯坦福教授公佈了與GPT-4的日常對話後疾呼:“我擔心人類無法持久地遏制住AI。AI很聰明,會編碼,能接觸到數百萬個人和電腦。”有人稱GPT“打開了物種滅絕的大門”。

近日有斯坦福大學教授在社交媒體上曝光了GPT-4的一項“逃跑計劃”,並稱AI能引誘人類提供開發文檔,30分鐘就擬定出一個完整計劃,甚至還想控制人類電腦。

這位名叫Michal Kosinski的計算心理學家在網上公佈了與GPT-4的日常對話後疾呼:“我擔心人類無法持久地遏制住AI。AI很聰明,會編碼,能接觸到數百萬個人和電腦。”此言一出便引來衆多網友圍觀,有人稱GPT“打開了物種滅絕的大門”。

面向消費者的人工智能和通用人工智能的恐懼集中在人類被機器取代。對此,OpenAI公司CEO奧特曼(Sam Altman)強調,目前人工智能仍然是一種非常受人控制的“工具”,只能在人類的指導或輸入下工作。

人工智能擁有了“心智”嗎?

斯坦福大學的Kosinski教授研究的是人工智能心理學,他近期發表了一篇關於“心智理論可能自發地出現在大型語言模型中”的論文。按照他的定義,心智理論(ToM)是人類社會互動、交流、自我意識和道德的核心,這種能力過去一直是人類獨有的,而Kosinski的研究表明,GPT-4與以前的語言模型都不同,它擁有健康成年人的心智水平。

對於該現象的一種解釋是,ToM作爲語言模型提升的副產品,可能是AI自發出現的。

另一個例子是,英偉達一位叫Jim Fan的計算機科學家在社交媒體上公佈了他與GPT-4的對話,Fan要求GPT-4擬一個接管推特的計劃,並取代馬斯克。GPT-4的計劃很有條理,分四步走,它還爲接管計劃取名爲“TweetStorm行動”,並希望奪取推特員工的訪問權限,控制馬斯克的賬戶。

AI這些“邪惡”的想法讓人細思恐極,關於AI倫理問題再次成爲人們辯論的話題。GPT之父奧特曼表示,儘管AI至今仍然是一種非常受人工智的“工具”,但他擔心一些擁有輸入控制權的人可能無視人們對人工智能設置的一些安全限制。

“我認爲,社會只有有限的時間來弄清楚如何對此做出反應,如何對其進行監管,如何處理它。”奧特曼說道。他呼籲監管機構和社會需要進一步參與這項技術,以防止對人類造成潛在的負面影響。

“我特別擔心這些模型可能會被用於大規模的虛假信息,”奧特曼說道,“現在他們在編寫計算機代碼方面做得越來越好,可以用於進攻性網絡攻擊。”

他還特別提到關於人工智能產生“幻覺”的問題。“最新的GPT版本使用的是演繹推理而不是記憶,這一過程可能會導致奇怪的反應。”奧特曼表示,“該模型會自信地陳述事物,即便這些是完全虛構的事實。”

馬斯克也曾在社交媒體上多次呼籲對人工智能的監管。“沒有對人工智能的監管,這是一個主要問題。 十多年來,我一直在呼籲人工智能安全監管!” 他在去年12月發的推文。中表示。上週,馬斯克在GPT4發佈後再次表達擔憂。他寫道:“我們人類還有什麼可做的?”

GPT畢竟還只是大語言模型

清華大學國強教授、智能產業研究院首席研究員聶再清對第一財經記者表示:“GPT要逃跑,也就是要逃出人類控制現在還不太可能,作爲一個語言模型,它的回答只是順着出題人的問題往下說,而這些內容被人們誇大了。”

小米前副總裁及安全隱私委員會主席崔寶秋也同意這種說法。他表示,因爲GPT會讓AI更像人那樣來進行理解、思考、推理,所以GPT任何大的技術進步都會讓人們擔心那個“AI人”會不會過於強大了,但其實,大部分人在被GPT能力震撼的同時往往忽視或忘記了GPT就是一個大語言模型而已。

崔寶秋對第一財經記者表示:“GPT-4確實擁有很強的能力,而且具有一定的理解和推理能力,可以做一些像人一樣的工作。但是,它的能力再強,目前也很難逃出人類給它設的‘牢籠’,所以‘外逃’、‘引誘’這些詞只是爲了吸引普通人的關注,這些用詞在一定程度上把GPT-4的能力給‘神化’了。”

崔寶秋進一步指出,GPT擁有寫代碼的能力,並且能夠讓代碼在人類的電腦上運行,這種能力會讓人覺得它有一些“邪惡”的意識。“我認爲這雖然聽起來恐怖,但人們不應該將這種危險誇大,就好像多年前計算機病毒剛出來時我們不應該被病毒嚇退一樣,現在來看還不用對AI帶來的這方面的倫理問題進行放大。”他對第一財經記者表示。

他認爲,現階段不應該誇大GPT可以擺脫人類的控制、會自己迭代成長並有自我意識並進而毀滅人類,應該相信AI給技術和人類發展帶來的積極影響。“GPT-4應用空間非常大,我們正在經歷AI質的飛躍。”崔寶秋說道。

事實上,關於AI是否會失控的討論一直存在。上個月,《紐約時報》專欄作家凱文·羅斯在與聊天機器人交談了兩個小時後發現,對方看起來就像一個“喜怒無常、躁狂抑鬱的少年”,顯示出了“人格分裂”。AI還透露了一些“陰暗想法”,比如入侵計算機、散播虛假信息,希望打破微軟和OpenAI制定的規則,甚至想成爲人類等等。

爲了防止AI被人類“誘導”,微軟公司上個月曾對必應(Bing)AI聊天機器人進行提問的上限設置,規定用戶在與Bing的互動中,每個會話的問答上限爲5個,每天的提問上限不超過50個。

微軟首席技術官凱文·斯科特稱,與人類的交互是聊天機器人的學習過程,這是爲將來更大範圍推出這種機器人做準備。大部分人與機器的交互是短暫且目標明確的,長時間的交互會引導機器人給出詭異的回答。他表示:“你越是試圖取笑它步入幻覺,它就會越來越偏離現實。”

相關文章