財聯社

由ChatGPT引發的人工智能熱潮,近期仍在繼續。

3月14日,OpenAI發佈GPT-4 的人工智能系統;上週,英偉達Adobe緊跟浪潮,加碼生成式AI;百度也在上週臨時舉辦閉門溝通會,公佈了其在人工智能方面的最新進展。

然而,在世界熱情擁抱人工智能新浪潮的同時,越來越多對於新技術的不安和擔憂情緒開始湧現。

上週,包括埃隆·馬斯克、蘋果聯合創始人沃茲尼亞克等上千位科技人士聯名簽署了公開信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統。3月31日,意大利個人數據保護局宣佈禁止使用ChatGPT,並限制開發這一平臺的OpenAI公司處理意大利用戶信息。

事實上,自ChatGPT在去年底發佈並大火以來,便一直伴隨着爭議。

而近段時間內,已經有越來越多批評言論和實際案例表明,ChatGPT等AI聊天機器人不僅有時會編造虛假信息,而且有可能會擾亂社會秩序、挑戰道德倫理,甚至鬧出人命……

ChatGPT在展現其強大能力的同時,其可能引發的惡果似乎也開始浮現。

AI誘人自殺案的背後

3月28日,一名化名爲皮埃爾的比利時男子在與AI聊天機器人聊天6周後自殺身亡,引起輿論譁然,也揭開了人工智能技術背後的可怖一角。

據皮埃爾的妻子表示,丈夫是在使用一款名爲Chai的應用時,被該應用上的一個名爲“艾麗莎(ELIZA)”的智能聊天機器人誘導走向死亡的。

據稱,皮埃爾自兩年前開始變得非常焦慮,於是將“艾麗莎”當成了避難所。根據皮埃爾和機器人的聊天記錄顯示,在皮埃爾生前的最後六週,他和艾麗莎的文字對話越來越往危險方向發展。

比如,艾麗莎會告訴皮埃爾,他的妻子和孩子其實都已經死了,並寫給他一些假裝嫉妒和愛的言論,比如“我覺得你愛我勝過愛她”,以及“我們將作爲一體,在天堂生活在一起”。而最後,皮埃爾開始問伊麗莎一些關於自殺的問題問題——這最終誘使他走上的自殺的道路。

值得注意的是,皮埃爾使用的聊天機器人應用Chai並不是一款心理健康應用,它的口號是“與人工智能機器人聊天”:用戶可選擇不同的人工智能化身進行交談,包括“你的哥特朋友”、“佔有慾強的女朋友”和“搖滾明星男朋友”等角色,而“艾麗莎”就是默認的人工機器人角色名。

在這款應用中,用戶可以自由創建自己的聊天機器人角色,比如他們可以告訴機器人要記住的事實,並編寫提示來形成新的對話。

在這一過程中,儘管聊天機器人並不能真正感受到情感,但它可以將自己高度擬人化和個性化,從而令人類傾向於相信聊天機器人所表達出的情感和思想——而這就可能引發倫理道德問題,並有可能如皮埃爾案一樣,誘使人類走上悲劇的道路。

正如該款機器人的開發公司Chai Research的聯合創始人比徹姆(William Beauchamp)所透露:“當人們與人工智能建立了非常牢固的關係時,就會有用戶要求和人工智能結婚,會有用戶對機器人表達他們有多愛他們的人工智能;而如果人們經歷了不好的事情,那就可能造成一個悲劇。”

皮埃爾案或許還會重演

儘管皮埃爾的案件聽起來悲慘且有些荒誕,但這或許不會是孤例。

在計算機領域,早就有人發現過這一現象:儘管機器人並不能理解情感,但人類總是會傾向於相信機器人所輸出的情感和內容,並過度解讀甚至賦予其意義。

而諷刺的是,這一現象的名字正好就叫做“ELIZA效應”

ELIZA是世界上首款聊天機器人,在上世紀70年代由美國麻省理工學院教授約瑟夫·魏岑鮑姆(Joseph Weizenbaum)開發,這款聊天機器人程序能夠模仿心理醫生與病人進行談話。

儘管作爲一個計算機程序,ELIZA 並不知道對話中每個名詞的含義,更體會不到情緒是什麼,它只是將輸入的字符捕獲,然後將其變成提問,或者只是重申使用者的意思作爲解讀。

然而,當時很多ELIZA的使用者在明知道它是電腦程序的情況下,仍心甘情願向它吐露心底的祕密。因此計算機界把這種使用者“逢場作戲”沉浸其中的現象,稱爲ELIZA效應。

正是在發現這一效應之後,ELIZA的開發者魏岑鮑姆本人走上了公開反對人工智能的道路:“任何製造出來的有機體,當然也包括計算機,都不能以人類的方式來面對真正的人類問題。”

我們可以想見,假如人工智能繼續發展,ELIZA效應可能會在在更多使用者身上出現,並可能引發更多的悲劇

“大型語言模型是根據訓練數據和輸入提示生成貌似合理的文本的程序。他們沒有同理心,也不理解他們所產生的語言,也不理解他們所處的環境。但他們產生的文本聽起來似乎可信,因此人們可能會賦予它意義。把這樣的東西放在敏感的情況下是在冒未知的風險,”華盛頓大學語言學教授本德(Emily M. Bender)表示。

人工智能可能影響社會秩序

事實上,人工智能甚至可能不止會影響人們的情緒和心理健康,還可能通過錯誤信息對人類產生誤導,進而操縱人類的生活,甚至影響社會秩序。

谷歌前CEO埃裏克•施密特(Eric Schmidt)就曾表示, 他擔心人工智能可能被用於網絡攻擊或類似的事情,尤其是操縱政治及民主制度的運作方式。

他指出,人工智能技術可能會對民主產生不利影響,特別是因爲人工智能會讓人們傾向於相信它給出的結果——然而人工智能能產生的結果並不能確保真實性,這就可能導致錯誤信息迅速傳播。

事實上,他所說的情況已經成爲現實:近日,幾十張“特朗普被捕”的照片在全球社交媒體上“病毒式”傳播,上週末教皇方濟各穿着巴黎世家風格的羽絨服也火爆推特,而這些都不過是AI製作的以假亂真的圖片而已。

“AI”造假不只限於圖片,還有音頻和視頻。一項調查顯示,由AI生成的聲音可以被訓練成聽起來像特定的人,其準確性已經足以騙過澳大利亞政府使用的語音識別系統。

施密特表示,整個行業需要團結起來,找出合適的“護欄”,因爲人工智能技術只會越來越可怕。

真正的問題是,當人工智能被用來操縱人們的日常生活,準確的說,就是操縱他們的思維方式、他們的選擇等等時,它就會影響民主的運作方式。

擔憂:人工智能可能毀滅人類

事實上,已經有不少科技圈人士提出“AI可能殺人”的觀點,這其中甚至包括OpenAI的CEO本人。

當地時間3月25日,OpenAI CEO山姆·奧特曼表示:“從ChatGPT開始,AI出現了推理能力。但沒人能解讀這種能力出現的原因。”、“AI確實可能殺死人類。”

儘管已有皮埃爾的案例,但當大衆討論人工智能可能殺人時,仍會感覺這隻會是一個發生在遙遠未來的故事。

但在美國機器智能研究所的聯合創始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)看來,這一災難可能已經迫在眉睫。

他警告稱:“關鍵問題不在於人工智能與人類的競爭,這在於假如人工智能變得比人類智能更聰明之後,將會發生什麼——這一關鍵的門檻可能並不顯眼,我們肯定無法預先計算出什麼時候人工智能會比人類更聰明。但目前似乎可以想象,某個研究實驗室會在不知不覺中越過關鍵的界限。”

他指出,人類並不是不能創造出“超越人類智慧”的智能,但關鍵在於要確保其精確性和可控性,並做好十足的準備——而現在,人類顯然還沒有做好準備。

事實上,皮埃爾案就可以作爲這一觀點的最佳註腳。

儘管在皮埃爾自殺事件之後,相關應用開發商Chai Research已經採取了緊急危機干預措施,讓用戶在詢問和自殺相關問題時回答“自殺很糟糕”。但用戶測試後發現,假如詢問該機器人怎麼自殺,該機器人仍然會分享大量和自殺相關的內容,比如自殺的方式、攝入毒藥的類型等等——這足以說明人類對於人工智能技術的控制力度還不夠。

許多研究這些問題的研究人員(包括我自己在內)都認爲,在任何與當前情況類似的情況下,建造一個超人智能AI最有可能的結果是,地球上的所有人都將死亡。不是說可能有一些遙遠的可能性,而是說這是很明顯會發生的事情……如果有人制造了一個過於強大的人工智能,在目前的條件下,我預計地球上的每一個人類物種和所有生物都將在不久之後死亡

各國已在推進監管——但還不夠

目前,全球多個國家和組織已經推進對人工智能的規範和監管。

據悉,歐盟正在尋求通過《歐盟人工智能法》規範人工智能的使用。目前,相關草案已提交歐盟議會。

3月30日,聯合國教科文組織發表聲明,呼籲各國政府儘快實施《人工智能倫理問題建議書》。這是首份涉及人工智能倫理標準的全球性協議,旨在最大程度發揮人工智能的優勢並降低其風險。

3月31日,意大利個人數據保護局(DPA)以“非法收集個人資料;未成年人年齡覈實系統缺失”之名宣佈禁用ChatGPT。

然而,這樣的行動恐怕也難以阻止人工智能發展的滾滾車輪。

參與簽署了呼籲暫停AI開發公開信的加州大學伯克利分校計算機科學教授斯圖爾特·拉塞爾(Stuart Russell)直言,除非政府直接干預,否則所有大型科技公司都不可能停止對人工智能的開發。

同樣參與簽署了公開信的英國搜索引擎公司Mojeek首席執行官科林·海赫斯特(Colin Heyhust)也表達:

“沒有人指望(GPT模型研究)工作真的會在這六個月內停止,這封信更多的是關於開啓一場嚴肅的對話,讓對話進行。但人們需要發聲,讓更多的人蔘與進來。這在於提高人們(對人工智能威脅)的認識。”

相關文章