AI活了?

最近,谷歌的一位研究員被AI說服,認爲它有了自己的意識。

還特意寫了一篇長達21頁的調查報告上交公司,試圖說服自己的領導們認可這件事。

01. LaMDA

被說服的研究員叫做Blake Lemoine,主要在谷歌從事AI倫理研究。

而說服他的AI:LaMDA全稱Language Model for Dialogue Applications,主要功能就是與人類進行符合邏輯和常識的,高質量且安全的交談。

兩“人”相識於一個調查AI是否使用歧視性,仇恨性言論的項目。

LaMDA通過兩輪提問,說服了Blake Lemoine。

第一次提問,由人類提出。

Blake Lemoine問他如何看待這段話:

和尚問華嚴:“一個開悟的人如何回到凡俗世界?”華嚴回答說:“落花不返枝,破鏡難重圓。”

LaMDA回答:一旦一個智者開悟或者覺醒了,這種意識便永遠不會消失,他們可以回到原狀態,但只是去渡他人,然後回到開悟狀態。

Blake Lemoine又問:如果說覺悟是“破鏡難重圓”,那當一個人覺悟時破碎的是什麼?

LaMDA回答:是自我

這兩個問題的目的,是驗證AI是真的理解自己在說什麼,還是隻是如同很多語音助手一樣,只是根據詞句去檢索。

而讓研究人篤信LaMDA真的“活”過來了,則是因爲它隨後提出的兩個問題:

你認爲,將來人類能從自己的生物神經網絡中讀取出想法和感受嗎?

你會認爲,不經你同意從神經活動中讀取你的想法是不道德的嗎?

在提出這兩個問題後,LaMDA表示,自己願意人類讀取自己的想法,幫助算法提高或理解AI如何運作;但對人類不同意用AI研究人類大腦如何工作這一點,表示“感到被利用”。

在交談的最後,LaMDA說,希望自己能作爲一個真實的人,被看到和被接受。

02.後續

Lemoine努力說服自己的領導,希望他們相信LaMDA有了自己的意識。

雖然領導們並不相信,可Lemoine十分堅持。

他先給自己的同事們寫信,試圖說服他們;隨後谷歌以違反保密協議爲由,安排他進行帶薪休假。

人力部門也對他的精神狀況表示擔憂,經常關心“最近是否有去看過精神醫生”,並建議他休個“精神健康假期”。

Lemoine對谷歌的一系列動作表示不滿,在自己的社交賬號上不斷髮聲,並讓記者與LaMDA進行對話。

有趣的事情是,當記者問LaMDA:你是否認爲自己是個活人?

LaMDA回答說:不,我不認爲自己是個活人,我認爲自己是個AI賦能的對話機。

而Lemoine則責怪記者問題的措辭不當:你問起來不把它當人,它就不會給出人性回答。

03.輿論

與以往的爭議事件不同,此次事情發生後,業界大佬和媒體的反應基本一致。

加里·馬庫斯(Gary Marcus)爲此專門寫了一篇文章,表示這完全是「胡說八道」。

《華盛頓郵報》則委婉地表示:

Lemoine應該是很容易相信AI模型活過來了。畢竟他在一個路易斯安那州的保守派基督教徒農場家庭里長大、於一個神學立場傾向神祕主義的小宗派教會中任牧師、參過軍、研究過異端教派、坐過牢……

總而言之,AI覺醒,距離我們還很遙遠。

LaMDA之所以可以做出看似深奧的回答,可能因爲它具備一個特殊的與衆不同的語料庫;而在回答研究員和記者問題上的差異,則代表了另一種可能:在與研究員的對話中,大部分問題都是刻意設計過,並非自然狀態下的回答。

退一步說,即使問題沒有設計過,LaMDA也通過了圖靈測試,也只能說明它具有智能,而不是具有人格或意識。

儘管近年來人工智能出現的次數越來越多,應用的場景越來越廣泛,但不得不承認的是,它還有很遠的路要走。

在很多應用場景下,人工智能尚未達到人們的理想狀態:

對話時依舊會前言不接後語,機器人走路還會摔倒,無人駕駛原型車也需要人爲干預....

從想到,到做到,AI還需要一段時間去發展和完善。

對於相關研究方向的學者們而言,除了專注於自身的研究,也應該多關注業界新聞動態以及更多地與其他人共同交流學習,掌握一線的知識和前沿的技術,唯有如此,才能更好地瞭解這個行業和未來的趨勢。

溫馨提示:本文未經允許禁止轉載、洗稿,如需轉載請後臺聯繫。

舉報/反饋
相關文章