本文轉自:新華社

參會者在第六屆世界智能大會上參觀(2022年6月24日攝) 趙子碩攝/本刊

大模型、大數據的驅動讓人工智能在對話的自然度、趣味性上有了很大突破,但距離具備自主意識還很遠。換言之,即便人工智能可以對人類的語言、表情所傳遞的情緒作出判斷,但這主要應用的是自然語言處理、計算機視覺等技術

不同於當前依賴數據學習的技術路線,新一代人工智能強調在沒有經過數據學習的情況下,可以通過推理作出合理反應,從而與沒有見過、沒有學過的事物展開交互

當前人工智能治理面臨的最大挑戰,是我們沒有一套比較成熟的體系來規制其潛在的風險。在發展科技的同時,必須同步發展我們的規制體系

“技術歸根結底是由人類來發展和把控的。人類和人工智能的未來,是由人類選擇的。”

文 |《瞭望》新聞週刊記者 於雪 魏雨虹

今年6月,美國谷歌公司軟件工程師布萊克·勒莫因稱語言模型LaMDA出現自我意識。他認爲,LaMDA擁有七八歲孩童的智力,並相信LaMDA正在爭取自己作爲一個人的權利。

LaMDA是谷歌去年發佈的一款專門用於對話的語言模型,主要功能是可以與人類交談。

爲佐證觀點,勒莫因把自己和LaMDA的聊天記錄上傳至互聯網。隨後,谷歌以違反保密協議爲由對其停職。谷歌表示,沒有任何證據支持勒莫因的觀點。

事實上,“AI(人工智能)是否擁有自主意識”一直爭議不休。此次谷歌工程師和LaMDA的故事,再次引發討論。人們想知道:人工智能技術究竟發展到了怎樣的階段?是否真的具備自主意識?其判定依據是什麼?未來我們又該以怎樣的能力和心態與人工智能和諧共處?

人工智能自主意識之辨

勒莫因認爲LaMDA具有意識的原因有三:一是LaMDA以前所未有的方式高效、創造性地使用語言;二是它以與人類相似的方式分享感覺;三是它會表達內省和想象,既會擔憂未來,也會追憶過去。

受訪專家告訴《瞭望》新聞週刊記者,上述現象僅僅是因爲LaMDA所基於的Transformer架構能夠聯繫上下文,進行高精度的人類對話模擬,故能應對人類開放、發散的交談。

至於人工智能是否已經具備自主意識,判定標準如何,受訪專家表示,對人類意識的探索目前仍屬於科技前沿,尚未形成統一定義。

清華大學北京信息科學與技術國家研究中心助理研究員郭雨晨說:“我們說人有自主意識,是因爲人知道自己在幹什麼。機器則不一樣,你對它輸入內容,它只是依照程序設定進行反饋。”

中國社會科學院科學技術哲學研究室主任段偉文認爲,一般意義上,人的自我意識是指對自我具備覺知,但如何認識和理解人類意識更多還是一個哲學問題而不是科學問題,這也是很難明確定義人工智能是否具備意識的原因。

被譽爲“計算機科學與人工智能之父”的艾倫·圖靈,早在1950年就曾提出圖靈測試——如果一臺機器能夠與人類展開對話而不能被辨別出其機器身份,那麼可以稱這臺機器具有智能。

這一設想隨後被具化爲,如果有超過30%參與測試的人以爲自己在和人說話而非計算機,就可以認爲“機器會思考”。

當前隨着技術的發展,已經有越來越多的機器能夠通過圖靈測試。

但清華大學人工智能國際治理研究院副院長梁正告訴《瞭望》新聞週刊記者,圖靈測試只能證明機器在表象上可以做到讓人無法分辨它與人類的不同,卻不能證明機器能夠思考,更不能證明機器具備自主意識。

段偉文表示,目前大體有兩種方式判定人工智能是否具有自主意識,一種以人類意識爲參照,另一種則試圖對機器意識進行全新定義。

若以人類意識爲參照,要觀察機器能否像人一樣整合信息。“比如你在陽光下,坐在河邊的椅子上看書,有樹影落在臉上,有風吹來,它們會帶給你一種整體的愉悅感。而對機器來說,陽光、河流、椅子等,是分散的單一元素。”段偉文說。

不僅如此,段偉文說,還要觀察機器能否像人一樣將單一事件放在全局中思考,作出符合全局利益的決策。

若跳出人類構建自主意識的範式,對機器意識進行重新定義,則需要明白意識的本質是什麼。

段偉文告訴記者,有理論認爲如果機器與機器之間形成了靈活、獨立的交互,則可以稱機器具備意識。也有理論認爲,可以不追究機器的內心,僅僅把機器當作行爲體,從機器的行爲表現判斷它是否理解所做事情的意義。“比如機器人看到人類喝咖啡後很精神,下次當它觀察到人類的疲憊,能不能想到要爲人類煮一杯咖啡?”段偉文說。

但在段偉文看來,這些對機器意識進行重新定義的理論,其問題出在,即便能夠證明機器可以交互對話、深度理解,但是否等同於具備自主意識尚未有定論。“以LaMDA爲例,雖然能夠生成在人類看來更具意義的對話,甚至人可以與機器在對話中產生共情,但其本質仍然是在數據採集、配對、篩選機制下形成的反饋,並不代表模型能夠理解對話的意義。”

換言之,即便人工智能可以對人類的語言、表情所傳遞的情緒作出判斷,但這主要應用的是自然語言處理、計算機視覺等技術。

郭雨晨直言,儘管在情感計算方面,通過深度學習的推動已經發展得比較好,但如果就此說人工智能具備意識還有些一廂情願。“把‘意識’這個詞換成‘功能’,我會覺得更加準確。”

技術換道

有專家提出,若要機器能思考,先要解決人工智能發展的換道問題。

據瞭解,目前基於深度學習、由數據驅動的人工智能在技術上已經觸及天花板。一個突出例證是,阿爾法圍棋(AlphaGo)在擊敗人類圍棋世界冠軍後,雖然財力和算力不斷投入,但深度學習的回報率卻沒有相應增長。

一般認爲,人工智能可被分爲弱人工智能、通用人工智能和超級人工智能。弱人工智能也被稱爲狹義人工智能,專攻某一領域;通用人工智能也叫強人工智能,主要目標是製造出一臺像人類一樣擁有全面智能的計算機;超級人工智能類似於科幻作品中擁有超能力的智能機器人。

從產業發展角度看,人工智能在弱人工智能階段停留了相當長時間,正在向通用人工智能階段邁進。受訪專家表示,目前尚未有成功創建通用人工智能的成熟案例,而具備自主意識,至少需要發展到通用人工智能階段。

梁正說,大模型、大數據的驅動讓人工智能在對話的自然度、趣味性上有了很大突破,但距離具備自主意識還很遠。“如果你給這類語言模型餵養大量關於內省、想象等與意識有關的數據,它便更容易反饋與意識有關的回應。”

不僅如此,現階段的人工智能在一個複雜、專門的領域可以做到極致,卻很難完成一件在人類看來非常簡單的事情。“比如人工智能可以成爲圍棋高手,卻不具備三歲小孩對陌生環境的感知能力。”段偉文說。

談及背後原因,受訪專家表示,第一是當前人工智能主要與符號世界進行交互,在對物理世界的感知與反應上發展緩慢。第二是數據學習讓機器只能對見過的內容有合理反饋,無法處理陌生內容。第三是在數據驅動技術路線下,人們通過不斷調整、優化參數來強化機器反饋的精準度,但這種調適終究有限。

郭雨晨說,人類在特定任務的學習過程中接觸的數據量並不大,卻可以很快學習新技能、完成新任務,這是目前基於數據驅動的人工智能所不具備的能力。

梁正強調,不同於當前主要依賴大規模數據訓練的技術路線,新一代人工智能強調在沒有經過數據訓練的情況下,可以通過推理作出合理反應,從而與沒有見過、沒有學過的事物展開交互。

相比人類意識的自由開放,以往人工智能更多處在封閉空間。儘管這個空間可能足夠大,但若超出設定範疇便無法處理。而人類如果按照規則不能解決問題,就會修改規則,甚至發明新規則。

這意味着,如果人工智能能夠超越現有學習模式,擁有對自身意識系統進行反思的能力,就會理解自身系統的基本性質,就有可能改造自身的意識系統,創造新規則,從而成爲自己的主人。

“人工智能覺醒”背後

有關“人工智能覺醒”的討論已不鮮見,但谷歌迅速否認的態度耐人尋味。

梁正表示:“如果不迅速駁斥指認,會給谷歌帶來合規性方面的麻煩。”

據瞭解,關於人工智能是否有自主意識的爭論並非單純技術領域的學術探討,而關乎企業合規性的基本堅守。一旦認定公司研發的人工智能系統出現自主意識,很可能會被認爲違反第2版《人工智能設計的倫理準則》白皮書的相關規範。

這一由美國電氣和電子工程師協會2017年發佈的規範明確:“根據某些理論,當系統接近並超過通用人工智能時,無法預料的或無意的系統行爲將變得越來越危險且難以糾正。並不是所有通用人工智能級別的系統都能夠與人類利益保持一致,因此,當這些系統的能力越來越強大時,應當謹慎並確定不同系統的運行機制。”

梁正認爲,爲避免社會輿論可能的過度負面解讀,擔心大家認爲它培育出了英國作家瑪麗·雪萊筆下的弗蘭肯斯坦式的科技怪物,以“不作惡”爲企業口號的谷歌自然會予以否認。“不僅如此,儘管這一原則對企業沒有強制約束力,但若被認爲突破了底線,並對個體和社會造成實質性傷害,很有可能面臨高額的懲罰性賠償,因此企業在合規性方面會更爲謹慎。”

我國也有類似管理規範。2019年,國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,提出人工智能治理的框架和行動指南。其中,“敏捷治理”原則主要針對技術可能帶來的新社會風險展開治理,強調治理的適應性與靈活性。

中國信息化百人會成員、清華大學教授薛瀾在接受媒體採訪時表示,當前人工智能治理面臨的最大挑戰,是我們沒有一套比較成熟的體系來規制其潛在的風險。特別是在第四次工業革命背景下,我國的人工智能技術和其他國家一樣都處於發展期,沒有現成的規制體系,這樣就使得我們在發展科技的同時,必須同步發展我們的規制體系。“這可能是人工智能發展面臨最大的挑戰。”

在梁正看來,目前很難斷言新興人工智能技術具有絕對風險,但必須構造合理的熔斷、叫停機制。在治理中既要具有一定的預見性,又不能扼殺創新的土壤,要在企業訴求和公共安全之間找到合適的平衡點。

畢竟,對人類來說,發展人工智能的目的不是把機器變成人,更不是把人變成機器,而是解決人類社會發展面臨的問題。

從這個角度來說,我們需要的或許只是幫助人類而不是代替人類的人工智能。

長沙華夏實驗學校學生和機器狗互動(2022年6月22日攝) 薛宇舸攝/本刊

爲了人機友好的未來

確保通用人工智能技術有益於人類福祉,一直是人工智能倫理構建的前沿。

薛瀾認爲,在科技領域,很多技術都像硬幣的兩面,在帶來正面效應的同時也會存在風險,人工智能就是其中一個比較突出的領域。如何在促進技術創新和規制潛在風險之間尋求平衡,是科技倫理必須關注的問題。

梁正提出,有時技術的發展會超越人們預想的框架,在不自覺的情況下出現與人類利益不一致甚至相悖的情況。著名的“曲別針製造機”假說,即描述了通用人工智能在目標和技術都無害的情況下,對人類造成威脅的情景。

“曲別針製造機”假說給定一種技術模型,假設某個人工智能機器的終極目標是製造曲別針,儘管看上去這一目的對人類無害,但最終它卻使用人類無法比擬的能力,把世界上所有資源都做成了曲別針,進而對人類社會產生不可逆的傷害。

因此有觀點認爲,創造出法力高超又殺不死的孫悟空本身就是一種不顧後果的冒險行爲。

與其對立的觀點則認爲,目前這一擔憂爲時尚早。

“我們對到底什麼樣的技術路線能夠發展出具備自主意識的人工智能尚無共識,現在談論‘禁止發展’,有種空中樓閣的意味。”梁正說。

商湯科技智能產業研究院院長田豐告訴《瞭望》新聞週刊,現實中人工智能技術倫理風險治理的關鍵,是產業能夠在“預判防範-應用場景-用戶反饋-產品改進”中形成市場反饋機制,促成倫理風險識別與敏捷治理。同時,企業內部也需建立完整的科技倫理自律機制,通過倫理委員會、倫理風控流程平臺將倫理風險把控落實到產品全生命週期中。

郭雨晨說,人工智能技術發展到目前,仍始終處於人類可控狀態,而科技發展的過程本來就伴隨對衍生問題的預判、發現和解決。“在想象中的人工智能自主意識出現以前,人工智能技術腳踏實地的發展,已經造福人類社會很多年了。”

在梁正看來,人與人工智能在未來會是一種合作關係,各自具備對方無法達成的能力。“技術歸根結底是由人類來發展和把控的。人類和人工智能的未來,是由人類選擇的。”

相關文章