紐約大學馬庫斯(Gary Marcus)教授和戴維斯(Ernest Davis)教授2019年新書(參考資料[1])的書名,頗吸引眼球:《Rebooting AI : 構建我們可以信任的人工智能》——在計算機術語中,“Rebooting”是“重新啓動”的意思。馬庫斯和戴維斯在書中對人工智能領域當前的技術現狀進行了分析,並提出了實現真正強健的人工智能必須採取的步驟。

《Rebooting AI》一書封面

正如書中談到的:在AI(人工智能)早期,沒有用太多的數據,大多數研究遵循“基於知識”的方法,有時被稱爲GOFAI——Good Old Fashioned AI(好的老式AI),或“經典AI”。在經典AI中,研究人員通常會手工編碼人工智能執行特定任務所需的知識,然後編寫利用該知識的計算機程序,將其應用於各種認知挑戰,比如理解故事或爲機器人制定計劃或證明定理。大數據是不存在的,這些系統很少把利用數據放在首位。現在,總的來說,傳統的、以知識爲中心的方法已經被機器學習所取代,機器學習通常試圖從數據中學習所有東西,而不是依賴利用手工編碼知識的、專門構建的計算機程序。當大數據革命來臨時,在20世紀10年代初,神經網絡終於有了自己的日子,以深度學習名義復興。深度學習在很大程度上成爲當前人工智能投資的中心——無論是在學術界還是在工業界。然而,無論是機器學習還是人工智能,深度學習並不是唯一的方法。通常用文氏圖簡便方法表示深度學習、機器學習和人工智能之間關係。人工智能包括機器學習,但也包括,例如,任何必要的算法或知識,是手工編碼或建立的傳統編程技術,而不是學習。機器學習包括允許機器從數據中學習的任何技術;深度學習是這些技術中最著名的,但不是唯一的。

人工智能在一些應用中取得了超人的性能,但現實是,我們離真正理解世界的人工智能還很遠。馬庫斯和戴維斯區分了當今以深度學習爲基礎的、狹隘脆弱的人工“智能”和人工通用智能,用洞察力解釋了當前方法的缺陷,並提供了一條他們認爲能夠通向健壯人工智能的道路。在可預見的未來,機器會超越人類嗎?馬庫斯和戴維斯給出了他們的答案。

人工智能及其若干子領域(引用《Rebooting AI》一書第45頁)

Karen Hao對馬庫斯的訪談

2019年9月27日《MIT技術評論》網站刊載了Karen Hao對馬庫斯的訪談——“我們不能相信只建立在深度學習基礎上的人工智能系統”,討論如何實現通用AI——以及爲什麼這可能會使機器更安全。

首先,馬庫斯教授認爲,雖然深度學習技術在推進人工智能(AI)方面發揮了重要作用,但該領域當前對它的過分強調,很可能會導致其滅亡。馬庫斯列舉了技術和道德方面的問題。 從技術角度來看,深度學習可能擅長模仿人腦的感知任務,例如圖像或語音識別。 但這並不能滿足其他任務,例如理解對話或因果關係。 爲了創建功能更強大、智能程度更高的機器(通常稱人工通用智能),深度學習必須與其他方法結合起來。

馬庫斯教授和戴維斯教授認爲,創造一種能夠與人類競爭或超過人類水平的智能,遠比我們所認爲的要複雜得多。像IBM “沃森”(Watson)計算機在《危險邊(Jeopardy!)》智力競猜電視節目獲勝(注:2011年2月14日至16日,IBM “沃森”(Watson)超級電腦在智力競猜電視節目《危險邊緣(Jeopardy!)》中,與該節目歷史上兩位最成功的選手肯•詹寧斯和布拉德•魯特對決,沃森獲勝,成爲《危險邊緣》節目新的王者)和AlphaGo在圍棋比賽中獲勝(2016年3月9日-15日,谷歌AlphaGo以總比分4比1戰勝世界頂級圍棋棋手李世石),並不意味着我們已經處於完全自主的汽車或超智能機器的門口。迄今爲止,這一領域的成就是在具有固定規則集的封閉系統中取得的。這些方法過於狹窄,無法達到真正的智能。我們生活的世界是極其複雜和開放的。我們怎樣才能彌合這一鴻溝?當我們這樣做的時候會有什麼後果?馬庫斯和戴維斯向我們展示了在我們到達目的地之前我們首先需要完成的事情,並認爲如果我們保持明智,我們就不必擔心機器霸主的未來,人類可以創造出一個我們可以信任的用於家庭、汽車和醫生辦公室裏的人工智能。

當人工智能系統無法真正瞭解其任務或周圍環境時,也可能導致危險的後果。即使在系統環境中進行最小的意外更改,也可能導致其出錯。已經有無數這樣的例子:易於愚弄的詆譭言語檢測器,使歧視永久化的求職系統,以及撞車的自動駕駛汽車有時會殺死駕駛員或行人。

馬庫斯教授和戴維斯教授認爲,對通用AI的追求,不僅僅是一個有趣的研究問題,它具有非常現實的意義。在他們的新書《重啓AI》中,馬庫斯和他的同事戴維斯提倡一條新的前進道路。他們認爲我們離實現這種通用智能還差得很遠,但他們也相信我們最終可以達到目標。

馬庫斯在Karen Hao訪談中,談到了深度學習的弱點,該領域可以從人類心智中汲取的教訓,以及他爲何保持樂觀。以下摘編自由Karen Hao編輯、歸納的訪談若干要點(參考資料[2])。

[我們爲什麼還要通用AI?窄AI已經爲我們創造了很多價值。]

窄AI(注:或稱弱人工智能,侷限於特定應用領域)已經爲我們創造了很多價值,它將產生更多價值。但是,有很多問題窄AI似乎無法解決。諸如對話的自然語言理解和虛擬世界中的通用助手之類的東西,或者諸如Rosie機器人之類的東西,可能會幫助您收拾家居或做飯(注:Rosie是20世紀60年代電視節目《杰特森一家》中的多功能家用機器人,她能照顧我們家裏的一切——植物、貓、盤子和孩子。哦,再也不用打掃任何東西了)。這些是超出我們可以使用窄AI能夠進行處理的範圍之外。關於窄AI是否可以使我們使用安全的無人駕駛汽車,這也是一個有趣的經驗性問題。到目前爲止,現實是窄AI在異常情況下甚至存在很多問題,即使是對於駕駛,這也是一個有相當限制的問題。

一般說來,我認爲我們都希望看到AI可以幫助我們大規模地獲得醫學新發現。由於生物學很複雜,目前尚不清楚當前的技術是否可以使我們到達需要的位置。您確實需要能夠閱讀文獻。科學家對網絡和分子如何相互作用具有因果關係的理解。他們可以發展有關軌道和行星等理論。藉助窄AI,我們無法讓機器來實現這種創新水平。有了通用AI,我們也許就能徹底改變科學、技術和醫學。因此,馬庫斯教授認爲致力於通用AI的工作是非常值得。

[聽起來你是把通用AI稱爲強健人工智能?]

通用AI是能夠思考並獨立解決新問題的AI。這與問題情況相反,例如圍棋在2000年裏沒有變化。

通用AI類似於人類;任何一個聰明的人都可以做很多、很多不同的事情。你需要一個大學生實習生,幾天之內,他們就可以從法律問題到醫療問題。這是因爲他們對世界有一個普遍的瞭解,他們可以閱讀,所以他們能夠爲各種各樣的事情做出貢獻。

這種關係和強健的智能之間的關係是,如果你不強健,你可能真的不能做一般的事情。因此,爲了建立一個足夠可靠的東西來應對一個不斷變化的世界,你至少可能需要通用智能。

但你知道,我們現在還差很遠。AlphaGo可以在19x19圍棋棋盤上玩得很好,但實際上必須重新訓練,才能在矩形圍棋棋盤上玩。或者你用你的一般水平深度學習系統可以識別大象——只要大象很亮,你可以看到大象的紋理。但如果你把大象畫成剪影,它很可能就認不出來了。

[正如你在書中提到的,深度學習不能真正達到通用AI,因爲它缺少深刻的理解。]

在認知科學中,我們討論的是事物的認知模型。所以我坐在酒店的房間裏,我知道有個壁櫥,有一張牀,還有一臺不尋常的電視機。我知道這裏有這麼多東西,我不只是指認它們。我也理解它們之間的關係。我對外部世界的運作有這些想法。它們並不完美。它們是可能出錯,但它們相當好。我在它們周圍做了很多推論來指導我的日常行爲。

相反的極端是類似於DeepMind製作的Atari遊戲系統,當它看到屏幕上特定位置的像素時,它會記住需要做什麼。如果得到足夠的數據,看起來已經理解了,但實際上這是一個非常膚淺的理解。證明是如果你移動三個像素,它的播放效果會差得多。它隨着變化而斷裂。這與深刻理解相反。

[你建議回到經典人工智能去解決這個挑戰。經典人工智能的優點是什麼,我們應該嘗試合併?我只是有點太喫驚了,深度學習社區對這一點的評價有多低。]

有一些。首先,經典人工智能實際上是一個構建世界認知模型的框架,然後你可以進行推理。第二件事是,經典的人工智能完全符合規則。這是一個奇怪的社會學,現在人們在深度學習中想要避免規則。他們想用神經網絡做任何事情,對任何看起來像經典編程的東西都不做任何事。但是有些問題通常是這樣解決的,沒有人注意,比如在谷歌地圖上製作你的路線。

我們實際上需要兩種方法。機器學習在學習數據方面是很好的,但是它很難表示計算機程序所表示的抽象。經典的人工智能在抽象方面很好,但都需要手工編碼,世界上有太多的知識來人工輸入所有東西。所以很明顯,我們想要的是一種能混合這些方法的合成。

[這涉及到你提到的我們可以從人類頭腦中學到的東西的章節。第一個是建立在我們已經討論過的觀念之上——我們的思想是由許多不同的系統組成的,它們以不同的方式工作。]

我認爲有另一種方法來解釋這一點,即:我們所擁有的每一個認知系統,都在做着不同的事情。類似地,人工智能中的對應方需要被設計來處理具有不同特徵的不同問題。

現在,人們正試圖使用某種“一刀切”(one-size-fits-all)的技術來解決根本不同的問題。理解一個句子和認識一個對象有根本的不同。但是人們試圖用深度學習來做到這兩個目標。從認知的角度來看,這些都是質的不同的問題。而我有點驚訝深度學習社區對這一點的總體評價是如此之低。爲什麼指望一顆銀彈就能解決所有這些問題呢?這是不現實的,它並沒有揭示AI所面臨的挑戰的複雜理解。

[你提到的另一件事是,人工智能系統需要理解因果關係。你認爲這會來自深度學習,經典人工智能,還是全新的東西?]

這又是一個深度學習並不特別適合的地方。深度學習不能解釋事情發生的原因,而是在給定的情況下可能發生的可能性。

要建立我們可信任的AI,必須賦予它們對“時間”、“空間”和“因果關係”的理解能力。雖然操作上一定會有很多挑戰,同時也意味着要放棄大量現有對AI的研究結果,但只有這樣,我們才能設計出我們需要的AI。

[大自然創造了初稿,即草稿。然後學習在整個餘下的時間裏裏修改草稿。]

我們討論的這類事情,你看了一些場景,你瞭解了爲什麼會發生,如果某些事情發生了改變,會發生什麼。我可以看一下酒店電視上的畫架,我猜如果我剪掉一條腿,畫架就會翻倒,電視機就會掉下來。這是因果推理。

經典人工智能爲我們提供了一些工具。例如,它可以表示什麼是支持關係,什麼正在崩潰。不過,我不想賣過頭。一個問題是,經典的人工智能主要依賴於關於正在發生的事情的非常完整的信息,而我只是在沒有看到整個畫架的情況下做了這個推斷。所以我能走捷徑,推斷出我看不見的畫架碎片。我們還沒有真正能做到這一點的工具。

[你提出的第三件事是人類擁有先天就具有的知識的想法。你如何看待它被納入人工智能系統?]

對於人類來說,在你出生的時候,你的大腦實際上是非常精細的結構。它不是固定的,但大自然創造了初稿,即草稿。然後學習在整個餘下的時間裏修改草稿。

大腦的草圖已經有了一定的能力。一隻剛出生幾個小時的小山羊可以在山上爬行而不犯錯誤。顯然,它對三維空間、它自己的身體以及兩者之間的相互關係有一定的理解。相當複雜的東西。

這就是我認爲我們需要混合的部分原因。很難想象我們如何能在沒有一個類似的知識的前提下建造一個在世界上運行良好的機器人,而而不是從一張白紙開始,通過大量的經驗學習。

對人類來說,我們天生的知識來自於隨着時間的推移而進化的基因組。對於人工智能系統,它們必須以不同的方式出現。其中一些可以來自我們如何構建算法的規則。其中有些可以來自我們如何構建這些算法操作的數據結構的規則。有些知識可能來自我們直接教導機器的知識。

[有趣的是,你把書中的所有內容都與信任和建立可信任系統的思想聯繫起來。你爲什麼特別選擇那個框架?]

因爲我覺得現在是整個球賽。我認爲我們生活在一個奇怪的歷史時刻,在這個時刻,我們對不值得信任的軟件給予了很多信任。我認爲我們現在的憂慮不是永久的。一百年後,人工智能將保證我們的信任,也許更快。

但現在人工智能是危險的,而不是像埃隆·馬斯克擔心的那樣。但是在面試系統中,不管程序員做什麼,都會歧視女性,因爲他們使用的技術太簡單了。

我希望我們有更好的人工智能。我不希望我們有一個人工智能的冬天,在那裏人們意識到這些東西不起作用,是危險的,他們不做任何事情。

[在某種程度上,你的書實際上感覺非常樂觀,因爲你暗示有可能建立可信賴的人工智能。我們只需要換個方向。]

對,這本書是非常短期的悲觀和非常長期的樂觀。我們認爲,如果這個領域能從更廣泛的角度來看待什麼是正確的答案,我們在書中所描述的每一個問題都可以解決。我們認爲如果那樣的話,世界會變得更好。

未來AI

對於人工智能的未來,是否還有其他專家和馬庫斯教授持類似的觀點?

在馬庫斯和戴維斯的《Rebooting AI 》出版之前,圖靈獎得主朱迪亞•珀爾在2018年出版了名爲《The Book Of Why》的書(參考資料[3])。在書中闡述了人類具備推斷行爲後果的因果關係能力,得以進化出智能。在書中講述了因果關係的三個層級,而把人工智能大數據分析和深度學習置於因果關係之梯的最低層級,與貓頭鷹相提並論。書中談到了馬庫斯的觀點(參考資料[3],第35頁):深度學習的成功確實是了不起的,讓我們許多人感到驚訝。然而,深度學習的成功主要表現在我們認爲困難實際上並不困難的問題或任務。它並沒有解決真正困難的問題,這些問題繼續阻止我們實現類人人工智能。其結果是公衆誤以爲,像人類一樣思考的“強人工智能”機器就在眼前,甚至可能已經在這裏了。事實上,並非如此。我完全同意紐約大學的神經學家加里·馬庫斯(Gary Marcus)的觀點,他最近在《紐約時報》上撰文稱,人工智能領域正在“湧現出大量的微發現”——這類東西是新聞稿好素材,但機器仍然令人失望地與類人的認知相差甚遠。我在加州大學洛杉磯分校計算機科學系的同事阿德南·達爾裏維奇發表了一篇題爲《人類水平的智力或類似動物的能力?》的論文。我認爲這是一個正確的問題框架。強大人工智能的目標是製造出具有類似人類智能的機器,能夠與人類對話和引導人類。相反,深度學習給了我們真正令人印象深刻的能力但沒有智力的機器。這種差異是深刻的,在於缺乏一種現實的模式。

朱迪亞•珀爾這本書很值得仔細研讀。此書中文版《爲什麼:關於因果關係的新科學》,已經由中信出版集團出版。

朱迪亞•珀爾《The Book Of Why》的書封面及其中文版

未來人工智能能夠超越人類嗎?人工智能的進步將通過重塑交通、健康、科學、金融和軍事來改變現代生活。牛津大學未來人類研究所對人工智能的進步進行了全面的研究。這項研究採訪了352名人工智能研究人員,發表了名爲《人工智能何時超越人類表現》的報告(參考資料[4])。其中講到::人工智能很可能會根據下面的估計時間表取得進展——對以下任務,到相應的年份人工智能能夠超越人類::翻譯語言——2024年;寫高中論文——2026年;駕駛卡車——2027年;零售業工作——2031年;寫暢銷書——2049年;實施手術——2053年。

這項研究還發現,在45年內,人工智能工具在所有任務中超過人類的可能性高達50%,在120年內,所有人類工作自動化的可能性高達50%。這可能會有點令人震驚。鑑於如此先進的技術,人們將無所事事嗎?相信人工智能將主要執行重複性的任務,給我們更多的時間專注於人類最擅長的創造性和創新性工作,並參與我們最喜歡的有趣的活動。最後,研究中接受採訪的大多數研究人員認爲,隨着人工智能在基本任務上開始超越人類,它很可能對人類整體產生積極影響。

牛津大學未來人類研究所對人工智能執行某些任務將超越人類的時間表預測

結語

馬庫斯教授在其新書中,對人工智能持非常短期的悲觀和非常長期的樂觀不無道理。我相信未來人工智能將不再狹隘、脆弱,相信未來人工智能會提升朱迪亞•珀爾所說的因果關係層級,也相信牛津大學未來人類研究所所預測人工智能能夠完成的任務,有可能按估計的時間表取得進展——但是,我懷疑這些任務將會由某種通用AI完成,這也是這篇讀書札記的標題加了問號“?”原因。

《崛起的超級智能》一書主要闡述互聯網經過50年的時間從網狀結構發展成爲大腦模型,數十億羣體智慧與數百億機器智能通過互聯網大腦架構形成了自然界前所未有的超級智能,這個超級智能的形成與物聯網,雲計算,大數據,工業4.0,人工智能,羣體智能,雲機器人的爆發是什麼關係;互聯網大腦與超級智能如何影響人類社會的科技,經濟,產業以及城市建設的未來發展?人類個體和組織機構如何應對崛起的超級智能帶來的挑戰?

作者:劉鋒

推薦專家:張亞勤、劉慈欣、周鴻禕、王飛躍、約翰、翰茲

相關文章