08模擬人腦,計算機不可或缺的4大思維

儘管人腦的思維模式極爲精巧,我們仍然可以通過軟件對人腦進行模擬。要想做到這一點,計算機必須要具備準確的溝通、記憶和計算能力,具有計算的通用性和馮•諾依曼結構,並且能夠按大腦核心算法進行創造性思考。

我們的大腦外在形態好似一塊法國鄉村麪包,內在像是一個擁擠的化學實驗室,充斥着無間斷的神經元對話。可以把大腦想象成一堆發光體;一個鼠灰色的細胞“議會”;一個夢工廠;一個住在球狀頭骨內的小小君王;一團雜亂的神經細胞,微小但無處不在,導演着一切人生戲劇;一個變幻無常的樂園;或是一個名叫“頭骨”的“衣櫥”裏塞滿了各式各樣名叫“自我”的“行頭”,擠得皺皺巴巴的,彷彿小小的運動隨身包裏裝了太多衣服。

戴安•艾克曼,美國知名女作家

大腦會存在是因爲爲了維持生存必須對資源進行分配,而且隨着空間和時間的變化,威脅生存的因素也在不斷變化。

約翰•奧爾曼,美國著名馬克思主義者

現代大腦地圖給人一種有趣的古舊感——就像一張中世紀的地圖,已知世界被散佈着不知名怪獸的未知之地環繞。

大衛•班布里基,知名生殖生物學家

在數學中你並沒有理解什麼東西,你只是習慣了它們而己。

約翰•馮•諾依曼,數學家、計算機之父

自從20世紀中期計算機出現以來,關於計算機的能力極限以及人腦能否被視爲一種形式的計算機的爭論就沒有間斷過。對於後一個問題,輿論共識已經發生轉變,從認爲這兩種信息處理實體在本質上是相同的,轉變爲認爲兩者存在本質上的不同。那麼大腦是否可被視爲計算機呢?

20世紀40年代,計算機開始成爲時髦的話題,被視爲“思考機器”。1946年,世界上第一臺電子數字積分計算機ENIAC問世,被媒體稱爲“巨腦”(giant brain)。隨着計算機在接下來的幾十年裏走入大衆市場,廣告常常稱其爲普通人腦無法企及的、擁有超能力的“大腦”(見圖8-1)。

圖8-11957年的一則廣告,寓意電腦是一個巨型的大腦

計算機程序使這種機器名副其實。由卡內基•梅隆大學的赫伯特•西蒙、J.C.肖(J.C.Shaw)和艾倫•紐厄爾(Allen Newell)發明的“通用問題解算機”(general problem solver),成功證明了羅素和阿爾弗雷德•諾斯•懷特海(Alfred North Whitehead)在他們1913年出版的著作《數學原理》(Principia Mathematica)中無法論證的定理。在接下來的幾十年裏,計算機在解決數學問題、診斷疾病、下國際象棋等智力運動方面凸顯出大大超越人腦的優勢,但在控制機器人繫鞋帶,或是學習5歲大兒童就能理解的常用語言方面卻困難重重,計算機現在纔剛剛能夠掌握這些技能。具有諷刺意味的是,計算機的進化與人類智能的成熟方向正好相反。

關於計算機和人腦在某種程度上是否等同的問題至今仍存在爭議。在序言中我提到,關於人腦的複雜性可以查到無數種引證。同樣,在谷歌上搜索“大腦不等同於計算機的引證”,也可以得到上百萬條鏈接結果。在我看來,這些鏈接的內容都無異於在說“蘋果醬不是蘋果”。從技術上看這種說法沒有錯,但蘋果可以做出蘋果醬。或者,“計算機不是文字處理器”之類的說法可能更加貼切一些。儘管計算機和文字處理器存在於不同的概念層面是事實,但是計算機在運行文字處理軟件時就變成了文字處理器,反過來則不然。同樣,計算機如果運行“大腦軟件”則可以變成人腦。這正是很多研究人員,包括我自己正在嘗試的事情。

那麼問題就變成了我們是否可以找到一種算法使計算機變成等同於人腦的存在。由於具有內在通用性(僅受容量大小制約),一臺計算機可以運行我們定義的各種算法,人腦卻只能運行一套特定的算法。儘管人腦的模式相當精巧,不僅有極大的可塑性,還可以在自身經驗的基礎上重建聯結,但這些功能我們可以通過軟件進行仿真。

準確的溝通、記憶和計算能力

計算通用性的理念(即一臺普通目的的電腦可以植入各種算法)在第一臺計算機產生時就出現了。計算的通用性和可能性及對人類思維的適用性包含4個核心概念,它們很值得探討,因爲人腦也在對其進行運用。第一個是準確的溝通、記憶和計算能力。在1940年,如果你使用“計算”這個詞,人們會認爲你在說模擬計算機。模擬計算機的數字由不同程度的電壓代表,而且特定的模塊可以運行加法和乘等運算。然而,模擬計算機的一個很大的限制是準確性存在問題。其準確性只能達到小數點後兩位數,而且隨着處理代表不同數字的電壓的操作員增加,錯誤也隨之增多。所以無法進行較大量的計算,因爲結果會由於準確性太低而失去意義。

只要曾用模擬磁帶機錄製過音樂的人都會知道這一效應。第一遍拷貝的質量會打折,相比原版聽起來有較多雜音(此處的“雜音”代表隨機錯誤)。把第一遍拷貝再進行拷貝會出現更多雜音,到第十遍的拷貝時,基本上就只剩下雜音了。數字計算機的崛起伴隨着同樣的問題,思考一下數字信息的溝通通道我們就可以理解了。沒有任何通道是完美的,通道本身都存在一定的錯誤率。假設一條通道有90%的概率能正確傳送每個比特的信息。如果我傳送的信息有1比特,那這條通道正確傳送它的可能性爲0.9,假如我傳送2比特信息呢?那準確率就變成了0.92=0.81。假如我傳送1字節(8比特)信息呢?那我準確傳送該信息的可能概率連50%都達不到(準確地說是0.43)。準確傳送5字節信息的概率僅爲1%。

避免這個問題的一個方法就是增加通道的準確性。假設一個通道在傳送100萬比特時出現一個錯誤,如果我傳送的文件包含50萬字節(約爲一個普通的程序或數據庫的大小),儘管通道固有的準確性較高,但正確傳送它的概率仍不到2%,而單單一個比特的錯誤就可以徹底毀掉整個程序或其他形式的電子數據,所以這種情形並不能令人滿意。除了通道的準確性,另一個棘手的問題是傳送中出現錯誤的概率隨着信息量的增加而迅速增加。

模擬計算機通過柔性降級的方法處理該問題(即用戶只用其處理能容忍出現一些小錯誤的問題)。如果用戶能將其運用限制於一定的計算,那麼模擬計算機確實是有用的。然而數字化計算機要求連續的通信,不僅是在不同的計算機之間,也包括計算機自身內部:從內存到中央處理器之間存在通信;在中央處理器中,不同寄存器和算法單元之間也在進行通信;在算法單元內,從一個比特寄存器到另一個之間也在進行交換。通信在每個層級上都普遍存在。如果錯誤率隨着通信的增多快速增加,而一個比特的錯誤就可以破壞整個過程的完整性,那麼數字化計算註定會失敗,至少在當時看來是這樣的。

引人注目的是,這種普遍的認識在美國數學家克勞德•香農(Claude Shannon)展示了怎樣通過最不可靠的溝通通道來進行精度很高的通信時得以改變。1948年7月和10月,香農在《貝爾系統技術雜誌》(Bell System Technical Journal)上發表了具有里程碑意義的論文《通信的數學理論》(A Mathematical Theory of Communication),提出噪聲通道編碼理論。他認爲,無論通道的錯誤率是多少(除了錯誤率正好爲每比特50%的通道,因爲這意味着該通道傳輸的是純粹的噪聲),都可以按想要的精度傳送信息。換句話說,傳輸的錯誤率可以是n比特分之一,但是n的大小可以隨意定義。比如說,在端限情況下,就算一個通道的正確率僅爲51%(即該通道傳送的正確信息的比特數僅比錯誤信息的比特數多一點兒),仍然可以使傳輸的信息錯誤率達到百萬分之一,甚至萬億分之一,甚至更小。

這是怎麼做到的呢?祕訣就在於冗餘。這在現在看來似乎是顯而易見的,但在當時則不然。舉一個簡單的例子,假如我每比特信息都傳送3次,並且選傳輸後多數相同的那條信息,那麼我就可以大大地提高信息的可靠性。不斷增加冗餘就能讓你得到所需的精度。不斷重複傳送信息是從準確性較低的通道得到任意高精度信息最簡單的方法,但不是最有效率的方法。香農的論文開創了信息理論這一領域,爲錯誤偵查和校正碼提供了最理想的方法,使在任意非隨機通道條件下獲得任意目標精度成爲可能。

年紀較大的讀者可以回想一下電話調制解調器,它通過嘈雜的模擬電話線路傳遞信息。幸好有了香農的噪聲通道理論,儘管這些線路存在可以聽到的明顯的嘶嘶聲、砰砰聲或其他形式的聲音失真,它們仍然可以傳送高精度的數字化信息。數字存儲器也存在同樣的問題和解決辦法。你是否想過爲什麼就算唱片曾掉在地上並且有刮痕,CD、DVD或其他磁盤軟件仍能準確地讀出音樂嗎?這也多虧了香農。

計算包含3個部分:通信(正如我之前提到的,在計算機內部和計算機之間普遍存在)、存儲器和邏輯門(可進行計算和邏輯推理)。邏輯門的準確性可以通過錯誤偵查和校正碼達到任意高的精度。幸好有了香農的理論,不管多大多複雜的數字化信息和算法,我們都可以準確處理,避免過程中出現較高的錯誤率。需要指出的很重要的一點是,我們的大腦也在運用香農的理論。當然,人腦的進化遠遠先於香農發現這一原理。絕大部分模式或思想(思想也是一種模式)在大腦中儲存時都包含大量的冗餘。冗餘出現的首要原因是神經傳輸系統自身的不可靠性。

計算的通用性

信息時代所依賴的第二個核心基礎是我之前提到過的:計算的通用性。1936年,艾倫•圖靈提出“圖靈機”(見圖8-2),但它並非真實存在,僅僅是一種思想實驗。他假設計算機包含無限長的記憶磁帶,每個平方上有一個1或0。輸入呈現在記憶磁帶上,機器每次可以讀取一格。這臺機器還包含一個規則表(核心是一個記憶程序),是由數字編碼的各種狀態組成的。如果被讀出的平方上的數字爲0,就指定一個行動,如果爲1則指定另一個行動。可能的行動包括在記憶磁帶上寫0或1,將記憶磁帶向右或向左移動一格,或者停止。每條狀態都會指定機器應該讀取的下一條狀態的數字。

圖靈機的輸入呈現在記憶磁帶上。程序不斷運行,當機器停止工作時,它已完成了算法,並且將過程輸出在記憶磁帶上。注意,雖然磁帶的長度在理論上是無限的,但實際的程序如果不進入無限循環的話只會用掉有限長的磁帶,所以假如我們只去看那部分有限的磁帶,就可以解決一類有用的問題。

圖8-2無限的記憶磁帶

注:圖靈機的框圖,帶一個能讀寫磁帶的前端,還有一個由狀態轉換組成的內置程序。

如果你認爲圖靈機聽上去很簡單,那是因爲這正是發明者的目的所在,圖靈希望他的機器儘可能簡單(但不是簡化,引用愛因斯坦的說法)。圖靈和他之前的老師阿隆佐•邱奇教授(Alonzo Church)接着開發了邱奇-圖靈論,稱如果一個問題無法利用圖靈機解決,那根據自然定律,任何其他機器也解決不了。儘管圖靈機只有少數命令,並且每次只能處理1比特,但它能完成任何其他計算機都能完成的計算。換一種說法就是“圖靈完全”(即擁有與圖靈機同等能力)的機器能夠完成任何算法,即任何我們能定義的程序。

邱奇-圖靈論的一種“強有力”的詮釋在本質上將人的思想或認知與機器的計算等同起來,其基本論點是人腦同樣遵循自然定律,因此它的信息處理能力不可能超過機器,即也不可能超越圖靈機。

我們可以將圖靈發表於1936年的論文視爲計算理論的基礎,但同時也應注意到他深受數學家約翰•馮•諾依曼的影響。馮•諾依曼1935年於劍橋講授他的存儲程序概念,這一概念在圖靈機中得到深刻的體現。[162]反過來,馮•諾依曼也受到圖靈發表於1936年的論文的影響,該論文提出了計算的原則,在20世紀30年代末和40年代初成爲同行必讀論文之一。[163]

在該論文中,圖靈提出了另一個意想不到的發現,即無法解決的問題。這些問題有明確的定義、有唯一解,並且可以證明這一解是存在的,但我們也能證明它們無法通過任何圖靈機進行計算出來,即無法通過任何機器計算。這與19世紀的認識(只要問題能被定義,那麼最終就能被解決)正好相反。圖靈向我們展示了無法解決的問題和可以解決的問題一樣多。數學家和哲學家庫爾特•哥德爾(Kurt Gödel)在他1931年提出的“不完全定理”(incompleteness theorem)中提出了類似的結論。我們因此面臨一個令人困惑的情形,即我們可以定義一個問題,也可以證明唯一的答案存在,但卻永遠得不到答案。

圖靈展示了,在本質上計算是基於一個非常簡單的機制。因爲圖靈機(包括任何計算機)能夠將它未來的行動進程建立在已經計算出的結果之上,因此它能夠進行決策並對任何複雜的信息層級進行建模。

1939年,圖靈設計了一個叫作Bombe的電子計算器,幫助破譯了納粹Enigma密碼機編寫的情報。1943年,一個受圖靈影響的工程師小組發明了Colossus計算機,這可以說是世界上第一臺計算機,它幫助同盟國解碼了更復雜的Enigma式密碼機編寫的情報。Bombe和Colossus是針對單個任務設計的,並且不能被重新編程用於解決其他任務,但是它們都出色地完成了自己的使命,幫助同盟國克服了納粹德國空軍相對於英國皇家空軍的3:1的優勢,並對納粹可能採取的戰術進行預測,使英國獲得了關鍵戰役的勝利。

馮•諾依曼結構

在前文所述基礎之上,馮•諾依曼設計了現代計算機的構造,這引出了我的第三個核心思想:被稱作“馮•諾依曼機”的結構構成了過去約70年裏每臺計算機實質上的核心結構,從你家洗衣機裏的微型控制器到最大型的超級計算機,無一例外。在寫於1945年6月30日一篇名爲《關於EDVAC的報告草案》(First Draft of a Report on TheEDVAC)[164]的論文中,馮•諾依曼提出了自此以後主導計算領域的理論,即馮•諾依曼模型——包括一個進行計算和邏輯運算的中央處理器,一個存儲程序和數據的內存單元,一個大容量存儲器,一個程序計數器,以及輸出/輸入通道。儘管這篇論文的本意是作爲內部項目文件,但它實際上已成爲計算機設計師的“聖經”。你永遠也想不到一個看似普通的日常內部備忘錄也許會在某一天改變整個世界。

圖靈機並不是爲了實用而設計的。圖靈的定理並不着重於解決問題,而在於檢視理論上能通過計算解決的問題的邊界。馮•諾依曼的目的是提出一個計算機器的可行性模型。他的模型用多比特語言代替了圖靈的單比特計算(通常是8比特的倍數)。圖靈的記憶磁帶是連續的,所以圖靈機的程序在存儲和提取結果時需要花費大量時間來回倒帶或進帶。相較之下,馮•諾依曼的存儲器是隨機存取的,所以任何數據都可以立刻被提取出。

馮•諾依曼的一個核心觀點是他多年前引入的存儲程序(stored program)概念:將程序像數據一樣放在同樣類型的隨機存取存儲器中(通常放在同樣的內存區塊中),就可以使計算機通過重新編程來應對不同的任務,同時進行代碼的自我修改(假如記憶程序可寫的話),從而實現一種強大的遞歸形式。在那之前,所有的電腦,包括Colossus,都是設計來解決一種任務的。存儲程序使計算機通用化成爲可能,從而實現圖靈關於通用計算的設想。

馮•諾依曼機的另一個關鍵方面在於,各個指令都包含一個指定要進行的算術或邏輯運算的操作代碼和一個指向內存中的操作數的地址。

馮•諾依曼關於計算機架構的理念是通過他設計的離散變量自動電子計算機(EDVAC)的問世爲人所知的。EDVAC是他和普雷斯波•埃克特(J.Presper Eckert)、約翰•莫奇利(John Mauchly)合作的項目。EDVAC直到1951年纔開始真正運行,當時還出現了其他存儲程序計算機,比如曼徹斯特小規模實驗機、電子數字積分計算機(ENIAC)、電子延時儲存自動計算機(EDSAC),二進制自動計算機(BINAC),它們都多多少少受到馮•諾依曼論文的影響,而且埃克特和莫奇利都參與了設計。所有這些機器的產生,包括ENIAC之後推出的支持存儲程序的版本,馮•諾依曼都是當之無愧的直接貢獻者。

馮•諾依曼機問世之前還出現過幾位先導,但它們中沒有一個是真正的馮•諾依曼機。1944年,霍華德•艾肯(Howard Aiken)推出了“馬克一代”,它有可編程的元素但不使用存儲程序。它從一個穿孔的紙帶上讀取指令,然後立刻執行各項命令,但缺乏條件分支指令。

1941年,德國科學家康拉德•楚澤(Konrad Zuse)創造了Z-3計算機。它也是從一個記憶磁帶(用的是膠捲)上讀取程序,沒有條件分支指令。有趣的是,楚澤得到德國飛行器研究機構的支持,該機構用楚澤的設備來研究機翼的擺動,但楚澤向納粹政府提出的用真空管更換繼電器的資金支持申請卻遭到了拒絕,因爲納粹政府認爲研究計算對戰爭來說不那麼重要。在我看來,納粹戰敗的結果幾乎可以用這種錯誤觀點的長期存在來解釋。

但馮•諾依曼的理念有一位真正的先驅,並且可以追溯到百年之前!他就是英國數學家和發明家查爾斯•巴貝奇(CharlesBabbage)。1837年,巴貝奇首次描述了一種名爲分析機(AnalyticalEngine)的機器,該機器就體現了馮•諾依曼的理念,其特點是用穿孔卡片作爲存儲程序,靈感來自雅卡爾織布機。[165]它的隨機存儲器可以存取包含1 000個字,每個字由50個十進位數組成(等同於約21個千字節)。它的各個指令包含一個操作碼和一個操作數,就像現代機器語言。該分析機還包含條件分支和循環,所以是貨真價實的馮•諾依曼機,它完全基於機械齒輪。分析機似乎超出了巴貝奇的設計和組織技能,他製造出了各個部件但並沒有真正讓它運行起來。但我們不清楚包括馮•諾依曼在內的20世紀的計算機鼻祖們是否對巴貝奇的工作有所瞭解。

巴貝奇的計算機實際上推動了軟件編程領域的產生。英國作家艾達•拜倫(Ada Byron)——勒芙蕾絲伯爵夫人、詩人羅德•拜倫的唯一合法繼承人,可以說是世界上第一個計算機程序設計員。她爲分析機編寫了程序,即今天軟件工程師所熟知的“查表法”。不過,她只需要在自己的腦子裏進行調試(因爲計算機從沒有真正工作過)。她翻譯了意大利數學家路易吉•梅約佈雷亞(Luigi Menabrea)關於分析機的文章並加上大量自己的註釋。她認爲:“分析機編織代數的模式如同雅卡爾織布機編織出花朵和葉子的花紋一樣。”她接着提出了可能是世界上第一個關於人工智能可能性的推斷,又總結說分析機“不能自命不凡,認爲什麼問題都能解決”。

巴貝奇能在他生活和工作的時代提出如此先進的理念不能不令人稱奇,但直到20世紀中期他的思想纔得到人們的重視。是馮•諾依曼使我們今天所熟知的計算機原則概念化和清晰化,而且馮•諾依曼機作爲計算的最重要模型在全世界得到普遍認可。但要記住的是,馮•諾依曼機在各種單元之間和單元內部持續地進行數據通信,因此它的實現多虧了香農提出的對數字化信息進行可靠傳輸和存儲的理論。

按大腦核心算法進行創造性思考

這引出了我們的第4個重要的思想,即打破艾達•拜倫提出的計算機不能進行創造性思考的結論,探索大腦採用的核心算法,將電腦變成人腦。艾倫•圖靈在他1950年的論文《計算機器與智能》(Computing Machinery andIntelligence)中提出這個目標,還設計了今天有名的圖靈測試來確認某一人工智能是否能達到人類的智力水平。

1956年,馮•諾依曼開始爲耶魯大學享有聲望的西里曼講座系列準備講演。但由於癌症的折磨,他沒有機會真正登上講臺,也沒有完成手稿。但這些未完成的手稿仍然對計算機的發展——在我看來是人類最令人卻步又最爲重要的工程,作出了精彩而有預見性的構想,並於1958年在他去世後出版,名爲《計算機與人腦》(The Computer and TheBrain)。20世紀最傑出的數學家和電腦時代的先驅的最後著作是對智能的檢視,這真是再合適不過了。這部作品是最早從數學家和計算機科學家的角度對人腦進行的嚴肅探究。在馮•諾依曼之前,計算機科學和神經科學是沒有任何交集的兩個領域。

馮•諾依曼應用計算通用性的概念得到的結論是:儘管人腦和計算機的結構截然不同,但仍可以認爲,馮•諾依曼機能夠模仿人腦對信息的加工過程。反之則不然,因爲人腦不是馮•諾依曼機,而且沒有同樣的存儲程序(儘管我們的大腦可以模擬一個非常簡單的圖靈機的工作過程),它的運算法則或方式是內隱於結構中的。馮•諾依曼正確地歸納了神經可以從輸入中學習模式,這些模式現在已被確定,並且部分通過樹突強度來編碼。在馮•諾依曼的時代還不爲人所知的是,學習同樣通過神經元聯結的建立和破壞來進行。

馮•諾依曼預見性地指出神經加工的速度極爲緩慢,大約每秒能進行100次計算,但是大腦通過大量的並行處理來補償速度——這是他的又一個重要的洞察。他認爲,大腦的1 010個神經在同時工作(這個估計值相當準確,今天估計的數目在1 010~1 011之間)。實際上,每個聯結(每個神經平均有約103~104個聯結)也都在同時進行計算。

考慮到當時神經科學的發展還處於初始階段,馮•諾依曼對神經加工過程的推測和描述工作稱得上是非常傑出。但他對大腦記憶容量的推測我卻無法苟同。他稱大腦能記住人一生中所有的輸入。他認爲人的平均壽命爲60年,即2×109秒。每秒每個神經約有14個輸入(這比實際情況低了至少3個數量級),神經總數爲1010個,那麼可推斷大腦總的記憶容量約爲1020比特。但正如我之前提到的,事實上我們只能記住我們的思想和經歷的一小部分,而且這些記憶的存儲模式不是處於較低水平的比特模式(像視頻圖像一樣),而是處於較高水平的序列模式。

馮•諾依曼在提出大腦工作的各個機制的同時,也展示了現代計算機怎樣完成跟大腦同樣的工作。儘管兩者有明顯的差異,但是大腦的模擬機制可以被數字化仿真,因爲數字化計算可以實現任意精度的對模擬值的仿真(而且大腦內的模擬信息精度非常低)。考慮到計算機在連續計算中顯著的速度優勢,大腦中的大規模平行工作構造同樣可以被仿真。另外,我們也可以通過平行地使用馮•諾依曼機在計算機上實現並行處理——這正是今天的超級計算機的工作原理。

馮•諾依曼推斷說大腦的工作方式不能包含較長的連續算法,否則人在如此慢的神經計算速度下無法快速作出決定。當三壘手拿到球並且決定扔到一壘而不是二壘時,他是在不到一秒的時間內作出這個決定的,這段時間僅夠各個神經進行少數幾輪循環。馮•諾依曼正確推斷了大腦的出色能力來自於1 000億個細胞可以同時處理信息,因此視覺皮質只需要3~4個神經循環就能作出複雜的視覺判斷。

大腦極大的可塑性使我們能夠進行學習。但計算機的可塑性更大,通過改變軟件就可以完全重建它的工作方式。因此,從這點上看,計算機可以仿真大腦,但反過來則不然。

馮•諾依曼在他的時代將進行大量平行計算的大腦的容量與計算機進行了對比,得出大腦有更強大的記憶力和速度的結論。現在能夠在功能上仿真人腦(每秒運行約1016次),在某些方面能達到保守估計的人腦速度的第一代超級計算機已經出現。[166](我預測這種水平的計算機在21世紀20年代初期就可以買到,其費用將爲1 000美元左右。)在記憶容量方面,計算機和人腦就更接近了。雖然在他寫作手稿的時候計算機還處於發展的初始時期,但馮•諾依曼已充滿信心地認爲人類智能的“硬件”和“軟件”之謎最終會被解開,這也正是他準備這些演講的動機所在。

馮•諾依曼深刻地意識到,科技發展不斷加快的腳步及其對人類未來發展的深遠意義。在1957年他去世一年後,他的同事、數學家斯坦•烏拉姆(Stan Ulam)引用他在50年代早期說過的話:“技術的加速發展和對人類生活模式的改變的進程在朝向人類歷史上某種類似奇點的方向發展,在這個奇點(singularity)之後,我們現在熟知的社會作用將不復存在。”這是人類技術史上第一次使用“奇點”這個詞。

馮•諾依曼的基本見解是,計算機和人腦在本質上是相同的。請注意,生物人的情商也是它智能的一部分。如果馮•諾依曼的見解是正確的,並且假如你能接受這個信念的飛躍,即令人信服地重現了生物人的智能(包括情感等其他方面)的非生物實體是有意識的,那麼我們能得到的結論就是計算機(安裝了恰當的軟件)和人類意識本質上是可以等同的。那麼,馮•諾依曼是正確的嗎?

今天絕大多數計算機是完全數字化的,而人類大腦結合了數字法和模擬法。模擬法由數字法進行再現,再現較爲容易且程序化,並能達到任意想要的精度。美國計算機科學家卡弗•米德(Carver Mead)提出了可以用他命名爲“神經形態”的硅制芯片直接仿真人腦的模擬法,這種方法比數字仿真模擬法的效率高上千倍。[167]因爲我們對新皮質大量重複的算法進行了編纂,所以完全可以使用米德的方法。由達曼德拉•莫哈領導的IBM認知計算小組已經推出了能夠仿真神經和神經聯結,並且能形成新聯結的芯片,將之命名爲“突觸”。[168]它的其中一個芯片能直接模擬約有25萬個突觸聯結的256個神經元。這個項目的目的是創造一個非常接近人類大腦的,功率僅爲1千瓦的,擁有100億神經和100萬億神經聯結的仿真新皮質。

正如馮•諾依曼在50多年前描述的那樣,大腦運行速度極其緩慢卻擁有大量的平行運算能力。今天的數字電路至少比大腦的電化學交換快1 000萬倍。不過,大腦真皮質的3億個模式識別器同時運行着,神經元間的上百億個聯結也同時進行着計算。提供能成功模擬人腦的必要硬件的關鍵問題在於實現總的記憶容量和計算量,而不是直接複製大腦的結構,但這種做法非常缺乏效率和靈活性。

讓我們判斷一下這些硬件要滿足哪些要求。許多工程試圖模擬在新皮質發生的分層學習和認知模式,包括我自己在進行的關於隱馬爾可夫層級模型的研究。根據我自己的經驗作出的保守估計是,模擬生物大腦新皮質上的一個模式識別器的一次循環需要約3 000次計算。絕大部分仿真運行的次數達不到這個估計數。大腦每秒進行約102次循環,那麼每秒每個模式識別器會達到3×105次(即300 000次)計算。假設按我的估計模式識別器的數目在3×108(即3億)左右,我們可以得到每秒1014次(即100萬億次)計算,這個數目與我在《奇點臨近》一書中的估算是一致的。在那本書中我推斷爲了在功能上模擬大腦需要每秒進行1014到1016次計算,而1016次每秒只是保守估計。人工智能專家漢斯•莫拉維克(Hans Moravec)根據整個大腦內初始視力加工過程所需要的計算量推測得出的數字爲1014次每秒,這與我的估計是一致的。

常規臺式計算機可以達到每秒1010次計算,但這個速度可以通過雲資源得到極大的提升。最快的超級計算機,日本的計算機“京”(K Computer)的速度已經達到了1016次每秒。[169]考慮到新皮質的算法大都是重複進行的,使用“神經形態”芯片的方法,例如上文中提到的IBM的“突觸”的前景非常樂觀。

在記憶容量的要求方面,我們需要約30比特(約4字節)來使一個聯結響應3億個模式識別器中的一個。如果我們估計每個模式識別器向上平均有8個輸入,即每個識別器收到32字節輸入。如果我們給每個輸入多加1字節,那麼就有40字節。加上向下聯結的32字節,總共就有72字節。但聯結上下層級的分支通常會遠遠多於8個輸入和輸出。注意,較大的分支樹通常由多個識別器共享,比如,可能會有上百個識別器參與識別字母“p”,那麼在更高一層,即識別包含“p”的單詞或詞組的層級就會有更多的、成千上萬個識別器參與。然而,各個較低層級的“p”識別器並不分別佔有聯結高一層級的分支樹,而是共享同一個聯結分支樹。對於向下的聯結也是同樣的道理:一個負責單詞“APPLE”的識別器會通知所有低一層級的負責字母“E”的識別器,如果它看到了“A”“P”“P”“L”那麼就有可能會出現“E”。對於需要向低一層級通知“E”可能會出現的各個單詞或詞組識別器而言,樹狀聯結並不是多個重疊的,而是共享同一個。因爲這個原因,總體上估計平均每個識別器上下各8個輸入是合理的。即使增加個別識別器的估計數,也不會顯著影響估計結果的數量級。

3×108個(即3億個)模式識別器各有72字節輸入,那麼加起來總共就可以得到2×1010字節(即200億字節)的記憶容量。這對於今天的常規計算機來說算不上一個太大的數字。

以上這些估算主要是爲了提供一個大致的數量級估計。考慮到數字電路的速度是新皮質的生物性電路的1 000萬倍,我們就不需要在平行構造的規模方面向人腦看齊,一般規模的平行構造就足夠了(人腦中的平行線路高達萬億級)。我們可以發現,計算方面的必要要求都已經能夠達到了。大腦的重新聯結——樹突持續不斷地產生新的突觸,也可以通過運用聯結的軟件來模擬,這個模擬系統比大腦還要靈活得多,相比之下大腦存在較多侷限。

大腦用於保持記憶穩定性和一致性的冗餘也完全可以用軟件模擬。優化這類自組織層級學習系統的數學方法已經被充分理解。但大腦的組織還遠遠達不到優化的水平,當然,它也不需要達到最優化,只需要達到能夠製造工具彌補自身水平的不足就足夠了。

人類新皮質的另一個限制在於沒有排除或複查相互矛盾思想的程序,這導致很多時候人們的思想缺乏一致性。我們也缺乏一個強有力的機制來執行批判性思想,當我們需要這個技能時,幾乎一半的情況下都沒能有效運用。一個以軟件爲基礎的新皮質可以通過建立一個暴露不一致性的程序來克服這個弱點,方便我們對自身思想進行復查。

值得注意的是,設計整個大腦區域反而比設計單個神經元要簡單。正如我們之前討論的,用計算機進行模擬,越高層級的模型反而越簡單。爲了模擬晶體管,我們需要理解半導體的物理特性的細節,而且一個真正的晶體管即使只是基礎方程也非常複雜。一個能將兩個數字相乘的數字電路需要上百個晶體管,但我們通過一兩個公式就能準確模擬這個乘法電路。一個包含上10億個晶體管的計算機的模擬僅需要指令系統和註冊描述,短短几頁文本和公式就能包括全部內容。操作系統、語言編譯器或彙編程序的軟件程序則相對複雜,但是模擬一個特定程序,比如一個基於隱馬爾可夫層級模型的語言識別程序,則可以通過短短几頁方程完整描述。在這些描述中肯定不會出現半導體物理特性的細節或計算機的構造。

類似的現象對大腦也同樣適用。新皮質上偵查某一不變的視覺特徵(比如人臉),或是執行聲音的帶通濾波(將輸入限定在一個特定的頻率範圍內)任務,或是評價兩個事件時間接近性的模式識別器,與控制神經遞質、粒子通道,以及參與神經過程的其他突觸或樹突變異的化學物理聯繫相比,能得到的細節更少。儘管在邁向更高的概念層面之前需要仔細考慮所有這些複雜性,但絕大部分可以被簡化,就像大腦展現的工作方式一樣。

09思維的思想實驗

意識來源於複雜物理系統的“湧現特性”(emergent property),可感受的“特質”(qualia)是其突出特徵。成功模擬人腦的計算機也是有意識的。思維就是有意識大腦所進行的活動。非生物學意義上的“人”將於2029年出現。將非生物系統引入人腦,不會改變我們的身份,但卻產生了另外一個“我”。把我們的大部分思想儲存在雲端,人類就能實現“永生”。

思維就是大腦的活動。

馬文•明斯基

當智能機器被髮明出來時,我們不需要爲這一現象喫驚。跟我們一樣,這些機器也會對自己竟然會相信思維、意識、自由意志這類東西而感到困惑和不能自已。

馬文•明斯基

誰是有意識的

個人意識的真正歷史開端源於第一個謊言。

約瑟夫•布羅茨基,俄裔美國詩人、諾貝爾文學獎得主

苦難是意識的唯一來源。

陀思妥耶夫斯基,《地下室手記》

有這樣一種植物,它的花以有機食物爲食:當飛蟲駐足在它的花瓣上時,它的花瓣會立即合攏,將飛蟲困在其中,直到自身的消化系統將飛蟲消化吸收掉。但是,它只有在遇到好東西時纔會合攏花瓣,其他東西則會忽略,它是不會去理睬一滴雨或是一根樹枝的。真稀奇!這樣一種無意識的生物,當遇到自己感興趣的東西時,竟會有這麼敏銳的眼光。如果這是一種無意識,那麼意識又有什麼作用呢?

塞繆爾•巴特勒,英國作家

我們一直在對大腦進行研究,並一直將其當成一種實體,可以完成某種層級的活動。但是,這種觀點基本上否定了我們自身的作用。好像我們就是生活在自己的大腦中而已。事實上,我們也有自己的主觀生活。至今爲止,我們一直談論的大腦的客觀性與我們自身的感受有什麼關係呢?與有經驗感受的我們,又有什麼關係呢?

英國哲學家科林•麥金(Colin McGinn)曾寫道:“在討論意識這一問題時,即使是最嚴謹的思想家也會語無倫次。”他這樣說是因爲就意識到底意味着什麼,人們的觀點往往會前後矛盾,大多都是無稽之談。

許多觀察者認爲,意識是一種表現形式——例如,自我反省的能力,即能夠理解自己的思想並對其進行解釋的能力。就我而言,我會將意識理解爲思考自己的思想的能力。據推測,我們能夠通過測試來評估這種能力,然後利用這個測試區分有意識和無意識的事物。

然而,在嘗試採用此方法時,我們很快就遇到了麻煩。嬰兒有意識嗎?狗呢?兩者都無法清晰準確地描述自己的思維過程。還有人認爲,嬰兒和狗是無意識的生物,因爲他們無法解釋自己的行爲。那麼沃森超級計算機有意識嗎?我們只要給它輸入一種計算模式,它就能給我們解釋它是如何計算出既定答案的,因爲它具備一種自我思考的模式。這麼說來,難道沃森有意識,而嬰兒和狗卻沒有意識?

在我們進一步分析這個問題之前,重要的是要反思一下以下兩者的顯著區別是什麼:我們如何界定什麼是科學,以及什麼纔是真正的哲學問題。一種觀點認爲,哲學是尚未通過科學方法解決的問題的中間狀態。根據這一觀點,一旦科學進步到足以解決某些特定的問題後,哲學家就可以繼續研究其他問題了,直到科學將這些問題也解決了。只要涉及意識這一問題,勢必會提到這一觀點,特別還會提到“誰和什麼是有意識的”這一問題。

哲學家約翰•塞爾曾說過:“我們都知道大腦通過特定的生物機制產生意識……重要的是要認識到,意識是一個生物過程,和消化、哺乳、光合作用或有絲分裂一樣……大腦是一臺機器,確切地說是一臺生物機器,但是它自始至終都是一臺機器。所以我們首先要弄清楚大腦是如何產生意識的,然後再建造一個人工機器,這個機器要和人一樣,具有同樣能夠產生意識的有效機制。”[170]讀到塞爾的這些話,人們往往會感到很驚訝,因爲他們認爲塞爾是在反駁像我這樣的還原論者以保護意識之謎。

哲學家大衛•查默斯(David Chalmers)曾創造了“意識難題”(the hard problem of consciousness)這一術語,以形容解決這個基本上無法形容的概念的難度。有時,一個簡單的短語就能恰到好處地概括出整個思想學派的思想,並最終成爲一種象徵,例如,漢娜•阿倫特(Hannah Arendt)的“平庸的惡”(the banality of evil)。

在討論意識時,人們很容易陷入對意識的可觀察性和可衡量性這一問題的思考中,而這種方法忽略了意識的本質。我剛提到的元認知的概念,即回顧自己的思想和意識是相關的。其他觀察者會將情感智慧或道德智慧同意識混爲一談。但是,重申一下,我們表達愛意的能力、開玩笑的能力,或展現性感的能力都僅僅是表現的類型——可能會讓人印象深刻或顯示出你的智力,然而,這些能力都是不可觀察和測量的(即使我們會爭論如何去評估它們)。弄清大腦是如何完成各種任務以及在執行任務時是如何運作的,這就是查默斯的意識“簡單”問題。當然,這一“簡單”的問題實質上並不那麼簡單,它可能是我們這個時代最困難且最重要的科學探索。與此同時,查默斯的“意識難題”,其難度實質上也是不可言喻的。

爲了證實這種區別,查默斯引入了思想實驗,在該試驗中他引入了他所謂的“殭屍”(zombies)。“殭屍”是一個實體,其行爲和人類一樣,但它們沒有任何主觀經驗——即“殭屍”是無意識的。查默斯認爲,既然我們可以設想出“殭屍”,至少在邏輯上它們是可能存在的。如果你正在參加一個雞尾酒會,酒會上既有“正常”的人類又有“殭屍”,你將如何分辨兩者呢?也許這聽起來很像你曾參加過的一次雞尾酒會。

很多人回答說:“他們會詢問任何他們懷疑的對象,詢問他們對某些事件和想法的反應是什麼。”他們認爲,“殭屍”不具備某些類型的情緒反應,這個問題會證明它們缺乏主觀經驗。但是按照這一思路得出的答案,根本沒有意識到這個實驗假設的前提。如果我們遇到一個沒有感情的人(如有一定情感障礙的人,常見於某些類型的自閉症患者),或是像阿凡達或機器人一樣尚未被認爲是有情感的人類的實體,這些實體就不是殭屍。在這裏提醒一下:根據查默斯的假設,“殭屍”完全具備正常的反應能力,包括情感反應能力,但缺乏主觀經驗。其實,我們根本沒有辦法去識別“殭屍”,因爲按照定義,“殭屍”的行爲並不會暴露他明顯的本質。這麼說來,難道這是一個沒有什麼差異的區別嗎?

查默斯並沒有試圖回答這個難題,但確實提出了一些可能性。一種是二元論形式,這種觀點認爲意識本身就不存在於現實世界中,而是一個獨立的本體。根據這一構想,人的行爲完全基於其大腦程序。因爲大腦具有因果性,所以我們能夠通過大腦的程序來充分說明一個人的行爲,包括他的想法。那麼,本質上意識是存在於另一領域內的,或至少可以說是一個獨立於物質世界之外的物質。這種解釋認爲,意識(也就是說與大腦有關的意識物質)與大腦之間不存在因果關係。

查默斯還提出了另外一種可能性,這種可能性通常被稱爲泛心論(pan-protopsychism)。從邏輯上來說,這種觀點和他的二元論沒有什麼不同。這種觀點認爲所有的物理系統都是有意識的,但人類要比其他實體,如電燈開關,具有更強的意識。與電燈開關相比,人的大腦具有更強的意識,這一點毋庸置疑。

我的看法是:意識是複雜物理系統中湧現出的一種特質,這種觀點也許是泛心論的一個子學派。就這種觀點而言,狗也是有意識的,但要比人類的意識弱一些。螞蟻也有一定程度的意識,但要比狗的意識弱得多。從另一方面來說,蟻羣要比一隻螞蟻具有更高層次的意識,自然也要比單隻螞蟻更聰明。照此推算,成功模擬人類大腦複雜性的計算機也將具有和人類一樣的意識。

我們還可以把意識理解爲具有可感受的“特質”(qualia)的系統。那麼,什麼是可感受的特質呢?一種定義是:可感受的特質是一種“有意識的經驗”。然而,這一定義並沒有給我們多少提示。讓我們來看一個思想實驗,有一個完全色盲的神經學家——不是那種分不清某些顏色的色盲,如紅綠色盲,而是那種完全生活在黑白世界中的人。(具體來說,她從小就生活在黑白世界中,從來沒有見過任何其他顏色。從根本上來說,她的世界中沒有顏色。)但是,她對顏色的物理學進行過廣泛的研究——她知道紅色光的波長是700納米,還知道正常體驗過顏色的人的神經過程是怎樣運行的,因此就大腦如何處理顏色,她具備豐富的知識,而且比大多數人瞭解得更多。如果你想幫助她,並向她解釋“紅色”究竟是一種什麼樣的體驗,你會怎麼做呢?

也許你會給她讀一段尼日利亞詩人歐洛塞伊•奧魯塞溫(Oluseyi Oluseun)寫的《紅》(Red)這首詩:

紅,血之色

生命之象徵

紅,危險之色

死亡之象徵

紅,玫瑰之色

美之象徵

紅,戀人之色

團結之象徵

紅,番茄之色

健康之象徵

紅,熱火之色

慾望之象徵

這確實會給她很多啓示,讓她將紅色與人類的生活聯繫起來,甚至她還會侃侃而談。(“是的,我喜歡紅色,紅色是如此熱烈而又充滿激情,如此美麗而又那麼危險……”)如果她想,她也許可以說服人們,讓人們相信她看到過紅色,但實際上,即使她讀遍世界上所有的詩歌也不會具備那種體驗。

同樣,當你向從未接觸過水的人講述潛入水中是何感覺時,你又該作何解釋呢?我們將再次被迫訴諸詩歌,但是這種經驗本身實在是一種無法傳授的東西。這些經驗就是我們所說的可感受的特性。

想必這本書的許多讀者都看到過紅色。但我怎麼才能知道你們對紅色的感受與我對藍色的感受是不同的呢?當我們都在觀看一個紅色的物體時,我們會確信無疑地說出它就是紅色的,但這並不能說明問題。而當你在觀看藍色的物體時,我可能會跟你有一樣的感受,但是我們都知道應該將紅色物體的顏色稱爲紅色。我們可以重新開始用詩歌進行交流,但詩歌僅僅反映了人類與顏色之間的關聯,並未說明可感受的特性的本質。事實上,先天失明者已經閱讀過大量有關顏色的知識,因爲大多文學作品都會涉及有關顏色的內容,因此,他們確實“感受”過顏色,對顏色有自己的看法。這些失明者對紅色的感受同那些視力正常的人的感受又有什麼不同呢?這個問題實際上同那個生活在黑白世界中的女士的問題是一樣的。讓人驚訝的是,生活中如此常見的現象是這麼完全不可言喻,我們只是單純地想要證實一下都不可以,正如我們想證實我們有着同樣的感受也不可以。

另一種定義是,可感受的特質是對某種經驗的感受。然而,這個定義,正如我們上述對意識所下的定義一樣,仍舊是一種自圓其說,因爲“感受”“有經驗”“意識”,這些詞語都是同義詞。意識和與之密切相關的可感受的特質這一問題都是基本的哲學問題,也許也可以理解爲是最重要的哲學問題(儘管身份認同這一問題可能更重要,我將在本章結束就此問題進行討論)。

再來說說意識吧。歸根結底,這個問題應該怎麼理解呢?它應該是這樣的:誰是有意識的,或意識是什麼?我在本書書名中使用“思維”(mind)一詞而不是“大腦”(brain),是因爲思考是有意識的大腦進行的活動。我們也可以這樣說,思維是有自由意志和身份認同的。斷言這些問題是哲學問題這一說法並非不證自明的。我敢保證,人類永遠不會僅靠科學就能完全解決這些問題,除非先作出哲學假設,否則我們無法設想通過可證僞性實驗來解決這些問題。如果我們要發明一種意識探測器,塞爾會希望用這種意識探測器來確定意識會釋放神經傳遞素。美國哲學家丹尼爾•丹尼特(Daniel Dennett)可能會採用更加變通的方式來理解,但他可能會想確認該系統是否本身就具備一種模型,同時還能發揮其自身性能。這種觀點與我的觀點更接近,但其實質仍然是一個哲學假設。

如今不少學者經常發表一些科學理論,這些理論將意識同一些可度量的物理屬性聯繫起來——也就是塞爾所說的“引起意識的機制”。美國科學家、哲學家和麻醉師斯圖爾特•哈梅羅夫(Stuart Hameroff)曾這樣寫道:“細胞骨架纖維是意識的根源。”[171]他這裏所說的細胞骨架纖維是一種被稱爲微管(microtubule)的生物結構,存在於每個細胞(包括神經元,但又不僅限於神經元)中的纖維,纖維可以保持每個細胞結構的完整性,並在細胞分裂中發揮作用。他的一些著作和論文曾論及該問題,其中對細胞微管的信息處理作用給出了合理的解釋,並附有詳細的說明和公式。但是,要想了解微管與意識的關係,我們需要堅定這樣一種信念,這種信念同宗教教義推崇的信念沒有什麼根本的不同,即神賦予了某些實體(通常指人類)以意識(有時也被稱爲“靈魂”)。爲了證實哈梅羅夫的觀點,有人提出了一些薄弱的論證,特別是這樣一種觀點,即支持細胞計算的神經系統在麻醉過程中會停止運作。但是,這種觀點遠不能使人信服,因爲在麻醉過程中許多系統也會停止運作。我們甚至不能肯定麻醉過程中這些對象是無意識的。我們所知道的只是麻醉後人們會不記得他們經歷過什麼——即使並不是所有人都是如此,因爲有些人確實真真切切地記得麻醉後的經歷,例如,醫生說的話,這種現象被稱爲麻醉覺醒(anesthesia awareness),據估計這種現象在美國每年會發生約40 000次。[172]但是,即使不考慮這一點,意識和記憶也是兩個完全不同的概念。正如我深入討論的問題,如果我回顧過去各個時刻的經歷,我會產生很多感官印象,然而我所能記住的卻只佔少數。這麼說來,是不是我對每天的所見所聞就沒有意識呢?這其實是一個很好的問題,但卻不能得出一個確定的答案。

英國物理學家和數學家羅傑•彭羅斯(Roger Penrose)出於另一個不同的信念,提出了意識的根源問題,雖然他也關注微管——特別是微管的量子計算能力。他的論證(雖然沒有明確說明)似乎認爲,意識是神祕的、量子事件也是神祕的,所以兩者之間必定會有某些聯繫。

相關文章