2021年8月份,李飛飛和100多位學者聯名發表一份200多頁的研究報告《On the Opportunities and Risk of Foundation Models》,在這篇論文中,AI專家統一了Foundation Models的說法,可以翻譯爲基礎模型或者是基石模型,並肯定了Foundation Models對智能體基本認知能力的推動作用。 同樣是在2021年,在3月份悟道1.0發佈現場,智源研究院院長黃鐵軍介紹,人工智能的發展已經從“大煉模型”逐步邁向了“煉大模型”的階段。 也就是從這個時候開始,中文裏“大模型”的說法開始進入公衆視野。 僅僅兩個月之後,悟道2.0發佈,參數爲1.75萬億,爲GPT-3參數量(1750億)的十倍。

時間來到了2023年,ChatGPT所展現出的“超能力”,印證了Foundation Models真的讓“智能”產生了突破,人們對人工智能的關注度驟然提升。英文中的“Large Language Model”(LLM)也開始變成英文世界的熱詞,與中文“大模型”的說法,不謀而合、相互交融。

“大模型”也被稱爲人工智能中的“暴力美學”。用通俗的語言描述,我們可以把“大模型”理解爲參數數量巨大、計算量巨大的深度學習模型。通過海量數據的訓練,學習到更加複雜的特徵和規律,從而對人類下達的指令,產生更加智能的反饋。

“大”是“智能湧現”的必要條件,但是究竟要多大才能出現“湧現”?這目前還是技術黑箱。關於模型要做多大,能做多大的討論,一直爲業內關注的焦點。作爲國產大模型最早的踐行者和推行者之一,黃鐵軍認爲,大模型的“大”沒有上限,高質量數據的數量以及算力水平的限制,都不能成爲大模型繼續擴大的限制條件,如果以人腦一千億個神經元,總突觸超過一百萬億的數量級爲參照物,基於人工神經網絡的大模型,還有很大空間。

但是,如此可能“大”無上限的模型,僅中國在短短三個月內,就已經發布了幾十個。黃鐵軍對此的觀點更明確,全球僅僅需要三個大模型就夠了。至於人類通往AGI(通用人工智能)之路,究竟是不是能通過深度學習這條路徑實現,目前還沒有定論。但是可以肯定的是,人類已經看到了AGI的曙光。也正是這抹光的乍現,人工智能界最有影響力的人物,多次預警並聯名簽發公開信,預警風險。他們的擔憂,究竟有哪些?

以下爲對話實錄:

01 大模型未達天花板,“大”可以沒有上限

騰訊科技:ChatGPT表現出來的能力讓所有人感嘆,從人工智能的發展來看,模型做“大”,是否是一個必要條件?

黃鐵軍:其實做大模型這個理念道理可以說很簡單,因爲我們的世界是複雜的,萬事萬物很複雜。一種思維方式是咱們傳統的科學思維,比如說物理學我要找到終極的一組方程,無論是萬有引力定律,還是量子力學的薛定諤方程,用方程刻畫世界的本質,這是曾經的主流,大家用最簡單的數學方式來描述世界的規律。

但是事實上大家也知道數學裏面有隨機性,無處不在。所以這個世界肯定不是僅僅由幾個確定的方程能描述的,一定有更多的複雜性。既然要創造“人工智能”,有智能就要面對複雜事件去解決問題。大模型其實是需要一個龐大的參數來爲基本表徵的龐大神經網絡,因爲你要映射的世界太複雜了,所以需要一個大規模的模型參數。

我剛纔對比,物理學的方程,和我們今天說千億、萬億,甚至更大的參數系統,爲什麼這兩個東西都是必要的?

第一,有些事物確實最終是可以找到一些本質的規律,比如說剛纔說的萬有引力定律。但是同時要知道即便我們找到了這樣的規律,也不等於世界就完全由這些規律所決定了。舉個例子,萬有引力兩個天體之間相互作用,我們用萬有引力定律可以解釋,但是三體問題我們都知道它的複雜性絕對就不是一組方程所能描述的,裏面會出現無窮無盡複雜的可能性。而我們剛纔講爲什麼要用龐大的參數模型刻畫這些可能的複雜現象,就是因爲無論你世界運行多複雜,最終我還是想認識它,三體複雜,我們也想知道,它還是有一些可預測的規律性的東西。這個時候僅僅靠方程不夠了,我們還得靠一個大參數量的模型才能表示。

所以,只要這個世界的複雜性是無窮無盡的,我們可能就要一直要用越來越大的模型刻畫它,這兩件事情既相互矛盾也相輔相成。有的時候我們終於把這些複雜性歸結爲一組方程了,但是就像我剛纔說的,我們永遠不可能期望說只靠方程就能解決問題,一定要有更多的複雜性需要模型去刻畫。

所以做大模型應該說本來就是人工智能應有之意,只是說以前在算力、數據的條件有限的情況下做不了那麼大的模型。小模型也能解決一些特定的問題,但是它的作用範圍就有限,大模型就是解決更通用、更復雜的問題,所以這是一個必然的方向,不是一時半會說大模型出現了,將來可能又沒有大模型了,換成別的了,我覺得不是這樣的。

騰訊科技:2021年智源發佈了悟道2.0大模型,那個時候ChatGPT還沒出現,智源是從什麼時候開始進行大模型的研究的?

黃鐵軍:智源是2018年11月份成立的,成立的時候應該說這個世界已經從小模型往大模型轉換的過程中,只是那個時候還沒有這麼一個名詞而已。2017年有了Transformer這個新的架構出現,有了自監督預訓練的深度學習訓練方法,可以說深度機器學習的研究進入到新的階段。所以走這條道路幾乎可以說是必然的。

OpenAI也是2018年開始聚焦做更大參數的模型,所以差不多都是那個時間點技術進入到了這麼一個階段。智源做大模型有很多因素,但是歸根結底應該說從一個研發機構來說,肯定要選可能性更大的方向集中更多資源進行突破。所以應該也是比較自然的選擇。一開始是一些探索性的,在2020年開始加大力度,集中團隊去做,做了五個多月在2021年3月發佈了悟道1.0。

那個時候在發佈會上,當時我講人工智能已經從“大煉模型”轉入“煉大模型”的新階段了,大模型這個名詞也是在那次會上第一次出現在大家的面前。之前因爲更多是偏學術的方向,所以像國外叫預訓練模型、基礎模型等,還有其它的一些現在不怎麼用的名詞。我們認爲它的基本特性就是要規模做大,不大的話,後面的這些能力都是出不來的。所以當時就直接用了這麼一箇中文的名字。但是剛過去的一年多,英文Large-scale Language Model這個詞也被越來越多使用,中英文兩個語言世界似乎在交融的樣子。

騰訊科技:爲什麼要做到萬億參數這麼大?

黃鐵軍:我覺得道理很簡單。智源做這個模型,當時要做這麼大其實也是跟當時的一些資源條件有關,包括算力條件允許所以才做得大。我們從來沒有覺得過大,沒有這個問題,只是希望大到一定程度,希望它的能力能夠出來。到現在爲止也是一樣的,現在沒有天花板,沒有說做到萬億就是上限了,遠遠不是那麼回事。

2021年當時智源發佈萬億模型,做出來之後大家很興奮,但是那個時候我就跟大家說,這件事情不用太過於興奮,人腦是100萬億個神經連接,我們做個萬億規模,也就是1%、2%的規模,跟人腦比還遠着呢,更別說我們今天講的神經網絡參數,神經連接就是一個參數,但是實際上人的神經突觸連接不僅僅是一個參數,還有更多的時間、空間因素,還有信號處理上的複雜性。從這個意義上來講,我們距離人腦這個參照物還差很遠。

至於“湧現”,模型小肯定是出現不了的,大是一個必要條件。至於大到幾百億、幾千億,還是更多,這還跟網絡結構設計等因素有關,不是說到了600億就一定湧現。但是大致來判斷,幾百億規模是必要條件,要是講概率的話,肯定是模型越大出現湧現的概率越大,但是既然幾百億已經出現了,後面就沒有什麼新鮮的了,那就是比較正常的特性了。但是湧現既然是突然出現的現象,我們也很難用傳統的概率意義上去說有百分之幾十的概率,這麼講不太科學。

騰訊科技:您說大模型的“大”沒有上限,但是現在有說法說大模型很快就要觸及瓶頸,包括算力瓶頸、包括高質量數據的瓶頸?

黃鐵軍:我是不認同的 。從數據來看,比較容易拿到的高質量數據快用完了,可能未來兩到三年就會用完,確實是這樣的。黃頁數據、圖書文獻這一類的源數據確實是有限的,拿圖書來舉例,自古以來人類寫的所有的書,所有的語言加起來也就是一億部書,這種數量確實是有一個上限的。

但是這只是一類數據,其實這個世界數據是很豐富的,我們剛纔講的這種數據只是我們講的傳統意義上的數據。但是一些“新”的數據,比如物聯網數據、自動駕駛數據,機器人進入家庭和工廠感知的數據現在纔剛剛開始。比如自動駕駛,如果咱們車輛真的是全自動駕駛,全打開所有的傳感器,產生的數量要比今天產生的數據量龐大得多。所以從這個意義上來講參數量還會發展下去,所以數據不是一個約束條件。

算力是不是約束條件?肯定是。因爲算力本身的成本是很高的,做任何事我們都講性價比,以及功耗這樣一些物理約束。但是我相信芯片技術,包括算法的優化其實還是有極大的空間,因爲需求在,我覺得技術,包括芯片的發展也會持續的發展下去。

因爲大模型的迭代速度太快了,而以芯片技術爲代表的軟硬件迭代速度不夠,芯片的迭代還是遵循摩爾定律,18個月到24個月翻一番,大模型是3、4個月翻一番,兩個節奏差別很大。但是我覺得這個總得來說,需求就在那裏,所以會倒逼芯片的迭代速度也會加快,我覺得這都不是決定性條件,說大模型到了天花板,我覺得遠遠不能做這樣的判斷。

02 大模型是AI時代的基礎設施,全球僅需三個生態就夠了

騰訊科技:目前可獲得的高質量數據就那麼多、算法也是基於開源的,過去三個月,國內一下子發佈了幾十個大模型,差異化和核心競爭力在哪裏?是不是同質化嚴重?

黃鐵軍:你剛纔也講了低水平重複、或者是碎片化的現象比較嚴重,但是這個現象不僅限於大模型,很多產業以前也都出現過類似的現象,確實是分散資源、很難形成有重大影響的系統性突破,這是不好的一面。

但是從另外一個角度來說,可能也說明大家關注這個賽道,願意往這個方向投入。不過我從來不認爲會有幾十個,甚至是十幾個大模型會在這個市場上存在下去。2021年,智源當時發佈模型的時候,我就講過這是不可能的事情。全球大模型生態,我們不說大模型,因爲大模型只是整個生態中的一個環節,大模型的生態不會超過三個,這是我說的,可能稍微有點極端。

但是道理很簡單,大模型最終比的是智能水平,如果有N個大模型在的地方肯定是智力水平最高的大模型生態會被絕大多數人使用,贏者通喫的現象從來都是起作用的。說得直白一點,有一個很聰明的模型,有一個稍微傻一點的模型,你會用傻的嗎?肯定不會。而且用戶量的擴大會使得最聰明的模型成本降下來,平均到更多用戶身上去。這是在互聯網時代,在以前很多產業平臺上一代一代驗證過的規律。

當然更重要的是,我們應該從基礎設施的角度看待大模型,就像我們經常打比方說像電力。電力對於能源革命來說最大的創新機會就是它是流通的,真正把能源通過一張電網送進千家萬戶。這樣我們作爲消費者,可以買不同的電器產品。但是用電的成本又很低,一度電計算多少成本,整個產業生態是很清晰的。大模型其實也是一樣的。儘管我們今天很興奮,覺得人類進入了一個智能時代,智力將成爲重要的生產要素。但是智力也不神祕,我們每個人都有智力,我們爲什麼要給不同的工作人員付不同的工資,那就是有的人智力發揮的作用大,薪酬就高一點,否則就低一點。

將來智力作爲一個通用的社會流通的要素,其實也是一樣的。人人都可以得到它,它的價格也是類似於水電低成本的方式讓全社會用,這是放大人工智能能力的最佳方式。所以極少數幾個生態在起基礎性的作用,大家基於智力的基礎設施在做各種各樣的應用和服務,這是一個正常的生態。所以這個時候你回過頭來看,現在進入大模型時代,或者是進入這樣一個智力時代,我們都要造“電廠”,或者是“造發電機”就會覺得很傻。電廠是後臺的基礎設施,而且電廠本身只是一個生產端的產品,還必須有電網輸送到千家萬戶去。所以這應該是大家共同構造的一個新的產業生態,而不是說“我也能造發電機”,那是邊緣產品,不是將來產業中的核心能力。

騰訊科技:您是說國內有三個大模型生態差不多就夠了?

黃鐵軍:我說的全世界。

騰訊科技:爲什麼?這樣是不是所有資源都會集中在三個大模型平臺上?

黃鐵軍:我認爲要看怎麼看。有的時候,我們講平臺的時候可能偏向的是對資源的壟斷控制,但是,如果你從一個社會最基本的生產要素的提供來看,倒不一定。比如剛纔說的電網,電網就是供電的,電網在電力時代可能不是利潤最高的,但是,它是個必要的設施,至於說能用電玩出什麼花樣來?電器是千千萬萬的,有很多的產業機會可以做。所以,確實有壟斷的性質,爲什麼只有一個電網給我們供電?因爲你布那麼多電網本來就是一個極大的社會浪費,整個成本就降不下來。所以,它不是一個簡單的咱們原來說的產品壟斷的問題,而是一個社會資源的綜合性的考慮。

騰訊科技:能不能再詳細講一下你認爲的未來可能的大模型產業生態,剛纔你打了個比方,它就是互聯網、電網,那再往上的結構可能是怎樣的?應用層又可能有哪些機會?

黃鐵軍:現在整個大模型爲核心的產業生態體系確實正在形成過程中,目前還不像互聯網那樣,馬上就能劃得那麼清楚。我也給不出那麼精確的到底分幾層的答案。但是,大家必須要關注的一點就是,你想一想之前我們所有的經濟活動,智力要素在裏面發揮着什麼樣的作用?以前我們講人力資源,因爲智力來自於人,不僅僅是傳統產業,包括新興產業、互聯網產業,數據要素、信息要素都是當成一個被動的課題在使用,真正調度這些資源的是“人的智力”。

當這個智力變成一個機器系統在提供的時候,整個的流程可能就要重塑了,所以,不僅僅是我們替下來多少畫師,替下來多少程序員,隨着它的深入應用,用AI的智力來重塑整個產品和服務的流程,這會帶來巨大的變革。當然最終所有的企業都會以智力作爲他們生產中的必不可少的要素。

所以,隨着將來所有企業都要用人工智能的智力作爲生產必須的技術要素的時候,相應的供應公共產品和服務的企業就一定會出現。我剛纔講到一定會有一個低成本的智力運營商基礎設施出現,所有的企業在上層一定都會用到這個智力,中間這些怎麼把智力更好地讓企業使用,以及中間做一些加工,讓上層的應用更方便地嵌入到他們的業務鏈條裏,這中間會產生很多中間商,就是中間層的企業。如果咱們中國有這麼多企業願意投入,可能大家早一點去找這樣的機會,比都集中在我們都要做大模型要好得多。

騰訊科技:基於人工智能的基礎設施,生長出來新的智能生態,你認爲未來的智能時代,開源會是生態的主流嗎?

黃鐵軍:我的觀點從來都是清楚的,一定是開源的。但是,你說有沒有閉源的可能性,有沒有被某一個企業壟斷的可能性?我們也不能絕對排除。像移動互聯網兩個生態,都不是完全開源的。iOS是封閉性的,安卓應該說是個半開半閉的生態。所以,到了人工智能生態是不是一個完全開源的Linux的技術體系支撐的,確實還存在一定的爭論。

但是,從我個人的觀點來說,我認爲一定是開源開放的技術體系是真正的常態,短期之內存在一定的封閉、半封閉的可能性。爲什麼是這樣?講幾個關鍵的理由,一是智能這個東西和之前的系統都不太一樣,大家都不太放心。因爲智能跟你的決策直接關聯,如果我們的產品和服務被封閉在我們企業的黑盒子裏面,我覺得大家都會擔心。所以,無論是個人、組織、政府,都會對封閉的東西避而遠之。當然,一開始作爲一個產品如果好用,可能也有人買,但是到了一定程度之後,大家還是會選擇那個透明的、開放的系統作爲基本支撐。這是人工智能不同於之前產品的特性所決定的。

更別說開源開放會加速創新的效率,迭代的效率。最後比的就是性價比,就是成本的問題。假如說有封閉的系統,半開半閉的,也有完全開放的系統構建的屈指可數的幾個生態,那最後我認爲建立在開源開放生態基礎上的這樣一套體系的總成本是低的,就是智力服務的價格是最低的,所以它在產業上就成功了。就像剛纔說的,不純粹是一個產品的問題,它是一個社會公共的服務,我們大概也不太會允許一個企業壟斷,隨便定一個價格,大家接受高價位,這個也是不大可能的。

03 人工智能湧現“智能”,預警危險很有必要

騰訊科技:你也提到了人工智能的風險性,我看到全球人工智能界有影響力的人物都不斷預警人工智能的風險性,並連續簽發了兩封公開信,您覺得哪些風險是迫在眉睫的?

黃鐵軍:這個風險我們剛纔提到一點,不可預測性是個最高的風險。還有一個,人工智能如果比人類強了,那這個風險是巨大的,我們在地球上從來沒遇到過這樣一種可能性。這個問題也不僅僅是近期的事,2015年的時候,在美國波多黎各開了一個會,當時就是討論比人類強的人工智能如果出現的話怎麼辦。

當時的討論,大家的觀點當然都不一致,有的說近期會出現,有的說幾十年之後會出現,有的說永久出現不了。但是,那個會上統計差不多一半的人認爲30年之內有可能實現超人的強人工智能。所以,這就是一個很近的眼前的事,幾十年人類就會面對這麼一個巨大的挑戰,甚至可能是最大的挑戰。所以,從2015年開始,媒體上就能看到霍金、馬斯克,包括OpenAI的成立都是當時馬斯克參加完那個會之後成立的這麼一個組織,要研究AGI(通用人工智能)。

這次智源大會開幕演講嘉賓之一泰格·馬克就是2015年那個會的組織者,之後2019年未來生命研究所的會我參加了,當時騰訊也有代表參加,也是在同樣的地方開的。在那個會上,大家其實很認真地在討論怎麼來應對這樣一個風險,很多可能性遠超出大家平常在媒體上看到的,甚至科幻裏面講到的可能性都在考慮。

最近爲什麼又被高度關注?因爲過去我們真的看到了人工智能的“湧現”能力,儘管它現在的能力還遠沒到剛纔說的“超人”的風險,但是,出現就是一個苗頭,這件事是值得高度關注的,所以,對它的重視陡然提升可以說是必然的,也確實是必要的。

我認爲確實現在有點太快了。不是說我們的技術發展有點太快了,對社會的影響也有點過了。過了的意思就是它還不該在這樣一個時間,以這麼快的擴散速度讓它這麼快地接觸到這麼多用戶。

所以,當時《暫停巨型人工智能研發六個月》的公開信,我也是簽名者之一。新的可能性不斷出現,到底會帶來什麼樣深刻的影響,現在還無法做出一個全面地評估,更沒有一個全面的解決方案。Geofferry Hinton作爲AI界的標誌性人物,大家都很尊重這位老先生,他多次公開表示擔心也是我剛纔說的這一點,就是一種新的可能性出現,但是我們又不能在技術上確保可以管控。

所以,這個時候高度重視風險是必須的。

04 AGI的實現技術路線可能不唯一,“人造大腦”肯定能實現

騰訊科技:從業內的反應來看,大家完全沒有預料到深度學習的技術路徑最先看到了“湧現”,是否會削弱其它技術路線——類腦人工智能、具身人工智能的研究,還是說未來三條技術路線有可能融合,共同走向AGI(通用人工智能)?

黃鐵軍:這三條路線原來就一直存在,將來也還會繼續存在,也會在未來,如果說AGI,不管咱們想不想讓它出現,在形成AGI的過程中都必不可少。只是說這三個的節奏和相互作用的方式會有一些變化。

在大語言模型湧現現象之前,這三條路都有可能出現湧現,但是,現在大模型率先出現了湧現,它從信息處理的方式上可以說是最接近人的智能,但是又最遠離生物智能的一種方式。今天我們講的湧現,是基於大數據的靜態湧現,就是把數據中一些潛在的關聯融會貫通之後就出現瞭解決問題的思路,這個也很有意義。

比如我是個成年人,讀了很多很多的書,突然把一些內在的聯繫掌握到了,然後突然靈光一閃,對原來很難的問題提出瞭解決方案。這是一種湧現,就是來自於知識的,來自於源數據的。還有一種湧現,比如類腦智能,它講的更多的是從真正複雜的動力學的角度,人腦是個脈衝神經網絡,複雜的相互作用,所以,人的真正的靈光一閃和剛纔講的大模型的靈光一閃,從物理的實現機制上有根本的差別。那能不能出現?當然能出現。因爲幾乎所有的生物的智慧都是建立在那樣一個機制上的。所以,如果你說類腦造出一個生物的腦,生物的神經系統,它出現了湧現,這幾乎是肯定的,肯定會出現,但是什麼時候出現、達到一個什麼樣的精度條件它會出現?那這之前也是一個開放問題。

具身智能也一樣,跟環境的交互,然後產生新的能力,跟原來的DeepMind做的AlphaStar,它玩《星際爭霸》達到了大師級別,可能人有人的打法,AI有AI的打法,突然發現AI找出來一種新的打法,人類原來沒有想到過的,那就應該說是具身智能的一種湧現。

所以,三條路都是可以按照各自的方式出現湧現新智能,只不過大模型率先實現了,因爲它的規模,它相對來說實現起來更好實現一點,算力加上數據,然後開始擴大規模,就可以了。實現之後,肯定會對另外兩個方向起到促進作用。比如說具身,你不用所有的可能性都去嘗試了,語言已經能夠描述的就靠語言這種模態形式就解決了,剩下的只需要做少量的嘗試,可能就能具備這個能力。這就跟我們人是一樣的,一個人假如說不接受學校的教育,不讀書,什麼都不看,只做身體上的跟自然界的交互,也能練出很強的能力,包括絕世武功都能練出來,但是,如果有了學校教育之後,你做很多事情的速度會快很多,因爲你不要再去試錯了。

類腦智能講的是我從器件上,從結構上構造一個電子的人腦複本,這是必要的。因爲今天的人工神經網絡還不具備人腦很多的特性,一定要在這個方向去做,只是說那樣的裝置做出來之後,假定沒有大模型,也沒有具身,那你還得訓練它。就跟人出生下來是帶着腦袋來到了世界,但是後天的知識怎麼學,你要去環境中探索。如果加上今天已有的大模型,結合在一起,速度會更快。

原來我在2015年的時候覺得30年左右會實現AGI,大概在2045年。現在看來,如果這三個相互作用之後,可能會加速。

騰訊科技:“人造大腦”真的能實現嗎?人的意識的原理還是個謎,人腦有一千億個神經元,總突觸超過一百萬億,按數量級算,也是人類目前的算力水平無法達到的。

黃鐵軍:你這個問題很重要,你的好奇點也是很多人的好奇點。我2015年寫的那篇文章,第一個要打破的就是這個好奇點,可以說這是一種錯誤的看法。

第一,現在的算力能不能支持是一回事,但是新的器件發展速度是很快的。我在2015年就寫過一篇文章講這個問題,其實現在人類已經有了新的器件,一二十年就能構造出全新的機器。我們不用“計算機”這個詞,因爲它甚至於信息處理的方式都不是原來的邏輯計算,而是一個類似於人腦一樣的信息處理機制,這是從技術的可能性上講。今天的算力不夠,主要是因爲現在芯片的能力限制,這塊沒有天花板,後面的突破已經在發生了。

第二個問題,剛纔說的對意識的理解,這個問題是一個大問題。我們要問一個問題,我們到底要“理解”還是要“構造”。人工智能的本質在於構造,我們要做一個系統,這個系統能表現出智能,這是人工智能的主旋律或者技術。我們要做這個東西,它能不能表現出來,能不能表現出來越來越強的智能。而不是搞明白,理解它爲什麼或者像咱們說的意識的奧祕,意識的奧祕有可能對人類來說是一個永遠無法解決的奧祕,有這種可能性。這根本就不影響我們做一個有意識以及意識很強的機器,這是兩回事。

有的時候我們說人有好奇心,一定要刨根問底,一定要知道爲什麼,這個是有一定偏見的。其實很多時候,我們人類社會的科技進步是在解決“How”的問題,不是解決“Why”的問題,但是有的時候大家把Why的問題擺在過於重要的位置,“Why”就是爲什麼,意識的奧祕是什麼。“How”是如何做,如何構造一個具有智能的機器,這是我剛纔說的人工智能。

人類歷史上一再證明真正的科技進步往往是“How”所推動的,不是由“Why”來推動的。例子很多,剛纔也舉了一些例子,比如說飛機的發明是在空氣動力學沒有出現的情況下出現的,所以你怎麼做一個飛機知道了,就飛上天了。現在怎麼去訓練一個大模型知道了,就訓出智能和新智能。你說它爲什麼以及更別說人腦背後的爲什麼,那可能是一個長期的還要繼續問下去的問題。

指南針也是一樣的,中國人做出指南針並不知道爲什麼指南,那是一千年之前的事,我們知道爲什麼指南,是過去兩三百年的事情,宋朝的時候哪知道地球,哪有電磁學,沒有,不等於不能做,會做那就是“How”,如何去做東西。

回到人工智能這個問題,我覺得對於智能背後,包括意識背後奧祕的理解,這個問題可以,當然也必須探索下去。我覺得如果它能解決,那也是因爲我們造出了具有這種能力的機器;不能解決的可能性也是存在的。我說不能解決的意思是說,靠我們人的大腦去理解自己爲什麼能運行,它很複雜,複雜到我們這樣的系統無法理解的程度。

你說我們能不能造出一個比我們更復雜的機器?我認爲幾乎是肯定的,這是有可能的。如果我們造出來了,它最後理解了解釋了人腦就這麼回事,所有的過程告訴你,背後的原理,這是有可能的,因爲它比我們更強大,它理解了我們複雜的大腦。這是我爲什麼講30年一定會做到,或者是更快能做到,但是理解它(大腦和意識),僅靠人類,也可能永遠理解不了。如果我們造出來比我們更強的機器,那個機器可以肯定它能理解。

未來這麼一段時間,在人類被AI超過之前,會有一段幸福的時光,就是人和AI共同合作的情況下,能實現原來很多夢想,解決很多沒解決的問題,科技也會加速,不僅僅是大模型3、4個月就會迭代,我們社會各方面的節奏都進入了更快速的節奏。就像坐上了高速列車,但是是不是懸崖在前面?就是剛纔說到的風險,這個時候可能已經不是我們人類完全自己控制了,你是跟AI一起在共同駕馭着這個時代往前狂奔,風險的問題也應該早點充分考慮。

騰訊科技:今年人工智能的關注度尤其高,從您的角度來看,今年人工智能領域最值得關注的某些討論議題可能是哪些?

黃鐵軍:今天人工智能不同於以往五六十年來的人工智能,之前大家所說的人工智能都還只是人設計的系統,而這個系統總的來說,還在我們的設計預期之內。但是今年,我們看到了人工智能的湧現能力出現,這就意味着在設計之外,大家沒有預期到的智能現象出現了,這是從未發生過的。這樣對於任何一個技術方向來說都是特別令人興奮的。我經常打比方,比如說飛機的發明做了很多年,準備飛上天,想了很多方法。但是突然有一天萊特兄弟架了一個飛行器在空中盤旋了幾十秒,一分多鐘,現在就相當於那個時刻。

所以,今年我們關注的既有技術進步的興奮,還有對人工智能安全風險問題的陡然提升,其實背後都是因爲人工智能的性質已經不同以往。

大家都說今年智源大會的陣容很強大,智源大會在整個智源開源開放生態裏面是標誌性的會議,作爲生態這裏面有人的鏈接,有產業的鏈接,還有投融資,大家關心產業問題的鏈接。但是歸根結底其實是重要的觀點匯聚和碰撞,智源大會想起的作用就是要把一年來最重要的這些在AI領域的觀點呈現,我講觀點的意思是說,我們並不在意某個產品怎麼樣,而是更多在意有什麼樣新的思想、新的想法,以及爭論、討論,把這樣一些觀點通過一場會議鏈接在一起激盪,爲未來的發展希望起到一定的導航作用。

本文來自微信公衆號“騰訊科技”(ID:qqtech),作者:郭曉靜,36氪經授權發佈。

相關文章