近日,英偉達CEO黃仁勳與OpenAI聯合創始人兼首席科學家Ilya Sutskever進行了一場深度對談,就AI研究的過去、現階段大語言模型技術、如何實現安全防護以及未來潛力等話題展開討論。

Ilya Sutskever是大型語言模型GPT4以及Open AI公開後代ChatGPT的主要負責人之一。在人工智能領域,Ilya Sutskever成就卓越,幾乎參與了近年所有“破圈”的AI模型研究。他曾是卷積神經網絡AlexNet的主要推動者,後者在2012年以強大的性能震驚了學界,並引發深度學習革命。

黃仁勳與Ilya Sutskever結緣,正是起因於GPU在深度學習的應用。

英偉達在2006年發佈了CUDA平臺。這既是一個並行計算平臺,也是一個編程模型,包含一系列的開發工具。然而該平臺僅在高性能計算(HPC)有部分應用,少有人理解其真正價值,唯獨黃仁勳堅持對CUDA進行迭代。

好在努力終有回報,外界對CUDA的質疑,在2012年AlexNet出現之後煙消雲散。CUDA找到了完美的應用,將AI這塊大蛋糕從CPU手中搶了過來。

據Ilya Sutskever回憶,20年前AI研究剛剛起步時,幾乎沒有人想過計算機可以仿真人類大腦進行深度學習,因此研究並不樂觀。“當時我們在多倫多的實驗室,同事說我們必須試試GPU,於是開始嘗試,但最開始我們也沒有完全搞懂它們的真正用途在哪裏。”Ilya Sutskever表示。

此後團隊發現,隨着ImageNet數據集的出現,卷積神經網絡是非常適合GPU的模型。GPU可以把它變得非常快,因此能做規模遠超以前的訓練。

在隨後的一次學術競賽中,Ilya Sutskever與AI先驅Geoff Hinton和Alex Krizhevsky展示的 AlexNet模型識別圖像的速度比人類快,遠遠打破紀錄。對此,黃仁勳評價他們當時的工作“震驚了世界”。

過去數月,人工智能和實用化的發展可謂一日千里。2022年11月30日,OpenAI發佈聊天機器人ChatGPT,迅速引發全球AI旋風。市場研究機構Similarweb數據顯示,2023年1月,ChatGPT獨立訪問用戶達1.015億,月環比暴增78%。瑞銀研報則稱,圖片社交軟件Instagram達到相同用戶數耗時2.5年,字節跳動旗下的短視頻應用TikTok花了九個月,而ChatGPT只用了兩個月。不僅如此,微軟、百度、谷歌紛紛發佈聊天機器人,參與競爭。

這種現象被黃仁勳形容爲“iPhone時刻”,大量應用紛紛湧現,相關公司、風投蠢蠢欲動。

OpenAI繼去年底推出ChatGPT後,於3月14日再推加強版的多模態AI模型GPT4。此模型在數學和律師考試等測驗中,分數已勝過多數學生,能夠識別圖像,展現出更好的性能。

GPT4通過更大量的文字和圖像進行多模態訓練被視爲一項重要突破。當黃仁勳問及兩代模型的最大差異時,Ilya Sutskever表示,GPT4的可靠度更勝一籌,已不大會用愚蠢的方式回答問題。他對GPT4解讀梗的能力感到驚豔,完全知道梗在哪裏。

Ilya Sutskever稱,人類一生聽到的詞彙僅有約10億個或更多一些,加上人類是視覺動物,親眼看到顏色會更快理解紅色比藍色更接近橙色,因此對AI進行視覺訓練可以加速學習並擴大應用。

Ilya Sutskever還表示,GPT4對文本的理解力變強,因此能夠更精準預測文本中的下一個單詞。以偵探小說爲例,書中充滿複雜的人物、事件、故事情節,但偵探最後收集所有線索,能推敲出誰是兇手。這就好比GPT4可以從理解大量的文本中去預測出下一個單詞。

Ilya Sutskever進一步解釋,ChatGPT是一個非常複雜的系統,周邊還存在微調、強化學習等配套系統。OpenAI在訓練一個大型神經網絡來準確預測互聯網上許多不同文本中的下一個詞時,實際分爲兩個階段:

第一階段學習一切,模型儘可能多地從這個世界的映射中學習知識,也就是文字。“世界由文字映射出來,對下一個文本的預測越準確,還原度越高,在這個過程中得到的世界的分辨率就越高,這就是預訓練階段的作用。”

第二階段即強化學習,如果想擁有一個真實的、遵循某些規則且有幫助的助手,對模型的微調和額外訓練不可或缺,“人類和AI去教導我們的AI模型,不是教它新的知識,而是與它交流,和它傳達我們希望它成爲什麼樣。”Ilya Sutskever說,“第二階段做得越好,這個神經網絡就越有用,越可靠。”

黃仁勳提及這似乎代表GPT4已有某種程度的邏輯推理能力時,Ilya Sutskever回應稱,GPT4還沒有到達可以邏輯推理的水平,團隊會持續提升模型技能,但無法保證能達到多高的推理能力。

黃仁勳好奇OpenAI應該如何爲ChatGPT設置邊界,使其足夠安全。Ilya Sutskever說,現在AI語言模型還會產生幻想,犯下人類不會犯的錯誤,必須通過更多研究才能加強可靠性,也就是當ChatGPT收到壓根沒聽過的知識時能夠問清楚不確定的地方,並且不會回覆它所不知道的答案,“這是當前遇到的瓶頸。”

當問及“你想讓一個神經網絡總結長文檔或獲取摘要,如何確定重要的細節沒有被忽視?”,Ilya Sutskever反稱,“如果一個要點顯然重要到每個讀者都會對此達成一致,那麼就可以承認神經網絡總結的內容是可靠的。”

Ilya Sutskever認爲,只有提高模型保真度和可信度,才能設定精確的AI安全護欄,使這些AI模型遵循用戶預期的指令,不要偏離邊界。這也是未來兩年要提升的重要技術,如此一來AI才能被信賴,達到真正可用的標準。

llya Sutskever回應黃仁勳對AI未來發展的提問時,稱預測未來是一件困難的事,有充分理由相信這個領域會持續進步,AI也將在自己的能力邊界繼續用實力震驚人類。

回顧過去,他強調儘管生成式人工智能還不完美,也無法預測未來能夠到達什麼地步、是否能解決諸多不確定性。他最驚訝的是自己的理念終被實現,通過更大規模和更深度的數據訓練,做到原本只是概念性的想法。

本文來自“界面新聞”,作者:彭新,36氪經授權發佈。

相關文章