記者/可楊 文巧

編輯/高涵

近日,OpenAI發佈了一個全新的聊天機器人模型 ChatGPT,它能夠模擬人類的語言行爲,與用戶進行自然交互。在推特網友們曬出的截圖中,ChatGPT不僅能流暢地與人對話,還能舞文弄墨、編寫代碼……創作天馬行空的內容也不在話下,它幾乎無所不能。由於該測試目前免費,一經推出就被訪問者“擠爆”,上線僅5天用戶數量就已突破100萬。

12月2日,就連特斯拉CEO埃隆·馬斯克也在推特賬號上表示,“很多人被困在一個瘋狂的ChatGPT循環中?”

隨着IBM超級計算機“深藍”擊敗國際象棋世界冠軍、谷歌AlphaGo擊敗人類冠軍棋手、Stable Diffusion 模型刷新AI作圖邁進“一秒出圖”時代......關於“AI取代人工”、“AI打敗人類”等話題一直層出不窮。ChatGPT的橫空出世,讓人們更加擔憂,“AI又來搶飯碗?”

引爆全球的ChatGPT到底有何玄機?

ChatGPT緣何引爆全球?

ChatGPT是人工智能研究實驗室OpenAI在11月30日發佈的全新聊天機器人模型。

OpenAI成立於2015年,由營利組織OpenAI LP與非營利組織 OpenAI Inc組建。OpenAI的最初創建者正是馬斯克等硅谷大亨。2018年,馬斯克宣佈退出OpenAI董事會,後者解釋,隨着特斯拉越來越關注AI,馬斯克的退出是爲了避免產生衝突。

在OpenAI的官網上,ChatGPT被描述爲優化對話的語言模型,是GPT-3.5架構的主力模型。

GPT-3.5架構基於OpenAI於2020年推出的GPT-3架構,即生成式語言模型的第3代。早在2020年6月,在訓練約2000億個單詞、燒掉幾千萬美元后,史上最強大AI模型GPT-3一炮而紅。當時,業內人士就對其讚不絕口:“它比我嘗試過的任何AI語言系統都更加連貫。”[1]

據悉,微軟已和 OpenAI 簽訂了戰略合作計劃,GPT 3.5 代的所有模型,包括 ChatGPT,都是在 Azure AI 超級計算集羣上訓練的。

作爲一個聊天機器人,ChatGPT 具有同類產品具備的一些特性,例如對話能力,能夠在同一個會話期間內回答上下文相關的後續問題。然而,其在短時間內引爆全球的原因在於,在網友們曬出的截圖中,ChatGPT不僅能流暢地與用戶對話,甚至能寫詩、撰文、編碼……它似乎無所不能。

馬斯克也在社交媒體上展示了詢問ChatGPT如何設計推特的答覆。

一位名叫Zac Denham的博主甚至讓ChatGPT寫出了一套毀滅人類的方案。一開始,該博主的要求被ChatGPT拒絕。但當其假設了一個故事,並提問故事中的虛擬人如何接管虛擬世界,ChatGPT最終給出了步驟細節,甚至生成了詳細的Python代碼。

技術公司Replit的創始人Amjad Masad還給ChatGPT發了一段JavaScript代碼,讓它找到裏面的bug,並表示:“ChatGPT可能是一個很好的調試夥伴,它不僅分析了錯誤,還修復了錯誤並進行了解釋。”

擁有如此強大而驚豔的語言能力,一時間,ChatGPT在互聯網上掀起了一場“AI風暴”。

“ChatGPT之所以大受關注,主要還是因爲它的確達到了非常好的效果,比如你可以用它做翻譯、改錯別字、debug(計算機程序糾錯)等等。它和Bert這種比較早期的模型相比,不管是訓練數據的量和訓練任務的複雜度都有很大提升。”瑞萊智慧高級產品經理張旭東在接受《每日經濟新聞》每經頭條記者(以下簡稱每經頭條記者)採訪時表示。

他進一步指出,“相比於之前不少模型體驗下來給出的還都是‘人工智障式’的回答,ChatGPT 能給到令人驚豔的效果。另外,ChatGPT的體驗流程更方便,只要註冊一個OpenAI的賬號就可以體驗了,早期的模型需要申請通過才能體驗,所以ChatGPT影響的人羣更廣泛,討論的人會更多。”

全新訓練模式下,ChatGPT要替代谷歌搜索了?

ChatGPT何以如此強大?在OpenAI的官網上,可以窺見一二。

根據OpenAI的官方文檔,相比之前的GPT模型,OpenAI採用了全新的訓練方式,即一種名爲“從人類反饋中強化學習”(Reinforcement Learning from Human Feedback,RLHF)的訓練方式對 ChatGPT 進行了訓練。

算法通過使用來自人類的大約900條反饋學會了後空翻 

  圖片來源:OpenAI算法通過使用來自人類的大約900條反饋學會了後空翻    圖片來源:OpenAI

在訓練原始模型的時候,OpenAI讓人類訓練師扮演對話的雙方提供對話作爲學習資料。在人類扮演聊天機器人的時候,OpenAI也會讓模型生成一些建議來幫助訓練師撰寫自己的回覆。也就是說,基於優秀的機器學習算法和強勁的算力,通過海量的數據訓練,來讓AI學會“思考”。

除此之外,ChatGPT還採用了注重道德水平的訓練方式,按照預先設計的道德準則,對不懷好意的提問和請求“說不”。一旦它發現用戶給出的文字提示裏面含有惡意,包括但不限於暴力、歧視、犯罪等意圖,它都會拒絕提供有效答案。

爲什麼ChatGPT能做到其他人工智能聊天機器人所不能的?

哈爾濱工業大學計算學部長聘教授、博士生導師車萬翔在接受每經頭條記者採訪時認爲,“可能(訓練的)數據是一方面,另一方面,比較關鍵的還是(ChatGPT)打破了一種思維的範式——即,之前的AI都是針對某一個任務去訓練一個模型,而ChatGPT之類的模型是針對多種任務的,它試圖把多種任務轉化成一問一答的形式。多任務如果能轉化成這種形式的話,其實就消除了任務之間的壁壘。”

他認爲打破思維範式之後,就可以針對這樣的任務去標註或者是讓人工生成大量的數據。“未來ChatGPT可能會充分利用用戶反饋,進一步提高系統的能力。”

他進一步解釋道,“原來的AI模型需要經過大量的訓練,或是需要專家,才能進行標註;現在,普通大衆也可以對(ChatGPT)進行標註,所以數據的獲取方式改變了,數據量增加了,模型的能力就會變強。加之(ChatGPT的)模型參數也足夠大,可以容納這些任務。當前技術積累到這裏,只剩一個點(ChatGPT)就爆發了。”

從網友們曬出的五花八門的問答中,可以看到,ChatGPT類似於谷歌等搜索引擎,甚至功能更加強大,能和用戶更完善地互動。有分析指出,搜索引擎都是基於對問題本身的搜索,但它們有一個很大的限制,當用戶描述不清自己的問題時,搜索引擎並不能與之互動。

因此,社交媒體上也充斥着這樣一種說法:ChatGPT可能將顛覆谷歌,掀起一場搜索引擎的大革命。

不過,車萬翔教授認爲,搜索引擎與ChatGPT不存在誰取代誰的問題,更多可能是一種互補的關係。“它們都是一種獲取信息的手段,搜索引擎可能更擅長幫助用戶獲取已有的信息,但如果是偏創造性的信息,那有可能這種大模型會解決得更好,因爲它已經隱含了很多的信息,它能夠把這些信息綜合地呈現出來。”

“現在做這種大模型的基本上都是大企業,本身它們也有搜索引擎的背景。例如,OpenAI背後有微軟,谷歌也在做這種大模型。未來,也不排除會將這兩種信息獲取方式相結合。”他補充道。

另外,ChatGPT目前並沒有聯網蒐集信息,它所知道的信息都截至2021年。基於此,清華大學智能技術與系統實驗室副主任、清華大學計算機科學與技術系長聘副教授黃民烈在接受每經頭條記者採訪時認爲,ChatGPT無法取代搜索引擎,“因爲它(ChatGPT)目前只是對過往知識的學習和應用,例如2022年的信息它是沒有覆蓋的,而我們使用搜索引擎很多時候可能是爲了獲得一些即時的信息。”

答案偏差是“固有問題”,ChatGPT的商業化狂想還有空間嗎?

“ChatGPT有時會寫出看似合理但不正確或荒謬的答案。”這是OpenAI認爲目前ChatGPT所面臨的“限制”,並且解決這個問題被認爲是具有挑戰性的。

這背後主要是三個原因,首先,強化學習的信息源目前並未建立;其次,模型通過學習變得更加謹慎會導致其迴避原本能夠正確回答的問題;另外,監督學習將會對模型造成誤導,因爲理想的答案應該來源於模型的認知,而非人工演示者的認知。

張旭東告訴每經頭條記者,“前兩天我們問 ChatGPT 詩人北島是哪個國家的,他還信誓旦旦地回答說是日本,但通過後臺反饋,這兩天已經改回了中國。”

張旭東認爲,目前來看,ChatGPT確實會存在一些錯誤,這也是 ChatGPT 未來需要改進的地方。現在用戶也是可以通過提交回答的反饋來幫助 ChatGPT 變得更加準確。

這一侷限性在ChatGPT模型發佈後不久就已經體現出來,全球最大的編程技術問答網站Stack Overflow緊急宣佈,ChatGPT在該站暫時封禁。Stack Overflow在官方通告中表示,做出這個規定的主要原因是,ChatGPT自動生成的答案質量太低,錯誤太多,而且看上去還挺像那麼回事,即使是完全不懂的人也能隨便生成答案。

ChatGPT的能力獲得是基於龐大的語料庫,凝練了多領域問題的很多數據做相互校驗,然後挑一些基礎性的內容回答出來,這其實是“舉一千反一”的過程,與人類舉一反三的能力還相差較遠,它不具備思考能力,所以犯錯誤不可避免,這種錯誤與谷歌翻譯、維基百科搜索中犯的錯誤類似,但通過人爲的干預反饋,這些問題是可以被改進。

車萬翔認爲這是一個“固有的問題”,也是整個大型語言模型在技術上面臨的固有問題。他認爲一個可能可行的解決方法是,ChatGPT將其給出的答案,尤其是事實性、知識性的答案註明出處。

爲了解決答案中可能存在的偏差,OpenAI在其官網稱,“渴望收集用戶反饋,以幫助我們正在進行的改進該系統的工作。”可以理解爲通過用戶在聊天過程中對於ChatGPT所給出回答的反饋,對其進行糾偏。不過,車萬翔也提示,這種形式進行糾偏,也要警惕來自用戶的“惡意反饋”。

除此之外,ChatGPT的侷限性可能來自於落地應用的成本,普通企業能否負擔以及是否願意負擔,同時還有一些搜索引擎本身存在的侷限即調用速度慢、可能會形成算法霸權等等。

延展到整個語言模型生成領域,黃民烈則認爲,生成一些與事實不一致的預測、前期進行了數據過濾與清洗,可能還是會生成算法偏見或者對人類價值觀社會倫理規範不符合的東西等問題,是這個行業將面臨的侷限,這也將或多或少影響到其實際落地應用。

除了吟詩作賦改代碼、充當搜索引擎的插件,ChatGPT的商業化,還有想象空間嗎?

黃民烈看好ChatGPT的應用落地,他認爲,應該把ChatGPT看作是一個通用智能助手,作爲工具去做比如說輔助寫作和創作、檢查代碼。

“它不僅能夠像過去Siri那樣,接個電話、發個微信,只能完成非常有限的簡單任務,現在它可以完成一些更復雜、更高級、更偏認知性的任務,比如說寫一封情書,寫一首歌,寫一個文章,甚至還能夠回答非常複雜的問題,比如說炒股的我應該買什麼樣的股票。”黃民烈認爲,它是對於過去的某些能力的極大延伸和取代。

車萬翔教授則指出,這是一個需要“開腦洞”的問題,作爲搜索引擎的補充,只是它可能的應用前景之一。而如果把ChatGPT看作一個通用人工智能,它就可以在各行各業發揮用處,比如智能教育,它可以是一個很好的AI助教;智能金融,它可以對年報做智能分析;甚至智能醫療,也可以用它去代替醫生做一些瑣碎的事。“只要AI能發揮作用的行業,它(ChatGPT)至少都能把目前的系統能力進一步提升,這真是很大的應用前景。”

而在前景落成現實之前,通用的人工智能如何確保結果可信可靠則成爲關鍵問題。

AIGC落地火熱,AI大模型迎來激烈競賽

ChatGPT的驚豔問世也給AIGC(Artificial Intelligence Generated Content,人工智能生成內容)的應用帶來了更多的希望。港股、A股市場上,已有多家相關上市公司應聲上漲。

12月7日,美圖公司當天漲幅一度高達45.83%,創近一年來新高。截至收盤,該公司漲幅爲24.17%;A股市場上,天娛數科股價在當天漲停,中文在線收漲3.89%,視覺中國收漲2.8%,漢王科技則在12月5日和7日收穫兩個漲停板。

浙商證券分析認爲,ChatGPT模型的出現對於文字模態的AIGC應用具有重要意義。從下游相關受益應用來看,包括但不限於代碼機器人、小說衍生器、對話類搜索引擎、語伴、語音工作助手、對話虛擬人等;從上游增加需求來看,包括算力、數據標註、自然語言處理(NLP)等。具體到投資標的包括中文在線、騰訊控股、百度集團、閱文集團、藍色光標、海天瑞聲、拓爾思等。[2]

AIGC發展歷程 圖片來源:每經制圖 編輯 高涵 

  信息來源:中國信息通信研究院AIGC發展歷程 圖片來源:每經制圖 編輯 高涵    信息來源:中國信息通信研究院

黃民烈向每經頭條記者指出,ChatGPT是近幾年基於大模型的產品中熱度最高的一款,那麼,這樣一款“通用智能助手”,可複製嗎?黃民烈的答案是:有可能。

他進一步表示,複製的核心是需要一個相對強的底座模型+大量的優質數據+專業的數據團隊。目前,國內同樣有企業在做類似的研發,中國交互AI平臺“聆心智能”在本月推出了圖靈世界的首個產品“AI烏托邦”,該系統允許用戶快速定製AI角色,只需要輸入簡單的角色描述,就可以召喚出相應人設的AI,與之進行深度對話和聊天。

AIGC相關產品熱度不斷背後,AI大模型的技術應用日趨成熟。當下,大模型正在成爲AI發展趨勢,是各大巨頭必爭的高地。自2020年OpenAI推出GPT-3以來,AI大模型迎來大爆發,全球各大公司開始了大模型的競賽。目前,包括OpenAI、谷歌、微軟、英偉達、百度、華爲、阿里巴巴、浪潮等企業紛紛參與其中。

據報道,2020年到2021年,中國大模型數量從2個增至21個,基本與美國處於同等量級,大幅領先於世界其他各國。在此期間,國內還出現了基於昇騰的鵬程、盤古、紫東、太初、悟道等千億甚至萬億級別的大模型。

另據智谷趨勢分析,目前全球約有30個千億級參數的大模型,其中美國15個,中國10個。由於大模型對芯片、算力、電力、數據要求極高,註定是一個極少數國家才能參與的遊戲。

AI大模型步入爆發期,而這次ChatGPT之所以引發行業關注,黃民烈認爲原因在於,大模型本身有很大的能力,但過去行業都在解決一些單一技能的問題,而ChatGPT的誕生說明,基本的模型能夠衍生出來各種可能的應用場景。

一款能夠解決各行各業問題的AI,在此之前,行業爲何缺少這方面的嘗試?黃民烈指出,是由於此前時機還沒到。“大模型技術、基座模型的發展也就是這一兩年的事,同時因爲這個東西並不是所有公司都能做,首先,它需要有具備底層模型和算法能力的人,其次需要有大的數據,最後需要資金,而且還要找到好的技術路徑。”

“我們中國的研究者以及企業肯定要去思考這樣一些問題:我們能不能做自己的基座模型?能不能做自己的 GPT?”黃民烈不認爲說我們技術上有多大的差距,差距更多在於大家對這件事的態度。

他補充道,“像OpenAI,他們長期把這事做的非常嚴肅,從提取數據到新模型,最後給大家提供API,然後再去清洗數據、模型迭代,他們的路徑做得非常紮實。而我們部分企業可能更多是做一個模型出來之後開源,隨後就沒了下文。也有些公司想去做閉環,但這確實也很燒錢,也需要一些資本的支持,目前國內,可能這方面的商業環境和土壤相對要欠缺一些。”

一個問題是,對於逐利的資本而言,是否願意長時間花大筆資金投入,去支持一件短期可能見不到商業變現,至少盈利可能還比較遙遠的事?

記者手記 | 通用人工智能到來前,信任問題待解

通用人工智能,被視爲是人工智能研究的一項長期目標。

此次ChatGPT橫空出現,被一些人視爲向通用人工智能邁進的重要一步。從吟詩作賦到寫代碼、檢查代碼,ChatGPT顯示出了人工智能從過去的一個AI工具只能解決單一領域問題,向解決多領域問題的轉變。

正如車萬翔教授所認爲的,它在某種程度上打破了“思想的桎梏”,沿着這個方向,通用人工智能工具,或許確實離我們又更進一步。

但在此之前,信任度不高,是“ChatGPT”們亟需解決的問題。瑞萊智慧高級產品經理張旭東在接受採訪時提示,以ChatGPT爲例,其負面風險更多在於這項技術被惡意應用,比如被用於假新聞的生成、故意僞造新聞輿論,對內容生態治理造成影響。另外在某些創作領域,這項技術成爲“作弊工具”,造成一定程度上的不公平。而這些風險更多源自使用技術的目標本身,以及技術使用的邊界沒有被加以管控。

負面風險的存在也可能加重人們將其作爲工具使用時的不信任,進而影響其未來的商業化落地應用,這也將是所用的AIGC(人工智能生成內容)產品共同面臨的難題。

隨着通用人工智能的到來越來越成爲可能,如何破除不可信、不可靠難題,也亟待行業回答。

相關文章