近期,人工智能領域的黑馬產品ChatGPT一經亮相便備受關注,甚至連特斯拉CEO馬斯克也表示:ChatGPT好得嚇人,我們離強大到危險的人工智能不遠了。

公開資料顯示,ChatGPT爲人工智能公司OpenAI於2022年11月推出的聊天機器人,能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務,因此有望成爲提高辦公、學習效率的工具。

一時間,關於ChatGPT或將取代搜索引擎,進而取代不少人類從事的工作的說法甚囂塵上,但ChatGPT真的如此強大嗎?我們是否過度擔心,又或者低估了ChatGPT的未來潛力?

對此,澎湃新聞(www.thepaper.cn)記者與ChatGPT進行了一系列對話作爲測試。

當地時間2023年2月6日,土耳其東南部靠近敘利亞的邊境地區一天之內兩度發生7級以上地震,之後餘震不斷。當記者在對話框輸入“土耳其地震最新消息”時,ChatGPT回答稱,它無法訪問最新的事件進展,因爲其當初在進行模型訓練時,數據只更新到2021年。最後它還友善地建議“您可以通過查看可靠的新聞來源獲取信息,例如CNN、BBC或路透社等主要新聞媒體”。

ChatGPT與澎湃新聞記者關於“土耳其地震最新消息”的對話

熟悉ChatGPT的技術領域相關人士也向澎湃新聞表示,ChatGPT沒有聯網,因此並不能替代搜索引擎。“它是一個離線的生成模型,所有的回答都是生成的,不具備真實性。但它會盡量像人一樣講話,讓你覺得回答內容有理有據。”

澎湃新聞隨後測試了ChatGPT對於2021年2月緬甸政局突變、7月開幕的東京奧運會、8月中旬的塔利班重掌阿富汗、9月火遍全球的網飛連續劇“魷魚遊戲”,以及2022年2月開始的俄烏衝突等全球熱點的相關信息,結果顯示,ChatGPT雖可以提供追溯到2014年克里米亞事件的背景信息,但對於去年爆發的俄烏衝突卻隻字未提。就ChatGPT知識儲備的具體時間節點而言,ChatGPT能夠大致描繪出2月緬甸政局突變的相關情況,而對8月發生的塔利班重掌阿富汗及一個月後的“魷魚遊戲”爆火等事件一無所知。

值得注意的是,在被問及“東京奧運會金牌榜”時,ChatGPT給出了一個看似“靠譜”的回答——美國贏得了最多的46枚金牌,日本(38枚)和中國(36枚)緊隨其後,俄羅斯、英國、澳大利亞等國也表現優異。然而,經覈查,上述數據並非2021年8月8日閉幕的東京奧運會的金牌榜結果(實際結果爲美國39金、中國38金、日本27金),也非過往任何一屆夏季奧運會的金牌榜數據。

ChatGPT與澎湃新聞記者關於“東京奧運會金牌數”的對話

由此可見,ChatGPT的“知識盲區”起點或存在於2021年2-7月的某一時間點,而它給出的答案,也並不總是準確。

對於能搜索到多久以前的信息這一直白的問題,ChatGPT回答稱,自己是一個語言模型,沒有能力瀏覽互聯網或訪問實時信息。“我的培訓數據包括來自各種來源的廣泛信息,包括新聞文章和其他文本,但我的知識僅限於我接受的培訓。”

對於未來的預測,ChatGPT在回答澎湃新聞關於“是否會發生第三次世界大戰”的問題時表示,自己不具備預測未來事件的能力。“對於第三次世界大戰的可能性,我可以說明一些背景信息和相關歷史事件,但是關於是否會發生這樣的事件,我不能做出任何確切的預測。不過,可以說,世界上的許多國家和組織都致力於避免軍事衝突,維護和平與安全,並通過外交途徑解決爭端。因此,我們可以對世界的未來抱有一些樂觀的期望。”

在ChatGPT大火之後,美媒《福布斯》採訪了OpenAI的首席執行官山姆·阿爾特曼(Sam Altman),詢問ChatGPT是否會取代傳統的搜索引擎,阿爾特曼表示,ChatGPT不會取代搜索引擎,但他認爲將來某一天的某個人工智能系統可能可以做到。

“如果你只關注昨天的新聞,那麼你很可能錯失新的機會。我更感興趣的是思考搜索以外的新應用。這些新的應用,不一定要等到人工智能(AGI)的出現;相反,我認爲這樣的局面(新的AI應用爆炸)很快就會發生。”

阿爾特曼的這一表態和一直關注人工智能的馬斯克以及比爾·蓋茨不謀而合,比爾·蓋茨也在近日表示,他從ChatGPT的成功更多地看到了此類AI的潛能,他甚至還表示,人工智能(AI)頗具顛覆性,相比而言,他對元宇宙、Web3則並不感冒。

其實,ChatGPT的爆火最初源於它在一位工程師的誘導下,竟寫出了毀滅人類的計劃書。步驟詳細到入侵各國計算機系統、控制武器、破壞通訊、交通系統等,甚至還給出了相應的Python代碼。

ChatGPT的“毀滅人類計劃書”

這一新聞也讓人們不禁聯想到去年6月,谷歌軟件工程師雷蒙恩(Blake Lemoine)稱在與聊天機器人LaMDA對話的過程中,認爲LaMDA產生了自我意識。在谷歌的保密協議下,人工智能是否已產生自我意識我們不得而知,只能看到這一事件的最終結果是雷蒙恩被辭退。而對於自己是否有意識這一問題,ChatGPT的回答則相對讓人類安心,它說自己沒有意識也不具備感知、思考、自我意識或感情的能力。“我是一種通過計算機程序實現的技術,可以識別和回答您的問題,但不具備自主意識。我的回答是基於我所學到的信息和算法,不包含意見或情感。”

儘管如此,ChatGPT的“聰明”還是時常會令人一驚,一位經常使用ChatGPT的互聯網行業人員告訴澎湃新聞,據她觀察,這個模型在學習過程中提取了一些共識,例如ChatGPT會回答北方用微信多,南方用支付寶多。“肯定語料庫裏面大家都是這麼說的。”她說。

相關文章