■ 專欄

在ChatGPT發展浪潮中,最需要的是實時的政策與機制創新,尤其應強調邊界思維和變通智慧。

自2022年11月30日上線以來,新一代生成式人工智能聊天機器人ChatGPT的各種表現,堪稱十分驚豔。

從連續回答問題、生成摘要、翻譯文檔,到信息分類、寫代碼、編劇本、做作業和寫論文,ChatGPT幾乎都能應對自如。而且,ChatGPT還會質疑你提問的前提,甚至拒絕不當請求。

需要看到ChatGPT的顛覆性影響

ChatGPT橫空出世,與五六年前AlphaGo戰勝人類圍棋棋手的衝擊波不同,這次人們所熱議的不再只是奇點臨近的隱憂,更多的是對生成式人工智能可能會“改變遊戲規則”的恐慌。

不難想象,不久的將來,公司經理只要按一下按鈕或者對語音機器人發個指令,就可以將一個粗略的文檔轉換成優雅的演示文稿,而無需勞煩公司文祕。這無疑顛覆了我們早已熟稔於心的工作場景。

人們之所以對ChatGPT這一波突破性進步感到震撼,一個重要原因就是,人們一開始並不那麼相信這種將語言拼湊起來的技術路線。但毋庸置疑,ChatGPT的確在生成合乎語法的流利的語言方面有着上好的表現。

由此,不難得到的一個教訓是,很多顛覆性技術發展的路線,往往未必符合人們一貫和事先的認知。

近10年來,從深度學習到生成式人工智能的發展,尤其說明了這一點——對人工智能應該是怎樣的智能,人們的一般性認知與人工智能突破性創新所交付的智能形式之間,存在某種落差。

因此,說到對ChatGPT等生成式人工智能的態度,不論事先是否有所覺悟,不論原先處在什麼位置和賽道,都應該看到其所帶來的顛覆性影響。也就是說,我們要將其視爲引領未來的知識引擎,積極擁抱這一波人工智能淘金熱。

人類有能力理清ChatGPT治理思路

與人類所有重大的技術突破一樣,ChatGPT等生成式人工智能的湧現及其未來,實際上植根於整體的技術社會系統,也必然地基於我們對其可能驅動的變革的想象。在這些全新的系統構建和麪向未來的想象中,有些是相對中性的變化,有些則是對所有人都有積極意義的變化。

比方說,可能用不了多久,人們就可以藉助通用人工智能翻譯工具觀看任何語言的視頻,而使用不同語言的人們,也可以彼此流暢地交流。

但正如人們最近所看到的那樣,ChatGPT的病毒式流行也招致了很多非議。有研究者擔心在ChatGPT等生成式人工智能的新一波創新競賽中,會不會步搜索引擎、社交媒體和大數據商業的後塵,使得誠信、隱私、知識產權等倫理和法律上的權利和基本的價值觀淪爲犧牲品。

必須指出的是,ChatGPT等生成式人工智能的實質,是知識生產方式的革命,既是對知識、學習和創造的重新定義,也必然帶來對人類智能和機器智能的重新理解。

由此,在ChatGPT浪潮中,當我們準備一擁而上之時,有必要先對相關問題做一番深度思考,理清思路,拿出應對辦法。

發展應強調邊界思維和變通智慧

ChatGPT這種基於人類羣體知識和記憶的知識生產方式,必然與既有的主要基於個體知識與記憶的知識生產方式產生衝突。ChatGPT對海量的文本數據集等數據的高度依賴,在其拼湊式的知識構造過程中,也必然會帶來難以化解的價值觀念層面的衝突。

因此,我們應設法防範其中的極端惡劣情況,但慎用普遍性的信息審覈機制。鑑於ChatGPT涉及的藝術作品集、代碼集,必然會與原有的知識產權等權利相沖突,也亟待建立新的社會契約和法律制度。

在此過程中,最需要的是實時的政策與機制創新,尤其應強調邊界思維和變通智慧。一方面,抓住最壞的問題,如欺詐等犯罪予以遏制,同時要認識到海量文本數據集正在成爲一般的知識生產要素,在內容審覈方面應適當放寬,使其更充分地發揮知識生產的潛能。

另一方面,也要考慮到新舊知識生產方式的過渡性策略,相關政策和治理機制應致力於調和知識生產方式轉換所帶來的摩擦。

□段偉文(中國社科院科學技術和社會研究中心研究員)

相關文章