來源:中國經營報

本報記者 李玉洋 上海報道

近日,一封超1000位人士簽名的《暫停大型人工智能研究》公開信引發關注,其中包括特斯拉CEO埃隆·馬斯克、“深度學習三巨頭”之一的約書亞·本吉奧、蘋果公司聯合創始人史蒂夫·沃茲尼亞克等學界、業界人士,他們呼籲至少在6個月內立即暫停訓練比GPT-4更強大的人工智能系統。

值得注意的是,在這份網絡簽名表的尾部出現了OpenAI聯合創始人山姆·阿爾特曼的名字,最終美國媒體證實山姆·阿爾特曼並沒有計劃呼籲暫停人工智能的開發,但他卻指出:“OpenAI不僅非常重視AI安全,而且比其他公司更重視。無論如何,AI安全問題在當下被業界廣泛關注已是不爭的事實。”

“只有在我們確信它們的效果是積極的、風險是可控的情況下,纔可以開發強大的人工智能系統。”該公開信中提到。《中國經營報》記者注意到,ChatGPT所屬公司OpenAI的CEO山姆·奧特曼近期在著名播客YouTuber Lex Fridman的訪談中也表示AI存在偏見、造成人類失業等問題。

記者還注意到,由於ChatGPT的走紅,人工智能生成作品是否受著作權保護問題引發熱議,比如網易LOFTER今年推出的AI作畫功能因惹爭議而草草下線。對此,上海大邦律師事務所高級合夥人、知識產權律師遊雲庭對記者表示:“人工智能生成的作品有先天的版權瑕疵,不應當享有著作權並收取授權費用。用戶使用人工智能生成的作品如果被他人侵權,可以依據《反不正當競爭法》來維權。”

AI爬取行爲涉嫌侵權

3月初,網易LOFTER上線了“老福鴿畫畫機”功能,用戶可以通過關鍵詞生成繪畫作品,卻引起很多創作者不滿,他們質疑平臺AI繪圖會將創作者的繪畫作品作爲訓練素材,沒有尊重創作者的知識產權以及無法保護創作者的各項權利。

對此,網易LOFTER分別於3月6日和7日連發兩份聲明,稱“老福鴿畫畫機”內測版實際上是頭像生成器,初衷是爲了方便沒有繪畫能力的用戶製作喜歡的頭像,該功能訓練集來自於開源,沒有使用LOFTER用戶的作品數據,並明確註明不得用於商業用途。而後網易LOFTER又稱,引發爭議的相關功能已於3月8日下線,並承諾LOFTER從未將用戶的作品數據用於AI訓練。此外,LOFTER於3月10日上線創作者保護計劃,做出“禁止AI內容作爲原創作品發佈,加強對AI內容識別和反饋處理;已上線反AI盜用+反爬取系統,嚴厲打擊任何侵權行爲;單獨設立反侵權投訴渠道,侵權作品均可一鍵舉報,快速反饋生效”等措施來保護創作者的權益。

3月16日,網易LOFTER再發布致歉信,聲稱“近期LOFTER上線了新功能,沒有考慮到創作者羣體的感受,引起了巨大的不滿。此行爲傷害了很多一直支持我們的創作者,我們深感抱歉,在此向大家表達誠摯的歉意”。

遊雲庭指出,在類ChatGPT人工智能軟件工具的開發過程中,開發者必然要用大量數據和資源供其學習和訓練,但現在各大人工智能公司都對學習資源的來源諱莫如深,除了商業祕密方面的考量之外,“最主要的問題是,目前的主流人工智能軟件工具其訓練都依靠開發公司爬取網上的免費公開數據和資源,然後對人工智能進行投餵和訓練,這些數據和資源的取得並沒有經過被爬取網站的同意,所以是有很大爭議的,並且已經有媒體就此進行了起訴”。

據《華爾街日報》報道,AI 技術的發展已經引發了新聞出版業的不滿,他們認爲自己的內容被大型科技公司用於訓練AI模型而沒有得到合理的補償。擁有《紐約郵報》《巴倫週刊》《華爾街日報》等媒體的美國新聞集團正準備向OpenAI、微軟和谷歌等公司提起訴訟,要求賠償其內容在ChatGPT、Bard等AI工具中被用來使用的費用。

“(AI)這種爬取行爲涉嫌侵權。”遊雲庭表示,爬取行爲是否合法,目前的主流做法是看Robots協議(指網站跟爬蟲間的協議),只要被爬取數據的網站的Robots協議同意,搜索引擎爬取數據就是合法的,“但人工智能公司爬取數據是否適用Robots協議爭議很大,因爲它們爬取目的和搜索引擎不同”。

“網站被訪問是有服務器成本、技術維護成本和管理成本的,網站經營者同意搜索引擎的爬取,是因爲這種爬取是共益行爲。”遊雲庭指出,人工智能公司爬取只利於它們自己,這讓網站運營者白白付出服務器成本、技術維護成本和管理成本,“這種行爲就不應該適用Robots協議,而應適用《著作權法》”。

遊雲庭進一步指出,根據《著作權法》,讓人工智能學習網上內容的過程是一個複製行爲或臨時複製行爲,人工智能公司要先將網上的或者線下獲得的內容爬取,然後輸入到人工智能程序中,“無論這個內容是文字、圖片、音頻、視頻還是程序,複製行爲都應當獲得相應權利人許可,否則就涉嫌侵權”。

遊雲庭表示,根據《著作權法》,儘管用戶運用人工智能所創作的內容版權歸受託方(即人工智能公司)所有,但ChatGPT的《用戶協議》4.2條規定:用戶在使用ChatGPT時產生的任何內容,均屬於用戶的知識產權,ChatGPT可以在不向用戶支付任何費用的情況下使用這些內容。

“它們(指OpenAI)要是規定生產的作品知識產權歸ChatGPT所有,一方面會得罪用戶;另一方面,權利和責任是一體的,知識產權歸誰,誰就要對內容負責,如果產生了侵權或爭議內容,比如版權侵權、名譽侵權或政治不正確言論,OpenAI作爲創業公司的小身板還真不一定扛得住。”遊雲庭表示。

用技術打敗技術

倘若人工智能企業要大規模爲所生成的內容收取版權授權費用,是否可行以及合理呢?遊雲庭指出:“自身的底氣是不足的,因爲其訓練過程涉嫌大規模侵權,有原罪,版權收費邏輯上不能自洽。”

事實上,AI版權問題並非始於ChatGPT。記者注意到,在圖像和代碼方面,已有多起訴訟案件涉及到AI模型訓練使用受版權保護的數據,比如Midjourney、Stability AI、微軟以及GitHub都曾捲入相關糾紛。

更重要的是,以ChatGPT爲代表的AI語言模型以及Midjourney爲代表的AI繪畫產品,它們的高效率讓不少打工人擔憂:AI會不會讓我失業?

投資銀行高盛一份報告稱,AI可以取代3億個全職工作崗位,目前歐美約有三分之二的工作崗位都在某種程度上受到AI自動化趨勢的影響,而多達四分之一的當前崗位有可能最終被完全取代。

報告還指出,AI的影響將因不同工種而異,其中46%的行政工作和44%的法律專業工作可以實現自動化,但只有6%的建築工作和4%的維護類工作可以實現自動化。

除了法律問題、造成失業外,前述公開信還指出AI可能對社會和人類構成深刻的風險。“先進的AI可能代表着地球生命歷史的深刻變革,應該通過謹慎的資源規劃和管理。但是,即使最近幾個月AI實驗室陷入了一場失控的競賽,試圖開發和部署越來越強大的數字智能,甚至連他們的創造者都無法理解、預測或可靠地控制的智能,但我們並沒有看到此類規劃和管理的出現。”公開信中指出。

毋庸置疑,“暫停訓練比GPT-4更強大的AI系統”首先會影響到OpenAI接下來的技術進展。而這對部分署名者而言,並不是一件壞事,比如馬斯克正在計劃組建自己的AI研究實驗室,開發ChatGPT的替代品。

不過,馬斯克也曾多次呼籲對AI的監管。“沒有對人工智能的監管,這是一個主要問題。十多年來,我一直在呼籲人工智能安全監管。”馬斯克在去年12月的推文中表示。在GPT-4發佈後再次表達擔憂,馬斯克寫道:“我們人類還有什麼可做的?”

在這封聯名公開信發表之前,一位名叫Michal Kosinski的斯坦福大學計算心理學家在社交媒體上曝光了GPT-4的一項“逃跑計劃”,並稱AI能引誘人類提供開發文檔,30分鐘就擬定出一個完整計劃,甚至還想控制人類電腦。Kosinski疾呼:“我擔心人類無法持久地遏制住AI。AI很聰明,會編碼,能接觸到數百萬個人和電腦。”

面對AI威脅論,山姆·奧特曼承認,一些擁有AI輸入控制權的人可能無視人們對人工智能設置的一些安全限制,“我認爲社會只有有限的時間來弄清楚如何對此做出反應,如何對其進行監管,如何處理它。”同時,他也呼籲監管機構和社會需要進一步參與這項技術,以防止其對人類造成潛在的負面影響。

“我特別擔心這些模型可能會被用於大規模的虛假信息。” 山姆·奧特曼說,“現在他們在編寫計算機代碼方面做得越來越好,可以用於網絡攻擊。”

面對一種新技術造成的問題,最好的辦法是另一種技術去解決,用技術打敗技術。針對AI用於網絡攻擊的擔憂,微軟就推出一款新的AI聊天機器人Security Copilot,它能描述網絡活動安全漏洞的暴露情況,並指出利用漏洞的賬戶,以幫助網絡安全專業人士瞭解關鍵問題並找到解決問題的方法。

《人類簡史》《未來簡史》的作者尤瓦爾·赫拉利(Yuval Noah Harari)近日在《紐約時報》發表文章稱,ChatGPT 可能會被用來製造虛假信息、操縱人們的情感和行爲甚至取代人類的創造力和智慧。因此,他呼籲人類採取措施,保護自己免受人工智能的侵害,同時利用它的優勢;建議人類升級自己的教育、政治和倫理制度,以適應人工智能的世界,並學會掌控人工智能,而不是被它掌控。

相關文章