意大利率先在本國禁止ChatGPT的使用後,多國安全機構表示將會考慮對ChatGPT採取措施。

對於外界的普遍關注,OpenAI在4月6日凌晨發表博客回應稱:“我們認爲,強大的人工智能系統應該接受嚴格的安全評估。需要有監管來確保這種做法被採納,我們積極與政府接觸,探討這種監管可能採取的最佳形式。”

另外,OpenAI在與意大利監管機構的會議中,承諾提高個人數據使用的透明度,並表示願意與該機構進行合作。OpenAI還將增強數據主體權利行使機制以及對兒童的保護措施。

正如ChatGPT引發的爭議,在新一輪人工智能浪潮中,海內外科技企業均面臨着技術發展與數據安全、隱私保護之間的平衡難題。

面臨大面積被禁風險

當地時間3月31日,負責意大利信息監管的意大利數據保護局宣佈暫時禁止ChatGPT的使用,同時對ChatGPT背後的OpenAI公司展開調查,限制其處理意大利用戶的信息。

意大利數據保護局稱,ChatGPT沒有任何法律依據證明大規模收集和存儲個人信息是爲了“訓練”這種聊天機器人,OpenAI有20天時間採取補救措施,否則可能面臨高達2000萬歐元(約合1.49億元人民幣)的罰款。作爲回應,OpenAI已在該國下線了ChatGPT的相關服務。

促成意大利數據保護局禁用ChatGPT的是發生在3月20日的聊天記錄“泄露門”事件。

北京時間當日16至18時,由於數以百萬計的用戶蜂擁登錄ChatGPT,龐大的訪問數量使得服務器一度崩潰,監控網站DownDetector收到的事故報告顯示,五個小時之後ChatGPT服務器恢復正常工作,不過在修復之後,用戶僅能進行正常訪問而無法查看歷史聊天記錄。

與此同時,有登錄者發現,系統中的漏洞開始把一些用戶的個人詳細信息隨機發送給了其他用戶,包括他們的名字、與ChatGPT的聊天記錄,甚至還有信用卡賬號等敏感信息。幾個小時過後,這些私密信息便開始在社交平臺上傳播。

次日,OpenAI回應稱,已暫時下線聊天曆史功能,並強調發生泄露的只涉及聊天曆史的標題,用戶無法看到他人的詳細聊天內容。3月23日,OpenAI首席執行官阿爾特曼(SamAltman)表示,此次嚴重問題是由開源代碼庫的一個程序錯誤導致的,會有小部分用戶可以看到其他用戶的聊天記錄標題。目前開發團隊已發佈修復程序,並完成驗證。

在頒佈禁令時,意大利數據保護局還稱,平臺沒有就處理用戶信息情況進行告知,並指責OpenAI未能覈查ChatGPT用戶的年齡是否在13歲以上。

事件的影響遠沒有因此結束,意大利的禁令在全球範圍內引發討論,不少國家開始追隨意大利,考慮對ChatGPT採取行動。

歐盟國家已有動向。當地時間4月3日,德國聯邦數據保護專員UlrichKelber表示,出於對數據安全問題的考量,該國存在暫時禁止使用ChatGPT的可能性。德國聯邦數據保護機構已要求意大利監管機構提供其禁止ChatGPT的進一步信息。

據外媒報道,愛爾蘭和法國的個人數據監管機構已經和意大利同行取得聯繫,以瞭解更多有關該禁令的依據。西班牙的數據監管機構也表示,雖然暫未收到任何有關ChatGPT的投訴,但不排除未來對該軟件展開調查的可能性。

英國信息專員辦公室已向科技公司發出警告,不要使用個人信息來開發聊天機器人。包括英國信息監管局局長在內的其他監管者都表示,正在密切關注這一情況。

此外,當地時間4月4日,加拿大聯邦隱私監管機構宣佈,已經對OpenAI展開調查,因爲該公司涉嫌“未經同意收集、使用和披露個人信息”。

不過,布洛瑟姆資本公司合夥人伊姆蘭·戈裏認爲,上述禁令是草率的。他表示,“不願承擔風險並且只看缺點是容易的,但我們需要權衡利弊”。

深度科技研究院院長張孝榮表示,在缺乏有效的法律規制之前,ChatGPT或將涉及大量隱私問題和網絡安全問題,對世界各國來說都是一種挑戰。

潛在安全問題重重

早在今年2月,業界就開始關注ChatGPT可能帶來的數據安全問題。在2023世界人工智能開發者先鋒大會開幕式上,開放元宇宙基金會董事羅尤·奧布萊恩談及ChatGPT時,特別提到了安全問題,“我們一定要有保障的規則,要有護欄,確保做壞事的人帶來的影響有限。”

安全企業方面也開始對可能的問題進行審查。Fortinet北亞區首席技術顧問譚傑對第一財經表示,儘管ChatGPT本身尚不具備直接攻擊網絡安全和數據安全的能力,但由於它具有自然語言生成和理解的能力,可以被用於僞造虛假信息、攻擊社交工程等方面。

距離用戶更近的風險是,用戶在使用ChatGPT等AI工具時,可能會不經意間將私密數據輸入到雲端模型,這些數據可能成爲訓練數據,也可能成爲提供給他人答案的一部分,從而導致數據泄露和合規風險。

除上述“泄露門”事件外,ChatGPT還疑似有“前科”。2月23日,有外媒報道,亞馬遜公司律師稱,在ChatGPT生成的內容中發現了與公司機密“非常相似”的文本,可能是由於一些亞馬遜員工在使用ChatGPT生成代碼和文本時輸入了公司內部數據信息,該律師擔心輸入的信息可能被用作ChatGPT迭代的訓練數據。

ChatGPT等AI技術還極大降低了網絡攻擊的門檻。“攻擊者可以使用自然語言來讓ChatGPT生成相應的攻擊代碼、惡意軟件代碼、垃圾郵件等。因此,可以讓那些原本沒有能力發起攻擊的人基於AI生成攻擊,並大大提高攻擊成功率。”譚傑對記者說。

他介紹稱,在自動化、AI、“攻擊即服務”等技術和模式加持下,網絡安全攻擊呈現暴漲趨勢。ChatGPT火爆之前,業界就已發生多次黑客使用AI技術進行的網絡攻擊,這種攻擊呈現24小時、不間斷的特點。

OpenAI在最新發布的安全舉措中表示,將構建越來越安全的人工智能系統;從實際使用中學習,以改進保障措施;加強保護兒童措施,要求用戶必須年滿18歲(或經父母批准年滿13歲)才能使用OpenAI工具,並正在研究驗證選項;尊重隱私,努力在可行的情況下從訓練數據集中刪除個人信息。OpenAI稱,解決人工智能安全問題的一個切實可行的方法是投入更多時間和資源來研究有效的緩解和校準技術,並在現實世界的濫用情況下測試它們。

就此張孝榮表示,OpenAI的聲明表達了一種比較謹慎的態度。該公司會採取力所能及的方法來降低AI帶來的風險,但難以解決兩個固有問題,一是用戶濫用問題,各國用戶濫用技術的方法層出不盡,OpenAI無法全面預防,只能採用事後糾正的做法。二是訓練數據的缺陷問題,ChatGPT基於公開數據訓練,但公開數據質量參差不齊,儘管OpenAI努力做好對齊,但可能永遠無法實現。

AI浪潮下的兩難

安信證券研報分析,隨着深度合成和生成式AI技術的開放開源、產品和服務的增多,此類內容製作的技術門檻越來越低,實現了技術的“平民化”。但一旦技術被濫用,將會造成安全風險與實質性危害,給個人、企業造成肖像、名譽等人格和財產權益損害。因此,反生成式AI的技術需求有望迎來爆發。

人工智能浪潮下的數據隱私安全引發關注,但如何平衡技術發展與數據隱私之間的關係更需考量。一位人工智能行業人士對記者表示,所有AI都是有“偏見”的,這更多是訓練數據的問題,也可以通過負例反饋去修正。但要做到完全的數據脫敏和安全沒那麼容易。畢竟通過原始數據的訓練效果和效率是最好的,加入噪聲或脫敏會對數據的保真度造成降低。而在監管方面,歐洲GDPR(《通用數據保護條例》)是很好的數據安全保護條例,但反觀歐洲的人工智能技術發展如何?

張孝榮也表示,數據隱私安全和技術發展之間是個動態博弈過程,兩者難以做到真正的平衡,而是在互相拉扯中實現螺旋式逐漸進步。

科大訊飛高級副總裁杜蘭此前在談及馬斯克等近千名科技人員呼籲未來6個月暫停對巨型GPT模型訓練時表示,AI的快速發展的確會帶來失業、隱私侵犯、信息不對稱等問題,但它更多是在提升效率、提升醫療能力、改善環境等發揮了重要作用。

杜蘭稱,人工智能訓練也很難停止,因爲不同國家、公司、實驗室等都會去爭奪領先位置,所以全球範圍內的協調和執行可能會面臨挑戰。

杜蘭還表示,對人工智能企業整理和標註後的數據保護是當前最大的問題。目前行業確實存在通過版權、商業祕密路徑都無法周密保護數據的問題,所以對於數據應該有明確的權利歸屬和保護措施。同時,通過AI可以輸出一幅模仿梵高或吳冠中的畫作,但如果非常刻板地要求每一篇文章、每一幅畫、每本書都需要作者同意才能夠進入數據庫,以今天這麼大的數據量來說,執行的成本就太高了。“所以這確實是一個需要去解決的問題。”杜蘭稱。

清華大學交叉信息研究院助理教授、人工智能國際治理研究院國際交流項目主任於洋表示,ChatGPT改變了人工智能和經濟之間的關係,AI已成爲一種“有自主意識形態和價值觀的界面基礎設施”。當人們去理解AI產品時,不能只看表現好不好、速度快不快,還要看它是否能夠很好地符合一個地區的法律法規、公序良俗、共識性價值觀,不該簡單套用對人的監管方式去監管AI。

商湯科技智能產業研究院院長田豐也表示,新生產力工具必須符合人類普適道德倫理,即以人爲本、可持續發展、技術可控,這三點普遍適用於數字技術的創新浪潮。

相關文章