3月31日,意大利政府數據保護局(Garante)要求禁止OpenAI公司開發的AI聊天機器人ChatGPT在意大利的使用,並對ChatGPT應用程序涉嫌違反隱私規則展開調查。

Garante認爲,ChatGPT無法識別用戶年齡,並稱只有年滿13 歲以上的用戶纔可以使用這種AI應用程序。“ChatGPT缺乏法律依據來證明收集和存儲大量個人數據來訓練聊天機器人是正當的。”該機構表示,“OpenAI可以在20天的時間內完善用戶隱私保護措施,否則可能面臨高達2000萬歐元的罰款。”

意大利也是首個禁止ChatGPT使用的西方國家。對此,OpenAI表示:“我們正積極努力減少訓練人工智能系統(如ChatGPT)時收集的個人數據,我們希望人工智能瞭解世界,而不是瞭解用戶的個人信息。”

自去年發佈以來,ChatGPT掀起了新一輪的技術熱潮,促使競爭對手推出類似產品,包括谷歌在內的公司都將類似技術集成到他們的應用程序和產品中。

這種新型的AI大模型技術的快速發展也引起了多個國家立法者的關注。歐盟委員會發言人表示:“我們希望所有在歐盟活躍的公司都尊重歐盟的數據保護規則,執行通用數據保護條例是歐盟數據保護當局的責任。”

歐盟委員會執行副主席維斯塔格在推特上表示,正在討論歐盟人工智能法案的委員會可能不傾向於禁止人工智能。她寫道:“無論我們使用哪種技術,都必須保護我們的權利。我們不監管AI技術,我們監管AI的使用。”

除了個人數據隱私保護之外,許多行業專家表示,由於人工智能對國家安全、就業和教育的潛在影響,需要制定新的法規來管理人工智能。

本週,包括OpenAI共同創始人馬斯克在內的上千名科技領袖通過非營利組織未來生命研究所(FLI),簽署一份聯名信,呼籲OpenAI暫停對GPT的訓練,理由是對社會的潛在風險。這份聯名信引用了包括OpenAI、谷歌及其子公司DeepMind等機構的12項研究。

不過這份聯名信已經引發了激烈的爭辯。一些人工智能權威人士認爲,人工智能的威脅被誇大了。

3月31日,多名人工智能專家公開指責FLI的獨立性,他們表示,該機構主要由馬斯克的基金會資助,並將想象中的“世界末日”情景強加於人工智能。

谷歌前人工智能倫理專家瑪格麗特·米切爾(Margaret Mitchell)是公開批評聯名信的專家之一,她表示不應該忽略人工智能的積極作用。

康涅狄格大學助理教授Shiri Dori-Hacohen也對信中提到她的工作提出異議。她認爲,目前人工智能系統對人類的風險是一直存在的,與其是否越來越接近達到人類智能的水平無關。“一些尚不存在的風險確實非常重要,但不應該被誇大。”Dori-Hacohen表示。

一些專家認爲,人工智能缺乏透明度纔是真正的問題所在。瑞典于默奧大學人工智能研究員兼副教授Johanna Björklund表示:“如果你進行人工智能研究,你應該對你的工作方式非常透明。”

清華大學智能產業研究院首席研究員聶再清對第一財經記者表示:“我認爲GPT-4主要還是人類助手和提升效率的工具,而且是完全在人類的控制下工作的,暫停6個月的訓練這一要求過於一刀切了。”

聶再清建議,比較科學的方法是對於具體要發佈的人工智能新版本或者新工具進行比較全面的風險評估,在評估爲安全的產品之後再進行發佈。“我們還是應該鼓勵安全和創新的產品和技術及時公佈。”他對第一財經記者表示。

相關文章