財聯社

當地時間週四(4月20日),愛爾蘭數據保護委員會負責人Helen Dixon表示,以聊天機器人ChatGPT爲代表的生成式人工智能(AIGC)固然需要受到監管,但監管機構必須先弄清楚如何正確地做到這一點,而不是匆忙出臺站不住腳的禁令。

ChatGPT是美國人工智能(AI)研究實驗室OpenAI於去年11月30日推出的一款現象級應用,只用了僅僅兩月時間,月活躍用戶數就達到了1億,成爲歷史上增長最快的消費者應用程序,並促使科技公司爭相進入AI領域。

ChatGPT的火爆很快就引起了監管機構的注意。上月底,意大利個人數據保護局宣佈禁止使用ChatGPT,限制OpenAI處理意大利用戶信息數據,同時對其隱私安全問題立案調查。

在意大利率先禁用ChatGPT後,歐洲其他國家的監管機構紛紛加強了監管,法國和西班牙上週均宣佈對ChatGPT展開調查。

意大利監管機構週二表示,如果ChatGPT的開發公司OpenAI能採取有效措施來解決該機構的擔憂,它準備允許ChatGPT於4月底在意大利恢復運營。

Dixon表示:“它需要受到監管,現在的問題是弄清楚如何對它進行適當的監管。對於愛爾蘭數據保護委員會來說,我們正努力瞭解這項技術、大型語言模型以及訓練數據的來源。”

Dixon補充道:“所以我認爲現在還爲時過早,但是時候進行對話了,而不是匆忙制定根本站不住腳的禁令。”

Dixon指出,圍繞生成式AI的問題遠遠超出了數據保護的範圍,還包版權和誹謗問題。她表示:“我們還希望就AI的風險和其他法律領域進行更廣泛的討論。”

相關文章