AI監管國際標準要來了?G7部長會議達成5大原則,同意採用“基於風險”的監管

來源:華爾街見聞 葉楨

G7數字與科技部門在聯合聲明中表示,計劃在未來召集關於生成式人工智能的討論,其中可能包括治理、知識產權保護、提高透明度、解決虛假信息等議題。

隨着ChatGPT大火帶動人工智能的快速發展和應用,各國將如何監管也備受關注。

據社報道,4月30日,七國集團(G7)數字與科技部長們在日本本州島高崎開會後發佈聯合聲明,同意對人工智能採取“基於風險”的監管,不過聲明同時強調,監管還應爲人工智能技術的發展“保持開放和有利的環境”。

聯合聲明列舉了政策制定者管理人工智能和其他新興技術使用的五項原則——法治、正當程序、民主、尊重人權和利用創新機會。

所謂“基於風險”的監管或意味着監管部門將針對人工智能的具體應用場景和潛在風險,制定不同的監管措施和標準。這樣可以避免一刀切的監管方式,既能保障公共安全,又不會過度限制人工智能技術的發展。

七國集團部長在聯合聲明中表示:“鑑於生成人工智能技術在各個國家和部門的重要性日益突出,我們認識到有必要在近期評估這些技術的機遇和挑戰,並繼續促進安全和信任。”

聲明稱,“我們計劃在未來召集七國集團關於生成式人工智能的討論,其中可能包括諸如治理、如何保護包括版權在內的知識產權、提高透明度、解決虛假信息”等主題。

據報道,雖然部長們認識到“實現共同願景和目標的政策工具可能因七國集團成員而異”,但協議爲主要國家如何在隱私問題和安全風險下管理人工智能設定了里程碑。

目前,歐洲在監管人工智能方面較爲激進,意大利上個月下線了 ChatGPT,以調查其可能違反個人數據規則的行爲;上週,歐洲議會成員就《人工智能法(The AI Act)》提案達成臨時政治協議,預計將在5月11日進行關鍵委員會投票,6月中旬進行全體投票。如果該法案獲得通過,將成爲是全世界第一部綜合性的人工智能法律。

今年七國集團主席國日本對人工智能開發採取了相對寬鬆的態度,承諾支持公共和工業採用人工智能。日本工業大臣西村康俊週五在部長級會談前表示,日本希望 G7 就人工智能技術“敏捷或靈活的治理達成一致,而不是先發制人的全面監管”。

日本將於5月底在廣島舉辦G7峯會,屆時首相岸田文雄將與世界各國領導人討論人工智能規則。

風險提示及免責條款

市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

相關文章