財聯社

隨着ChatGPT等生成式人工智能的迅猛發展,經濟合作與發展組織(OECD)計劃重新審視其人工智能(AI)指導方針。

2019年5月,OECD出臺了首部AI的政府間政策指導方針,確保AI的系統設計符合公正、安全、公平和值得信賴的國際標準。該指導方針不具備法律約束力。

OECD祕書長馬提亞斯·科爾曼在接受採訪時透露,該組織正在考慮修訂2019年制定的AI原則,計劃最早6月份就新指南展開討論,年底前拿出成果。

據悉,OECD可能會考慮改變措辭,以反映AI領域的變化,並引入新的原則。

去年11月,美國科技公司OpenAI開發的聊天機器人ChatGPT橫空出世,在短短兩月內就收穫了1億月活躍用戶,成爲歷史上增長最快的消費者應用程序,並促使谷歌等科技巨頭爭相進入AI領域。

人們期待AI帶來新機遇的同時,也在擔心這項技術的潛在風險,例如科技公司在訓練AI時會用到大量數據,而這可能會侵犯隱私。

七國集團(G7)也已開始着手製定有關AI的具體規則。在本月的G7領導人峯會上,AI首次成爲主要議題,G7領導人呼籲制定和採用一項可信賴的AI國際技術標準。

日本總務大臣松本剛明表示,G7政府官員將於5月30日舉行首次工作級AI會議,討論知識產權保護、虛假信息以及應如何管理AI技術等問題。

與此同時,歐盟正在推進《AI法案》,該法案有望成爲世界上第一個監管AI的全面立法。由於歐盟須經歷一系列繁瑣的程序,《AI法案》需要一到兩年時間才能確立最終的法律文本。因此,歐盟有意制定一些過渡性措施,以在全面立法出臺前起到監管作用。AI

相關文章