來源:財聯社

據日經新聞最新報道,日本政府正在考慮明年成立一個組織,探討人工智能(AI)安全方面的問題,包括民用AI技術被轉用於軍事目的的風險,旨在在不妨礙研發的情況下,提高其安全性。

據悉,預計最早將在本月舉行的人工智能戰略委員會會議上正式宣佈這一計劃,該委員會負責討論與AI相關的國家戰略,成員包括在AI領域有經驗的私營部門專業人員。

關注的重點將是最先進的那一批產品,如OpenAI的ChatGPT。爲了避免干擾私營部門,企業用於提高運營效率的標準AI技術將不會成爲日本政府的目標。

AI產品將在進入市場之前需要進行一系列測試,還有一項提案要求日本政府採購的任何AI產品在使用前都要經過專業機構的認證。

上述新成立組織計劃研究潛在的國家安全風險,例如通過AI獲取製造生物、化學或其他武器的信息的可能性,還將檢查安全漏洞,包括對網絡的攻擊。

另外,還將調查AI變得不受控制的風險,以及與錯誤信息和偏見有關的問題。AI控制的社交媒體賬號,能在網絡上自動生成內容並與人類用戶互動,操縱公衆輿論或煽動情緒。

目前來看,隨着信息技術的發展,AI技術大量運用於軍事領域已經成爲現實,使用AI收集和分析戰場數據等一系列AI操作,在作戰系統中已被廣泛應用。而民用AI技術被轉用於軍事目的,幾乎是不可避免的問題。

雖然可能會成立一個全新的機構,但最有可能的結果是將一個新的部門併入現有的組織。候選機構包括總務省下屬的研究AI技術的國家信息和通信技術研究所,以及經濟產業省下屬的信息技術促進機構。

在本月初,七國集團(G7)就AI國際規則框架達成了最終協議。這將成爲首份對開發人員及用戶,規定AI“所有相關人員”應遵守職責的全面國際規則。

G7力爭通過率先展現爲防止AI濫用而合作姿態的形式,獲得G7以外國家和企業的贊同。日本政府將把此次協議用於面向國內的指導方針制定,即AI開發商在向市場推出產品之前,需要接受第三方的風險評估。

英國和美國在創建人工智能機構方面也處於領先地位。11月份,英國成立了全球首個AI安全研究所。在對尖端AI產品上市前後進行驗證後,考慮公開其中存在安全風險的產品。

美國根據今年10月拜登總統的行政命令,正在以美國國家標準與技術研究院爲主導,制定AI安全評價方法。旨在與私營公司共同創建一個AI安全聯盟,以制定評估AI能力和風險的方法,並希望私營公司自行進行風險驗證。

相關文章