人工智能(AI)的進化速度遠遠超出了預期。人們越來越擔心,一旦失控,這項技術可能會帶來嚴重風險。同時,各國也在爭相摸索監管標準和尺度,希望在規範發展的同時不損害其創新。

英國政府率先開展了一輪“閃電式外交”。據英國《泰晤士報》6月3日報道,該國政府正考慮仿照國際原子能機構(IAEA),在倫敦設立一個國際AI監管機構。首相蘇納克希望藉此將英國打造爲全球AI中心,承諾將在制定“安全可靠”的規則方面發揮“領導作用”。

6月7日-8日,蘇納克將帶領政商表團訪美。屆時他將尋求美國總統拜登的支持,於今年秋季在倫敦召開峯會,與各國政府和跨國公司高層討論制定AI的國際規則,以及建立類似IAEA的全球機構。成立於1957年的IAEA現有176個簽署國,總部設在奧地利首都維也納,致力於推廣以和平方式使用核能。

另據《每日電訊報》透露,英國科學、創新和技術大臣史密斯(Chloe Smith)將於下週二在巴黎舉行的經合組織技術論壇上與外國同行就相關AI議題進行會談。該活動由英國政府資助,受邀國家包括美國、日本、韓國、以色列、澳大利亞、新西蘭、巴西、智利、挪威、土耳其、烏克蘭、塞內加爾。

英國政府消息人士告訴《衛報》,希望在幫助協各國家不同的監管努力方面發揮作用,與早前歐盟選擇禁止部分個人AI產品(如面部識別軟件)的立場相比,建立於基本原則之上的途徑更有可能獲得廣泛支持。

2021年,歐盟就監管AI應用公佈嚴格法規,包括限制警方在公共場合使用人臉識別軟件。今年3月,專注於AI的非營利組織Future of Life Institute發佈了由超過1000名技術專家和研究人員簽署的公開信,呼籲暫停六個月的大型AI模型的開發,只有當確保強大的AI系統的效果是積極的、風險是可控的,才能繼續開發。

中國也不落後。早在4月11日,國家互聯網信息辦公室就《生成式AI服務管理辦法》公開徵求意見,從明確條件要求、劃定責任主體、形成問題處理機制、清晰法律責任幾個方面爲行業劃定底線。

2023年5月,歐盟推出了《人工智能法》提案,要求開發ChatGPT等生成式AI的公司,披露用於訓練其模型的任何版權材料。5月24日,美國白宮科技政策辦公室發佈了面向公衆的問卷調查,爲正在制定中的綜合性國家監管戰略提供依據和參考。

5月30日,跨國非營利組織“人工智能安全中心”發佈聯名公開信——減輕AI滅絕人類的風險,應該與其他社會規模的風險(例如流行病和核戰爭)共同成爲全球優先議題。這封公開信最初由350多名在各國從事AI工作的高管、研究人員和工程師共同簽署。

緊接着在第二天,蘇納克就與OpenAI、谷歌DeepMind和Anthropic等公司的負責人進行了會談,表示將攜手確保社會從AI技術中受益,並討論了AI帶來的風險,涉及虛假信息、國家安全和生存威脅等。

在談到上述專家的公開信時,蘇納克說到,人們會對AI構成類似流行病或核戰爭等生存風險的報道感到擔憂,“我希望他們放心,(英國)政府正在非常仔細地研究這一課題。”

倫敦作爲老牌發達國家的首都,具有政治穩定、法制完善、人才儲備豐富、語言無障礙等優勢。尤其是在行業集聚效應上,倫敦市政府自從2011年起便開始大力推進東倫敦科技城(Tech City)項目,是衆多高科技巨頭設立歐洲總部、甚至全球總部的首選。

一名高官在接受《泰晤士報》採訪時就表現出十足的自信,稱英國是“真正的科技超級大國,應該展現出全球領導力,並建立一個植根於共同價值觀,確保國際資金支持這項工作。”

相關文章