21世紀經濟報道見習記者 肖瀟 北京報道

就在歐盟《人工智能法案》落地只差最後一公里時,內部出現了不同聲音。

近日,據報道,一份聯合文件顯示法國、德國、意大利就如何監管人工智能達成協議。三個歐洲重要經濟體一致認爲,《人工智能法案》不應針對基礎模型,歐洲需要“一個促進創新和競爭的監管框架,以便歐洲參與者能在全球人工智能變革中位於前列。

法德意的發難,似乎讓他們站在了歐洲議會立法者的對立面——後者希望嚴格監管基礎模型。

歐盟《人工智能法案》是全球首部人工智能的法律草案,正處於立法程序的最後階段。受訪專家指出,當前核心分歧是基礎模型的監管方式,各方應該在12月6日的三方談判上提出解決方案。如果屆時無法達成共識,《人工智能法案》落地或面臨壓力。

反對分級監管模型

法德意發佈的文件首先指出,人工智能的本質風險是應用,而不是技術本身,由此“反對基礎模型的兩層分級方法”。

“兩層分級方法”指的是《人工智能法案》中,將人工智能系統劃分爲不同的風險組,規定不同的合規義務。一些義務僅適用於算力更強、更通用的大模型,從而產生了一套兩層規則。三個國家在文件中明確要求對基礎模型放棄這套規則。

模型卡是他們提出的替代方案。模型卡的內容必須包含模型的功能和缺陷。根據文件示例,具體有模型參數量、預期用途、潛在限制、偏見測試結果,以及紅隊安全評估結果。

此外,聯合文件還呼籲自願承諾、延遲建立制裁。法德意三國都贊成,AI提供商應做出具有約束力的自願承諾,且最初不實施任何制裁措施。文件提到,只有在一定時間後發現違規行爲,再建立明確的制裁機制。

《人工智能法案》授權草案於今年6月高票通過歐洲議會,目前已經進入成員國、歐洲議會、歐盟委員會的“三方談判”,原計劃年底前通過。

據瞭解,三方本在10月24日就分級監管模型達成了初步共識,但包括法國、德國、意大利在內的至少五個成員國改變立場,提出不應對基礎模型施加任何監管;10月30日,法德意三國在意大利首都羅馬舉行高級別會議,決定加強人工智能領域合作;本月19日,法德意開始分發非正式文件,再次轉變監管立場,提出用模型卡來監管基礎模型。關於《人工智能法案》的談判仍在繼續。

核心矛盾在基礎模型

同濟大學法學院助理教授、上海市人工智能社會治理協同創新中心研究員朱悅分析,聯合文件與《人工智能法案》立法談判其他各方的實質性矛盾集中於一點——如何監管、由誰監管基礎模型。

對於基礎模型,《人工智能法案》始終主張風險分級,但與聯合文件的風險識別思路有很大不同。北京師範大學法學院博士生導師、中國互聯網協會研究中心副主任吳沈括指出,整體來看,《人工智能法案》強調前置、抽象的風險判定,而聯合文件強調後置、實際的風險判定。

落到具體層面,模型卡可能涉及主體更少,合規義務更輕。朱悅認爲,早先三方談判中達成的分級監管,涵蓋了數據治理、紅藍對抗等實質性義務。而以透明義務和行爲守則爲核心的模型卡,更多屬於一種弱強制性的自律監管。對外經濟貿易大學數字經濟與法律創新研究中心主任張欣補充,模型卡主要針對基礎模型的開發者,分級監管則面向整個人工智能系統的開發者、部署者、運行者。不過,“分級監管確實存在一定挑戰,比如未來步入真正的通用人工智能(AGI)階段時,可能有分級標準難設定、風險動態變化的挑戰。又比如,在現有方案下,可能導致基礎模型的開發者承擔較多連帶義務和責任。”張欣說。

張欣向21記者進一步解釋,模型卡類似於基礎模型說明書,示例中的安全測試、偏見測試類似出廠前的產品測試。如果按照早先《人工智能法案》規定的分級監管,落在高風險區域的大模型相關主體,還需要履行一系列備案、糾正、標識等合規義務,負擔可能遠遠大於模型卡。

一個更關鍵的問題也許是,誰來決定模型卡的嚴格程度,以及誰來執行。

在朱悅看來,不能簡單斷言模型卡和分級監管之間有本質差別。如果模型卡配置了詳細、深入的可解釋性條目,其依然可以稱爲一種深入的監管。但如果模型卡不是交給專門監管機關或者數據保護機關,而是主要由行業協會或者技術社區來評估和執行,自由度就會相對充裕。

此外,聯合文件中的自願承諾也值得注意。張欣表示,“一般情況下,如果要求企業自我承諾,那麼違背承諾時執法機關會採取相應的處罰措施。”但聯合文件提議推遲制裁,並沒有進一步明確到底要如何建立強制性、有約束力的自我承諾機制。

受訪專家均認同,聯合文件旨在爲基礎模型的開發者鬆土

一個值得關注的時間點是今年10月。就在這個月,巴黎的初創公司Mistral AI發佈了自己的大模型Mistral 7B,據稱性能超過Meta 的 Llama 2大模型,且算力耗費更少,一舉成爲人工智能領域一顆冉冉上升的新星。與此同時,德國的AI領頭公司 Aleph Alpha GmbH 也獲得了超過5億美元的B輪融資,官網自稱“德國自己的OpenAI”。

除了本國冠軍企業的大模型發展迅速,政府面臨遊說壓力外,法德意也有佈局人工智能的國家性戰略。今年6月,法國總統馬克龍宣佈要推動法國成爲歐洲的AI中心,劃撥5億歐元發展人工智能。德國數字事務部長則在近期採訪中,將德國定位爲“進入全球人工智能領域最高梯隊競爭”,發展野心可見一隅。

《AI法案》或踩下剎車

法德意此時叫板,最令人關心的問題無疑是:《人工智能法案》還能順利落地嗎?

張欣表示,目前難以預料聯合文件的實質影響,但它的確爲《人工智能法案》達成共識增加了不確定性。 

在朱悅看來,達成共識的可能性很大。主要依據是各方已經初步達成了共識——同意一定程度上監管基礎模型,只是在概念、時限和其他一些關鍵細節上需要博弈。另外,從談判過程來看,相關主體的態度在不斷軟化。根據朱悅的分析,此次發難的策略性性質較強,即爲了針對特定的條款爭取談判籌碼,並不是關於《人工智能法案》是否應該通過的分歧。

“如果能夠達成妥協,《人工智能法案》可能放棄對基礎模型的進一步分級,通過細化透明項目、補強審計義務和關聯產品責任等方式做實透明義務,放棄其他絕大部分的實質要求。可以說是一種差強人意的方案。”朱悅表示。

在後續的執行過程中,《人工智能法案》也存在進一步鬆綁的可能性。吳沈括向21記者指出,聯合文件立場更市場友好,因此各成員國在貫徹執行《人工智能法案》時,可能有本地化鬆綁的動作。張欣對此的擔憂是,模型性能強大,更多未知風險會與大模型湧現能力一同出現。而且在開發熱潮下,資本逐利可能帶來模型異化的風險。以上種種都要求對基礎模型進行更系統的硬法規制。

通過《人工智能法案》的機會之窗正在快速關閉,12月6日將是一個關鍵的時間點。

考慮到歐洲議會將在明年6月換屆,今年12月6日的三方談判可以視作《人工智能法案》立法談判的收尾。歐洲媒體透露,越來越多的成員國認爲《人工智能法案》監管過度。如果無法儘快找到解決方案,立法將面臨風險。

朱悅表示,“《人工智能法案》之前的談判進程確實太快了,理事會和其他各方內部並沒有達到高度一致。之前達成的所有共識,都是一種脆弱而精細的平衡。”而這份脆弱、精細的平衡,接下來隨時都有可能打破。

(作者:肖瀟 編輯:王俊)

相關文章