作者: 高雅

[ 法案中規定禁止的做法將在生效6個月後適用;通用型人工智能(GPAI)的相關義務和規則將在生效12個月後適用;法案生效24個月後,該法案完全適用,但一些高風險AI系統的規則將在生效後36個月適用。 ]

全球首部人工智能(AI)領域全面監管法規即將生效。

歐洲理事會官網顯示,當地時間5月21日,該機構將正式批准歐盟《人工智能法案》(下稱《AI法案》)。該法案基於風險分類,將AI系統劃分爲四類,即不可接受風險、高風險、有限風險和極低風險,並針對不同風險類別採取了相應監管策略。

隨後,《AI法案》將在歐盟官方公報上公佈二十天後生效,法案內容將分階段適用。具體來說,法案中規定禁止的做法將在生效6個月後適用;通用型人工智能(GPAI)的相關義務和規則將在生效12個月後適用;法案生效24個月後,該法案完全適用,但一些高風險AI系統的規則將在生效後36個月適用。

在國際上,歐盟一直希望能在數字監管領域搶跑。然而,隨着AI技術的發展突破日新月異,如何避免法規和技術的發展出現“錯位”?在數字經濟領域,歐盟近年來已經推出了《通用數據保護條例》(GDPR)、《數字服務法案》、《數字市場法案》,這是否會給企業造成合規責任不清晰的問題,又該如何應對?

北京金杜律師事務所合夥人吳涵律師在網絡安全和數據合規領域有多年執業經驗,他在接受第一財經記者專訪時表示,在數字立法上,歐盟常以事前監管爲重點,構建涵蓋事前、事中和事後的全鏈條監管體系。

吳涵認爲,《AI法案》採用的“以風險爲進路”的管理方法可以看作一種初級靈活管理框架,在醫療、金融、自動駕駛等其他領域立法也是常見的監管方案。

“權宜之計”

第一財經:《AI法案》以風險爲導向進行分級管理,怎麼評價這種管理思路?歐盟內部對此的立場是否統一?

吳涵:我理解以風險爲導向的分級管理,通常是對於新生技術/應用缺乏進一步有效管理措施的“權宜之計”。在這一套機制下具體的風險分級標準和AI系統類目,也是其漫長立法進程中摩擦不斷的原因之一。

一方面,有歐盟專家痛批《AI法案》爲“充斥着對行業遊說的讓步,對執法和移民當局最危險的AI使用的豁免”。歐洲數據保護委員會(EDPB)和歐洲數據保護監督員(EDPS)也曾指出,《AI法案》的高風險AI清單存在遺漏,沒有涵蓋使用AI確定保費或者評估醫療方法適用於健康研究目的等場景。

另一方面,對於AI企業和具備AI發展戰略的歐盟成員國而言,尤其是法國、德國和意大利來說,對於《AI法案》過度、提前監管的態勢頗有微詞。在2023年底,法國、德國和意大利曾對《AI法案》提出明確的反對意見,包括反對並提出對於通用模型的兩層風險分級方法,即以是否爲具備“系統性風險”的通用模型來設定合規義務的方法的替代方案。

由此可以看到,這一管理思路的弊病也許就在於“兩頭不討好”。這種具體立法的功能性危機,可能不僅是《AI法案》,而是人工智能時代乃至技術時代立法需要不斷直面的“技術侷限”。

值得注意的是,這種侷限性是所有對於新技術監管的侷限性,在AI領域尤其明顯,因爲它應用過於廣泛,且對於對齊等問題還未有更深入研究,但部分風險已經發生,必須邊管理邊觀察補充。所以風險分類分級是在當前侷限性中既能管理風險又避免“一刀切”的領先思路。

當然,參考GDPR實施至今的經驗教訓,《AI法案》對AI乃至AI“操縱”等涉及較重合規義務的高風險人工智能相關定義的語焉不詳,以及對應義務的模糊表述可能也會損傷其法律確定性,導致新應用、新技術企業在無法明確自身義務邊界的情況下面臨合規難題。即便《AI法案》自身已有一定機制來保證其靈活性,考慮到分階段生效的漫長週期,落地執行時的效能也還有待進一步觀察。

第一財經:《AI法案》是否有機制確保自身跟上AI技術和應用場景的迅速迭代?

吳涵:《AI法案》在序言中提到,爲了對AI系統採取有效、成比例的約束規則,應當遵循“以風險爲進路”的方法,即根據AI系統可能產生的風險範圍與風險程度,調整對AI系統的具體監管規則。

結合《AI法案》現有規定,可以看出,歐盟在立法時的確作出了一定程度的努力,以便法案規定的監管規則具有相應的靈活性,適應AI技術的發展。

比如說,充分考慮AI技術發展快、專業性強的特點,《AI法案》授權歐盟委員會每年度評估禁止使用的AI系統目錄是否需要修訂。同時,歐盟委員會還需在《AI法案》生效後的四年內對法案本身例如高風險AI系統清單進行評估和審查,並於此後每四年評估和審查一次,最終向歐洲議會和歐盟理事會報告。

同時,在通用AI模型方面,《AI法案》依據設置的每秒執行的浮點運算次數(FLOPs,被廣泛用來評估處理器或系統的計算能力)閾值,將通用AI模型進一步區分爲具有系統性風險的通用AI模型。而FLOPs閾值的參數並非絕對不變的,而是隨着時間的推移、技術的革新而變化。

此外,歐盟還新設了人工智能辦公室,在促進《AI法案》的統一適用外,還重點監測由通用AI模型產生的不可預見的風險,從而爲及時應對新生風險留出一定的空間。

然而,考慮到《AI法案》還未正式生效,相關機制保障《AI法案》快速適應AI技術和應用場景迅速迭代的效果有待後續實踐的觀察。

企業合規方面是否會遇到“麻煩”

第一財經:歐盟治理數字經濟的法案很多,是否可能出現“意大利麪碗”現象?比如,同時適用AI Act和GDPR但合規責任不清晰,這種情況是否多發?

吳涵:《AI法案》並不是空中樓閣,想要與正在制定中的以及既存的歐盟數字經濟法案取得協調不會是易事,其中可能涉及規範重疊、空白和不一致性等諸多問題。

舉例而言,歐盟《數字市場法案》的“守門人”相關制度條款均正好已於2024年3月生效,歐盟委員會首次指定的六家“守門人”企業,Alphabet、亞馬遜蘋果、字節跳動、Meta微軟需要儘快確保被指定的核心平臺服務符合“守門人”相關要求。不難發現,這些企業幾乎也都是AI市場的領頭羊,因此它們會如何處理歐盟數字《市場法案》與《AI法案》的交叉競合是很棘手但也很有意思的問題。

例如,考慮到《AI法案》和歐盟《數字市場法案》對於數據集、數據庫等概念的定義並不一致,歐盟《數字市場法案》也並未就此爲AI提供特殊規則。這意味着,守門人需要思考將用戶數據用於AI訓練時,如何做好數據隔離等措施來保障自身對於訓練數據集的權益,並同時滿足法律要求。

第一財經:高風險AI系統的主要監管制度下,《AI法案》指出了在AI供應鏈的相關責任主體,但其中是否存在責任界定不清晰的問題?

吳涵:首先從責任主體和行政責任來講,針對高風險AI系統的上下游供應鏈,歐盟《AI法案》已初步構建起圍繞AI系統提供者、分銷者、進口者等相關主體的價值鏈,明確了提供者以外的利益相關主體對於高風險AI系統投放市場、投入使用應承擔的合規義務。同時,《AI法案》第99條也已就相關主體違反法案規定的行爲,設置了最高1500萬歐元或上一財政年度全球營業總額3%的罰款。

然而,就包含高風險AI系統、通用AI系統在內的AI系統所造成的實際損害責任分配機制而言,即AI系統價值鏈中的各方參與主體如何就損害分配,相應的法律責任仍然處於模糊不清的狀態。

例如,某個企業通過某高風險AI系統向用戶提供服務,但這一系統是基於某通用AI模型提供者提供的AI模型生成的。如果該系統主要由提供者輸入數據進行優化,企業僅能輸入有限數量的數據對系統進行訓練,當最終該AI系統生成的內容對用戶造成了實際損害,該企業是否需就相關損害獨立承擔責任,企業是否能要求通用AI模型提供者共同承擔責任?如企業和通用AI模型提供者需共同對損害承擔法律責任,則雙方各自需在多大程度上承擔責任?考慮到通用AI模型複雜的上下游應用關係,其中一方責任主體是否能在滿足特定情形時免除責任?如一方主體的責任有可能被豁免,需滿足何種條件方可觸發豁免?前述問題均能體現,目前歐盟《AI法案》的責任分配機制存在一定的不確定性,更爲具體的責任分配規則可能有待歐盟相關監管部門在後續的個案執法中予以體現。

此外,還有一種觀點認爲,《AI法案》對AI系統相關主體責任分配機制的留白是歐盟AI監管立法的“有意爲之”。考慮到AI技術更迭、發展迅猛的特點,結合AI系統自主學習而可能引發的“算法黑箱”等問題,在對未來AI系統的應用場景、可預期作用目標、可能給社會、公民造成的權益損害等均具備一定程度不確定性的現階段,保留責任分配機制的適當模糊性可能有助於歐盟的AI監管部門在個案中調整責任分配策略,始終實現維護個人健康、安全等基本權利的最終目標,同時避免部分企業在明確清晰的責任分配框架下通過調整業務模式等方式轉移其本應承擔的法律責任。

相關文章