網信辦擬規定:算法推薦服務提供者不得利用算法實施流量造假

記者/王俊

實習生/王澤瑩 

數字經濟時代,因數據規模的急劇擴大和運算能力的飛躍提升,基於算法的自主收集、挖掘、識別、分析、預警、處理、診斷、決策系統,被廣泛應用於各行各業。算法在帶來便利的同時,也出現了算法歧視、算法黑箱等問題。算法治理無疑是當下以及未來一段時間的重點。

10月23日,由北京理工大學法學院主辦的“第五屆全國智能科技法治論壇”在京舉行,算法與法律治理成爲會議主題。

如何保障個人在算法社會的合法權益,把算法服務作爲核心商業模式的平臺應承擔哪些責任,算法造成的安全風險如何規制?與會專家們從個人權利、平臺責任、刑法規則等展開討論。

保障個人“免受自動化決策權”

自動化決策是算法時代的個人信息處理方式,指的是“通過計算機程序自動分析、評估個人的行爲習慣、興趣愛好或者經濟、健康、信用狀況等,並進行決策的活動”。

個人信息保護法對自動化決策作出了明確規定。在中國人民大學法學院副教授張吉豫看來,個人信息保護法從風險預防、正當程序、個人權利等不同維度確立了規則框架,涉及影響評估,決策透明、公平公正,退出機制,個人獲得說明及拒絕自動化決策的權利等,雖然條款較少,但對於實踐中關注重點均有涉及。

針對通過自動化決策方式向個人進行信息推送、商業營銷的情形,個人信息保護法規定,要麼提供不針對個人特徵的選項,要麼向個人提供便捷的拒絕方式。“實際上在這樣的場景下,使個人擁有免受自動化決策的權利。”她表示。

張吉豫認爲,這樣的設計,有助於對比測試提供針對個人特徵的推薦模式和不針對個人特徵的推薦,促使不同算法之間競爭。同時,也能夠對針對個人特徵的算法提供一定的修正啓示,起到輔助推薦算法設計機制作用

個人信息保護法還賦予個人獲得說明及拒絕自動化決策的權利。其第二十四條規定,通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,並有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。

如何理解個人權益有重大影響的決定,什麼算“重大影響”?個人信息保護法沒有給出明確答案。張吉豫認爲,一方面是對相應法律權利或者是法律效果有明確影響的,另一方面是對於個人的經濟地位、社會地位以及長期評價等可能產生影響的,也可以包含在重大影響的範疇之內。

個人權益的範圍則相對較寬,包括民法上的人格權、財產權,也包括消費者權益保護法等法律裏的相應權利。

對於個人獲得說明的權利,張吉豫認爲,這一定程度上意味着確立了有限的“算法解釋權”。在法律落實的過程中,相應的算法說明必須提供對決策有意義的信息,而不是簡單的、泛泛的信息。

此外,她強調,想讓個人真正獲得一種拒絕自動化決策的權利,就要對該條款中“僅通過自動化決策的方式作出決定”進行恰當的解釋。

可見,對個人“免受自動化決策權”的保障,未來落地的過程之中,需要進一步通過配套規則、司法活動和執法活動的開展落實。

張吉豫認爲,企業利用個人信息進行自動化決策,應當進行個人信息影響評估。考慮是否屬於信息推送、商業營銷的情況,如果是,則應提供不針對其個人特徵的選項,或者向個人提供便捷的拒絕方式。

對於必要進行自動化決策的情況,應考慮建立人工干預機制;決策情況分析和說明機制,說明綜合考慮的要素、算法的大致類別;並且建立根據個人質疑,進行考察、反饋或改進的機制。

可見,對算法透明度和可解釋性監管不斷強化。中國人民公安大學法學院蘇宇副教授指出,應區分算法的可解釋性與算法透明度,算法可解釋不等於算法透明,算法解釋也不等於打開黑箱。應明確界定可解釋性與透明度的概念,區分優化算法可解釋性與透明度的義務,並且推進層次化、場景化的具體制度設計。

此外,蘇宇認爲,應明確優化算法可解釋性、透明度義務與算法解釋請求權的關係。在履行上述義務時,通過在技術標準層面設置面向不同場景的多元化可選規則,是一種兼顧精準性、原則性與靈活性的制度安排

平臺監管層層加碼

將算法服務作爲核心商業模式的平臺,在算法應用中應承擔哪些責任?

以推薦算法爲例,其應用引起了各國的關注。近期,Facebook利用仇恨算法牟利等事件引發關注。美國衆議院能源和商業委員會提出法案,擬修改《通訊規範法案》第230條平臺責任豁免條款,以避免個性化推薦對公民權利造成危害。

中國信通院互聯網法律研究中心研究員程瑩指出,過去,美國出於促進互聯網發展的考慮,在《通訊規範法案》第230條中規定平臺對用戶創作的內容不承擔責任。但由於平臺與用戶權利、重要基礎設施等關聯日益密切,美歐在規制中都有加重平臺責任的趨勢。

她解釋稱,早期平臺是一個通道的角色,作爲市場經營者,將信息從內容的提供者傳輸到用戶,是一箇中立的身份。但現在數據已經成爲一種生產要素,如果把數據比作農作物的話,那平臺就是農作物加工廠,通過對數據的加工、提煉出結構化的數據庫,進而反向對內容提供者、用戶進行信息控制。

程瑩指出,我們每天在手機上瀏覽新聞、購物等,都可以視爲一種數字勞動。在這個過程中平臺可以對用戶行爲加以控制,同時平臺逐步具備了對社會生產資源調配能力,尤其是一些巨型平臺,掌握着一些數據中心、人工智能中心、雲計算等硬件基礎設施。所以應重新認識平臺的角色。

她表示,我國平臺責任從早期簡單的發現報告義務,轉變爲包括事前階段的賬號管理、算法審查,事中階段的算法模型干預、用戶標籤管理等,事後階段的社會責任報告、投訴處理等

對於社會關注的信息繭房、操縱熱搜、個性化廣告、個性化定價等問題,《個人信息保護法》與《互聯網信息服務算法推薦管理規定(徵求意見稿)》都有回應。

《互聯網信息服務算法推薦管理規定(徵求意見稿)》中明確,算法推薦服務提供者應當加強用戶模型和用戶標籤管理,完善記入用戶模型的興趣點規則,不得將違法和不良信息關鍵詞記入用戶興趣點或者作爲用戶標籤並據以推送信息內容,不得設置歧視性或者偏見性用戶標籤。

並且,用戶認爲算法推薦服務提供者應用算法對其權益造成重大影響的,有權要求算法推薦服務提供者予以說明並採取相應改進或者補救措施。 

程瑩認爲,我國的平臺算法監管呈現出技術規制、遠距離監管、多元治理等特點。未來在爲平臺算法責任設置過程中,需要進一步研究平臺責任的界限問題、平臺分類分級規制的落地問題以及規制的成本收益等問題,以更好推動我國算法治理的落地實效。

刑法規制算法仍有許多難點

今年8月,某一青年企業家因爲駕駛智能汽車,啓用自動駕駛功能後,不幸車禍離世。算法驅動下的人工智能產品的刑事責任也逐漸成爲關注焦點。

算法的危害已在實踐中出現,對算法進行刑法規制是必要的未雨綢繆。

不過,中國政法大學刑事司法學院副教授李懷勝強調,刑法不應對算法安全風險過度反應,更應避免對算法安全風險的提前介入,以防止對科技創新能力的扼殺。刑法不應規制作爲開發者競爭優勢的算法權利,而應規制面向公共利益算法的安全風險。

而且,刑法對算法的約束在具體規則層面仍存在很多難點。李懷勝表示,算法缺陷難以被評價爲刑法中的產品責任。在當下的分工協作機制下,算法提供者和最終的產品提供者並不是一個主體,算法是否能等同一種產品,在刑法解釋論上存在很大的疑問。

此外,他指出,按照產品責任犯罪追究算法缺陷的前提是明確合格的算法是什麼,按照罪刑法定原則,必須給算法制造者提供一個非常明確的標準,明確罪與非罪、責與非責的邊界。但是,目前我國關於算法的國家標準、行業標準仍非常模糊。因而,算法濫用與損害結果之間也難以被認定爲刑法層面的因果關係。

李懷勝建議,首先,應該對現有規範查漏補缺,完善罪名體系。“可以不直接規制人工智能犯罪,但是應該規制作爲人工智能算法基礎的數據濫用。

其次,完善算法安全風險的平臺監管,明確算法安全監管的不作爲犯罪,充分激活拒不履行安全管理義務罪

最後,李懷勝認爲可以藉助刑事合規制度的理念,建立算法合規的刑罰體系。他表示,算法合規可視爲算法解釋權在刑法層面的延伸,能夠解決技術創新和損害規則之間的平衡,在價值導向中兼顧算法的不同類型風險

相關文章