數據時代,拿什麼來保護我們的隱私?丨數據政治

劉志毅

在衆多近期關於數據隱私保護引發的討論中,甚少見到關於數據隱私保護的基本邏輯的底層討論,更多的是關於“數據隱私”的重要性和對於數據濫用危險性的擔憂。因此,大多數討論都停留於公共議題的喧譁之聲和對於科技倫理的表面討論。

事實上,這個議題背後涉及了兩個根本性問題:第一,是數據價值在整個智能時代作爲生產要素的實質,即通過數據挖掘以後的數據是如何使用的,以及如何作爲新的知識產生的範式是如何對現實世界產生影響的。第二,現存的數據隱私保護的理念的核心目的是什麼,以及怎麼認識數據背後技術與人之間的關係?

須知,我們現在的擔憂在20世紀八十年代的歐洲學術界就有相關討論,經歷那麼多年時間後關於這方面的討論,早已不是停留在數據安全和基礎倫理的層面,很遺憾的是我們對此知之甚少。本文就試圖從數據隱私保護背後的基本邏輯和認知論層面的挑戰進行討論。

不打擾的權利

關於數據隱私與安全的保護研究很多,但討論其實質,包括對個人權利和自由的侵犯,自動化決策算法帶來不平等的政治經濟學主張,以及相關文件中包含的機器對人類進行控制和影響的相關內容並不多。

實際上早在1890年,美國人沃倫和布蘭代斯就指出了隱私權的問題,認爲新的發明和商業手段引發了風險,人們需要採取措施保障人格權,即“不打擾”的權利,認爲“我們的法律是否在方方面面承認並保護隱私權,這一定會迅速成爲法庭將要考慮的問題”。

2006年,歐文·舍米林斯基明確指出要重新審視布蘭代斯的隱私權,認爲應該進一步設定關於深挖個人信息的法律責任。而隱私權的出現則正在改變人-技術與世界的關係,帶來了新的視角。可以認爲,人通過技術與世界關聯產生了對人類世界新的詮釋,而數據隱私權試圖對這種詮釋的範疇進行重新定義。

我們今天討論的所有相關文件都可以從這個角度去入手,即數據隱私是可以看作成一種試圖將解釋世界權利的方式和權利迴歸到個體還是給到機構(商業組織、政府或者國家)的選擇,而不只是停留在個人權利的被侵犯層面,個體權利需要通過數據權利的實現得到延伸而非剝奪,社會的公平正義可以通過數據權利得到延伸而非放大歧視或者偏見,這是我們的立足點。

討論數據隱私保護相關的議題,《通用數據隱私保護條例》(GDPR,GeneralDataPro-tectionRegulation)是必須關注到的文件。這份文件在2016年4月通過,在2018年5月25日生效。事實上,這份文件是在《數據隱私保護指令》(DataProtectionDirective)文件的基礎上生成的,後者是1995年通過的歐洲聯盟指令,用於規範歐盟範圍內處理個人數據的行爲,是歐盟隱私法和人權法的重要組成部分。

先看《數據隱私保護指令》這份文件,在歐盟《數據隱私保護指令》中第15條是非常特殊的,它賦予了自然人一項有條件的權利,認爲自然人可以不受到基於自動化分析生成的決策的影響,因此要求自動化的決策(也就是算法決策)必須要首先得到充分的評估後才能使用,且自然人擁有了解這些基於自動化分析生成的決策所涉及的邏輯的權利。

這個條款的精髓在歐盟發佈的《通用數據隱私保護條例》中也得到了繼承,在新的條例的第22條中不僅規定了類似權利的落實,還補充了對從事自動化決策的數據控制人增加新的信息披露業務的要求,認爲所有的算法提供商和數據使用權利放,從一開始就需要在數據隱私保護和程序設計方面滿足合規性,其核心目標在於“確保在信息系統開發的整個生命週期中切實考慮利益相關者的隱私保護和權益保護”。

從這一點可以看到,歐盟的數據治理思路相對於20年之前的變化。如果說《數據隱私保護指令》是一個從數據隱私保護出發,對機器自動化決策進行治理的規範文件,《通用數據隱私保護條例》的立法目的並不是關注機器的使用,而是要徹底通過權利的賦予方式來重塑人和機器的關係,這也是數據隱私相關問題的實質,即我們建立一種怎樣的符合人類社會發展需要的人機交互關係。《數據隱私保護治理》以及法國在1978年所頒佈的《數據處理、文件和個人自由法案》都源於對機器決定論引發的人類社會發展的擔憂,因此更多的是一種消極治理的思路(後者對所有自動數據處理的司法、行政或個人決定都一概禁止)。

可以說,它們的基本邏輯是一種保守主義思想的體現,即確保人類維持對自身造成重大影響的決策的重大控制併爲之負責。因此《數據隱私保護指令》將某種類型的決策行爲作爲制約要點而並不是數據的處理方式放在嚴格的質量控制之下,這很類似我們在法學中所強調的“自然正義觀”。

我們再來看以數據隱私保護聞名的《通用數據隱私保護條例》,與數據隱私相關且繼承了第15條的是第22條,我們對這個條款的主體內容進行分析來看數據隱私保護的實質。其條款規定“數據主體有權反對此類決策:完全依靠自動化處理——包括用戶畫像——對數據主體做出具有法律影響或者類似嚴重影響的決策”,除非滿足以下條件:(1)決策對於數據主體與數據控制者的合同簽訂或合同履行是必要的;(2)當決策時歐盟或成員國的法律所授權的,控制者是決策的主體,並且已經制定了恰當的措施保障數據主體的權利、自由和正當權利;(3)當決策建立在數據主體的明確同意基礎之上。可以看到,這個條款的規定與《數據隱私保護指令》的內核思想一脈相承,不僅對機器錯誤和算法歧視帶來的社會不公平和偏見懷有很大的擔憂,還直接將用戶畫像(或者叫自動化側寫技術)作爲命題進行定義和分析。

但我們要看到的不僅是保守的一面,還要看到相關條例中所涉及的關於權利進路的思維,即相關條例承認一個顯示就是自動化算法已經廣泛用於私營部門和政府部門,而相關的應用是可以帶來有益於社會的正向福利的。

相關的法條通過規定當事人同意、法律授權和合同約定等方式爲自動化決策和數據安全提供了實際的路徑(雖然很多方面的討論尚未完善)。更進一步,在《通用數據條例》中提出了數據最小化原則和適當性原則,第25條規定了控制者有責任採取適當的技術與組織措施,以保障在默認情況下,只有某個特定處理目的所必要的個人數據被處理,這種責任適用於收集的個人數據的數量、處理的限度,儲存的期限以及可訪問性。

換言之,個人數據應該保持“精簡和鎖定”的狀態。這與《數據隱私保護指令》中僅僅強調數據信息安全不一樣,強調的是從軟件或硬件設計到業務策略和商業實踐整個鏈條的原則適用性。

具體到數據隱私問題,第25條背後展現出來的數據倫理考慮的核心思想,就是以增強隱私數據隱私保護技術爲基礎,將保護隱私的理念設計到相應的軟件系統中。換句話說就是將人類的倫理價值觀嵌入到技術設計的過程之中,這也是我認爲未來解決數據隱私和倫理問題的核心,即將行爲的正義性和倫理道德的合理性通過技術來嵌入,而不是僅僅通過保守的數據隱私保護的方式去解決。

事實上,這樣的思想逐漸正成爲AI倫理或者數據倫理研究的重要路徑,無論是雷登伯格提倡的“信息法制(LexInformati-ca)”,還是希爾德布蘭特和庫普斯所提倡的“環境性法律(Am-bientLaw)”,都涉及到了相應理念,認爲跨學科的技術應用的方式能夠比傳統法律更好地塑造人類社會與人類行爲。

數字世界運行邏輯的認知重構

理解這一點後,我們可以提出我們的理念,即數據隱私保護和算法決策等問題的核心在於,是否我們可以通過程序設計的範式來實現人類權利的保護,以及相應倫理道德價值觀在技術層面的落實。

當然,我們可以預言到相應的阻礙到底有多大,包括法律語言的措辭和語法無法轉換、複雜晦澀的法律權利和義務的範圍難以說清以及交叉數據隱私保護和算法透明性等問題。但可以認爲,這條路徑在科技向前發展的情況下,幾乎是唯一可以實現權利保護和社會發展平衡的路徑,與其陷入無休止的倫理道德爭端,不如考慮技術路徑如何實現這樣的複雜系統。

更進一步說,數據分佈在社會的各個領域,從個人生活到公共服務領域,再到國家、政府的治理以及決策等環節,數據的使用也非常普遍。

微觀層面的個體都是數據的攜帶者、生產者和使用者;中觀層面看,對數據的挖掘和使用就是智能化算法最主要的工作,也是AI能夠對金融、零售、醫療等行業進行賦能的原因。宏觀層面來看,涉及國際政治、軍事和經濟都會使用到不同的數據。

可以看到,在數據生產和被算法使用的過程中,兩個過程是同時進行的:一方面,算法將自然界中的事物進行數據化,即人類存在的實體世界轉換成了新的樣式;另一方面,數據的產生形成了新的自然界,與現實的世界進行深度互動。

正如斯蒂格勒所說,虛擬現實的各種代具都是由“顯像銀幕眼鏡”和“數據庫手套”組成的,眼鏡中呈現的虛擬空間要麼根本不存在,而只是從其整體物理特徵上模擬出來;要麼存在於別處,但在眼鏡與手套使用者的真實所在地被虛擬複製出來。

換言之,我們正處於真實世界和數據世界疊加的狀態中,數據隱私的問題從根本上來說並非只是一個單獨權利的保護,而是對數字世界運行邏輯的認知重構。

這帶來的是數據作爲生產要素的特殊性,它改變了既有世界的本體論、認知論與倫理價值觀:從存在論的角度看,人類存在其中的世界已經產生了數據這種新的要素,以及智能化機器這樣非自然生成物,因此一種新的存在環境被生成。

具體來說,存在的軌跡以數據的方式呈現,從技術哲學的角度來說,數據帶來了“在場性”的變化,即通過數據化的技術讓人的在場性被拓展,使得透明性退場。例如通過圖像識別技術重現人們的運動軌跡和時間序列,或者通過對商場的數據挖掘使得人們的行爲能夠被引導。

這樣的方式改變了人們的行爲邏輯,也是數據要素最重要的價值;從認知論的維度來看,人類面向的世界不再是人改造自然的簡單關係,而是生成了新的物種和要素,感知世界的方式和自我認同的方式也在改變。

算法可以通過數據的調節,來調整數據自然裏的出場次序和顯現的影像。例如,臉書通過算法的改變,對自身的首頁內容進行不同推薦,這樣的結果不僅是商業層面的,也是認知層面的,這才帶來了後續跟劍橋分析公司的醜聞;相應的,這也就帶來了數據倫理視域的視角變化,即從人、技術與自然世界的關係來重構我們的倫理觀念。

最近發生的一系列關於數據隱私的新聞事件,加深了個體對隱私問題隱私的擔憂,同時依賴人口紅利的互聯網經濟和基於機器學的決策系統的複雜和不透明則加深了這一擔憂。如何發揮好相應監管條例的前提條件就變得苛刻起來。

這裏不得不強調一個事實,就是不管是算法還是監管措施都在指向算法“透明度”,而事實上,對於現有的以深度學習爲基礎的人工智能算法來說是幾乎不可行的,相應的研究和立法試圖創造這樣的不可行的也不符合用戶需求的透明形式的權利,其結果是非常危險和毫無意義的。透明度的權利並不一定能夠確保實質性的競爭或者有效的補助措施,更多是在感官上給大衆一種監管有所作爲的體現,而並沒有考慮事實上的技術和應用情境。

相對應的,《通用數據隱私保護條例》只是在原則層面提供了“公平和透明地處理個人數據”的說法,這樣爲數據隱私保護法律提供了一個比較開放和靈活的尺度,去衡量數據隱私問題的影響並讓算法決策系統承擔責任。除此之外,條例中的其它條款更具備可操作性,包括數據隱私保護影響評估、數據可移植性、數據認證和數據刪除等。

換言之,我們可以根據實操的可行性和原則的方向,引入更多可以實施的權利方向進行討論(例如“合理推斷權”等),而不是坐等一個完善的條例出現或者毫無實操意義的指導建議成爲討論的熱點。

總結下,我們對數據隱私和算法決策的倫理進行了解讀,即在於我們採納了一種行爲主義導向的方式去看待數據隱私。一方面,我們承認個人數據權利的重要性和相應監管機制建立的必要性。另一方面,我們也要減少一刀切的“規範性斷聯”以及“監管過度延伸”的情況出現。

隱私保護不是不作爲的藉口,而是尋求算法規制的起點,我們要保護的是數據在成爲算法決策依據後的公平和正義。

換言之,我們承認技術與倫理的雙向調節作用:一方面,我們認爲技術通過對物質環境的改造構成自由,在這種物質環境中存在着數據這一特殊要素,人類正在認知這樣的數據世界並形成新的倫理範式。另一方面,技術與人類正在形成特殊的連接,這種連接讓人們對技術的發展積極看待的同時報以警惕的心態,同時也在利用技術調節來爲人類社會的道德發展制定新的規則和創新的詮釋空間,即將非人類的要素(如數據)納入到道德體系中去考慮。

因此,數據隱私問題與其說是商業權利跨越了道德門檻的問題,更深刻的理解是人類爲了實現更大範圍的正義(不僅包括傳統世界,也包括數據的非自然世界),不得不提升自身的技術能力和修正倫理範式的過程。我們不僅要關注技術引發的倫理問題,也要看到技術對倫理的助推作用。

(作者係數字經濟學家、商湯智能產業研究院主任)

相關文章