摘要:在確保人工智能技術的應用不違反平等保護原則的基礎上,我們還應警惕:在大數據的技術支撐下,基於人臉識別和多種個人數據形成的用戶畫像越發成爲個人在數據時代的身份表徵。但是人臉識別技術可能與個體身份信息緊緊相關,而隨着技術的發展,在主體身份信息完全可由數據追蹤後,主體可能會對錶達自由意志存在顧慮,也會進一步影響主體在訂立契約的過程中正常全面的表達出自己的訴求。

人臉識別、平等保護與契約社會


  應對以人臉識別爲代表的人工智能技術應用帶來的風險,當務之急是要求公共行政中應用人工智能技術必須通過倫理委員會的審查和公開聽證

  郭銳

  人臉識別是人工智能技術的典型應用。通過個人信息的廣泛收集和運用算法對這些信息進行處理,人工智能技術讓精準、高效的“區別對待”成爲可能。但是,爲人們“量身定做”的差別化待遇意味着什麼?基於用戶畫像生成的新型“身份”,可能對社會產生何種影響?這些問題,是本文討論人臉識別的法律和倫理風險問題時所關注的核心內容。

  人臉識別的“分類”意味着什麼

  將人臉識別應用於地鐵安檢,是因爲它能將乘客分類,而這種分類被認爲可以大大提升安檢的效率。分類背後的原理大致如此:在識別某一乘客的面部特徵後,系統將基於已經收集的個人信息來將其打上多個不同的標籤,再根據某一種標籤或者多種標籤的組合給出針對這名乘客的處理決定。

  但是,設想如下情形:若有一位乘客在安檢時總是被特別關照,地鐵安檢員每次都會對其反覆安檢確保無安全隱患才得以放行。乘客不勝其煩,追問原因。答曰:無可奉告。倘若如此,是否有倫理或者法律上的問題?

  這正是我們在人工智能倫理討論中所言的算法歧視問題。在看似中立的算法中,由於算法的設計者的認知存在某種偏見,或者訓練算法使用了有問題的數據集等原因,可能讓人工智能系統決策出現有歧視性的結果。這類事例媒體時有報道,例如,在金融領域“降低弱勢羣體的信貸得分”“拒絕向’有色人種’貸款”“廣告商更傾向於將高息貸款信息向低收入羣體展示”等。

  當公共服務或者政府決策中使用人工智能時,就更需要警惕算法歧視問題。就地鐵這一場景,我們已知的是,通過人臉識別進行的分類安檢將基於分類標準和“白名單”制度之上。但我們無從得知,識別系統是基於怎麼樣的標準對乘客進行分類,以及這些標準是否具有正當性。

  與個人相關的標籤——乘客的戶籍地、犯罪記錄、家庭情況、工作單位、徵信記錄等——是否可以用於人工智能決策?這些標準背後的邏輯何在?是否徵信記錄較差的乘客需通過更嚴格的安檢?爲什麼他們一定比其他乘客更有在地鐵犯罪的可能性?諸如此類的問題如果尚且不能給出明確的答案,恐將給恣意行政大開方便之門。

  不論人臉識別有多麼精準、對地鐵通行效率的改善有多麼顯著,政府在採用人工智能技術時首要的責任是實現平等保護。平等保護意味着分類背後的標準應公開,且這些標準與所欲達成目標之間的合理關聯得到論證;因人工智能技術使用者的主觀偏見、數據樣本污染、人臉技術本身不成熟等因素帶來的歧視,應一一排除。唯其如此,方能通過平等保護的合法性檢驗。

  應警惕身份的迴歸

  在確保人工智能技術的應用不違反平等保護原則的基礎上,我們還應警惕:在大數據的技術支撐下,基於人臉識別和多種個人數據形成的用戶畫像越發成爲個人在數據時代的身份表徵。

  人工智能技術之所以飽受青睞,原因之一便在於算法能針對具體問題給出針對性解決方案。但從技術上講,任何效率的提升必然涉及對公民的分類,而分類直接或者間接地關乎公民的基本權利。受限於技術發展、原始數據的偏差、算法設計者的偏見,算法歧視時常發生。使用人臉識別算法的標籤化判斷方式增加了作出歧視性決策的風險,而這些風險絕大程度上將由本身已處於相對劣勢地位的人羣承擔。

  在缺乏監管、有效保障措施、透明度和問責機制的情形下,人臉識別算法的運用將加劇不平等現象。而令人擔憂的是,算法複雜晦澀的“黑箱”特性,往往使歧視以一種不易察覺的方式進行。

  英國法律史學家梅因曾提出社會現代化轉型的最大特徵是“從身份到契約”。在“身份社會”中,身份意味着特權。有身份的人,享有特權,身份越高,特權越大。

  而什麼決定了身份本身?托克維爾在《論美國的民主》中批評了將家庭出身、財產與職業將所有的人劃分爲不同的身份等級,因爲身份將人劃分爲三六九等,並且導致社會上不同身份的人之間交往嚴格,唯恐“有失身份”。

  身份在法律上的表現爲,不同的人有不同的法:有身份的人可以利用這種身份特權去抵消自己的罪行,去謀求罪行的減免,而沒有身份的人則不享有此等特權。身份是人治的淵藪,是法治的天敵。

  當社會從身份社會轉型至契約社會時,身份的作用逐漸淡化。契約社會“不以出身論英雄”“王子犯法與庶民同罪”。在契約社會,“人人生而平等”“法律面前人人平等”的觀念佔據主流。在平等的基礎上,個人不因家庭出身、財產、職業等標準被分類,人們根據契約而非身份設定權利義務的範圍。契約社會爲個體注入了更大的可流動性,讓個人得以通過自身努力改變現狀。

  今天,當個人信息的收集和利用越來越廣泛時,我們應警惕身份的迴歸。以標籤化、用戶畫像的名義,人臉識別不僅把過往行爲數據與個人相關聯,傳統的家庭出身、性別、財產、職業都悄無聲息地被納入人工智能技術的決策體系中。

  爲了通過既往行爲模式判斷未來行爲模式,人臉識別將在認證表面信息的同時,也在後臺關聯與個體的過往行爲相關的標籤或用戶畫像。但是,個體的過往行爲很多時候與個體的身份特徵有較大關係,比如出生在貧窮家庭的個體由於資源的匱乏,受教育率偏低,且相對於出生在富裕地區的個體而言犯罪率相對較高。上述關聯不免與傳統“身份社會”的運行方式殊途同歸。

  重申契約社會的理念

  在《足夠智能的城市》一書中,作者本·格林指出,“今天城市所使用的技術將在確定未來社會契約方面發揮重要作用”。

  或許有人認爲,既然人臉識別的廣泛應用已越發成爲大數據時代的必由之路,我們也應更新對傳統社會管理方式的認知。可以想象,在一個對技術不加管制的世界裏,人臉識別的運用將迅速且深刻地改變社會管控的效率和方式,甚至具備着重塑契約社會內涵的可能——人們將人臉識別技術視爲維持社會運作的必要一環,並普遍默許對它的應用。但這是否是我們所欲追求的世界?

  隨着歷史的車輪向前而建立社會普遍尊重的契約,該過程離不開公衆的參與。公衆有權利決定讓渡哪些,以及在何種程度上讓渡屬於自己的權利,尤其是和個人自由、隱私相關的權利。

  在契約社會中,重要的是主體能夠平等自由地表達自己的意志,達成契約。人臉識別技術本身並不會阻礙社會主體表達自己的自由意志。但是人臉識別技術可能與個體身份信息緊緊相關,而隨着技術的發展,在主體身份信息完全可由數據追蹤後,主體可能會對錶達自由意志存在顧慮,也會進一步影響主體在訂立契約的過程中正常全面的表達出自己的訴求。這可能也會造成身份社會和契約社會的界限模糊,存在有悖於契約社會意思自治和平等的初衷。

  不論人臉識別技術最後將如何滲透到我們生活的方方面面,社會都需要時刻警醒:我們願意爲有效的社會控制和公共效率犧牲多少隱私和個人空間,這種犧牲的邊界何在?忽視倫理風險、輕率地推廣人工智能技術,必然帶來層出不窮的對平等權利的踐踏。

  應對以人臉識別爲代表的人工智能技術應用帶來的風險,當務之急是要求公共行政中應用人工智能技術必須通過倫理委員會的審查和公開聽證。否則,類似人臉識別的人工智能技術應用帶來的擔憂恐怕難以消失。

責編:高恆濤

相關文章