人臉識別技術濫用亟需法律規範


  法治週末記者 張貴志

  近年,人臉識別技術給人們的生活帶來了極大的便利,在失蹤搜救、安保、偵破、反恐等領域也發揮了積極作用。但與此同時,其也引發了公衆對人臉識別侵犯隱私、泄露個人信息的擔憂。

  在此背景下,12月5日,在南方都市報大數據研究院·南都個人信息保護研究中心主辦的“2019啄木鳥數據治理論壇”上,南都個人信息保護研究中心人工智能倫理課題組發佈了《人臉識別落地場景觀察報告(2019年)》(以下簡稱《報告》)。課題組研究發現,人臉識別應用無論是在便利性還是安全性的提升上,都遠非想象中那般美好。在個人信息泄露頻發的態勢下,超七成的民衆對網絡運營者的安全保障能力存有疑問,擔心人臉信息遭泄露。

  對此,《報告》呼籲,應儘快加強相關立法,爲企業劃定標準和底線,防範人臉識別技術被濫用。

  APP專項治理工作組副組長、個人信息安全規範編制組組長洪延青建議,將人臉識別的應用場景納入現有的法律框架加以規制。

  人臉識別技術有待完善

  人工智能應用落地,最典型的當屬人臉識別了。近兩年來,一些火車站、酒店、部分小區、學校,甚至購物支付等都靠刷臉了,而且發展迅猛。1月,北京市住建委發出通知,納入北京市保障房建設計劃的公租房項目,全面採用人臉識別、智能門鎖技術。

  但是,課題組研究人員對北京3個公租房小區實地探訪後發現,部分小區的人臉識別設備形同虛設。主要爲刷臉不成功時,保安不覈實身份即放行;有的是人臉識別閘機損壞,可以自由出入;其中有兩個小區的門禁,不用刷臉,只需用一張並非高清晰的業主照片,就可以刷照片進去。這意味着,隨便偷拍一張業主的遠距離照片便可輕鬆進入小區。

  而在之前,浙江嘉興就發生過小學生用照片刷開豐巢快遞櫃,併成功取件的事情。據瞭解,人臉識別技術分爲2D和3D識別技術。一般而言,3D技術的安全性高,但成本也高。而用照片能刷開的,基本都是2D人臉識別設備和普通攝像頭。

  如果有人戴帽子、戴墨鏡、距離攝像頭過近或過遠,在過門禁或閘機時,會多次刷臉或摘掉帽子、眼鏡纔行,這樣會耽誤更長時間。

  除此之外,人臉識別系統有時還會出現識別錯誤。在深圳,一公交車闖紅燈,因爲車身上印有董明珠的圖片,人臉識別系統在抓拍時,直接識別爲董明珠闖紅燈。

  “當一名男性佩戴上3D打印的奇特眼鏡,人工智能也可能會將其識別成一名女性。”中國電子技術標準化研究院信息安全研究中心數據安全部主任胡影介紹,如在交通標識“停止”牌上貼一些標籤,人工智能可能就識別不出“停止”的意思。

  對此,《報告》指出,有半數以上的受訪者遇到過人臉識別不出的問題,而帽子、眼鏡、化妝、光線、角度等因素都會影響人臉識別的準確率,這需要進一步完善和提升人臉識別的準確率和靈敏度。

  不同場景需不同法律規制

  人臉識別在公共場所悄然落地,大多數人被刷臉、被記錄行蹤,卻毫不知情。課題組的研究員在裝有人臉識別系統的北京秀水街商城、西單大悅城、杭州銀泰in77商場調查時發現,這些商場即便對顧客進行了刷臉,並跟蹤記錄消費軌跡,但沒一家商場告知顧客並徵得其同意,顧客亦不知道自己被刷臉、行蹤被記錄。

  而《報告》當中的數據顯示,在公租房、交通、校園、商場等場景下,都各有半數以上的受訪者表示,沒有簽署隱私政策或不清楚是否簽訂了隱私政策。這意味着,一旦發生信息泄露,用戶難以要求網絡運營者提供合理的處置或救濟措施。

  一般而言,網絡運營者會在隱私政策中明確其收集的個人信息類型、範圍、約束和管理準則、安全措施等,這相當於爲用戶提供了一份承諾和保障。然而,人臉識別應用涉及線上線下。技術先行、法律滯後,給其帶來了監管的灰色地帶。

  除了各大商場、酒店、車站、學校、小區等地落地人臉識別外,前段時間,天壇公園、日壇公園等地的廁所,還出現了人臉識別廁紙機。人臉識別廁紙機品牌創始人雷振山稱,推出該產品的初衷是減少資源浪費,且這僅用於統計每人取廁紙的數據。

  但課題組的研究員在實測中發現,許多場景的人臉識別設備沒有提供隱私政策或用戶協議,公衆無法在知情同意的前提下使用。以廁紙機爲例,研究員進入攝像頭範圍後就被刷臉,關於人臉數據怎樣存儲、是否能刪等關鍵問題,沒有進行任何說明。

  環球律師事務所律師孟潔表示,人臉作爲重要的個人生物信息,用來換取免費紙張,存在價值比例失衡問題。企業在獲取人臉信息前應得到用戶的自願和同意。除了刷臉領廁紙一種方法外,還應有其他替代方式。

  洪延青則指出,使用人臉識別如果只是爲了區分不同的人、達到計數的目的,那麼,需不需要用到人臉這麼一個特徵?法律上有個比例的基本原則,刷臉領廁紙存在價值比例失衡問題,這種應用可以禁止。

  洪延青繼而提出,如果公權力部門推行人臉識別,該如何做呢?美國很多城市完全禁止公權力部門應用人臉識別技術,禁止的出發點就是正當性和比例性不足,而非個人信息保護框架。因此,討論一個技術要看用在什麼場景,不同的場景可以找到不同的法律框架去規範,而無需在每個場景重新立法去規範。 洪延青建議將人臉識別的應用場景分爲計數、識別、認證、監控、僞造、窺探六大類,並將其分別納入現有的法律框架加以規制。

  他告訴記者,對於認證、識別場景,可以適用個人信息保護中的“知情-同意”和個人敏感信息的框架予以規制;至於監控場景,本就屬於“識別+追蹤”;在新零售等企業監控場景中,用戶可以用“知情-同意”這樣的經典框架來拒絕或者對抗。

  “未來的人臉識別應用將會有許多新場景,但基本上都是出於上述的六類基礎場景。”洪延青說,現有對人臉識別的多數討論並沒有區分場景,在區分場景後,“就不需要在每個場景中都重新發明一套法律去規範”。

  人臉識別用於學生引爭議

  人臉識別應用必將涉及個人信息收集,校區場景還可能涉及未成年人。鑑於涉隱私話題總能觸及公衆痛點,社會上對人臉識別的爭議頗多。

  8月,瑞典一所高中使用人臉識別系統記錄學生出勤率,被瑞典數據監管機構認定對學生個人信息處理不符合規定,對其開出歐盟《通用數據保護條例》施行後的第一張罰單,金額爲20萬瑞典克朗(約合人民幣14.8萬元)。

  而國內學校應用人臉識別的例子也不少。《報告》顯示,9月,中國藥科大學在部分教室安裝人臉人別系統,用於日常考勤和課堂紀律管理,也在社會上引發了“是否侵犯學生隱私”的爭議。

  課題組研究人員走訪發現,有不少培訓機構和學校利用人臉識別刷門禁、監測學生和教師的上課情況,有的還進行情緒識別和行爲分析等。

  在北京市第二十中學,當學生刷臉出入大門時,後臺系統就將學生出入校門的時間發到家長手機上。另外,學生還能通過刷臉,在食堂取餐,在小賣部購物。

  北京化工大學昌平校區則是通過人臉識系統檢測學生的出勤率。如某學生上課缺席,則會發信息提醒老師和該學生。此外,該系統還能檢測抬頭率、前排就座率。

  有學生認爲,引入人臉識別有助於督促學生好好學習,但更多學生認爲侵犯了自己的隱私。

  另外值得注意的是,一類此前曾引發爭議的校園應用——情緒識別,也已在現實中悄悄蔓延。

  9月,國內某知名人臉識別企業宣傳稱,公司已掌握情緒識別技術,通過攝像頭抓拍就能獲悉學生的聽課感受。該消息一出,就遭到了社會的強烈質疑。

  專家從技術層面上看,面部的情緒識別更多是“噱頭”。深圳大學計算機視覺研究所所長沈琳琳表示,目前通過人臉識別判斷情緒的技術尚不成熟,準確率不高。而通過行爲識別分析抬頭率、坐姿和視線集中等還是有較高的準確率,但如果這些數據是用來衡量學生的成績和表現,將學生當成流水線上的產品,可能會影響學生的個性化和創新性。

  中國人民大學法學院副教授丁曉東認爲,人臉識別可以在某些安全場景中合理運用,但如果過度使用和依賴人臉識別,特別是讓其承擔教育與監督功能,則可能適得其反。

  《報告》認爲,人臉識別就像一把雙刃劍,在某些場景中甚至弊大於利。要通過制定法律法規和國家標準,明確企業的從業資質與行爲規範;在較爲敏感的場景,應限制乃至禁止人臉識別的應用,同時制定完善的准入機制、規制措施與問責制度,從而最大程度地防範人臉識別技術的濫用。

  責編:高恆濤

相關文章