原標題:解救“困在系統裏”的騎手

中國人工智能發展的願景應該以生態爲中心,真正達到善治,實現技術的發展與人類、環境和諧共生。

新京報記者 張璐 編輯 張磊 校對 盧茜

2021全球數字經濟大會人工智能產業治理論壇8月3日舉行,首個《人工智能產業擔當宣言》正式發佈,倡議人工智能企業設立倫理研究員崗位或通過外部技術支持等方式,加強企業自律自治。

近年來,人工智能被誤用、被濫用的問題引發輿論關注。此次《宣言》由北京智源人工智能研究院和瑞萊智慧共同發起,提出中國科技企業在推動人工智能自律自治、穩健發展中應積極承擔的責任。在技術能力方面,要最大限度確保人工智能系統安全可信,增強算法透明性和可解釋性,對用戶數據提供充分的安全保障。

中國科學院自動化研究所研究員、國家新一代人工智能治理專委會委員曾毅在論壇上表示, 中國人工智能發展的願景應該以生態爲中心,真正達到善治,實現技術的發展與人類、環境和諧共生。針對生物特徵識別潛在風險、用戶隱私保護等人工智能治理的熱點話題,他接受了新京報記者專訪。

其他類型生物特徵識別潛在風險也需要關注

新京報:目前人工智能企業對人工智能治理的態度如何?此前媒體報道過大數據“殺熟”、外賣員困在系統裏等問題,如果破解算法被誤用的問題?

曾毅:近幾年,全球人工智能倫理規範以及我國新一代人工智能治理原則形成發佈後,企業越來越意識到人工智能技術風險、社會倫理風險帶來的實際問題,以及這些問題給企業帶來的負面口碑和影響。

但我並不認爲相關企業已經最大化避免了可能存在的風險,諸如大數據“殺熟”、騎手困在系統當中等問題,企業並非提前全然不瞭解,但面臨企業的生存壓力和同行競爭等外部壓力,他們做出了有違道德價值觀的選擇,這種選擇傾向了短期利益,忽略長期對社會和企業的負面影響,是得不償失的。

所以學術界、政府、媒體應當與企業協同,做出真正對社會負責任的人工智能設計、研發、部署和服務,通過多方共治實現人工智能的穩健發展。

另外一個需要注意的問題是,一些企業將參與人工智能倫理、治理作爲自己公關宣傳的手段,但真正提供人工智能產品服務時,對於倫理風險有時避而不談甚至是視而不見。

新京報:最近最高法發佈司法解釋,規範人臉識別應用。在AI換臉等技術盛行的今天,還有哪些問題值得關注?

曾毅:現在一些應用在人臉識別過程中,爲了判斷採集到的是活體,而不是一張照片在被識別,採集範圍已經超過人臉,可能上半身相關數據都會被採集,但這些沒有合理地告知用戶。

用戶看到手機屏幕有一個圈圈住人臉,會有一種誤解,認爲其他部分沒有被採集。所以有些人赤裸上半身,有些女性穿得少一點也不會在意。一方面,採集超過人臉的信息必須做好用戶的知情同意。另外,我認爲,採集人臉以外的上半身信息作爲確定活體依據的技術手段,需要逐步被替代。

此次最高法頒佈的司法解釋,限制的不僅僅是人臉識別技術,包括以人臉識別技術爲核心的人臉生成技術,即對AI換臉也是適用的,並進行了限制。其實,我們的個人信息不僅是人臉,步態識別、指紋識別、聲紋識別、遠距離虹膜識別等生物特徵識別技術,在技術和倫理方面的風險跟人臉識別有十分相近的共性,比如侵犯隱私、對於不同性別識別準確率存在差異等。

AI的創新性企業、研究機構應該共同負起責任,針對可能存在的技術和倫理問題,提前最小化或者消除其風險,而不是像人臉識別一樣,等到公衆關注討論多了,再去解決問題。這就是“自律自治”和“主動擔責”。

可持續發展的人工智能需關注

公益議題,不能只顧短期收益

新京報:在應用人工智能過程中,做好隱私保護還存在哪些難點?如何破解?

曾毅:舉例來說,對目前人工智能產業當中廣泛採用的深度神經網絡而言,直接刪除用戶數據會對模型準確率產生影響,若想消除這種影響,技術上還存在巨大瓶頸。

但也有一些問題已經存在技術解決方案。比如人臉識別、步態識別等,可能存在隱私侵犯、性別偏見等問題,可以通過構建更合理、更公平的技術模型,縮小差異,但注意這些問題的企業還是少數。

新京報:人工智能倫理研究是否需要跨學科的專家組成?都涉及哪些相關專業?

曾毅:在兩年前,絕大多數技術人員是不太關注人工智能倫理和治理的。如今,基於互聯網的人工智能從設計研發到產品服務週期縮短,沒有經過任何社會學、倫理學和哲學訓練的理工科學生,想了一個創新主意,開發完系統第二天就可以上線,它可能產生的負面影響也將隨即發生。

2018年開始,我們在中國科學院大學開設了《人工智能哲學與倫理》的課程。課堂上,學習人文科學的學生談論更多的是技術會給社會帶來什麼問題,技術創新者更關注技術可能爲社會帶來的改變。當這些不同視角的辯論升級時,就會使我們意識到人工智能的潛在問題。

構建負責任的人工智能,需要廣泛學科背景的專家來參與討論,涉及社會學、哲學、倫理學、法學、人類學等,有工程技術背景的人工智能專家特別要參與其中。政府和媒體也毋庸置疑要發揮監督、宣傳的作用,實現多方共治。

新京報:你提到人工智能發展的可持續性,如何理解和做到可持續?

曾毅:我們分析了計算機科學和人工智能領域發表的英文文獻,發現800萬篇人工智能和計算機科學相關的論文中,只有0.1%是真正跟可持續發展目標高度關聯的,這是一個非常可悲的指標。

目前很多人工智能應用於健康、教育,但是它也可能給健康和教育帶來負面影響,所以應該同步關注產生的負面影響,比如用人工智能分析學生在課堂的表情,引發了關於隱私的討論。

大多數應用偏向於教育、健康,是因爲這兩個領域機遇多、能賺錢。如果人工智能的創新目標就是賺錢,那麼很多可持續發展目標無法通過人工智能賦能來實現。

我特別倡議,人工智能應該特別關注野生動物保護、消除飢餓、賦能文化交互、環境保護和氣候行動這類議題。僅僅有企業的參與是不夠的,學術界、政府在這些更長遠的議題上應當發揮持續性的主導作用。

相關文章