摘要:以人臉識別等技術爲重要支撐點的人工智能產業是中國經濟結構轉型升級的良好發展契機,中國牢牢抓住本輪科技革命的發展機遇,積極佈局,不應簡單粗暴一刀切限制適用範圍,可在法律監管等方面予以相應措施進行逐步規範.。應該說,舊金山是美國高科技企業匯聚的地區,是全球最頂尖AI技術的聚集區,照理說,這樣的城市更應該對高科技的應用持“樂觀”態度,他們的謹慎事實上給我們很多啓示,我們對科技的採用需要更綜合地進行多維度考量。

緊急叫停人臉識別和Libra,美國爲什麼怕了?緊急叫停人臉識別和Libra,美國爲什麼怕了?

最近美國頻頻爆出對新技術應用收緊的消息。先是在波士頓附近的薩默維爾市,議會於當地時間6月27日以11∶0的投票通過了禁止該市相關機構在公共場所使用面部識別技術,這是今年5月舊金山出臺法令禁止警察和其他政府機構使用人臉識別技術後,美國第二個禁止使用該技術的城市。緊接着7月2日下午,美國衆議院財政委員會向扎克伯格等Facebook高管致函,要求立刻停止數字貨幣/錢包項目Libra/Calibra的所有相關工作。美國對AI與區塊鏈等新技術的應用採取更爲審慎的態度,釋放什麼信息?

未來學家凱文·凱利在1994年所寫的圖書《失控》中這樣寫到:機械與生命體之間的重疊在一年年增加,人造物表現得越來越像生命體,生命體變得越來越工程化。“當生命的力量釋放到我們所創造的機器中的同時,我們也喪失了對它的控制。之後我們所有的造物主都必須面對我們不再完全擁有我們最得意的創造物。人造的世界就像天然的世界一樣,很快具有自治力、適應力和創造力,也隨着失去我們的控制。”凱文·凱利表示,人造世界失去控制,依然是個美妙的結局。

凱文·凱利寫的是書,書裏的世界失去控制,但如果說我們的創造物正脫離我們的控制,甚至顛覆我們的現實世界的時候,我們依然能夠說“這依然是美妙的結局”嗎?顯然不能。

就像美國衆議院財政委員會給Facebook高管的信函中所言:“Facebook發佈的白皮書對於Libra/Calibra項目的意圖、所扮演的角色、潛在用途和安全性方面提供的信息極少,暴露出了項目存在大規模風險並且缺乏明確的監管保護。如果這些產品和服務沒有得到充分監管,甚至受到不當管理,它會帶來危及美國和全球金融穩定的系統性風險,引發金融海嘯。”每一次金融海嘯、金融危機所引發的企業倒閉、經濟衰退、經濟蕭條,我們仍歷歷在目,我們不能夠因爲數字化推進的莽撞,而讓全球經濟陷入泥潭。

人臉識別技術尚不完全成熟,如果在不成熟的時候被濫用,同時又缺乏監管將會造成很大的風險。2018年7月,美國公民自由聯盟(ACLU)使用亞馬遜的Rekognition人臉識別產品將美國的國會535名議員與25000張警方公開的罪犯面部照片進行匹配,該軟件錯誤的將28名議員識別爲罪犯,這事曾引發了巨大的爭議。2018年6月福布斯網站對亞馬遜面部識別產品“Rekognition”進行了一次測試,證明了任何人都可以使用極其廉價工具來追蹤他人的行蹤。

應該說,舊金山是美國高科技企業匯聚的地區,是全球最頂尖AI技術的聚集區,照理說,這樣的城市更應該對高科技的應用持“樂觀”態度,他們的謹慎事實上給我們很多啓示,我們對科技的採用需要更綜合地進行多維度考量。如果風險大於獲益,我們應該放慢推進的速度,尋求更可控的方式推進。目前在美國不僅僅是舊金山和薩默維爾市,正在有越來越多的城市考慮將禁止使用人臉識別技術。在歐洲,歐洲人工智能高級別專家組(HLEG)也在不久前發佈報告,提議“歐洲應該禁止AI進行大規模監視和社會信用評分”。呼籲“政府應承諾只部署和採購值得信賴的人工智能系統,其設計宗旨是尊重法律和基本權利,符合倫理原則,社會技術健全。”

科技同樣存在兩面性。“當負責任地使用時,它可能是一個很好的公共安全工具。但如果人臉識別濫用、缺乏監督和技術的不成熟,就會造成很大的風險。”賽迪智庫產業政策研究所所長欒羣表示,人工智能與其他技術不一樣。

應用人工智能應謹慎,但不應該“一刀切”。賽迪顧問人工智能研究中心分析師李振表示,美國這兩個城市考慮限制人臉識別軟件的使用範圍,是考慮到該軟件對區域內居民個人隱私、種族歧視等問題的不良影響,這也是人工智能、物聯網以及大數據等產業發展本身所涉及的問題所在。但新技術應用在倫理、法律等方面需要不斷改進,不應簡單粗暴地限制其使用,尤其在安防領域,人臉識別技術具有較強的技術優勢,對維護社會穩定具有重要作用。以人臉識別等技術爲重要支撐點的人工智能產業是中國經濟結構轉型升級的良好發展契機,中國牢牢抓住本輪科技革命的發展機遇,積極佈局,不應簡單粗暴一刀切限制適用範圍,可在法律監管等方面予以相應措施進行逐步規範.

賽迪智庫政策法規所所長欒羣認爲,人工智能的治理日益成爲國際共識。美國人的權利和法律意識很強,以倫理的眼光看待人工智能和提出治理規範,歐盟卻走在了世界前列。2019年4月,歐盟發佈《可信人工智能倫理準則》,提出可信人工智能倫理的7個關鍵條件——人的能動性與監督能力、安全性、隱私數據管理、透明度、包容性、社會福祉和問責機制,以確保人工智能足夠安全可靠。與此同時,很多機構也發佈有關人工智能原則,如IEEE提出的《合倫理設計的一般人工智能準則》,日本也提出過《以人類爲中心的人工智能的社會原則》等,這些倫理準則表現出人類對人工智能技術發展的擔憂——要利用人工智能技術實現生產效率提高和社會進步,但這一切都要建立在對風險的瞭解和預防的基礎上。目前,中國正在積極融入人工智能全球治理體系,對於人工智能的治理,下一步中國應該實施國家規劃,凝聚倫理共識,擬定評價規則,履行社會責任,管好重點行業,讓所有主體行爲都在法治的軌道內運行。

緊急叫停人臉識別和Libra,美國爲什麼怕了?
相關文章