原標題:數據安全亂象頻生 院士呼籲AI治理“標本兼顧”

本報記者 譚倫 北京報道 

“這個安全問題不是來自於你設計的考慮不周到,而是主要來源於算法本身的不安全性。”在8月3日北京舉行的全球數字經濟大會人工智能產業治理論壇上,中國科學院院士、清華大學人工智能研究院院長張鈸表示,這是當下人工智能領域安全問題頻發的根源所在。

《中國經營報》記者注意到,近日高頻爆發的企業數據安全問題,已使官方層面密集出臺行動決策,其中焦點領域之一便是目前內嵌於各大APP的智能算法。如中宣部等五部門聯合日前印發的《關於加強新時代文藝評論工作的指導意見》便明確要求,健全完善基於大數據的評價方式,加強網絡算法研究和引導,開展網絡算法推薦綜合治理,不給錯誤內容提供傳播渠道。

張鈸告訴記者,人工智能算法本身帶來的不安全問題很難被預先發現或覺察,所以如果我們在使用過程中稍不注意便會產生無意識錯用,從而造成非常嚴重的後果,爲此,他認爲技術創新是解決這一問題的良策之一。

除此之外,記者在本次論壇上注意到,人工智能領域的善治,還有賴於法規、倫理以及企業自身等諸多層面的因素,對此多位權威人士也均給出了相關建議。

源頭出在自身

在張鈸看來,與信息系統中安全風險常來自軟件設計漏洞不同,目前引發人工智能算法安全風險的源頭更多在於技術本身。“這是由於第二代人工智能技術本身所引起的,第一代人工智能技術並不存在這個問題。”張鈸表示。

據記者瞭解,人工智能技術最早於1956年起步於國外,到目前爲止已經歷兩代。第一代人工智能以知識驅動爲特徵,也被稱作“符號主義”;第二代人工智能則以數據驅動爲特徵,即目前爲人熟知的“大數據”“深度學習”。中國人工智能技術從1978年開始發展,此前以第一代人工智能技術爲主,進展較小,近20年裏進入第二代後才迅猛發展,但也同時帶來此前未有的風險。

爲此張鈸提出了發展“第三代人工智能”的呼籲,後者具備知識、數據、算法和算力四大要素,既能最大化當前人工智能技術的效能,也能規避第二代技術自帶的算法風險。

不過,創新之路並非坦途,張鈸強調,發展第三代人工智能是一項非常長期的任務,人工智能安全和治理也是長期的任務。

“我們解決人工智能安全性問題必須兩手抓:第一手抓治理,這個治理不是短期的任務,是長期的任務;第二手抓創新發展,這個創新發展要克服人工智能算法本身的不安全性,這也是一個長期的任務。我們雖然有兩種途徑去做,但這兩種途徑都非常困難。”張鈸表示。

“治本”亦需“治標”

張鈸在指出應從技術創新層面發力去“治本”的同時,也向記者表示,從法律法規、倫理規範、行業共識等不同層面去“治標”也同樣重要。

中倫律師事務所合夥人陳際紅對9月1日起即將施行的《中華人民共和國數據安全法》(以下簡稱“《數據安全法》”)進行了解讀。在其看來,由於人工智能和社會的關係越來越密切,所以立法司法解釋已經進入到隱私保護、數據安全、網絡安全、公平競爭、消費者權益保護等各個層面。

由於人工智能的產業都離不開數據處理,因此《數據安全法》和人工智能發展密切相關。陳際紅認爲,該法在法律裏建立起數據安全的標準化體系,設定一個數據安全的檢測評估和認證的管理體制。“重要的還是數據分類分級的制度,重要數據和核心數據的清單和管理制度,預警處理機制和數據活動的國家安全審查,數據處理活動和國家安全密切相關,數據交易和數據的准入和監管,以及數據跨境流動的監管規則。”陳際紅表示。

倫理規範層面,中國科學院自動化研究所研究員、聯合國教科文組織人工智能倫理特設專家組專家曾毅認爲,人工智能的治理並不存在“發展優先還是治理先行”的矛盾,人工智能穩健發展的兩大前提是可持續發展和人工智能的善治,兩者深度協同。

中國社科院科技哲學研究室主任、科學技術和社會研究中心主任段偉文則認爲,數字技術與人工智能產業發展的倫理風險帶來了諸多社會信任問題,面對既防患於未然也溯及既往的數字治理趨勢,人工智能企業應直面社會許可的挑戰,認真感知公衆對科技企業的認知和評價。“人工智能企業不應迴避社會監督,而是不斷思考、重塑科技的社會印象,技術改進和倫理設計要齊頭並進,攜手走向共建性的人工智能倫理治理。”段偉文表示。

此外,在行業共識方面,記者注意到,本次大會推出了國內首個《人工智能產業擔當宣言》,這一宣言由北京智源人工智能研究院、瑞萊智慧發起,聯合百度、華爲、螞蟻集團等國內產業領軍企業和機構進行發佈。在發起儀式上,宣言成員代表表示,宣言將爲積極探索國內人工智能治理的新路徑提供有益經驗。

相關文章