原標題:信息泄露、數據殺熟、算法歧視——人工智能等新技術來了,委員強調風險前置

“人工智能是引領這一輪科技革命和產業變革的引領性技術”已成共識。然而隨着人工智能技術發展,信息泄露、大數據殺熟、算法歧視和數字鴻溝等問題也隨之而來。

“整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。”上海政協會場內,不少委員紛紛建議,上海作爲全國人工智能發展高地,應加強人工智能治理工作,防範人工智能可能帶來的風險,使這一技術更好服務於經濟社會發展。

市政協委員、普華永道亞太及中國主席趙柏基發現,隨着人工智能技術發展,個人信息保護、數據安全、新興科技風險等問題日益突出,由線下治理向線上治理轉型的挑戰也愈發嚴峻。他以疫情期間廣泛應用的健康碼爲例:“各地政府和機構出於疫情防控需要搭建了各式各樣的健康碼平臺,各平臺都收集了大量個人信息,但信息安全保護力度是否足夠?疫情之後,這些個人隱私和敏感信息是否能不被泄露,以及不被用作非法商業營銷或其他用途?這些都值得提前考慮。”

他還表示,數據作爲生產要素的地位越來越重要,但全球各個國家和地區在加強本國、本地區數據保護力度的同時,也在國際間豎起一道數字壁壘,“全球範圍的數據跨境流動機制尚未形成共識,國際間數字信任缺失,對跨國機構的運作形成了嚴峻的合規挑戰。”

隨着人工智能、5G技術、數字貨幣、自動駕駛、生物識別等新技術新應用“落地”場景增多,新型風險也逐漸顯現。趙柏基以數字人民幣爲例,認爲“應充分評估其潛在風險”,如大規模應用的穩定性、保障用戶隱私、保護離線交易安全、防範假冒數字錢包、確保弱勢羣體的無障礙使用等。“這些需要前置考慮的風險,要做到萬無一失。”

據悉,去年我國互聯網法制進程持續加快,《數據安全法(草案)》填補了國內整體數據安全治理的空白,《個人信息保護法(草案)》《全球數據安全倡議》和最新簽署的《區域全面經濟夥伴關係協定》(RCEP)等都在不斷夯實信息安全。

趙柏基建議,在此基礎上上儘快出臺個人信息保護相關的配套細則,爲相關法案的落地提供可操作的執行標準。上海相關部門可以組織各行業開展調研,收集不同行業對個人信息保護的可執行標準反饋,對個人信息收集處理量巨大的重點行業率先進行試點評估。

九三學社上海市委也在集體提案《關於加強本市人工智能治理工作的建議》中建議,對個人信息過度採集、數據泄露和濫用、知情同意落實不到位等問題開展治理,違法企業承擔法律責任。委員們認爲,對隱私信息採集應區分“戰時”和“平時”,堅持“最小夠用”原則:例如“健康碼”採集信息如果疫情後在其他領域使用,必須嚴控制範圍和條件。

此外,九三學社上海市委還建議嚴格限定人臉、指紋、虹膜等個人生物特徵的採集權限、使用範圍和應用條件,“除用於國家安全、公共安全外,其他領域未經許可不得擅自採集和使用。”

作爲人工智能發展高地,九三學社上海市委建議上海可以在人臉識別、自動駕駛、服務機器人以及醫療、教育等重點領域率先開展地方立法:“在法律對人工智能創造的知識產權保護、侵權責任認定等規定進行修訂或解釋前,本市探索在司法和執法統一標準,爲國家層面修法積累經驗。”

“數字化轉型是一個複雜的系統工程,大量新技術新應用所帶來的協同效應,能釋放巨大的社會生產力,潛在的顛覆性、系統性風險也需要主動管控。” 趙柏基建議,對人工智能、5G、數字貨幣、自動駕駛、生物識別等新技術開展系統性安全研究,形成可落地、可審計的安全標準,並對關鍵落地應用開展安全評估形成行業准入標準:“上海正在加快打造國內大循環的中心節點和國內國際雙循環的戰略鏈接,個人信息保護和數字信任不僅事關每一個公民的切身利益,也將是上海這座具有世界影響力的現代化國際大都市展現其治理能力和文明價值的一個力證。”

相關文章