原标题:信息泄露、数据杀熟、算法歧视——人工智能等新技术来了,委员强调风险前置

“人工智能是引领这一轮科技革命和产业变革的引领性技术”已成共识。然而随着人工智能技术发展,信息泄露、大数据杀熟、算法歧视和数字鸿沟等问题也随之而来。

“整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”上海政协会场内,不少委员纷纷建议,上海作为全国人工智能发展高地,应加强人工智能治理工作,防范人工智能可能带来的风险,使这一技术更好服务于经济社会发展。

市政协委员、普华永道亚太及中国主席赵柏基发现,随着人工智能技术发展,个人信息保护、数据安全、新兴科技风险等问题日益突出,由线下治理向线上治理转型的挑战也愈发严峻。他以疫情期间广泛应用的健康码为例:“各地政府和机构出于疫情防控需要搭建了各式各样的健康码平台,各平台都收集了大量个人信息,但信息安全保护力度是否足够?疫情之后,这些个人隐私和敏感信息是否能不被泄露,以及不被用作非法商业营销或其他用途?这些都值得提前考虑。”

他还表示,数据作为生产要素的地位越来越重要,但全球各个国家和地区在加强本国、本地区数据保护力度的同时,也在国际间竖起一道数字壁垒,“全球范围的数据跨境流动机制尚未形成共识,国际间数字信任缺失,对跨国机构的运作形成了严峻的合规挑战。”

随着人工智能、5G技术、数字货币、自动驾驶、生物识别等新技术新应用“落地”场景增多,新型风险也逐渐显现。赵柏基以数字人民币为例,认为“应充分评估其潜在风险”,如大规模应用的稳定性、保障用户隐私、保护离线交易安全、防范假冒数字钱包、确保弱势群体的无障碍使用等。“这些需要前置考虑的风险,要做到万无一失。”

据悉,去年我国互联网法制进程持续加快,《数据安全法(草案)》填补了国内整体数据安全治理的空白,《个人信息保护法(草案)》《全球数据安全倡议》和最新签署的《区域全面经济伙伴关系协定》(RCEP)等都在不断夯实信息安全。

赵柏基建议,在此基础上上尽快出台个人信息保护相关的配套细则,为相关法案的落地提供可操作的执行标准。上海相关部门可以组织各行业开展调研,收集不同行业对个人信息保护的可执行标准反馈,对个人信息收集处理量巨大的重点行业率先进行试点评估。

九三学社上海市委也在集体提案《关于加强本市人工智能治理工作的建议》中建议,对个人信息过度采集、数据泄露和滥用、知情同意落实不到位等问题开展治理,违法企业承担法律责任。委员们认为,对隐私信息采集应区分“战时”和“平时”,坚持“最小够用”原则:例如“健康码”采集信息如果疫情后在其他领域使用,必须严控制范围和条件。

此外,九三学社上海市委还建议严格限定人脸、指纹、虹膜等个人生物特征的采集权限、使用范围和应用条件,“除用于国家安全、公共安全外,其他领域未经许可不得擅自采集和使用。”

作为人工智能发展高地,九三学社上海市委建议上海可以在人脸识别、自动驾驶、服务机器人以及医疗、教育等重点领域率先开展地方立法:“在法律对人工智能创造的知识产权保护、侵权责任认定等规定进行修订或解释前,本市探索在司法和执法统一标准,为国家层面修法积累经验。”

“数字化转型是一个复杂的系统工程,大量新技术新应用所带来的协同效应,能释放巨大的社会生产力,潜在的颠覆性、系统性风险也需要主动管控。” 赵柏基建议,对人工智能、5G、数字货币、自动驾驶、生物识别等新技术开展系统性安全研究,形成可落地、可审计的安全标准,并对关键落地应用开展安全评估形成行业准入标准:“上海正在加快打造国内大循环的中心节点和国内国际双循环的战略链接,个人信息保护和数字信任不仅事关每一个公民的切身利益,也将是上海这座具有世界影响力的现代化国际大都市展现其治理能力和文明价值的一个力证。”

相关文章