原标题:数据安全乱象频生 院士呼吁AI治理“标本兼顾”

本报记者 谭伦 北京报道 

“这个安全问题不是来自于你设计的考虑不周到,而是主要来源于算法本身的不安全性。”在8月3日北京举行的全球数字经济大会人工智能产业治理论坛上,中国科学院院士、清华大学人工智能研究院院长张钹表示,这是当下人工智能领域安全问题频发的根源所在。

《中国经营报》记者注意到,近日高频爆发的企业数据安全问题,已使官方层面密集出台行动决策,其中焦点领域之一便是目前内嵌于各大APP的智能算法。如中宣部等五部门联合日前印发的《关于加强新时代文艺评论工作的指导意见》便明确要求,健全完善基于大数据的评价方式,加强网络算法研究和引导,开展网络算法推荐综合治理,不给错误内容提供传播渠道。

张钹告诉记者,人工智能算法本身带来的不安全问题很难被预先发现或觉察,所以如果我们在使用过程中稍不注意便会产生无意识错用,从而造成非常严重的后果,为此,他认为技术创新是解决这一问题的良策之一。

除此之外,记者在本次论坛上注意到,人工智能领域的善治,还有赖于法规、伦理以及企业自身等诸多层面的因素,对此多位权威人士也均给出了相关建议。

源头出在自身

在张钹看来,与信息系统中安全风险常来自软件设计漏洞不同,目前引发人工智能算法安全风险的源头更多在于技术本身。“这是由于第二代人工智能技术本身所引起的,第一代人工智能技术并不存在这个问题。”张钹表示。

据记者了解,人工智能技术最早于1956年起步于国外,到目前为止已经历两代。第一代人工智能以知识驱动为特征,也被称作“符号主义”;第二代人工智能则以数据驱动为特征,即目前为人熟知的“大数据”“深度学习”。中国人工智能技术从1978年开始发展,此前以第一代人工智能技术为主,进展较小,近20年里进入第二代后才迅猛发展,但也同时带来此前未有的风险。

为此张钹提出了发展“第三代人工智能”的呼吁,后者具备知识、数据、算法和算力四大要素,既能最大化当前人工智能技术的效能,也能规避第二代技术自带的算法风险。

不过,创新之路并非坦途,张钹强调,发展第三代人工智能是一项非常长期的任务,人工智能安全和治理也是长期的任务。

“我们解决人工智能安全性问题必须两手抓:第一手抓治理,这个治理不是短期的任务,是长期的任务;第二手抓创新发展,这个创新发展要克服人工智能算法本身的不安全性,这也是一个长期的任务。我们虽然有两种途径去做,但这两种途径都非常困难。”张钹表示。

“治本”亦需“治标”

张钹在指出应从技术创新层面发力去“治本”的同时,也向记者表示,从法律法规、伦理规范、行业共识等不同层面去“治标”也同样重要。

中伦律师事务所合伙人陈际红对9月1日起即将施行的《中华人民共和国数据安全法》(以下简称“《数据安全法》”)进行了解读。在其看来,由于人工智能和社会的关系越来越密切,所以立法司法解释已经进入到隐私保护、数据安全、网络安全、公平竞争、消费者权益保护等各个层面。

由于人工智能的产业都离不开数据处理,因此《数据安全法》和人工智能发展密切相关。陈际红认为,该法在法律里建立起数据安全的标准化体系,设定一个数据安全的检测评估和认证的管理体制。“重要的还是数据分类分级的制度,重要数据和核心数据的清单和管理制度,预警处理机制和数据活动的国家安全审查,数据处理活动和国家安全密切相关,数据交易和数据的准入和监管,以及数据跨境流动的监管规则。”陈际红表示。

伦理规范层面,中国科学院自动化研究所研究员、联合国教科文组织人工智能伦理特设专家组专家曾毅认为,人工智能的治理并不存在“发展优先还是治理先行”的矛盾,人工智能稳健发展的两大前提是可持续发展和人工智能的善治,两者深度协同。

中国社科院科技哲学研究室主任、科学技术和社会研究中心主任段伟文则认为,数字技术与人工智能产业发展的伦理风险带来了诸多社会信任问题,面对既防患于未然也溯及既往的数字治理趋势,人工智能企业应直面社会许可的挑战,认真感知公众对科技企业的认知和评价。“人工智能企业不应回避社会监督,而是不断思考、重塑科技的社会印象,技术改进和伦理设计要齐头并进,携手走向共建性的人工智能伦理治理。”段伟文表示。

此外,在行业共识方面,记者注意到,本次大会推出了国内首个《人工智能产业担当宣言》,这一宣言由北京智源人工智能研究院、瑞莱智慧发起,联合百度、华为、蚂蚁集团等国内产业领军企业和机构进行发布。在发起仪式上,宣言成员代表表示,宣言将为积极探索国内人工智能治理的新路径提供有益经验。

相关文章