为打击儿童性虐待犯罪,苹果公司宣布将对用户设备扫描审核

记者/张雅婷 实习生/张晓凤

日前,苹果官网发布“扩大对儿童的保护措施”声明,表示将改进早些时间发布的儿童安全功能,并称用户、民间团体与研究人员的激烈反对是其决定改进该功能的主要因素。

苹果曾在8月宣布,将在iOS 15中添加新功能,用于检测存储在iCloud照片中的儿童性虐待图片,同时防止儿童收发色情图片。

儿童保护与隐私安全问题陷入两难境地。尽管此后苹果多次为保护用户隐私发声,此举仍遭到众多隐私保护人士的反对。

多方反对下新功能或将推迟

在苹果更新的声明中,并没有说明儿童安全功能是否会推迟或取消,也未公布具体的推行时间。但就当前舆论来看,按原计划与iOS 15一起推出的可能性并不大。

苹果8月曾宣布,这项新工具将在用户图片上传到苹果的iCloud之前对其进行扫描,并将图片与儿童虐待图片数据库(CSAM)进行比对。与CSAM库中内容高度相同的图片将被标记为违规,违规图片超过一定数量后,该账户将被禁用。

其次,苹果将在iMessage应用程序中添加新工具,自动识别色情图片,以在接收或发送色情照片时警告儿童及其父母。

尽管苹果发布新功能的初衷是为了打击针对儿童的犯罪,但不少人士认为,苹果该举措无益于隐私保护。

一份抵制该系统的联名信被刊发在网络平台Github上,已有超过9000人签字,其中不乏科技领域的专业人士与著名隐私保护人士。与苹果存在竞争关系或是曾对其提起诉讼的公司——Facebook旗下子公司WhatsApp的负责人以及Epic Games CEO同样表达了反对的声音。

“我们不能确定苹果公司会一直抵制政府对iPhone进行扫描,以获取其他材料的要求,”美国公民自由联盟的技术人员丹尼尔·卡恩·吉尔莫(Daniel Kahn Gillmor)表示。“对所有iPhone用户来说,这些变化会让我们的隐私保护明显恶化。”

对此,苹果公司曾发布《“扩大对儿童的保护措施”常见问题(FAQ)》的声明,再次重申隐私保护,希望减少外界对此功能的疑虑。苹果高管同样发声否认削弱隐私开“后门”的说法,但争议声并未因此减少。

儿童保护与隐私安全两难全

对于苹果的此次声明,许多儿童保护组织不免感到沮丧和失望。

英国慈善机构全国防止虐待儿童协会(NSPCC)儿童安全在线政策负责人安迪·巴罗斯(Andy Burrows)表示,此举“令人非常失望”,并认为苹果“应该坚持自己的立场”。

向苹果提供CSAM图像的美国国家失踪和受虐儿童中心(NCMEC)公开表示,苹果的这一决定令人失望,并“希望在未来的几个月里,苹果保护儿童的新年不会动摇”。

约翰·霍普金斯大学(Johns Hopkins University)的密码学研究员马修·格林(Matthew Green)曾警告称,该系统的设计缺陷可能会被用来诬蔑无辜用户。

据苹果公布的官方介绍,该功能会将NCMEC提供的CSAM 数据库和用户图像分别转换成 NeuralHash哈希值,然后对比这些哈希值是否相同。苹果表示,即便一张图片被轻微裁剪、压缩或转换成黑白风格,图像的 NeuralHash哈希值也不会改变。

马修·格林认为,两张完全不一样的照片,哈希值也有可能完全相同,而别有用心的用户有可能人为制造出一张与CSAM图片哈希值相同,但内容完全不同的图片,用以触发苹果的警报系统。随后其他用户上传了具体的理论方法,证明通过逆向推算,可以让两张不同的图片呈现同样的哈希值。马修·格林提到,苹果也有可能为每个用户使用不同的CSAM数据集,并通过此举对某些用户采取更严格的审查。

在苹果推迟该计划后,马修·格林表示这是正确之举并建议所有企业“在做出威胁到每个人隐私的重大改变之前,先与技术、政策团体以及公众进行沟通”。

并非所有反对者都对苹果的退让感到满意。电子前沿基金会(Electronic Frontiers Foundation)是该功能最强烈的批评者之一,该公司执行董事辛迪·科恩(Cindy Cohn)在对英国广播公司(BBC)的采访中表示苹果的改进远远不够。“苹果必须放弃该计划。我们要求苹果继续保护用户的照片和短信,信守自己的承诺,为用户提供真正的隐私。”

相关文章