苹果新系统将主动扫描用户手机有无儿童色情内容
竹新社苹果的新iOS系统会主动扫描iPhone用户的手机相册里有无儿童色情图片,如果手机里的儿童色情图片数量达到一定值,苹果就会通知有关机构。尽管苹果的这套系统第一阶段只会在美国实行,但外界仍然担忧苹果是否会在某些国家利用这套系统甄别用户手机里是否存在涉嫌颠覆政府的图片、文字等。外界同时批评苹果公司平时标榜自己“尊重隐私”,把苹果设备的隐私性当作卖点,现在却又主动扫描用户手机。
扫描儿童色情图片的系统部件将会随着今年秋天iOS 15版本的更新,一并发布给用户。苹果解释道,执法机构以及保护儿童剥削的一些非盈利组织会维护一系列儿童色情文件的数据库。这种数据库会保存文件的“哈希值”(hash)。“哈希值”是一种单向的甄别码,即软件可以通过文件算出“哈希值”,但没法通过“哈希值”反推出文件。一般来说,这些儿童色情文件稍加修改,其“哈希值”就会变化,便不再能被系统识别出来了。但据路透社报道,苹果还将使用一种所谓“神经网络哈希”(NeuralHash)的机制,来识别出跟原图十分近似,只稍加修改过的儿童色情图片。苹果也说他们会同时使用包括“哈希”计算在内的密码学方案以及人工智能(AI)两种方法来识别儿童色情内容。
苹果说,只存储在iPhone本地的图片不会经过扫描,只有上传到iCloud Photos的照片才会。凡是将要上传到iCloud的文件,苹果会先使用本地下载好的儿童色情“哈希值”数据库比对,如果有命中,则会生成“安全凭证”(safety voucher),而这一“安全凭证”会随着图片一起上传到iCloud。通过另一个叫“阈值密钥分享”(threshold secret sharing)的技术,苹果的这套系统能够保证只有用户手机上的、命中了的儿童色情内容数量在相当多的情况下,系统才能解开“安全凭证”,看到结果。之后,会有人工审查命中的信息是否确属儿童色情内容。苹果认为,他们的这套系统可以同时兼顾用户隐私和保护儿童。
苹果跟各国司法机构之间经常因为保护用户隐私陷入争执。分析认为,苹果引入这一检测儿童色情内容的机制,是苹果的妥协。美国执法机构曾屡次要求苹果解锁恐怖分子等罪犯的手机,但因加密技术限制,苹果无法做到。作为妥协之一,苹果并没有对备份到iCloud上的手机内容做加密,以应执法机构之需。执法机构也批评各类加密系统、聊天软件等为传播儿童色情和策划恐怖袭击提供了渠道。
美国“全国失踪和受剥削儿童保护中心”主席在声明里写道,“苹果把他们的保护扩展到儿童身上改变了局势。他们证明了保护隐私和保护儿童可以同时共存。”苹果使用的儿童色情信息数据库的来源就是美国的这一中心,如果检测到了大量儿童色情内容,也是这个中心来处理。该中心的数据库里收集了二十多万张儿童色情图片。
跟着扫描相册的功能一起,苹果还会对通过手机彩信和iMessage功能收到的儿童色情图片打马赛克并发出警告,同时如果用户配置了家长监护功能,苹果还会警告家长。苹果的iMessage短信聊天系统使用了“端到端加密”技术,技术上苹果无法看到聊天内容,但因为有数据库在本地,苹果可以比对聊天中收到的图片。
美国约翰斯·霍普金斯大学副教授马修·格林表示,看到苹果能给聊天软件加上屏蔽儿童色情内容的功能,各国政府肯定也会想要让苹果在手机里增加监视用户的组件。格林教授说:“现在苹果已经示范了他们能搞一套能跟iMessage聊天协同工作、目的明确的监视系统出来。我就很想知道他们能在中国政府面前坚持多久?”
英国萨里大学的计算机安全教授艾伦·伍德沃德认为,苹果的这套系统的侵入性并不大,因为其扫描是在用户手机本地上进行的,且只有当命中时,苹果的系统才会收到提示。伍德沃德教授认为,如果非要去检查用户的手机有无儿童色情内容,这种去中心化的办法是所有办法里几乎最好的。
保护数字权利的电子前哨基金会(EFF)发声明反对。声明写道:“对于苹果提出的后门,他们能长篇大论一番这后门能如何地保护隐私、如何地保护安全,但说到头来,后门就是后门,无论这后门的技术文档写得多详细、构思得有多紧密、适用范围有多狭窄。”
《华尔街日报》报道说,iPhone的数据安全已经不再是以往的铜墙铁壁。包括近期曝光的以色列黑客软件都能找到从iPhone里获取数据的方法。另外,苹果、Facebook等公司在用户信息安全、加密等领域的举措也遭到美国政府的批评。美国司法部总检察长威廉·巴尔在2019年就Facebook公司旗下聊天软件使用的加密方式难以解密一事,评论“在人民生命和儿童的安全遭受威胁时,这些公司不能肆无忌惮地运作。”