在你的手机或任何其他设备上拥有儿童色情或儿童性虐待材料(CSAM)不仅是道德错误,也是犯罪。在这种情况下,苹果想要清除其云服务iCloud Photo的CSAM是可以理解的。
今年8月,该公司宣布将在“今年晚些时候”通过软件更新,在每一部iPhone和iPad上安装一套儿童安全功能系统。如果CSAM材料的某个阈值被标记,用户帐户将自动被暂停,用户将向国家失踪和受剥削儿童中心(NCMEC).
苹果计划进入用户的手机中查找CSAM的说法在消费者团体和隐私倡导者中引起了轩然大波,但这并不是该系统所做的。它只检查从手机上传到iCloud photo上的图片——通常是为了设备之间的自动同步——它也不是真正“看”这些图片。这款新软件为每一张上传到iCloud photo的照片或视频计算一个“神经哈希”,并将其与NCMEC提供给苹果的已知CSAM数据库的神经哈希进行比较。
神经哈希是图像的96位数字指纹。与加密哈希不同(如果图像的一个像素被改变,它就会完全改变),神经哈希被设计成在图像被裁剪、旋转、调整大小或遭受类似更改时保持相同或几乎相同,从而使内容基本不变。苹果使用“智能”卷积神经网络从图像中提取神经哈希值。
这将使系统能够标记内容与NCMEC数据库中的CSAM相匹配的照片或视频。为了避免错误的指控,需要不止一次的匹配——阈值可以设置为任意数量,但可能是10个——系统才会向苹果发送警告,称该用户的手机上有儿童色情内容。
围绕这一点,苹果构建了一个复杂的双加密外壳,使用私有集交集和阈值秘密共享来保护用户的隐私。在达到阈值之前,苹果无法识别或查看系统找到匹配的图像,也不知道在某人的手机上可能找到了多少匹配。只有当警报发出时,苹果才能解密这些可疑数据,并让一名员工检查材料以检查错误。
由于隐私监管机构和消费者团体的强烈反对,苹果于9月3日宣布,这些功能的实施将被推迟,“以收集意见并进行改进”。软件更新的新日期还没有确定。
比利时布鲁塞尔自由大学的数据科学家Ann Dooms最近在流行杂志上写了一篇专栏文章Eos Wetenschap(EOS科学)关于这一点,他称该计划是“隐私和安全之间的平衡”。苹果公司几乎不会对其客户的震惊感到惊讶;它一直把数据安全作为卖点,所以大多数用户都认为自动备份到iCloud是“安全的”。
杜姆斯说:“这是一种常见的误解。“iCloud数据并不像即时通讯服务WhatsApp和Signal那样是真正的端到端加密,因为苹果拥有加密密钥。他们可以读取iCloud中的备份数据。”如果法官命令苹果交出特定客户的“钥匙”,美国执法部门也可以这么做。苹果公司不愿证实这一点,但路透社在1月份报道称,在美国联邦调查局(FBI)的压力下,苹果公司放弃了对iCloud备份进行端到端加密的计划。
显然,儿童安全软件不会让iPhone用户选择将扫描哪些发送的图像;它会扫描所有的设备,所以用户只能通过不将他的设备同步到云端来选择退出。此外,一旦该系统推出,它将扫描所有现有的iCloud照片数据为CSAM。
杜姆斯和其他专家很快指出,神经哈希非常容易受到对抗性攻击。进行“智能”哈希的神经网络可以被欺骗,将修改过的但无辜的图像标记为CSAM(在Github上有一个工具箱可以实现这一点)。杜姆斯说:“通过制造成千上万的误报,整个系统可能会崩溃,类似于对网站的DDOS攻击。”
任务蠕变是另一个问题。一旦系统就绪,它就可以将iPhone上图像的神经哈希值与其他材料的神经哈希值进行比较,并报告任何匹配。为什么不扫描一下失踪人员的照片呢?还是在逃的罪犯?还是藏匿的异见人士?苹果现在表示,它永远不会答应这样的要求。俄罗斯和中国政府可能会有不同的想法。
即使所有的隐私保护措施到位,所有的故障都解决了,doom也不会对这个系统有什么印象。毕竟,它只能检测到已被当局标记为此类的CSAM。也许一些恋童癖者会粗心到让他们的iphone在未加密的情况下与云共享这些材料,但重度用户或生产者肯定不会。杜姆斯说:“你只会抓到食物链末端的小鱼。”
这是一个残酷的讽刺,安装了所有这些“儿童安全功能”的iPhone仍然可以被用来记录儿童色情内容并上传到iCloud Photo上而不受惩罚。
苹果没有回复记者的置评请求,只是参考了其关于CSAM检测.
Arnout雅斯贝尔斯是一名自由科学作家,住在荷兰莱顿。
没有发现记录