设为书签 Ctrl+D将本页面保存为书签,全面了解最新资讯,方便快捷。 您也可下载桌面快捷方式。点击下载 | 新浪科技 | 新浪首页 | 新浪导航

苹果要偷看你手机电脑上的照片了

2021-08-07 09:29:00    创事记 微博 作者: 硅星人   

  欢迎关注“新浪科技”的微信订阅号:techsina 

  文/杜晨 编辑/Lianzi

  来源/硅星人(ID:guixingren123)

  大家可能记得,苹果最近几年一直在用的,宣传 iOS 系统隐私性的广告语:

  “What happens on your iPhone, stays on your iPhone.”

  Or does it? 事实真的如此吗?

  过去的事情暂且不提。我们现在可以肯定的是,在今年晚些时候发布的 iOS 15 和最新版 Mac 操作系统Monterey上,苹果就要堂而皇之地“偷看”你的照片了。

  发生了什么

  昨天,约翰·霍普金斯大学加密学教授 Matthew Green 在 Twitter 上突然爆出一条大新闻:多名知情人士确认,苹果即将发布一项用于扫描检测儿童色情虐待内容 (Child Sexual Abuse Material) 的端侧工具。

端侧的意思就是扫描工作在用户设备上完成。截图来源:Matthew Green 的 Twitter 账号端侧的意思就是扫描工作在用户设备上完成。截图来源:Matthew Green 的 Twitter 账号

  今天,苹果也在官网正式宣布了这一消息:

截图来源:苹果官网 https://www.apple.com/child-safety/截图来源:苹果官网 https://www.apple.com/child-safety/

  这个系统的工作原理大概是这样的:

  首先,苹果会对用户在 iPhone 等各类苹果设备上接收、保存和发送的照片提取哈希值。

  然后,苹果会用这个值和美国“国家失踪和被剥削儿童中心”的数据库进行比对,验证涉事照片是否属于儿童色情虐待内容。这个数据库将会保存在用户设备的本地。比对检测工作也是在本地完成的。

  用户在 iMessage 上收到或者发送照片。系统会在后台完成比对检测工作。如果系统认为它属于露骨内容,iMessage 就会暂时屏蔽掉这张照片、询问,并再次确认用户是否要浏览或发送这张照片。

  不仅如此,如果用户本身是少年儿童,并且设置了家庭账号的话,iOS 系统还会通知家长。

图片来源:苹果图片来源:苹果

  如果你以为所有这些真的全部在本地完成的,不涉及到苹果公司层面的隐私嗅探行为,那你就太小看苹果了。苹果也会用类似的哈希算法对用户发送到 iCloud 保存的照片(同样端到端加密)进行检测,并且在上传之前给照片文件增加一串保密信息。

  如果涉事照片被判定为儿童色情虐待内容,苹果的服务器将可以对照片进行解密,并且交由人工进行二次审核。

  安全专家认为,苹果设计的这套打击儿童色情的技术,虽然设计目的是好的,但可能存在严重的安全和隐私风险,并且完全颠覆了“端到端加密”原本存在的意义。

  事件的影响

  “最初我的理解是,这项技术用于在端侧对云存储的照片进行扫描。但是最终,它可能会成为在加密通讯系统中增加监控的一个关键因素。”Green 评论道。他还表示,在端到端通讯系统中加入这样的扫描系统,一直以来都是全球各地执法部门的主要需求。

  “棱镜”计划的爆料人爱德华·斯诺登也对苹果此举颇为不满,甚至在 Twitter 上发布了一张梗图吐槽:

  左边:苹果2015年:我们不让 FBI 查看死掉的恐怖分子的手机,只为保护你的隐私。

  右边:苹果2021年:我们会用官方黑名单检测你的相片册和 iCloud 照片,除了报警之外,还会告诉你家长……

  不管怎样,苹果将会在新版操作系统里“偷看”你的照片这件事,算是坐实了。

  至于什么"What happens on your iPhone stays on your iPhone",只是少数用户一厢情愿的假象了……

  需要明确的是,苹果并不是第一家、唯一一家在做类似事情的公司。包括谷歌(从2008年开始)、微软(2009年)、Facebook(2011年)和 Twitter(2013年)等公司,都已经在用哈希算法等相关技术,对儿童色情虐待内容进行预防、侦测和打击了。

  知名互联网用户权益机构“电子前线基金会”(EFF) 在2019年曾经撰文指出:这种号称专为打击儿童色情内容而设计的所谓“用户端侧扫描工具”,是一个伪命题。

  1)从技术上来讲,这类工具无法将其检测能力限制在儿童色情这一类内容上。

  具体来说,这类检测技术核心原理都是对图片提取哈希值,然后和一个“官方”的数据库进行比对。

  但是目前机器学习领域已经有了先进的生成对抗网络技术,可以对两个不同的文件,比如两张完全不同的照片,实现“哈希碰撞”(也即这两张完全不同的照片拥有相同的哈希值):

  图示:右边一列的公司 logo 和中间一列用算法生成的“人脸”图片,实现了哈希碰撞。图片来源:Nick Locascio

  任何拥有官方数据库操作权限的人,都可以自己添加新的哈希值条目到数据库,从而扩大这个图片检测系统,所检测和审查的对象范围。

  EFF 指出,在这样的场景下,“由于数据库只包含哈希值,而儿童色情图片的哈希值和其它图片的哈希值(可能)没有区别,那么扫描儿童色情内容的系统,就无法从技术上只针对儿童色情内容。”

  2)EFF 还指出,这类所谓的端侧扫描工具,实际上打破了端到端加密的承诺。

  端到端加密的普遍定义是:在一个通讯系统中,只有内容的发送端和接收端可以看到所发送的内容,其他任何人,包括其他用户,以及通讯系统的运营者(苹果)都无法看到,也没有能力对通过加密方式传送的信息进行解密。

  “如果一个系统有直接、有效解密很大一部分信息的能力,它就不再是一个端到端加密的系统了,”EFF 指出。

  3)前面提到,苹果的这个检测系统,一旦侦测到可能的儿童色情内容,还会引入真人进行二次检验。这就进一步扩大了用户隐私泄露的风险。

  目前苹果没有透露究竟谁有权限查看这些照片,是苹果自己的员工还是外包机构——希望不是后者,毕竟之前苹果的外包维修商 Pegatron 就出过恶意泄露用户隐私照片的严重事故。

  4)这样的检测系统,其实很容易通过简单的方法逾越。

  那些传播儿童色情内容的犯罪嫌疑人,可以更换其它通讯软件,抑或对图片进行简单的修改(比如加上带有微弱遮盖效果的字幕),就可以让一张图片的哈希值“面目全非”。

图片来源:Jens Segers图片来源:Jens Segers

  综合考虑到前面所有提到的关于这个系统的弊端,得出的结论是:它打开的隐私缺口太大,制约儿童色情内容传播的实效却无法保证。说好听,事倍功半;说难听点,反而会弄巧成拙。

  你怎么看苹果这次“偷看用户照片”的反儿童色情内容传播系统?你觉得它会起到多大的帮助?你会担心它对端到端加密和用户隐私带来的负面效应吗?欢迎在留言中分享你的看法。

  注:封面图来自于 Chris Velazco 的 Twitter 账号,版权属于原作者。如果不同意使用,请尽快联系我们,我们会立即删除。

(声明:本文仅代表作者观点,不代表新浪网立场。)

分享到:
保存   |   打印   |   关闭