苹果公司删除儿童性虐待内容检测方案 但他们表示次计划仍在继续
新浪数码讯 12月16日上午消息,苹果公司在一夜之间从其网站上删掉了之前公布过的儿童保护方案的相关信息,但他们明确表示该计划仍在进行中。
今年8月,苹果公司宣布一系列儿童保护政策,包括:机器筛查Messages信息,当孩子收到色情图片时,图片会变得模糊,并且Messages应用程序会显示一条警告;儿童性虐待内容(简称CSAM)检测,该功能让苹果检测存储在iCloud云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告;Siri和搜索功能改进,人们可询问Siri如何报告儿童性虐待内容或性剥削,Siri将告诉用户在哪可以汇报给有关部门。
这些引发巨大争议,世界各地90多个政策和权利团体发表一封公开信,敦促苹果放弃扫描儿童信息中的裸体内容和成人手机中的儿童性虐待图片的计划。
这些团体在事先透露给路透社的信中写道:“虽然这些功能是为了保护儿童和减少儿童性虐待材料的传播,但我们担心它们会被用来审查受保护的言论,威胁到全世界人民的隐私和安全,并对许多儿童产生灾难性的后果。”
在前几天,12月10日前后,相关方案的参考资料从页面上被清除。
苹果公司完全删除其无法向公众发布信息是相当不寻常的,外界认为,这样的行动可以被视为苹果放弃该功能,尽管未来的第二次尝试总是合理的。
其实,这方案一些功能已经实施,例如旨在保护年轻用户不会在iMessage中看到或发送色情照片。第三个增加了对 Siri 和搜索的更新,提供了额外的资源和指导。
而CSAM检测的部分,而且还删除了该页面介绍、Siri和搜索指南中的引用,以及一个提供解释和评估其CSAM过程的PDF链接的部分。
周三下午,外媒The Verge 被告知苹果的计划没有改变,暂停仍然只是暂时的延迟。
专注苹果新闻报道,每日推送最新苹果资讯。扫描下方二维码关注苹果汇官方微信(或微信中搜:appleinc2012)。
文章关键词: 苹果
已收藏!
您可通过新浪首页(www.sina.com.cn)顶部 “我的收藏”, 查看所有收藏过的文章。
知道了