苹果公司放弃了有争议的计划,即检查iOS设备和iCloud照片中的虐童图像
时间:2022-12-16 16:11
苹果公司放弃了推出一项有争议的工具的计划,该工具将检查iphone、ipad和iCloud上的照片是否含有儿童性虐待内容(CSAM),此前批评人士谴责该功能可能涉及隐私。
苹果公司于2021年首次宣布了这一功能,目的是帮助打击剥削儿童和促进安全,这是科技界越来越重视的问题。但在一片批评声中,该公司很快叫停了这一功能的实施,并指出,“在发布这些至关重要的儿童安全功能之前,在未来几个月里,它将需要额外的时间来收集意见并进行改进。”
在周三的一份公开声明中,苹果公司表示,它“决定不再推进我们之前提出的针对iCloud照片的CSAM检测工具。”
该公司在向《连线》杂志提供的一份声明中表示:“在没有公司梳理个人数据的情况下,儿童也可以得到保护,我们将继续与政府、儿童权益倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,让互联网对儿童和我们所有人来说都是一个更安全的地方。”(苹果没有回应CNN的置评请求。)
nload = ' this.classList.remove (image__dam-img——加载)' / >
苹果打击虐童的计划如何适得其反
相反,该公司正在重新集中精力发展其通信安全功能,该功能于2021年12月首次推出,此前该公司咨询了专家对其儿童保护举措的反馈。“通信安全”工具是一项家长控制功能,可以在iMessage中接收或发送的图像附件含有色情内容时向未成年人及其父母发出警告,如果有,则会进行模糊处理。
苹果公司在2021年因计划提供一种不同的工具而受到批评,该工具将开始检查iOS设备和iCloud照片中的虐待儿童图像。当时,该公司表示,该工具将把iphone和ipad上的照片转换成无法读取的哈希值(或复数)存储在用户设备上。一旦照片上传到苹果的iCloud存储服务,这些数字将与国家失踪与受剥削儿童中心(NCMEC)提供的哈希数据库进行匹配。
许多儿童安全和保障专家称赞了这一尝试,承认公司对其创造的产品和服务负有道德责任和义务。但他们也称这些努力“令人深感担忧”,主要原因是苹果对虐待儿童图像的部分检查过程是直接在用户设备上完成的。
在发布在其网站上的一份PDF文件中,苹果概述了这项被称为NeuralHash的技术,试图解决人们的担忧,即政府也可能迫使苹果将非虐待儿童的图像添加到散列列表中。声明称:“苹果将拒绝任何此类要求。”“我们以前曾面临过建立和部署政府强制更改的要求,这些要求会损害用户的隐私,但我们坚决拒绝了这些要求。今后我们将继续拒绝他们。”
在苹果宣布取消该工具计划的同时,该公司宣布了一些新的安全功能。
苹果(Apple)计划扩大iCloud数据的端到端加密,包括备份、照片、笔记、聊天记录和其他服务,此举可能进一步保护用户数据,但也加剧了苹果与世界各地执法官员的紧张关系。该公司表示,这款名为“高级数据保护”(Advanced Data Protection)的工具将允许用户更加安全地保护某些数据,不受黑客、政府和间谍的侵害,即使在苹果数据泄露的情况下也是如此。
为您推荐:
- 在日本买房需要什么手续和条件? 2022-12-16
- 请问日本买房需要什么手续? 2022-12-16
- 请问日本农村也有房产税吗 2022-12-16
- 请问去日本旅游办签证,需要提供房产证,但是只有购房合同,可以办理吗,因为房产证还没下来! 2022-12-16
- 请问2015去日本打工怎样普通工作?工资多少?除去吃喝穿和中介费能剩多少? 2022-12-16
- 现在在日本买房需要什么手续? 2022-12-16
