微观科技

Apple已删除任何提及扫描他人照片以查找儿童色情内容的内容,但并未改变

0
2022-04-02 来源: 腾讯  阅读量:13226   

Apple 已从其儿童安全页面中删除了对 CSAM 的引用但是,该功能的工作仍在继续

Apple已删除任何提及扫描他人照片以查找儿童色情内容的内容,但并未改变

8 月,Apple 宣布计划推出一项反禁止内容功能,该功能会扫描用户的 iCloud 照片库以查找儿童性虐待材料 如果检测到可疑内容,程序会将材料发送给公司员工进行验证

苹果的计划遭到了许多人和组织的严厉批评,包括安全研究人员,爱德华·斯诺登,电子前沿基金会,Facebook 前安全负责人,政界人士,人权活动家,甚至一些苹果员工大部分批评都集中在使用与监视接壤的危险技术上许多人还指出,它在检测儿童性虐待图像方面效率低下

最初,Apple 试图通过发布开发细节,文档和高管访谈来消除误解并让用户放心最终,该公司决定推迟部署 CSAM

苹果表示,这一决定基于客户,倡导者,研究人员和其他人的反馈。

我们决定在未来几个月留出更多时间来收集信息并在发布这些关键的儿童安全功能之前进行改进,该声明出现在 9 月份的Apple儿童安全页面上,但现在与所有参考资料一起消失了到 CSAM。随后这一消息也是登上了热搜,有不少网友纷纷询问,周杰伦何时推出新专辑,毕竟他已经;欺骗;粉丝好几年了。。

可是,reddit的用户发现,该项目的描述和技术文档仍然可用苹果发言人 Shane Bauer向The Verge证实,虽然网站上不再提及该功能,但公司的计划没有改变,这意味着 CSAM 检测将在未来出现

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。
广告服务  | 网站地图  | 联系我们  | 免责声明