如果苹果认为你的iPhone上有虐待图片,他们会通知警方
更新时间:2021-08-06 14:29:48 浏览次数:83+次《金融时报》报道说,苹果公司正在开发一个系统,该系统将扫描你的iPhone上的照片,寻找虐待儿童的图像,如果发现了,就联系警方。
所谓的神经匹配系统已经在国家失踪和被剥削儿童中心的数据库上进行了训练,你手机上的照片和上传到iCloud的照片将被持续扫描。
如果检测到有虐待暗示的图像,该图像将被转给一个人类审查员团队,如果图像被核实,他们将提醒执法部门。
该系统最初将只适用于美国。
当然,苹果公司的做法与其他云存储公司没有什么不同,尽管设备上的扫描是一个例外。
在他们的支持文件中,苹果解释了这些好处:
对于不符合已知CSAM数据库的图像,苹果公司不会了解任何情况。
苹果无法访问匹配的CSAM图像的元数据或视觉衍生品,直到一个iCloud照片账户的匹配阈值被超过。
系统错误地标记一个账户的风险是非常低的。此外,苹果公司手动审查所有向NCMEC提交的报告,以确保报告的准确性。
用户无法访问或查看已知的CSAM图像数据库。
用户无法识别哪些图像被系统标记为CSAM。
当然,最大的担忧是误报和这些误报的潜在后果。虽然苹果公司说风险 “极低”,但由于大数法则,如果风险是1/100万,这将意味着苹果公司的10亿iPhone用户中,有1000人可能最终不得不向警方解释自己,尽管他们没有做错任何事。
EFF表示,另一个不那么直接的担忧是,该系统可能会因任务蠕变而扩大,或因极权主义政府的压力而包括其他图像,例如恐怖主义行为或异议人士使用的符号,甚至LGBT图像,这是东欧越来越多右翼政府最喜欢的目标。
该功能将作为iOS 15的一部分推出。