据《金融时报》报道,苹果打算在iPhone手机上安装能够扫描儿童受侵害图像的软件。这引起了安全研究人员的警惕,他们警告称,此举可能导致许多人的个人设备遭到监控。
据报道,该系统名为neuralMatch,系统一旦检测到非法图像,将主动提醒人工审核人员。如果经验证”违法内容“属实,公司将直接联系执法部门。 苹果还将推出一个新功能,会扫描儿童账号登陆的 iPhone,系统会扫描发送和接收到的所有iMessage图像,以查找色情内容。如果儿童年龄在限制以下,则出现违规图像时会通知父母。父母可以选择打开或关闭这个功能。 据介绍,苹果的照片扫描是全方位的。这些新功能将会在今年晚些时候在iOS 15、iPadOS 15、watchOS 8和macOS Monterey的更新时推出,也就是说大概率会在9到10月份上线。 每张上传到iCloud的照片都会得到一份“安全凭证”。一旦一定数量的照片被标记为可疑,苹果就会对所有这些可疑的照片进行解密和人工审查,如果涉及违法行为,苹果会将其转交给相关法律部门。 安全研究人员虽然支持打击侵害儿童行为的努力,但他们担心,苹果可能会让世界各地的政府得以获取公民的个人数据,这可能大大背离苹果的初衷。 剑桥大学安全工程学教授罗斯·安德森(Ross Anderson)表示:“这绝对是个可怕的想法,因为它将导致我们的手机和笔记本电脑…遭到分布式批量监控。” 曾在Facebook和 Deliveroo工作的安全研究员和隐私活动家亚历克·马菲特(Alec Muffett)表示,“苹果这一举动将让个人隐私领域倒退一大步。”
收到 0 个回复
没有找到数据。
创建评价