苹果一直以来都以强调信息安全,苹果公司对个人隐私的保护也是其收到追捧的一大原因。而今日,苹果的一项新功能却似乎会违背了这一原则,引发了众多不满。
儿童色情一直是法律、社会所严厉打击的犯罪行为,苹果今日也宣布,为了更好地保护儿童,在IOS 15、IPadOS 15、macOS Monterey系统中加入扫描用户照片的功能。
根据相关的报道,存储在iPhone和iCloud上的照片将会被计划扫描,以搜索儿童色情等图片。系统中的这个新功能目的是为了帮助相关执法部门进行刑事调查,但也会导致政府和相关部门对用户数据的需求有一定增加。
根据官方信息,这个系统被命名为neuralMatch。一旦该系统在设备在搜索到了非法图像信息,将会主动提交给审查人员。当相关材料被验证后,将会直接与执法部门进行联系。在设备图像搜索的同时,未成年人账户的iMessage也将会被重点监测。一旦在其中发现色情图像,iPhone将会发出警告并通知父母。
苹果在官方公告中称,这个系统并非为了扫面用户图片,而是用相关加密技术,无法直接看到用户相册。这项加密技术叫做NeuralHash,它能够确保视觉上相似的图像产生相同的哈希值。
但是这份公告并未能够得到好的反响,超过4000个组织、安全隐私专家、密码学家、研究人员和消费者等签署了公开信,谴责苹果公司在对用户隐私和端到端加密机制进行破坏。公开信中称,苹果公司目前的做法是对技术专家、学者和倡导者数十年努力的威胁,他们希望强有力的隐私保护措施能够在绝大部分电子设备和使用案例中成为常态。
在大多数情况下,手机相册里都聚集了最多的隐私,也没有人希望自己的隐私被展现在他人面前。如果真的发生了数据泄露,那往往后果不堪设想。那对于苹果的这项举措,大家怎么看呢?大家觉得苹果此举真正用意是什么呢?欢迎评论留言讨论。