确保您永远不会错过自己喜欢的新故事,我们很高兴向您发送一些提醒
点击 '好的' 然后 '允许'启用通知
出版
消息应用程序中的一项新功能将在发送或收到性别的照片时使用链接的家庭帐户警告孩子及其父母,并在屏幕上出现警报,并从视图中屏蔽了图像。
该工具将使孩子们不想查看图像,并向他们提供有用的资源,这将可以。
它还将告知他们,作为额外的预防措施,如果他们选择查看图像,他们的父母将收到通知。
苹果说,如果孩子试图发送性明确的形象,将采取类似的保护。
它是旨在保护年轻人并限制儿童性虐待材料(CSAM)的许多新的儿童安全工具之一。
功能包括新技术,它将允许Apple检测iCloud照片中存储的已知CSAM图像,并将其报告给执法机构。
Siri和Search的指南还将在执行与CSAM相关的搜索时指出用户相关资源。
这些工具被设置为秋季iOS和iPados 15软件更新的一部分,最初仅在美国引入,但随着时间的推移将进一步扩展。
苹果说,检测工具旨在保护用户隐私,不允许技术巨头查看或扫描用户的相册。
取而代之的是,该系统将基于儿童安全组织提供的已知CSAM图像的“哈希”(一种数字指纹)数据库(一种数字指纹)的数据库,在设备上安全地寻找匹配。
这种匹配只有在用户尝试将图像上传到其iCloud照片库时才会发生。
苹果说,只有超过有害内容的比赛的门槛,才能够手动查看内容以确认比赛,然后将报告发送给安全组织。
该公司重申,新的CSAM检测工具仅适用于使用iCloud照片的人,并且不允许公司或其他任何人在用户的相机卷中扫描图像。
然而,批评者认为这些工具代表着令人担忧的隐私侵犯。
根据每日邮件剑桥大学安全工程教授罗斯·安德森(Ross Anderson)说:“这绝对是一个令人震惊的想法,因为它将导致对我们的电话和笔记本电脑进行分配的批量监视。”