自 Apple宣布推出三项新的儿童安全功能计划以来已经过去了一年多,其中包括用于检测存储在 iCloud 照片中的已知儿童性虐待材料 (CSAM) 图像的系统、在“信息”应用中模糊色情照片的选项,以及Siri 的儿童剥削资源。后两个功能现已推出,但 Apple 对其 CSAM 检测功能的计划保持沉默。
苹果最初表示,CSAM 检测将在 2021 年底之前在 iOS 15 和 iPadOS 15 的更新中实施,但该公司最终基于“来自客户、倡导团体、研究人员和其他人的反馈”推迟了该功能。
2021 年 9 月,Apple 在其儿童安全页面上发布了以下更新:
此前,我们宣布了一些功能计划,旨在帮助保护儿童免受使用通信工具招募和利用他们的掠夺者的侵害,并帮助限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。
2021 年 12 月,苹果从其儿童安全页面中删除了上述更新和所有对其 CSAM 检测计划的引用,但苹果发言人告知The Verge,苹果对该功能的计划没有改变。然而,据我们所知,自那时以来,Apple 并未公开评论这些计划。
我们已联系 Apple 询问该功能是否仍在计划中。苹果没有立即回应置评请求。
随着 2021 年 12 月iOS 15.2和其他软件更新的发布, Apple 确实推进了 Messages 应用程序和 Siri 的儿童安全功能,并通过iOS将 Messages 应用程序功能扩展到澳大利亚、加拿大、新西兰和英国2022 年 5 月发布 15.5 和其他软件版本。
苹果表示,其 CSAM 检测系统“在设计时考虑了用户隐私”。该系统将使用来自儿童安全组织的已知 CSAM 图像哈希数据库执行“设备上匹配”,Apple 会将其转换为“安全存储在用户设备上的一组不可读的哈希”。
Apple 计划向与美国执法机构合作的非营利组织国家失踪和受虐儿童中心 (NCMEC) 报告具有已知 CSAM 图像哈希值的 iCloud 帐户。苹果表示,将设置一个“阈值”,以确保系统错误地标记帐户的“每年不到万亿分之一的机会”,以及人工对标记帐户的人工审查。
苹果的计划受到了广泛的个人和组织的批评,包括安全研究人员、电子前沿基金会 (EFF)、政治家、政策团体、大学研究人员,甚至一些苹果员工。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun179944.html