whats-icloud Apple 宣布计划在 2021 年 8 月扫描您的 iCloud 内容以查找儿童性虐待材料 (CSAM),以保护儿童免受掠夺者的虐待。 该公司计划在 iCloud 照片中推出一项新的 CSAM 检测功能,该功能将扫描此类内容并向 Apple 报告匹配图像,同时保护用户隐私。 然而,这项新功能遭到了不同的反应。自最初宣布以来一年多,Apple 正式放弃扫描 iCloud 照片以获取 CSAM 的计划。

Apple 放弃扫描 iCloud 以查找虐待儿童材料的计划

根据 WIRED 的一份报告,Apple 正在放弃扫描您的 iCloud 以查找虐待儿童内容的计划。该工具将扫描存储在 iCloud 上的照片,以找到与儿童安全组织识别的已知 CSAM 图片相匹配的照片。然后它可以报告这些图像,因为在包括美国在内的大多数司法管辖区拥有 CSAM 图像是非法的。

为什么 Apple 取消了扫描 iCloud 照片的计划

在 2021 年首次发布后,Apple 遭到了全球范围内倡导数字隐私和安全的客户、团体和个人的强烈反对。iPhone 通常比 Android 设备提供更多的安全性,许多人认为这是一种倒退。虽然这对儿童安全组织来说是一场胜利,但 90 多个政策团体在同月晚些时候给苹果写了一封公开信,要求该公司取消该计划。 apple-store 这封信认为,虽然该工具旨在保护儿童免受虐待,但它可能被用来审查言论自由并威胁用户隐私和安全。由于压力越来越大,Apple 暂停了其发布计划以收集反馈并对功能进行必要的调整。然而,反馈并不支持 Apple 扫描 iCloud 照片的计划,因此该公司正式永久放弃该计划。 在给《连线》杂志的一份声明中,该公司表示:

我们已经……决定不再推进我们之前提出的 iCloud 照片 CSAM 检测工具。无需公司梳理个人数据,儿童就可以得到保护,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护儿童年轻人,维护他们的隐私权,让互联网成为儿童和我们所有人更安全的地方。

Apple 保护儿童的新计划

Apple 正在重新调整其改进 2021 年 8 月宣布并于同年 12 月推出的通信安全功能的努力。 通信安全是可选的,父母和监护人可以使用它来保护儿童免于在 iMessage 中发送和接收色情图片。该功能会自动对此类照片进行模糊处理,并警告孩子注意所涉及的危险。如果有人试图在 Apple 设备上搜索 CSAM,它还会发出警告。 随着推出 CSAM 检测工具的计划被取消,该公司期待进一步改进该功能并将其扩展到更多的通信应用程序。


本站由 Diebug 使用 Stellar 1.29.1 主题创建。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。
本站总访问量 | 本站总访客数