关于苹果:苹果将检测并向执法部门上报-iCloud-中的儿童性虐待图像

46次阅读

共计 1435 个字符,预计需要花费 4 分钟才能阅读完成。

苹果公司于昨日示意,该公司将向执法部门报告上传到其美国 iCloud 服务上的儿童性虐待图片。

苹果公司的新零碎将应用一种名为“哈希”(hashing)的过程,能够把任意长度的输出通过散列算法变换成固定长度的输入,由此进行对“儿童性虐待资料”(Child Sexual Abuse Material,简称为“CSAM”)图片进行监测,随后将图片转换为与其对应的惟一数字。

如何运作“哈希”

在图片存储到苹果公司的 iCloud 服务之前,苹果会将图片的“哈希”与美国国家失踪与受虐儿童核心(以下简称“NCMEC”)提供的散列数据库进行比对。

苹果公司示意,这个数据库将从该公司公布 iOS 15 更新时开始启用,以 iOS 代码的模式公布。匹配过程将在用户的 iPhone 上实现,而不是在云端。

如果苹果公司随后在某个 iCloud 账号中检测到肯定数量的违规文件,那么该零碎将会上传一个文件,容许苹果公司解密并查看该账号上的图片,随后将由人工查看图片以确认是否匹配。

苹果公司将只能审查与已知内容相匹配的图片,并将其报告给这些数据库。

如果负责人工审查的人员得出结论认为零碎没有出错,那么苹果公司将会禁用上传违规图片的用户的 iCloud 账号,并在如有必要时向 NCMEC 发送报告或告诉执法部门。苹果公司的一位代表称,如果用户认为本人的账号被谬误地标记了,则可提出上诉。

苹果公司示意,该零碎只实用于上传到 iCloud 服务的图片(用户能够抉择敞开这个零碎),不适用于未上传到该公司服务器的设施上的照片或其余图片。

无关隐衷问题的考验

苹果公司于昨日开始测试该零碎,但其示意,大多数美国 iPhone 用户都要到往年晚些时候 iOS 15 更新后能力应用这个零碎。

与此同时,这也是对苹果公司的一次考验。苹果公司示意,与之前打消儿童性虐待非法图片的办法相比,“哈希”的系统对用户来说更加私密,起因是其在苹果公司的服务器和用户设施上都应用了简单的明码零碎,而且不会对理论图片进行扫描,只会扫描“哈希”。但对许多在隐衷问题上反馈敏感的用户来说,他们不愿看到本人应用的软件向政府通报设施或云服务中的内容,因而可能会对苹果公司此举做出负面反馈——特地是因为苹果公司始终都在发声保卫设施加密,而且在该公司进行业务经营的国家,舆论爱护比美国要少。

世界各地的执法官员也曾经向苹果公司施压,要求其减弱对 iMessage 和 iCloud 等其他软件服务的加密,以便考察儿童性虐待或恐怖主义等行为。

苹果试图借助新零碎解决两个必要事项:满足执法部门对于帮助遏制儿童性虐待的申请,保护其隐衷和平安的外围价值观。

不会被用于辨认其余图片

一些平安钻研人员放心,这项技术最终可能会被用来辨认其余类型的图片,比方政治抗议的照片等。苹果公司则示意,该公司的零碎只实用于 NCMEC 或其余儿童平安组织编目标图片,而且该公司构建明码零碎的形式能够避免其被用于其余目标。

苹果公司称,该公司不能向数据库里增加额定的“哈希”。该公司称其正在向密码学专家展现这个零碎,以证实它能够在不侵害用户隐衷的状况下检测非法的儿童性虐待图片。

在周四公布这项性能的同时,苹果公司还公布了其余一些旨在爱护儿童免受性剥削者攻打的性能。其中一项性能是,苹果公司将在领有家庭账号的儿童 iPhone 上应用机器学习技术来对可能蕴含裸体的图片进行含糊解决,而父母能够抉择一种警报性能,以便在 13 岁以下的儿童在 iMessage 中收到色情内容时收到警报。另外,苹果公司还更新了 Siri,提供了如何举报儿童性虐待内容的信息。

正文完
 0