普林斯顿大学学者称苹果CSAM筛查系统存隐患 因为他们做过类似项目

近期普林斯顿大学的两位学者表示,他们认为苹果公司儿童性虐待照片(简称CSAM)筛查系统具有一定危险性,因为他们曾构建过一个类似的系统。

此前,苹果公司出于保护儿童免受色情内容侵袭,宣布推出三项保护政策。包括:机器筛查Messages信息,当孩子收到色情图片时,图片会变得模糊,并且Messages应用程序会显示一条警告;儿童性虐待内容(简称CSAM)检测,该功能让苹果检测存储在iCloud云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告;Siri和搜索功能改进,人们可询问Siri如何报告儿童性虐待内容或性剥削,Siri将告诉用户在哪可以汇报给有关部门。

普林斯顿大学这两位学者说,他们曾经的一个项目工作原理与Apple的方法完全相同,但他们很快发现了明显的问题。

助理教授Jonathan Mayer和研究生研究员Anunay Kulshrestha在《华盛顿邮报》的报道中提到,他们与苹果有着同样的善意目标:

“我们的研究项目始于两年前,作为一个实验系统,用于识别端到端加密在线服务中的CSAM。作为安全研究人员,我们知道端到端加密的意义,它可以保护数据免受第三方访问。但我们也对 CSAM在加密平台上激增感到震惊。而且我们担心,在线服务不愿意在没有额外工具来对抗 CSAM的情况下加密。

我们试图探索一种可能的中间立场,即在线服务可以识别有害内容,同时保留端到端加密。这个概念很简单:如果有人分享了与已知有害内容数据库相匹配的内容,该服务就会收到警报。如果一个人分享了无关的内容,该系统就不会筛查到。人们无法阅读数据库或了解内容是否匹配,因为这些信息可以揭示执法方法并帮助犯罪分子逃避检测。”

在停止项目之前,他们已经做出一个工作原型:

经过多次错误的启动,我们构建了一个工作原型。但是我们遇到了一个明显的问题。

我们的系统可以很容易地重新用于监视和审查。筛查设计不限于特定类别的内容。例如,外国政府可以强制要求提供服务,将那些分享不受欢迎的政治言论的人找出来。

两人表示,他们对苹果公司决定推出这项服务感到困惑,因为目前未能妥善解决他们提出的风险:和我们一样,Apple的动机是保护儿童。它的系统在技术上比我们的更高效、更有能力。但是我们很发现,对于我们提出的难题,Apple几乎没有答案。

这也是苹果这些动作引发争议的原因:虽然他们表示不会允许这种滥用,但政府可以依法强制公司这样做。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2021-08-23
普林斯顿大学学者称苹果CSAM筛查系统存隐患 因为他们做过类似项目
普林斯顿大学学者称苹果CSAM筛查系统存隐患 因为他们做过类似项目,近期普林斯顿大学的两位学者表示,他们认为苹果公司儿童性虐待照片(简称CSAM)筛查系统具有一定危险性

长按扫码 阅读全文