多伦多大学创造“隐私过滤器”,利用算法干扰社交巨头的人脸识别

互联网
多伦多大学创造“隐私过滤器”,利用算法干扰社交巨头的人脸识别
麻省理工科技评论 2018年6月6日

2018年6月6日

这种技术原理基于“对抗性训练”,本质上是建立起两种相互对抗的算法。
网络安全
这种技术原理基于“对抗性训练”,本质上是建立起两种相互对抗的算法。

过去几个月信息安全和数据隐私问题被人们热议,热议的内容中包括了英国数据分析公司 Cambridge Analytica 的数据收集策略和 Facebook 首席执行官马克·扎克伯格在美国参议院的证词。

人脸识别技术利用基于人脸特征点的算法进行识别,因此人脸特征点是其中的一种主要的数据形式。每次你上传一张照片到 Facebook、Instagram,或者其他地方,你都会将照片中人的面部特征点和照片中其他物体的特征点提供给这些学习系统。为了解决这个问题,多伦多大学的 Parham Aarabi 教授和研究生 Avishek Bose 领导的研究小组开发了一种算法来动态干扰这项技术。

这种技术原理基于“对抗性训练”,本质上是建立起两种相互对抗的算法。Aarabi 和 Bose 创建了两个神经网络,一个是识别人脸的网络,另一个是破坏其既定目标的神经网络。这两个网络互相学习,相互提升效果。Bose 在接受 Eureka Alert 的采访时说:“具有破坏性的人工智能可以‘攻击’人脸识别时神经网络所寻找的东西。例如,如果检测 AI 正在寻找眼角,它会调整眼角,这样眼睛就不那么明显了。它会在照片中产生非常细微的干扰,但对探测器来说,这些干扰足以愚弄整个系统。”在实践中,这意味着用户可以使用一个过滤器 (比如 Instagram 或 Snapchat 上的普通视觉过滤器),改变图像中人眼无法察觉的特定像素,使人脸识别技术失效。

在一个包含 600 多张不同种族、光照和环境的人脸图像的测试集上,该系统能够将可检测的脸从 100% 降低到 0.5%。研究小组将在 2018 年 IEEE 多媒体信号处理国际研讨会上展示他们的研究成果,之后他们希望通过一个应用程序或网站将该过滤器公之于众。“十年前,这些算法必须是人类定义的,但现在神经网络可以在训练集上自己学习,”Aarabi 说。“最后,他们可以做一些非常令人惊奇的事情。这是一个令人着迷的领域,有巨大的潜力。”

麻省理工科技评论

From Tech to Deeptech