
人工智能发展到当下阶段,对于伦理和安全的思考已经逐渐从幕后走向台前。
2019年5月22日,经济合作与发展组织(OCED)批准了《负责任地管理可信赖AI的原则》,该伦理原则总共有五项,包括包容性增长、可持续发展及福祉,以人为本的价值观及公平性,透明度和可解释性,稳健性、安全性和保障性,问责制。
其中更为显性的安全问题,在“换脸”风波、人脸信息泄漏等一系列事件的曝光下,为人工智能技术的应用前景蒙上了一层阴影,提高人工智能技术的安全性与可靠性迫在眉睫。
Deepfake的世界里,眼见不再为实

图:演员Jordan Peele模仿奥巴马声音制作的虚假演讲视频

现今,基于人脸的信息传递已经成为人类社会沟通的主要媒介之一,比如社交平台的照片、网络上的演讲和表演视频。
换脸技术的出现则极大地影响公众对图片和视频的解读,比如谁该为这段言论负责,以及这段言论的可信度有多大,甚至可能沦为色情复仇的工具、扰乱政界的武器,导致前所未有的社会影响。
目前Deepfake主要以公众人物为受害目标,但随着AI技术的飞速发展,可能在不远的将来,普通民众也会被波及。
为了保证AI应用的安全性,目前RealAI团队研发出“反AI变脸检测”工具,专用于检测AI换脸造假技术。

图:RealAI“反AI变脸检测”技术 ,绿框为正常视频帧,红框为检测出的造假视频帧
RealAI研究人员表示,Deepfake生成的造假视频画面会有不“自然”的纹理存在。为此,他们通过海量视频训练神经网络,让其学习正常情况中的纹理特征,再以此检测造假视频中不一致的纹理。利用该技术,可以对造假视频实现逐帧检测,准确率高达90%以上。
据媒体报道,目前已经出现犯罪团伙利用AI换脸进行诈骗,希望“反AI变脸检测”技术可以遏制此类恶性事件的发生,不要让病态化的“换脸”趋势愈演愈烈。
“隐身衣”成为可能,犯罪行为“有处遁形”

图:一张贴纸“骗”过AI摄像头

图:3D车辆模型“隐身”试验

图:远距离、近距离、稳定、动态拍摄下的“隐身”效果

图:关灯瞬间以及昏暗光线下的“隐身”效果
刷脸时代,你的“脸”正在出卖你

图:正常情况下无法解锁他人手机

图:带上道具瞬间完成解锁,破解成功
图片中可以看到,“攻击者”戴上眼镜识别的瞬间便可成功解锁,无需特定的角度和光线,无需暴力尝试。与照片解锁、造假视频、3D建模等传统方法相比,该方法成本更低、成功率更高。
深度神经网络(CNN)容易受到“对抗样本”的攻击影响。此前就有研究团队提出,通过带有干扰的“配饰”来欺骗模型逃逸识别。
但该想法只停留于研究层面,仅在实验场景中结构较简单的模型上进行过验证,而且是基于对模型内部参数已知的情况下实现的“白盒”攻击。
RealAI研究团队则将其成功应用到物理世界和黑盒场景,对内部参数未知的情况下,破解商用手机中复杂度、精准度更高的识别模型。

图:基于对抗样本生成的“眼镜”道具
RealAI进行该项研究,目的是为了从算法层面找到当前主流人脸识别模型的安全漏洞,从而针对性的进行防御。目前团队也已经研发出相应的防御技术,可能很大程度上检测并防御当前的对抗样本攻击。
通过对手机识别系统进行防火墙升级,在解锁的过程中可以识别出“攻击者”,并对其拒绝访问。

图:RealAI的AI防火墙技术可检测并防御“对抗样本”攻击
在正在到来的“刷脸”时代,我们似乎一再追求“好不好用”,对“安不安全”却专注甚少。当我们沉浸在“技术进步”的喜悦中时,也该思考下,我们写在“脸”上的密码或许正在出卖我们。
保护AI安全发展,我们可以做什么?
IEEE Spectrum
《科技纵览》
官方微信公众平台
往期推荐

