• Deepfake防御新思路有了,腾讯首次公开MagDR框架,已被AI顶会接收

    2021-04-01 16:23:06 | 热度:

  •  Deepfake这次要遇到对手了?

    编者按:本文来自微信公众号“AI前线”(ID:ai-front),作者:钰莹;

    腾讯首次公开 MagDR

    为对抗 Deepfake 提供了新思路

    近日,计算机视觉领域世界三大顶会之一的 CVPR 2021 论文接收结果出炉,本次接收率约为 27.3%,竞争十分激烈,腾讯安全研究团队 Blade Team 以其在 AI 安全领域的发现而成功入选。

    此次,腾讯 Blade Team 被收录的论文题为 《MagDR:Mask-guided Detection and Reconstruction for Defending Deepfakes》,该论文首次公开了一种能够消除对抗样本对 Deepfake 干扰攻击的方法,该方法对防止深度伪造能力滥用提出了新思考。同时,也可用于提升 AI 图像处理的安全性。

    论文链接:https://arxiv.org/abs/2103.14211

    近年来,“AI 变脸”特效风靡全球,近期爆红的“蚂蚁呀嘿”再次掀起体验和讨论的热潮,这种源自人工智能生成对抗网络的新技术,能够利用深度学习技术识别并交换图片或视频中的原始人像,不仅制作过程简单,而且逼真度惊人,几乎能达到以假乱真的效果。

    作为一项技术工具,Deepfake 有广泛的应用空间。语音合成能让计算机用人类的声音说出上百种语言,视频合成能让《速度与激情》里的 Paul Walker 复生,但若被滥用,也将带来巨大的风险,对身份识别和社会信任带来挑战,比如基于此衍生出来的一键脱衣应用 DeepNude。

    那么,既然能用技术“造假”,能否用更强有力的技术去对抗?此前行业有研究显示,在源图像中加入人眼无法感知的对抗攻击,就能够通过对抗噪声来干扰 Deepfake 图像的生成结果,也就是说,通过在原图中加入人眼看不到的噪声,换脸模型就无法生成正确人脸了。

    但这一对抗手段近期被证明仍有风险。腾讯 Blade Team 提出了一个全新的 MagDR(mask-guided detection and reconstruction)的二阶段框架。其核心思想在于使用一些非监督性指标对对抗样本在 Deepfake 中所生成的结果进行敏感性评估,并且利用人脸属性区域作为辅助信息以及通过对最优防御方法进行搜索组合的方式检测和重建图片,以期能够达到净化原图并保持 Deepfake 输出真实性的目的。

    论文显示,腾讯安全研究员选取了 Deepfake 中较为重要的三个任务进行攻防实验,分别为 换脸、人脸属性修改以及表情变换。给原图增加噪声后,所产生的对抗样本尽管对原图进行了修改,但修改的程度明显低于人眼可察觉的水平,而 Deepfake 模型产生的深度伪造视频却已经崩坏,无法以假乱真,其对 Deepfake 带来影响是灾难性的。

    【分享】

  • 联系方式

    中国 - 深圳

    深圳市前海深港合作区前湾一路1号A栋201室

    商务联系:Business@joway.com

    All Posts
    ×