AI换脸鉴别率超99.6%,微软技术破除DeepFake虚假信息

发布时间:2019-11-05 15:39:47   来源:IT之家   点击:
[db:简介]

此前DeepFake换脸在全球引发轩然大波。从生成足以以假乱真的名人不雅视频开始,很多使用者将这个“换脸神器”当成了视频造假工具,并通过社交网络将虚假信息传播到全世界。DeepFake等技术出现不仅提升了换脸的真实性,其开放源代码的方式更是降低了将该等技术滥用于虚假信息制作和传播门槛。

事实上,大约30%经过AI换脸的合成照片、合成视频是人类仅凭肉眼无法识别的,很容易被当作真实信息进行再次传播。这已成为一个亟待解决的社会性问题,面对这个问题,我们应该以及可以做些什么?微软亚洲研究院给出了解决方案。

除了DeepFake,市场上存在多种换脸技术,不同算法生成的图像结果千差万别,难以使用同一个换脸鉴别模型解决所有换脸技术的进攻。与此同时,换脸鉴别模型还需要对目前不存在、但未来可能出现的换脸技术也具有判别力,如何去预测未来换脸技术的发展方向,提前布防,也是重要课题。

目前,最常被使用的AI换脸算法有三种:DeepFake、FaceSwap和Face2Face。其中,DeepFake基于大家所熟知的GAN技术,对于它所生成的脸,人类的识别率大约为75%*。FaceSwap是一个学习重建脸部特征的深度学习算法,可以对给出的图片进行模型替换,人类对于此类换脸的识别率也是75%左右*。Face2Face则是用其他真实的人脸去替换原本的人脸,不涉及人脸的生成,对于它制造的脸,人类的识别率只有41%*。作为目前学术界最大的合成视频数据库之一,由慕尼黑技术大学创建的FaceForensics数据库涵盖了经过以上三种换脸算法编辑的公开视频,以供学术研究使用。

多年来,微软亚洲研究院在人脸识别、图像生成等方向都拥有业界领先的算法和模型。在CVPR 2018上,微软亚洲研究院视觉计算组发表了论文“Towards Open-Set Identity Preserving Face Synthesis”,其中的技术能够利用开放数据集中的数据,逼真地合成保留图中人脸身份信息的图像。深厚的技术积累让研究员们对“进攻方”的技术原理有着更深刻的理解,进而能够更有针对性地研发换脸鉴别算法。

图1:微软亚洲研究院开发的模型分别提取蒙娜丽莎和赫本图片中的身份信息和属性信息进行合成

因此,微软亚洲研究院研发的换脸鉴别算法,基于FaceForensics数据库的测试结果均超越了人类肉眼的识别率以及此前业界的最好水平*:对于DeepFake的识别率达到了99.87%,对于FaceSwap的识别率为99.66%,对于Face2Face的识别率为99.67%。

表1:针对已知换脸算法的识别测试结果

更重要的是,一般的换脸鉴别方案需要针对每一种换脸算法研发专门的换脸鉴别模型,想要鉴别一张图像的真伪,需要逐个尝试所有模型。微软亚洲研究院的算法则可以用一个通用模型,去鉴别不同类型的换脸算法所制造的脸。与此同时,研究员还对人脸合成时难以处理的细节进行检查,如眼镜、牙齿、头发边缘、脸部轮廓,将它们作为算法关注的重点,从而提高识别准确率。相比其他同类技术,来自微软亚洲研究院的换脸鉴别算法很好地解决了应对动态幅度大、有遮挡、有表情变化的图像的难题。

除了准确识别已知算法合成的图像,换脸鉴别的另一大挑战是应对尚未出现的新算法。将现有的换脸鉴别算法直接用于新算法时,它们的有效性往往会显著下降。为此,微软亚洲研究院提出了一种通用换脸鉴别方法。为了更好地考察这一算法对未知换脸算法的鉴别能力,研究团队用真实图像对模型进行了训练,再让其辨别多种未知换脸算法生成的图像。实验结果表明,与基线算法相比,新算法对各类换脸算法的识别率均有大幅提升。随着研究团队对模型的进一步优化,通用鉴别模型一定能越来越精确地帮助我们应对新算法所带来的问题和挑战。

表2:针对未知换脸算法的识别测试结果

在微软看来,要构建可信赖的AI,必须遵循以下六大原则:公平、可靠和安全、隐私、包容、透明、责任。微软内部还成立了人工智能伦理道德委员会(AETHER),帮助微软应对AI带来的伦理和社会影响。

------分隔线----------------------------