Deepfake成人脸识别的最大毒瘤,为了江潘多拉关进笼子里,各大公司都在行动

人工智源库 2022-06-01
2078 字丨阅读本文需 6 分钟

曾几何时,deepfake 在互联网上格外猖獗,新闻和成人类内容成为了“换脸”的重灾区。

1、Deepfake的阴影笼罩人脸识别时代

首先,为什么近些年来人脸识别发展的如此的火热、迅速,它到底能解决什么问题,从而产生巨大的商业价值?

实际上,人脸识别本质上也就是一种身份识别技术。如今,身份识别在各个领域都至关重要,而身份识别的方法目前主要有三种。

一是密码识别。密码是最古老的身份识别工具,也是目前的主流工具。但是,密码识别会有被破解的风险,也常出现遗忘、弄混的情况。

二是证书验证。证书指的是能证明个人身份的信息,比如你进出公司需要出示的工作证,进出小区的门禁卡。但在人卡分离、人机分离或未绑定相关证书设备的情况下,该验证就无法顺利实现。

生物识别技术则能够有效解决以上两种方式的困扰。通过将计算机与光学、声学、生物传感器和生物统计学原理等科技手段密切结合,利用人体固有的如指纹、脸相、虹膜等生物特征来进行个人身份的鉴定。

人脸识别作为生物识别中的重要手段,由于具有非强制性、非接触性、成本低、检测快、自动学习等特点,成为了近年身份识别中最热门的领域。

但是,与人脸识别技术共同发展的,还有借助机器学习系统、图像视频和音频内容,更改人脸、物体或环境呈现方式的“深度伪造”(Deepfake)技术。该技术通过借助海量训练数据,生成众多虚假视频和音频新闻,使辨别信息真伪、生物识别变得困难,成为一种困扰世界科技届的“反识别技术”。

深度伪造来源于生成对抗网络(GAN)的出现和发展。GAN算法可以基于一个数据库自动生成模拟该数据库中数据的样本,并通过识别器评估生成器生成的数据的真伪,生成器和识别器之间互相博弈、不断学习,进而产生大量高精度的数据。

自2017年以来,深度伪造技术开始活跃在网络中,随着这一技术算法的日趋成熟,到如今,无论是人像还是声音、视频都可以被伪造或合成,并可达到几乎不能辨别真伪的程度,并开始引发诸多社会问题,人脸识别也面临被欺骗的考验。

2、DeepFake技术带来的重重风险

其实,面部伪造技术可追溯至20世纪60年代,当时好莱坞就开始尝试使用“换脸”特效技术,在1994年著名电影《阿甘正传》中男主角受到肯尼迪总统接见的片段中也就是使用了换脸技术。

而随着近几十年“AI换脸”技术的发展精进,现在通过简单的APP操作,一个人就能在视频里被轻易地替换成另一个人,表情、动作、姿态几乎能够达到完全同步,比如之前美国的Deepnude软件和国内红极一时的换脸软件ZAO。此外,去年9月,开源换脸工具FaceSwap甚至以超过23000星一度登上GitHub排行榜。

除了娱乐行业之外,深度伪造技术在教育、文创、游戏等诸多领域都具有积极应用潜力,深度伪造技术也正在无成本、平民化地走向大众生活。但目前,由于鉴别深度伪造技术的能力却还未成熟,这对个人隐私、媒体公信力、司法取证等多方面带来困扰,引发了社会担忧。

一方面是安全问题凸显。人脸识别技术的信息安全将首先面临严峻挑战,由于目前人脸识别还在在识别精度、信息储存标准以及应用范围等问题上仍待规范,深度伪造技术将让仿冒身份、用户授权被盗用等安全问题爆发,严重威胁到公民人身安全和金融安全。

另一方面将导致信息不实,引发秩序混乱。2018年4月,美国前总统奥巴马说“特朗普是个彻头彻尾的笨蛋”的视频,在推特上获得超过200万次的播放,2019年5月特朗普在推特上转发并嘲讽的美国众议长佩洛西说话结巴的视频引发大量关注,最终都被证明是由深度伪造技术生成的伪视频。这些虚假信息除了将直接影响个人信誉外,甚至还可能引发“蝴蝶效应”导致整个市场秩序的紊乱。

由于这些潜在的安全威胁和信任危机,各国政府也纷纷出手,加强对技术的监管,坚决遏制恶性苗头的出现。

3、把 deepfake 关进笼子里,各大公司都在行动

谷歌

这的确不是谷歌第一次出面打击 deepfake 内容制作了。在2019年,Google Research 就发表过一个大型视频数据集。其背后是谷歌在自己内部通过制作 deepfake 视频的方式,从而试图了解相关算法的工作原理。

对于谷歌来说,它需要提高识别 deepfake 的能力,从而在商业化产品环境里(最典型的就是 YouTube 用户视频上传),从源头上切断恶意换脸视频的传播途径。以及,第三方公司也可以使用谷歌开放的这个数据集来训练 deepfake 探测器。

不过,近几年 Google Research 确实没有花太多心思在打击 deepfake 上。反而,该公司最近推出的 Imagen,一个超高拟真度的文字生成图片模型,效果非常惊人,反倒是引发了一些批评。

微软

微软研究院在2020年共同推出了一项 deepfake 探测技术,名为 Microsoft Video Authenticator。它能够检测画面中的渲染边界当中灰阶数值的不正常变化,对视频内容进行逐帧实时分析,并且生成置信度分数 (confidence score)。

微软也在和包括纽时、BBC、加拿大广播公司等顶级媒体合作,在新闻行业的场景下对 Video Authenticator 的能力进行检测。

与此同时,微软也在 Azure 云计算平台中加入了媒体内容元数据 (metadata) 校验的技术。通过这一方式,那些被修改过的视频内容可以和原视频的进行元数据比对——和下载文件的时候比对 MD5 值差不多意思。

Meta

2020年,Facebook 宣布在 Facebook 产品平台全面禁止 deepfake 类视频。

然而这个政策执行得并不彻底。比如,目前在 Instagram 上还可以经常见到那个著名的中国翻版马斯克 deepfake 视频(主要是从 TikTok 上转发过来的)。

在行业层面,Meta、亚马逊 AWS、微软、MIT、UC伯克利、牛津大学等公司和机构在2019年共同发起了一个 deepfake 检测挑战赛,鼓励更多、更优秀、更与时俱进的检测技术。

Twitter

2020年 Twitter 封杀了一批经常发布 deepfake 视频的账号。不过对于其它 deepfake 内容,Twitter 并没有完全限制,而是会打上一个标签“被修改的内容”(manipulated media),并且提供第三方事实核查机构的检测结果。

OARO MEDIA:西班牙公司,提供一套对内容进行多样化数字签名的工具,从而减少deepfake 等被修改过的内容传播对客户造成的负面影响。

Sentinel:位于爱沙尼亚,主要开发 deepfake 内容检测模型。

Quantum+Integrity:瑞士公司,提供一套基于 API 的 SaaS 服务,可以进行各种基于图像类的检测,能力包括视频会议实时 deepfake、截屏或图片“套娃”、虚假身份证件等。

文章来源: 品 玩,Techsoho

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:人工智源库
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...