当前位置: 首页 > 新闻 > 信息荟萃
编号:13786469
假作真时真亦假
http://www.100md.com 2019年10月28日 武汉科技报 2019.10.28
     “深度造假”视频危害日益加剧

    相机应用变得越来越复杂。用户可以拉长腿部,去除脸上的粉刺,加上动物耳朵等等。现在,有些人甚至可以制作出看起来非常逼真的虚假视频。用来创造这类数字内容的技术已经“飞入寻常百姓家”,被称为“深度造假”。随着技术的不断进步,“深度造假”的危害日益加剧,正带来一系列具有挑战性的政策、技术和法律问题。

    深度学习+造假=深度造假

    “深度造假”是指经过处理的视频,或者通过尖端的人工智能技术生成的其他数字内容,它们会产生看似真实的虚假图像和声音。

    “深度造假”这个词结合了“深度学习”和“造假”,是一种人工智能形式。深度学习指的是能够学习和自行做决定的一些算法。

    美国纽约大学法学兼职教授保罗·巴雷特说,简单来讲,“深度造假”就是借助深度学习手段制作的虚假视频。深度学习系统可以从多个角度研究目标人物的照片和视频,然后模仿其行为和说话模式,从而制造出具有说服力的虚假内容。

    巴雷特解释说:“一旦制造出了初步的假象,就可以通过名为‘生成式对抗网络’(GAN)的方法让它看起来更加可信。GAN可发现伪造过程中的瑕疵,从而改进这些瑕疵。经过多轮检查和改进后,‘深度造假’视频就完成了。”

    “李鬼”变“李逵”

    智库新美国(New America)关注网络安全与防御的战略家、高级研究员彼得·辛格指出,“深度造假”的危险在于,这种技术可以让人相信并不真实存在的东西是真实的。

    加利福尼亚大学洛杉矶分校电子工程系教授约翰·维拉塞纳表示,这类视频“变得越来越复杂、越来越容易制作,‘深度造假’正带来一系列问题”。这项技术“可以让政治候选人看上去像是说了或做了什么从未真正说过的话或做过的事,以此来破坏他们的声誉”。

    麻省理工学院的一项技术报告指出,"深度造假"可能成为“伪造虚假新闻者的理想武器,他们希望影响从股票价格到选举的一切”。

    成也萧何败也萧何

    维拉塞纳撰文指出,虽然人工智能可以用来生成“深度造假”视频,但也可以用来检测它们。由于任何计算机用户都可以使用该技术,越来越多的研究人员将注意力集中在“深度造假”视频的检测上,并且正在殚精竭虑地寻求管控这些“深度造假”视频的方法。

    脸书和微软等大公司已经采取行动,旨在发现并删除“深度造假”视频。据路透社报道,这两家公司于今年早些时候宣布,他们将与美国顶级大学合作,建立一个庞大的假视频数据库,以进行深入的分析研究。

    辛格指出,普通用户也可以用自己的双眼来观测并检查出“深度造假”视频。他说:“目前,如果你近距离观察,会出现一些轻微的突兀之处,比如耳朵或眼睛不匹配、脸部轮廓模糊等等。”但是他也强调,随着“深度造假”技术日益精进,视频会看起来越来越真实,人们要分辨也变得越来越困难。(科技日报), 百拇医药