摘要
帮你速读文章内容
乌克兰总统泽连斯基投降视频实为黑客利用深度伪造技术篡改。深度伪造技术通过AI换脸、语音模拟等生成逼真虚假内容,多用于政客和演员。该技术已应用于娱乐电影,但也存在色情、诈骗等滥用风险,需加强监管。
摘要由平台通过智能技术生成
有用

来源:新浪军事

在去年俄罗斯进攻乌克兰后的第三周,乌克兰的官网放出了一段乌克兰总统泽连斯基的视频。视频中,泽连斯基身穿他标志性的绿色T恤,表情略不自然的号召他的军队放下武器,向俄罗斯投降。舆论哗然,但很快人们知道这是一个造假的视频。

这段视频其实是黑客利用深度伪造技术篡改的虚假视频内容。深度伪造技术或者称为Deepfake,这个词最早出现在一个叫“Reddit”的社交平台。平台上使用这个名称的社区和账号会提供和传播一些女明星的虚假色情视频。这个社群内的除了交流这些虚假色情视频外,还提供一些AI换脸软件,可以自动的将视频中的人脸更换成另一个人脸。虽然后来Reddit将这个社群关闭了,但这项技术却流传出来被大众知晓,也很快的被应用在了一些政治人物和演员的视频中。

我们来了解一下什么是深度伪造技术Deepfake。

Deepfake是“Deep Machine Learning(深度机器学习)”与“Fake Photo(假照片)”两个词的合成词,即通过人工智能技术中的深度学习模型将图片或者视频叠加到原始图片或视频上,借助神经网络技术,对大量数据进行学习后,将人的声音、面部表情及身体动作拼接合成为非常逼真的虚假内容。深度伪造最常见的是AI换脸技术,此外还包括语音模拟、人脸合成、视频生成等。

以网上非常流行的一段美国前总统Obama的视频为例。

美国导演兼演员Jordan Peele在2018年发表了一段视频,以Obama的形象和口吻在视频中说“特朗普是一个笨蛋”。这样的视频制作需要大量的Obama视频或照片数据,数据被输入到神经网络的软件系统中,在你想仿造的形象与Obama真实形象之间建立起统计关联。如果你想让仿造的Obama说他本人从未说过的话,就需要让软件去学习特定单词与Obama嘴型之间的关联。同样的,如果需要换脸,你需要让软件去学习脸与身体之间的关联。

进一步来说,这项深度伪造技术的基础是GANS即Generative Adversarial Networks“生成式对抗网络”。该项AI技术的基本思想就是让两个神经网络在相互对抗中学习成长。其中一个神经网络被称为生成器(Generator),用于生成与真实数据相似的数据;另一个神经网络叫判别器(Discriminator),用于区分真数据和假数据。

以生成虚假视频或者照片为例,生成器的AI就是一个造假者,生成假的照片,判别器的AI就是一个侦探,会判断照片是否是真实的。造假者根据要求生成一个照片图像给侦探看,侦探会找出这张照片中有哪些地方不真实,反馈给造假者。侦探或者说判别器之前已经在成千上万亿的数据中受到过训练了,所以知道真实的图像是什么样子。造假者会根据侦探反馈的信息修改自己的照片,再生成出来让侦探判断。这样循环反复,直到生成真假难分的照片。

训练这个模型需要大量质量好的视频和照片数据,这就是为什么Deepfake的虚假内容最多发生在政客和演员身上,因为网上存有大量他们的图片数据。数据越多,效果越好。

随着技术的发展,现在的伪造视频或图片靠人的肉眼已经越来越难发现区别了。Deepfake目前在娱乐电影行业得到了大量应用,例如《流浪地球2》中吴京和刘德华扮演角色的年轻时候的形象就是这项技术的应用。或者你可以看到从未存在过的电影片段,比如汤姆克鲁斯扮演的钢铁侠。

但是这项技术同时让人觉得恐惧,因为你很难从网上的信息中确定你是否看到的是真实情况。“所见不一定是所得”!前面泽连斯基的视频就是一个典型案例;据说超过90%的Deepfake应用在了色情片中,大量女性成了受害者。这项技术应用到了诈骗场景,就更是让人汗颜了。

那么是否有办法检测到这是伪造的视频或图片呢?

如果是质量非常高的Deepfake视频或者图片,基本靠肉眼是分辨不了的,需要收集其他的信息一起做综合判断。

虽然说在伪造视频中,如果你放慢帧数,有些片段衔接处会有异常的镜头。但是随着伪造技术的逐步提升,这些异常镜头会越来越少直到消失。

最终还是需要大众在获取信息的时候,确认信息的来源是否可信;以及传播信息的互联网平台上能设立监管机制和监控机制。

总之,你未来面对Deepfake的机会很可能会越来越多了。所以,朋友们,当你们开心上传自己的照片到公共网络的时候,是不是还需要慎重一点呢?

举报/反馈

新浪财经

4198万获赞 305.6万粉丝
新浪财经提供7×24小时的全球财经内容服务
新浪财经官方账号
关注
0
0
收藏
分享