立足瑞士 报道世界

深伪技术之下,眼见真的为实吗?

immagine volti digitali
Brain Light / Alamy Stock Photo

高度逼真的假视频,或者说深伪视频,已经使得普通人能够运用特别手段来操纵视觉传达的内容,达到影响公众舆论和传播虚假信息的目的。来自瑞士的两位世界一流深伪专家,将就此解释:为何骗过我们的双眼变得越来越容易。

亚伯拉罕·林肯曾用这样的方法来使自己的形象看上去更伟岸,以增加总统光环;约瑟夫·斯大林和毛泽东则用它来将自己的政治对手们从历史上抹去:图像处理技术的历史至少与摄影技术的历史一样悠久。

然而,从前只有少数的专业人才能熟练地欺骗人的眼睛,而今天,这项技术已然变成了小孩子都能操纵的游戏。只需要从互联网上下载软件,从搜索引擎或社交媒体上截取一些图像,任何人都可以制作假视频,并且在网络上像病毒一样传播。瑞士洛桑联邦理工学院(EPFL)多媒体信号处理实验室负责人图拉吉·易卜拉希米(Touradj Ebrahimi)说:“如今,一张照片就足以成功创造一个深伪图像。”

“深伪”(deepfake)一词起源于2017年,是词条“deep learning”(英语中表示“人工智能的 ‘深度’自主习得现象”)和 “fake”(英语中的“虚假”)的缩略语。

深伪利用人工智能生成合成图像,其合成效果非常真实,不仅能够骗过我们的眼睛,还能够骗过专门识别合成图像的算法。几年来,易卜拉希米的团队一直专注于研究深伪,并开发最先进的系统,以验证照片、视频、图像和音频的真实性。

但这是一场与时间和技术的竞赛,因为随着社交媒体的出现,信息造假已经不可避免地成为了世界各国国家安全的重要威胁。数以百万计的个人、机构以及政府组织纷纷创建资源公开平台,传播允许各方自由访问的信息,但同时,这些信息也可以被伪造。在易卜拉希米看来,俄罗斯、中国、伊朗和朝鲜等国家被认为在传播假新闻方面非常活跃,其手段包括使用深伪在国内及境外传播伪造信息。

瑞士洛桑联邦理工学院的一个附属机构正在使用人工智能和深度学习来开发软件,帮助专家检测造假欺诈行为:

相关内容
Manipulated image of Albert Einstein

相关内容

深伪猎人

此内容发布于 深伪技术(deepfake)经常用于广告和电影中,例如帮助演员展现自己年轻时的模样。然而,这项技术很大程度上存在被滥用的可能性。瑞士洛桑联邦理工学院的一个附属机构正在使用人工智能和深度学习来开发软件,帮助专家检测造假欺诈行为。

更多阅览 深伪猎人

眼见需要为实

人类几乎从不怀疑自己双眼所见的事物的真实性。麻省理工学院的一项研究表明,假新闻在推特上的传播速度比信息确凿的真实新闻快六倍。易卜拉希米认为,这一研究结果使得深伪技术的普及更加地使人担忧:“深伪是一种非常强大的造假手段,因为人们仍然倾向于相信他们亲眼所见的东西。”

相关内容
portrait虽然最有名的深度伪造是对于政客和名人的滑稽模仿,但是人们现在日益担心这一技术会被用于干扰政治进程或者操纵公共意见。

相关内容

瑞士科学家是如何设法识别深伪换脸的?

此内容发布于 由于使用人工智能伪造视频变得日益复杂,瑞士的专家正在重新评估其恶意使用对社会所造成的风险。同时,专家也正在寻找新的途径阻止视频背后的制作者。

更多阅览 瑞士科学家是如何设法识别深伪换脸的?

另外,合成视频的质量也在持续提高,使人越来越难以辨别真假。易卜拉希米表示:“一个拥有丰富资源的国家已经能够制造出的非常高质量的深伪视频,其真实性甚至可以骗过最有经验的眼睛。”高端的软件可以识别伪造的视觉内容,但这位瑞士洛桑联邦理工学院的教授估计,即使在两到五年之后,一般机器也无法保证能够区分深伪内容的真假。

20年来,图拉吉·易卜拉希米的团队一直致力于图像、视频、音频和对话内容的媒体安全问题,深入研究针对上述内容真实性的检测手段。最初信息造假主要涉及版权问题,后来这个问题转移到了隐私和视频监控的领域。直到社交媒体的出现,进一步促成了虚假信息的大规模传播。

深伪能够逃过鉴别真假的普通探测器。为此,易卜拉希米的实验团队使用一种名为“溯源技术”(Provenance Technology)的“范式”,以匿名的方式来确定一段内容是如何创建的,以及使用了哪些方式加以伪造。 易卜拉希米说:“但是,要使得该项技术发挥作用,必须要有大量的网络使用者的支持:例如,谷歌用户,Mozilla,Abode,微软,以及所有的社交媒体平台的用户。”他补充说:“目标是商定一个JPEG[图像和视频文件]的格式标准,在全球范围内应用。”

“越来越多的造假”

最初,虚假视频主要被用来制作演员和其他知名人物的搞笑片段,或被使用在电子游戏中。但很快它们就成为一种有效的诋毁工具,尤其用来制作诋毁女性的虚假信息。另外,还会用来作为勒索钱财和操纵公众舆论的手段。

深伪已被证明能够叠加两个不同人的面孔,以创建一份虚假的个人资料,甚至营造一个虚假的身份。网络罪犯利用深伪,通过冒充管理员的身份,欺骗对方公司诱使他们向自己汇款。

瑞士研究机构idiap的高级研究员塞巴斯蒂安·马塞尔预测说:“目前这类操作尚且较少,但随着技术的成熟,我们将看到越来越多的深伪操作。”马塞尔介绍说,目前的深伪技术只允许操纵视觉内容,而不允许操纵音频;而至于声音的合成,有些是取自其他视频,有些则是由专业人士模仿的。“伪造音频的技术目前仍然是一个挑战,但在未来,我们也许将看到超逼真的深伪视频,能够实时再现任何人的图像和声音。”在这一点上,在竞争对手或商业竞争者身上制造虚假丑闻等行为将变得很容易。

塞巴斯蒂安·马塞尔(Sébastien Marcel)是瑞士研究所idiap生物识别安全和隐私小组的负责人。该小组是瑞士为数不多的从事生物识别研究,并以此来评估和加强指纹和人脸识别系统性能的实验室之一。马塞尔说:“在瑞士,面部识别和生物识别的研究总体上仍然相当薄弱。”

翻转现实

事实上,假视频也能有积极的作用,易卜拉希米强调:“深伪已经被使用在心理治疗领域,用来减轻那些失去亲属的人的痛苦。”比如在荷兰发生的一个案例,一对悲伤的父母为他们早逝的女儿制作了深伪视频,以这样的方式来与她道别。MyHeritage网站也提供类似的功能:通过DeepNostalgia工具,网站用户可以通过在照片中的面孔来“复活”去世了的亲人。

但随着深伪技术的普及,有些真实的视频也可能被误认为是被伪造的内容。在加蓬,阿里·邦戈总统因病缺席公共事务之后的几个星期,他再次出现的画面被认为是由深伪技术合成的图像,因此引发了一小撮军事政变分子的起义。

学者尼娜·希克(Nina Schick)在她的书《深伪:即将到来的信息断层》(Deepfakesthe coming Infocalypse)中指出:无法辨别真伪的不确定性会带来消极的后果,并由此诞生一种“似是而非的否认”的情况,在这样的情况下,没有人愿意承担责任,因为一切都可能是伪造的。

希克表示:“深伪赋予了任何人伪造任何事物的权力,如果一切都可以被伪造,那么任何人都可以对任何事实进行合理的否认与反对。”她认为这是深伪给当今社会带来的最大的危险之一。

如何打击“虚假新闻”的文化

好消息是,欧盟并没有对这个问题掉以轻心。像“地平线欧洲”这样的资助项目给针对虚假视频的研究提供了很大的支持。马塞尔说:“我们预计在未来几年能够见证更多欧盟关于深伪的项目支持。”在技术层面上,解决深伪技术带来的问题意味着要积极主动地采取措施,并且关注目前技术的漏洞。Idiap的研究人员表示:“事情并不总是那么简单。在学术层面,一个项目获得资助的过程总是缓慢的。”与此同时,深伪背后的技术发展得越来越快。

易卜拉希米和马塞尔一致认为,为了打击虚假新闻,培养民众批判意识和更深刻的公民责任感是至关重要的。易卜拉希米说:“我们必须教导我们的孩子质疑他们在互联网上看到的东西,不要不分青红皂白地传播任何内容。”

机器人学习

相关内容

人工智能面临伦理考验

数字技术打开了广阔的经济和社会发展前景,但近期的一些技术进步(如人脸识别)也带来了伦理上的难题。作为人工智能技术的主要开发国之一,瑞士面临的挑战不容小觑。

更多阅览 人工智能面临伦理考验

您可以在这里找到读者与我们记者团队正在讨论交流的话题。

请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团