IoT Worlds
人工智能博客

Deepfake – 你需要知道的

Deepfake 是一种新技术,可用于操纵视频和音频,目的是制作虚假媒体内容。 就其用于政治目的而言,它最近经常出现在新闻中,但它在工业和娱乐领域还有许多其他潜在用途。

什么是 deepfake 以及它是如何工作的

当有人使用人工智能程序生成现实中从未发生过的事物的图像、视频或音频剪辑时,就会创建深度伪造。 这些通常很容易识别,因为在与真实媒体交叉引用时,虚假内容通常会出现错误或矛盾

如何永久使用 deepfakes

到目前为止,人们已经将这项技术用于讽刺视频

将 deepfakes 用于恶意目的的危险

这项技术可用于制造人们毫无疑问会相信的错误信息,这可能在未来导致灾难性后果。 例如,想象一下,如果某个国家元首发布的镜头说他们想发动核攻击

假新闻的未来对政治、新闻业和社会的影响

未来,制造人们毫无疑问地相信的虚假媒体将比以往任何时候都容易,这可能在未来导致灾难性后果。 例如,想象一下,如果某个国家元首发布的镜头说他们想发动核攻击

未来解决这些问题的解决方案

对于来自所有可能背景的人(包括记者)来说,在报告任何内容为真实之前或什至只是在社交媒体上分享某些内容之前,通过多个来源验证内容将变得越来越重要。 对于 YouTube 或 Facebook 等科技公司来说,不仅仅是依靠用户将内容标记为存在某种问题,这也可能是有益的

关于这项技术对社会的潜在影响的重要性的结束语

未来,制造人们毫无疑问地相信的虚假媒体将比以往任何时候都容易,这可能在未来导致灾难性后果。 例如,想象一下,如果某个国家元首发布了一段视频,称他们要发动核攻击。

Deepfakes,如何避免上当?

“Deepfakes”是一个术语,指的是经过编辑的视频或图像,这些视频或图像看起来像是在做他们实际上没有做过的事情。 这些深度伪造的视频和图像可能是使用人工智能 (AI) 软件创建的,例如 FakeApp。 Deepfake 视频和图像可用于创建深度假新闻,或用于任何恶意目的。 为了他们的安全,人们应该确保他们拥有最新的软件,在他们访问的每个站点上使用唯一的密码,永远不要在浏览器中存储密码,如果不需要,禁用 Flash,避免安装通过网络弹出窗口提供的浏览器扩展您不信任的网站,尽可能避免下载盗版软件,并在下面查看我们关于避免 deepfake 视频和图像的提示。

有几个因素可以帮助您避免被深度伪造的视频或图像所欺骗。 首先,您应该使您的软件保持最新,因为这通常包括安全更新。 如果您的软件不是最新的,那么有人可能会利用旧版本软件中的安全漏洞在您不知情的情况下访问您的系统。 其次,如果您使用唯一密码(并定期更改密码),那么即使一个网站被黑客入侵,也不会影响您以后使用相同密码访问的任何其他网站。 第三个因素是确保在需要时安装 Flash。

如何识别 deepfake 视频

Deepfake 视频是使用 AI 操纵的视频,使其看起来好像有人在说或做他们没有做的事情。 Deepfake 视频可用于多种原因,包括宣传、娱乐和虚假信息。

要识别 deepfake 视频,您可以查找一些内容。 识别 deepfake 的最简单方法之一是视频中的人是否看起来与他们通常的样子不同。 此外,您可以在人的面部特征或不自然的嘴唇运动中寻找异常运动。 您还可以收听音频失真或不一致。

如果您不确定视频是真还是假,问问自己视频的目的是什么会有所帮助。 谁会从伪造此视频中受益? 如果伪造视频似乎没有任何明确的动机,那么视频更有可能是准确的。

如果你想弄清楚一个人是否以某种方式(例如,欺骗性地)说了什么,你可以做的另一件事是听并将他们的发音与他们所做的其他演讲的发音进行比较。 例如,如果某人以前曾公开谈论过某个问题,但从未像在这次新演讲中那样发音过一个词——这表明存在欺骗。

最早的 deepfakes 是使用 Adobe After Effects 创建的,这需要用户具备视频编辑知识。 然而,最近人工智能已被用于在没有任何用户输入的情况下制作深度伪造。 这减少了创建视频所需的后期制作工作量,但几乎不会阻止某人制作完全未被发现的假视频。

保护自己免受深度伪造视频影响的一种方法是在观看或阅读新闻媒体时保持怀疑。 如果某些事情看起来不对劲,在你确认它是真的之前不要相信它。 例如,在相信您在电视上听到的内容之前,请先检查多个来源,因为深度伪造视频正在成为一种越来越普遍的在线传播错误信息的方式。 请记住:仅仅因为某件事看起来是真实的并不意味着它是真实的。

过去的 deepfake 视频的一些例子包括前总统奥巴马以种族主义语气讲话的视频,以及女演员盖尔·加朵似乎在说她属于“伊斯兰国”(ISIS) 的视频。 这些视频展示了任何拥有正确技术和专业知识的人都可以轻松地创建看起来真实的深度伪造。 可以轻松创建这些视频也使许多人难以区分什么是真实的,什么不是。

如果您想保护自己免于成为受害者或无意中在网上宣传虚假信息,那么了解这些视频的制作方式以及识别它们的一些方法至关重要。

如何在后真相社会中保持知情

如果您想随时了解情况,可以采取几个步骤。 第一步是避免阅读未经多个可靠来源证实的信息。 您还应该考虑共享此类信息的动机。 如果消息来源似乎有偏见,或者没有明确解释他们为什么要分享某些内容,那么您应该重新考虑您对所提供信息的信任程度。 此外,请记住,仅仅因为某件事看起来是真实的并不意味着它是真实的。 将自己的观点建立在虚假信息的基础上可能是不明智的,因此在您有时间核实您在网上看到的内容之前,尽量不要妄下结论。 如果您不确定视频是真还是假,请问问自己视频的目的是什么。 谁会从伪造此视频中受益? 您还可以在人的面部特征或不自然的嘴唇运动中寻找异常运动。 最后,如果你想弄清楚一个人是否以某种方式(例如,欺骗性地)说了某事,那么倾听并将他们的发音与他们所做的其他演讲的发音进行比较会很有帮助。 例如,如果某人以前曾公开谈论过某个问题,但从未像在这次新演讲中那样发音过一个词——这表明存在欺骗。

Deepfake 革命的面孔

deepfake 革命是一种持续的现象,人们可以制作人们说或做他们从未做过的事情的视频。 deepfakes 背后的技术称为“深度学习”,它是一种机器学习,允许计算机通过示例学习如何做事。

这项技术已经被用来制作名人的假视频,而且只会变得更糟。 我们需要了解这项技术并为后果做好准备。

这种技术的后果是巨大的。 一方面,很容易让人们误以为这些视频是真实的。 我能够找到一个 subreddit,人们可以相对轻松地制作假视频,而且质量非常好。 某人在此 subreddit 上创建的一个视频获得了近 11,000 个赞。 这令人不安,因为这意味着整个社区都愿意分享假视频,就好像它们是真实的一样。 此外,没有任何针对 deepfake 的法律,因此看看这类事情在未来几年如何发展将会很有趣。

另一个后果是,我们可能会失去对整个数字媒体的信任,并停止将数字媒体用于教育和文档等用途。 一个例子是巴拉克·奥巴马(Barack Obama)谈论“假新闻”的视频,该视频实际上是由其他人创建的。 这表明让人们看起来很糟糕是多么容易,但是当与对人们生活有实际影响的政治演讲一起使用时,这项技术将更加危险。

我找到了一个网站,它可以只使用 Facebook 照片制作假视频。 只需上传 3-20 张您的脸部照片,该软件就会将它们组合成一个逼真的视频,您可以在其中说出您想要的任何内容。 人们已经开始使用这些视频来报复他们的前任或报复做错他们的人。 我认为这是危险的,因为这意味着如果 deepfake 变得更流行,我们可能会失去对彼此的信任。

这项技术令人上瘾,它有可能让我们沉迷于不存在的事物。 很多人已经浪费时间试图揭穿由这项技术制作的视频,这意味着他们一直被欺骗。 一个例子是巴拉克奥巴马说“我们杀死了奥萨马·本·拉登”的视频,该视频是由某人制作的。 这表明使用这种技术欺骗人们是多么容易,所以我认为每个人都应该在根据你在网上看到的做出任何决定之前意识到它的存在。 我们需要打击 deepfake 的法律,因为我相信,如果允许这些视频不受限制地发展,这些视频将证明对社会人与人之间的关系具有破坏性。 它将我们的社会分为两组,因为知道的人和不知道的人会对他们在网上看到的一切保持谨慎。 这将对我们的整个社会产生负面影响,因为人们将无法相信什么是真实的,什么不是,这意味着我们将不太可能相互交流或分享重要的事情,如文件和教育数字媒体。

Deepfakes,为什么你的数据一文不值?

三种类型的数据一文不值:Deepfakes、Your Data、Your Future。

Deepfake 是使用人工智能创建的视频。 它们通常用于通过将一个人的脸变形到另一个人的身体上来制作电影,或用于其他欺骗目的。 此类技术可用于创建可能破坏我们社会稳定的虚假视频内容。 与 Deepfakes 类似,您的数据也一文不值,因为它可以被操纵以用于任何目的。 最后一种一文不值的数据是你的未来,因为它是看不见的。 人们总是试图预测未来,但这非常困难。

Deepfakes – 你需要知道的关于这个数字噩梦的事情

Deepfakes 是一种数字操作,它使用人工智能来创建人们的视频,这些视频看起来像是在说或做他们从未说过或做过的事情。 Deepfake 视频通常用于制作假视频,但也可用于制作假新闻或操纵舆论。

Deepfake 视频是一场数字噩梦,因为它们可以用来传播谎言和虚假信息。 它们还可以用来勒索人们或损害他们的声誉。 Deepfake 视频很难检测,因此了解它们并对任何看起来好得令人难以置信的视频持怀疑态度非常重要。

Deepfake 视频是结合机器学习和人工智能制作的。 第一步是创建一个数据集,其中包含您想要说或做他们从未做过的事情的人的视频。 您可以使用免费提供的工具来生成此训练集,其中将包含您目标的数百或数千个短视频。 然后使用机器学习算法拍摄这些单独的视频,并“学习”面部在做出不同表情或说不同话时的样子。 一旦收集到足够的数据,机器学习算法就可以生成看起来非常逼真和自然的新假视频。

Deepfakes 一词是由一位匿名 Reddit 用户创造的。

什么是深度伪造音频?

Deepfake 音频是一种新兴技术,可以创建假录音。 它的功能是用某人的声音创建声音或视频并将其放在另一个人的身体上。 这通常被人们用来让他人难堪,但 deepfakes 也可用于制作虚假视频和录音,以诋毁或威胁政客和名人。

Deepfake 音频是过去几年出现的一项相对较新的技术,但由于其易用性而越来越受欢迎。 网上有几个网站,人们可以上传声音,其他用户可以将它们放在别人的嘴里以创建视频。 人工智能 (AI) 使这一过程成为可能,人工智能 (AI) 可用于多种目的,包括编辑视频或创建假视频。 它通过从某种音频源获取数据并使用它进行进一步处理以完成视频工作来工作。 人们使用深度伪造政客的演讲来诋毁他们,或者使用名人的明确音频来羞辱他们。

deepfakes 的可能影响是什么?

Deepfakes 是最近在互联网上出现的一种 AI 生成的视频。 这些视频是由算法创建的,让人们说出他们从未说过的话或似乎在做他们从未做过的事情。 通过这种方式,deepfake 可以作为一种虚假信息形式来改变人们对现实的看法。 随着时间的推移,deepfake 很有可能会继续激增并变得更有说服力,因为算法可以从以前的 deepfake 视频中学习并随着时间的推移而改进。 这可能会导致任何视频片段不再具有可信度,使我们无法相信我们看到或听到的任何东西。

需要关注的最重要的影响之一是真实性问题。 发布假新闻已成为一种越来越容易和普遍的做法,以至于很难知道任何视频片段或照片是否真实,因为我们永远无法完全确定。 互联网对这个问题有很大贡献。 当您在 Google 上搜索任何内容时,您一定会遇到多个显示相互矛盾的信息的网站,当您试图辨别什么是真假时,这会更加令人困惑。 如果深度伪造被广泛视为可靠的信息来源,那么由于其不确定性,直接影响将是对所有其他形式的内容失去信任。 它还可以让我们质疑我们听到或看到的一切——甚至是我们亲眼记录的事情。

特别是,记者可能会受到深度伪造增加的影响。 这项技术可能使他们无法知道他们进行的采访是否真实,这会危及他们的可信度。 如果人们不再相信他们报告的内容是准确的,那么他们的收视率很可能会下降,人们将转向提供看起来更合法的内容的来源,而不管其有效性如何。 只要观众相信他们从其他地方得到了真相,他们对主流媒体的信任就会继续下降。

此外,如果一些国家不能足够快地解决这个问题,广泛的虚假信息的影响可能会导致国际关系发生变化。 例如,如果发布了一段伪造的视频,看起来像是两国领导人在互相侮辱,那么两国人民可能会相互敌视,并产生一种虚假的敌意。 如果原始视频没有足够快地发布和证伪,人们可能会继续感知现实,因为它被假视频扭曲了,这使得公民之间的暴力交流更有可能,因为他们将被鼓励采取行动基于他们对一个实际上并不存在的人的愤怒。

我们还可以看到好莱坞的大幅下滑,因为观众不再去电影院了,因为他们更喜欢在家看带有深度伪造的电影,而不是没有逼真的视觉效果。 如果技术的发展速度超过电影制作所需的时间,该行业可能无法跟上技术的发展步伐,这将导致收入大幅下降。 我们甚至可能会开始看完全由计算机生成的电影,因为根本不再需要演员了。

尽管深度造假可能会对艺术产生积极影响,但随着人工智能继续发展并在各个行业中传播,产生负面影响的可能性要大得多。 人们意识到这个问题是不可或缺的,这样他们就可以在虚假信息变得无法停止或变得过于有说服力之前决定如何解决它。 出于这个原因,开发人员应该不断地测试算法并找到限制其能力的方法,以防止信息被扭曲。 这可能涉及限制视频的逼真程度或需要身份验证证书才能共享某些内容。 例如,为了在 Facebook 上发布 deepfakes 视频,需要在经过公司审核后将其标记为已验证。

由于人工智能已经变得如此先进,我们甚至可能会停止将虚拟现实和增强现实视为先进技术。 所有数字内容都可以融合在一起,因此很难分辨哪些是真实的,哪些不是,这会破坏我们对多种媒体形式的信任。 我们可以防止这种情况发生的唯一方法是,如果我们作为一个社会共同努力,在这些做法有任何成功的机会之前结束这些做法。 我们不知道 deepfake 技术会走多远,不管它对我们是好是坏,但我们不能让它损害我们感知现实的能力。


我们预计何时会看到大量使用 deepfakes?

Deepfake 是由人工智能或机器学习算法生成的视频。 Deepfake 用户可以拍摄几秒钟的视频,然后将其变成几分钟的样子。 Deepfakes 允许普通人创建令人信服的换脸、语音模仿或您可能在电影中看到的任何其他类型的操作。

我们可能会在某个时候看到深度伪造的大规模使用,因为人工智能在识别人脸、声音和其他事物方面变得越来越好,这使得这些类型的技术的使用成为主流成为可能。

当它们被实时渲染时,公众将开始看到深度伪造视频的高级用法。 这意味着,当算法创建逼真的视频只需不到几分钟的时间。 花费的时间越长,人们就越不愿意等待它生成。 大多数人不会关心或注意到它是否不是真正的实时渲染,因为一旦他们知道某些东西是假的,大多数人就会停止关注——只要一种算法可以成功地用他们的眼睛欺骗他们而不需要太多努力。 面部识别、机器学习算法和数字渲染方面的技术进步可能会让普通消费者开始注意到 deepfake 视频,但这可能还需要几年时间。

我们将在三到五年内开始看到这些类型的视频,因为最近技术进步不大,这是一个相对较新的概念。 我们已经可以使用 Adobe Premiere Pro 和 After Effects 等编辑软件创建看起来真实的传统假视频。 这些视频与 deepfake 视频之间的唯一区别是我们无法控制人们说什么或他们如何移动他们的嘴巴,因此我们需要像 FakeApp 这样的软件,它使用机器学习算法来执行换脸和类似的事情。 创建足够的内容让公众接受机器学习视频是真实的,这将需要大量的时间和金钱。 我们还需要更多的技术进步,例如廉价、高分辨率的 3D 打印机,它们可以在不损失太多清晰度的情况下制作真人大小的头部。 另外,我认为我们可能会在这些类型的视频在社交媒体上流行之前就在电影中看到它们,因为电影的生命周期不仅仅是几分钟,而且如果他们在影院或电影院看到它们,人们会对它们更加开放。大制作公司的广告最少。

我个人认为我们永远不会从传统视频中识别出 deepfake 视频,但它肯定会改变我们对采访和演讲等事物的看法。 在我看来,对于这种技术,没有人能做太多事情。 制作假视频并不违法,在网上发布它们也不违法,如果制作者希望视频是真实的,其他任何人都无法判断视频是否是假的。

我认为普通 Facebook 用户不会开始注意到 deepfake 视频,直到它们能够实时呈现。 尽管像 FakeApp 这样的网站使用机器学习算法而不是传统的编辑软件来制作假视频,但由于每一秒的镜头需要多少计算能力,这些类型的视频很难创建。 所需的电力会给服务器和网络带来巨大的压力,这意味着需要很长时间才能生成具有足够高真实性的视频。

由于 deepfake 视频的性质,我认为我们不会在它们创建后立即看到它们的使用量急剧上升。 在网上发布或重新分发它们并不违法,因此如果有人想分享他们创造的东西,那就无能为力了。 在我看来,当 Facebook 等社交媒体网站开始与广告商就托管这些类型的视频发生问题时,这很可能会开始成为一个问题,因为它们可能会引起观众的愤怒,因为他们试图在日常生活中不遇到假视频来自朋友或家人。 过去人们已经成功地被传统的 CGI 技术愚弄,因此很难判断某人是被机器学习算法愚弄还是因为编辑软件而被愚弄。 我认为当人们开始对他们从媒体上看到和听到的内容失去信心时,这将成为一个问题,这可能会导致对公众人物缺乏信心。

我认为在取得某种技术进步之前,我们不会真正注意到 deepfake。 目前,创建这些视频仍然非常耗时且需要大量计算资源,因此您可以想象每个视频需要多长时间来渲染。 对于那些想要数百万份副本的人来说,这将是一项相当费力的工作,因为他们必须一份一份地去做,但是一旦有东西可以大规模生成它们,我想我们会诚实地看到有多大的问题这可能成为。

我认为人们在开始考虑摄像机角度之前不会真正注意到。 如果制作假视频的人能够获得足够多的人在视频中讲话或四处走动的镜头,那么他们是否使用传统的编辑工具或机器学习算法就无关紧要了,因为成品看起来足够真实,可以冒充真实的不用想太多。 尽管目前深度伪造视频的创建极其困难且耗时,但允许实时完成更多事情的技术进步将使其变得容易得多。 目前,deepfake 一词指的是任何使用机器学习算法和传统编辑软件伪造的视频,但如果能够同时做到这两点,那么我们将面临更大的问题。

我认为假视频不会变得太流行,除非人们找到一种简单的方法让他们为他们工作,而不是不得不用大量预算雇用其他人。 无论这些东西会变得多么便宜或昂贵,大多数人仍然需要大量的时间和金钱才能在不雇用其他人的情况下制造自己的假货。 有些人会在他们的家庭企业中出售深度伪造视频,但在大多数情况下,我认为除非这是任何人都可以做到的事情,否则它不会对社会产生太大影响。

我不认为人们会开始广泛使用这些视频,除非这样做有大量的经济激励。 现在,如果你要制作一个没有任何可识别或特定目标的假镜头视频,那么就很难引起任何关注,因为一开始就不会有任何值得批评的东西。 即使有人真的想为了好玩而制作一个,但仍然需要时间和计算能力来制作它,所以如果他们没有目标,那就没有多大意义了。 如果这些视频能够在规模上变得极具说服力,那么我认为人们会开始将它们用于负面目的,以赚钱为目标。

在人们能够自动制作基于对话的剪辑之前,我认为假视频不会真正流行起来。 目前,大多数赝品都是基本的静止图像,它们要么被修改,要么完全重新排列,以适应它们被创建的任何目的。 如果 deepfake 算法能够模仿更多现实生活中的动作,例如唇形同步或手势捷径,那么我认为它将开辟一个全新的可能性世界,人们可以创造出更具说服力的最终产品。 如果视频能够模仿现实生活中说话的动作,那么我可以想象它们会变得非常流行,作为一种误导或诽谤某人而不会产生任何后果的方式,因为没有人能够真正检查它是否真实。

Related Articles

WP Radio
WP Radio
OFFLINE LIVE