IoT Worlds
БлогИскусственный интеллект

Дипфейк — что вам нужно знать

Deepfake — это новая технология, которую можно использовать для манипулирования видео и аудио с целью создания ложного медиаконтента. В последнее время он часто упоминается в новостях с точки зрения его использования в политических целях, но у него есть много других потенциальных применений как в индустрии, так и в сфере развлечений.

Что такое дипфейк и как он работает

Дипфейк создается, когда кто-то использует программу искусственного интеллекта для создания изображения, видео или аудиоклипа чего-то, чего никогда не было в реальности. Их часто довольно легко идентифицировать, потому что поддельный контент обычно содержит ошибки или противоречия при перекрестных ссылках с подлинными СМИ.

Как использовать дипфейки во благо

Люди до сих пор использовали эту технологию для сатирических видео.

Опасности использования дипфейков в злонамеренных целях

Эта технология может быть использована для создания дезинформации, которой люди безоговорочно поверят, что может привести к катастрофическим последствиям в будущем. Например, представьте, если бы были опубликованы кадры главы государства, говорящего, что они хотят нанести ядерный удар.

Последствия будущего фейковых новостей для политики, журналистики и общества

В будущем будет легче, чем когда-либо, создавать фальшивые СМИ, которым люди безоговорочно поверят, что может привести к катастрофическим последствиям в будущем. Например, представьте, если бы были опубликованы кадры главы государства, говорящего, что они хотят нанести ядерный удар.

Решения для борьбы с этими проблемами в будущем

Людям самого разного происхождения, включая журналистов, будет все более важно проверять контент из нескольких источников, прежде чем сообщать что-либо как правду или даже просто делиться чем-либо в социальных сетях. Технологическим компаниям, таким как YouTube или Facebook, также может быть выгодно делать больше, чем просто полагаться на то, что пользователи помечают контент как проблемный.

Заключительные замечания о важности потенциального воздействия этой технологии на общество

В будущем будет легче, чем когда-либо, создавать фальшивые СМИ, которым люди безоговорочно поверят, что может привести к катастрофическим последствиям в будущем. Например, представьте, если бы были опубликованы кадры, на которых глава государства говорит, что хочет нанести ядерный удар.

Дипфейки, как не попасться на удочку?

«Deepfakes» — это термин, который относится к отредактированным видео или изображениям людей, которые, кажется, делают что-то, чего на самом деле не делали. Эти глубоко поддельные видео и изображения могут быть созданы с помощью программного обеспечения искусственного интеллекта (ИИ), такого как FakeApp. Глубокие фейковые видео и изображения могут использоваться для создания глубоких фейковых новостей или для любых других вредоносных целей. В целях безопасности люди должны убедиться, что у них установлено новейшее программное обеспечение, использовать уникальные пароли на каждом посещаемом сайте, никогда не хранить пароли в своем браузере, отключать Flash, если он не нужен, избегать установки расширений браузера, предлагаемых через всплывающие окна в Интернете. сайты, которым вы не доверяете, избегайте загрузки пиратского программного обеспечения, если это возможно, и ознакомьтесь с нашими советами по избеганию поддельных видео и изображений ниже.

Есть несколько факторов, которые могут помочь вам не быть обманутым фейковым видео или изображением. Во-первых, вы должны поддерживать свое программное обеспечение в актуальном состоянии, потому что оно часто включает обновления безопасности. Если ваше программное обеспечение не обновлено, возможно, кто-то воспользуется уязвимостями безопасности в старых версиях программного обеспечения, чтобы получить доступ к вашей системе без вашего ведома. Во-вторых, если вы используете уникальные пароли (и регулярно их меняете), то даже если один веб-сайт будет взломан, это не повлияет на другие веб-сайты, которые вы будете посещать в будущем с тем же паролем. Третий фактор — убедитесь, что Flash установлен, когда вам это нужно.

Как определить дипфейковое видео

Видео Deepfake — это видео, которые были обработаны с помощью ИИ, чтобы создать впечатление, будто кто-то говорит или делает что-то, чего он не делал. Видео Deepfake можно использовать по разным причинам, включая пропаганду, развлечение и дезинформацию.

Чтобы идентифицировать дипфейковое видео, вы можете найти несколько вещей. Один из самых простых способов определить дипфейк — если человек на видео выглядит не так, как обычно. Кроме того, вы можете искать необычные движения черт лица человека или неестественные движения губ. Вы также можете прослушивать звуковые искажения или несоответствия.

Если вы не уверены, является ли видео настоящим или фальшивым, может быть полезно спросить себя, какова цель видео. Кому будет выгоден фейк этого видео? Если кажется, что нет четкой мотивации для фальсификации видео, то более вероятно, что видео является точным.

Еще одна вещь, которую вы можете сделать, если пытаетесь выяснить, сказал ли человек что-то определенным образом (например, вводя в заблуждение), — это послушать и сравнить его произношение с произношением других его речей. Например, если кто-то публично говорил о проблеме раньше, но никогда не произносил ни слова так же, как в этой новой речи, — это сигнал обмана.

Самые ранние дипфейки создавались с помощью Adobe After Effects, что требует от пользователей знаний о редактировании видео. Однако совсем недавно искусственный интеллект использовался для создания дипфейков без участия пользователя. Это уменьшает объем работы по постобработке, необходимой для создания видео, но мало что мешает кому-то создать поддельное видео совершенно незамеченным.

Один из способов защитить себя от влияния дипфейковых видео — скептически относиться к просмотру или чтению новостей. Если что-то кажется неверным, не верьте этому, пока не убедитесь, что это правда. Например, проверьте несколько источников, прежде чем верить тому, что вы слышите по телевизору, потому что дипфейковые видео становятся все более распространенным способом распространения дезинформации в Интернете. И помните: если что-то кажется правдой, это не значит, что так оно и есть.

Некоторые примеры прошлых дипфейковых видео включают одно, где бывший президент Обама говорил расистским тоном, и другое, где актриса Галь Гадот, казалось, говорила, что она принадлежит к «Исламскому государству» (ИГИЛ). Эти видеоролики показывают, насколько легко любому, у кого есть доступ к нужным технологиям и опыту, можно создавать дипфейки, которые кажутся реальными. Легкость, с которой могут быть созданы эти видеоролики, также мешает многим людям отличить, что реально, а что нет.

Понимание того, как создаются эти видео, а также знание некоторых способов их идентификации, крайне важно, если вы хотите защитить себя от того, чтобы стать жертвой или непреднамеренно продвигать ложную информацию в Интернете.

Как оставаться в курсе в обществе постправды

Если вы хотите быть в курсе, вы можете предпринять несколько шагов. Первый шаг — избегать чтения информации, не подтвержденной несколькими достоверными источниками. Вам также следует подумать о том, какова может быть мотивация для обмена такого рода информацией. Если источник кажется предвзятым или если нет четкого объяснения того, почему он чем-то делится, вам следует пересмотреть, насколько вы доверяете представленной информации. Кроме того, помните, что только потому, что что-то кажется правдой, не означает, что так оно и есть. Может быть неразумно основывать свое собственное мнение на ложной информации, поэтому постарайтесь не делать поспешных выводов, пока у вас не будет времени проверить то, что вы видите в Интернете. Если вы не уверены, настоящее видео или подделка, спросите себя, какова цель видео. Кому будет выгоден фейк этого видео? Вы также можете искать необычные движения черт лица человека или неестественные движения губ. И, наконец, если вы пытаетесь выяснить, сказал ли человек что-то определенным образом (например, обманчиво), было бы полезно послушать и сравнить его произношение с произношением других его речей. Например, если кто-то публично говорил о проблеме раньше, но никогда не произносил ни слова так же, как в этой новой речи, — это сигнал обмана.

Лицо революции дипфейков

Революция дипфейков — это постоянное явление, когда люди могут создавать видеоролики, в которых люди говорят или делают то, чего никогда не делали. Технология, лежащая в основе дипфейков, называется «глубокое обучение». Это тип машинного обучения, который позволяет компьютерам учиться делать что-то на примере.

Эта технология уже использовалась для создания поддельных видеороликов со знаменитостями, и дальше будет только хуже. Мы должны знать об этой технологии и быть готовыми к последствиям.

Последствия такого рода технологий огромны. Во-первых, очень легко обмануть людей, заставив их думать, что эти видео настоящие. Мне удалось найти сабреддит, где люди относительно легко создают поддельные видео, а качество безумное. Одно видео, созданное кем-то из этого сабреддита, набрало почти 11 000 голосов. Это тревожит, потому что это означает, что есть целое сообщество, готовое делиться поддельными видео, как если бы они были настоящими. Кроме того, нет никаких законов против дипфейков, поэтому будет интересно посмотреть, как этот тип вещей будет развиваться в ближайшие годы.

Еще одно последствие заключается в том, что мы можем потерять доверие к цифровым медиа в целом и перестать использовать цифровые медиа для таких вещей, как образование и документация. Одним из примеров является видео, в котором Барак Обама говорит о «фейковых новостях», которые на самом деле были созданы кем-то другим. Это показывает, как легко выставить людей в плохом свете, но эта технология будет еще более опасной, когда используется с политическими речами, которые имеют реальные последствия для жизни людей.

Я нашел веб-сайт, который может создавать поддельные видео, используя только фотографии из Facebook. Просто загрузите 3-20 фотографий своего лица, и программа объединит их в реалистичное видео, где вы говорите все, что хотите. Люди уже начинают использовать эти видео, чтобы отомстить своим бывшим или отомстить людям, которые поступили неправильно. Я думаю, что это опасно, потому что это означает, что мы можем потерять доверие друг к другу как люди, если дипфейк станет более популярным.

Эта технология вызывает привыкание и может заставить нас зацикливаться на вещах, которых не существует. Многие люди уже потратили свое время, пытаясь развенчать видео, сделанные с помощью этой технологии, а это значит, что их постоянно обманывают. Одним из примеров является видео, где Барак Обама говорит: «Мы убили Усаму бен Ладена», которое было кем-то создано. Это показывает, как легко обмануть людей, использующих этот тип технологий, поэтому я думаю, что каждый должен знать о его существовании, прежде чем принимать какое-либо решение на основе того, что вы видите в Интернете. Нам нужны законы против дипфейков, потому что я считаю, что эти видео окажутся разрушительными для отношений между людьми в обществе, если им будет позволено развиваться без ограничений. Это разделит наше общество на две группы: те, кто знает, будут опасаться всего, что увидят в сети, и те, кто не увидит. Это окажет негативное влияние на наше общество в целом, потому что люди не смогут доверять тому, что реально, а что нет, а это означает, что мы с меньшей вероятностью будем общаться друг с другом или делиться важными вещами, такими как документация и образование, через цифровые медиа.

Deepfakes, почему ваши данные ничего не стоят?

Есть три типа данных, которые ничего не стоят: Deepfakes, Your Data, Your Future.

Дипфейки — это видеоролики, созданные с помощью искусственного интеллекта. Обычно они используются для создания фильмов путем преобразования лица одного человека в тело другого человека или для других обманных целей. Этот тип технологий можно использовать для создания поддельного видеоконтента, который потенциально может дестабилизировать наше общество. Как и в случае с Deepfakes, ваши данные также ничего не стоят, потому что ими можно манипулировать в любых целях. Последний тип данных, которые ничего не стоят, — это ваше будущее, потому что его нельзя увидеть. Люди всегда пытаются предсказать будущее, но это довольно сложно.

Deepfakes — что нужно знать об этом цифровом кошмаре

Дипфейки — это тип цифровых манипуляций, в которых используется искусственный интеллект для создания видео людей, которые выглядят так, как будто они говорят или делают то, чего никогда не говорили и не делали. Видео Deepfake часто используются для создания фальшивых видео, но они также могут использоваться для создания фальшивых новостей или для манипулирования общественным мнением.

Видео с дипфейками — это цифровой кошмар, потому что их можно использовать для распространения лжи и дезинформации. Их также можно использовать для шантажа людей или нанесения ущерба их репутации. Поддельные видео очень сложно обнаружить, поэтому важно знать о них и скептически относиться к любому видео, которое выглядит слишком хорошо, чтобы быть правдой.

Видео Deepfake создаются с помощью комбинации машинного обучения и искусственного интеллекта. Первый шаг — создать набор данных, включающий видео человека, которого вы хотите заставить сказать или сделать то, чего он никогда не делал. Вы можете использовать бесплатно доступные инструменты для создания этого обучающего набора, который будет включать сотни или тысячи коротких видеороликов о вашей цели. Затем используются алгоритмы машинного обучения, чтобы взять эти отдельные видео и «узнать», как должно выглядеть лицо, когда оно выражает разные выражения или произносит разные слова. Как только будет собрано достаточно данных, алгоритмы машинного обучения могут создавать новые поддельные видео, которые выглядят очень реалистично и естественно.

Термин Deepfakes был придуман анонимным пользователем Reddit.

Что такое дипфейк аудио?

Deepfake audio — это новая технология, позволяющая создавать поддельные записи. Он работает таким образом, что создает звук или видео с чьим-то голосом и накладывает его на тело другого человека. Обычно это используется людьми, чтобы поставить других в неловкое положение, но дипфейки также могут использоваться для создания поддельных видео и записей с целью дискредитации или угроз политикам и знаменитостям.

Deepfake audio — это относительно новая технология, появившаяся за последние пару лет, но она становится все более популярной из-за простоты использования. В Интернете есть несколько веб-сайтов, на которых люди загружают звуки, а другие пользователи могут помещать их в чей-либо рот для создания видео. Этот процесс стал возможен благодаря искусственному интеллекту (ИИ), который можно использовать для различных целей, включая редактирование видео или создание поддельных. Он работает, беря данные из какого-то источника звука и используя их для дальнейшей обработки для завершения работы с видео. Люди использовали дипфейки с речами политиков, чтобы дискредитировать их, или с откровенными аудиозаписями знаменитостей, чтобы их унизить.

Каковы возможные последствия дипфейков?

Дипфейки — это тип видео, созданного искусственным интеллектом, который недавно появился в Интернете. Эти видеоролики создаются с помощью алгоритмов и заставляют людей говорить вещи, которые они никогда не говорили, или делать то, чего они никогда не делали. Таким образом, дипфейки можно использовать как форму дезинформации для изменения восприятия людьми реальности. Вполне возможно, что дипфейки будут продолжать распространяться и со временем станут более убедительными, потому что алгоритмы могут учиться на предыдущих дипфейковых видео и со временем совершенствоваться. Это может привести к тому, что ни одна видеозапись больше не будет вызывать доверия, что сделает невозможным верить всему, что мы видим или слышим.

Одним из наиболее важных следствий, которые следует учитывать, является вопрос подлинности. Публикация фейковых новостей становится все более простой и распространенной практикой, настолько, что трудно узнать, реальны ли какие-либо видеозаписи или фотографии, потому что мы никогда не можем быть полностью уверены. Интернет вносит значительный вклад в решение этой проблемы. Когда вы ищете что-либо в Google, вы обязательно столкнетесь с несколькими веб-сайтами, которые предоставляют противоречивую информацию, что делает ее еще более запутанной, когда вы пытаетесь различить, что правда, а что нет. Если дипфейки станут широко рассматриваться как надежные источники информации, то немедленным эффектом будет потеря доверия ко всем другим формам контента из-за их неопределенности. Это также может заставить нас подвергать сомнению все, что мы слышим или видим, даже то, что было записано нашими собственными глазами.

В частности, на журналистов может повлиять увеличение количества дипфейков. Эта технология может лишить их возможности узнать, являются ли интервью, которые они проводят, реальными или нет, что ставит под угрозу их доверие. Если люди больше не верят в то, что они сообщают, то есть большая вероятность того, что их количество просмотров уменьшится, и люди обратятся к источникам, которые предлагают контент, который кажется более законным, независимо от его достоверности. Пока зрители верят, что получают правду откуда-то еще, их доверие к основным средствам массовой информации будет продолжать снижаться.

Кроме того, последствия широко распространенной дезинформации могут вызвать изменения в международных отношениях, если некоторые страны не решат эту проблему достаточно быстро. Например, если бы было опубликовано дипфейковое видео, в котором лидеры двух стран выглядели бы оскорбляющими друг друга, то их население могло бы стать враждебным по отношению друг к другу и развить ложное чувство враждебности. Если оригинальные кадры не будут обнародованы и опровергнуты достаточно быстро, люди, скорее всего, продолжат воспринимать реальность так, как она была искажена для них поддельным видео, что делает более вероятными насильственные обмены между гражданами, поскольку они будут побуждаться к действиям, основанным на их гнев по отношению к человеку, которого на самом деле не существует.

Мы также можем наблюдать значительный спад в Голливуде, поскольку зрители перестают ходить в кинотеатры, потому что они предпочитают смотреть фильмы дома с дипфейками, а не без реалистичных визуальных эффектов. Индустрия может быть не в состоянии идти в ногу с технологиями, если они будут развиваться быстрее, чем время, необходимое для производства фильмов, что приведет к значительному падению доходов. Мы могли бы даже начать смотреть фильмы, полностью сгенерированные компьютером, потому что актеры больше не нужны.

Хотя дипфейки потенциально могут оказать положительное влияние на искусство, существует гораздо больше возможностей для негативных последствий, поскольку ИИ продолжает развиваться и распространяться в различных отраслях. Неотъемлемой частью является то, что люди осознают проблему, чтобы они могли определить, как ее решить, до того, как дезинформация станет невозможно остановить или станет слишком убедительной для своего же блага. По этой причине разработчики должны постоянно тестировать алгоритмы и находить способы ограничить их возможности, чтобы предотвратить искажение информации. Это может включать ограничение реалистичности видео или требование сертификатов аутентификации для обмена определенным контентом. Например, чтобы видео с дипфейками можно было разместить на Facebook, они должны быть помечены как проверенные после прохождения проверки компанией.

Может даже наступить время, когда мы перестанем рассматривать виртуальную реальность и дополненную реальность как передовые технологии из-за того, насколько продвинутым стал ИИ. Весь цифровой контент может смешиваться друг с другом, поэтому трудно сказать, что является подлинным, а что нет, что подорвет наше доверие к ряду средств массовой информации. Единственный способ предотвратить это — если мы все вместе, как общество, положим конец этой практике до того, как у нее появится хоть какой-то шанс стать успешной. Мы понятия не имеем, как далеко зайдет технология дипфейков, окажется ли она для нас хорошей или плохой, но мы не можем позволить ей поставить под угрозу нашу способность воспринимать реальность.


Когда мы ожидаем увидеть массовое использование дипфейков?

Дипфейки — это видеоролики, созданные с помощью алгоритмов искусственного интеллекта или машинного обучения. Пользователи Deepfake могут взять несколько секунд видео и превратить их во что-то, похожее на минуты. Дипфейки позволяют обычному человеку создавать убедительную замену лица, подражание голосу или любые другие типы манипуляций, которые вы можете увидеть в фильмах.

Вероятно, в какой-то момент мы увидим массовое использование дипфейков, потому что ИИ становится лучше в распознавании лиц, голосов и других вещей, что позволяет использовать эти типы методов в массовом порядке.

Общественность увидит расширенное использование дипфейковых видео, когда они будут отображаться в режиме реального времени. Это означает, что алгоритму требуется менее нескольких минут для создания реалистичного видео. Чем дольше это занимает, тем меньше вероятность того, что люди захотят ждать, пока оно сгенерируется. Большинству людей все равно или они не заметят, если это не настоящий рендеринг в реальном времени, потому что большинство из них перестали обращать внимание, как только узнали, что что-то фальшивое — до тех пор, пока алгоритм может успешно обмануть их глазами без особых усилий. Технологические достижения в области распознавания лиц, алгоритмов машинного обучения и цифрового рендеринга могут привести к тому, что средний потребитель начнет обращать внимание на дипфейковые видео, но, вероятно, пройдут годы, прежде чем это произойдет.

Мы начнем видеть эти типы видео через три-пять лет, потому что в последнее время не было большого технологического прогресса, и это относительно новая концепция. Мы уже можем создавать традиционные поддельные видео, которые выглядят настоящими, используя программное обеспечение для редактирования, такое как Adobe Premiere Pro и After Effects. Единственная разница между этими и дипфейковыми видео заключается в том, что мы не можем контролировать то, что люди говорят или как они двигают ртом, поэтому нам нужно программное обеспечение, например FakeApp, которое использует алгоритмы машинного обучения для выполнения смены лиц и подобных вещей. Потребуется много времени и денег, чтобы создать достаточно контента, чтобы публика приняла видео с машинным обучением как настоящее. Нам также нужно больше технологических достижений, таких как дешевые 3D-принтеры с высоким разрешением, которые могут создавать головы в натуральную величину без потери четкости. Кроме того, я думаю, что мы, вероятно, увидим такие видео в фильмах до того, как они станут популярными в социальных сетях, потому что фильмы живут дольше, чем несколько минут, и люди будут более открыты для них, если увидят их в кинотеатрах или на меньше всего рекламируется крупными продюсерскими компаниями.

Я лично не думаю, что мы когда-нибудь достигнем точки, когда мы не будем отличать дипфейковые видео от традиционных, но это определенно изменит наше отношение к таким вещам, как интервью и выступления. На мой взгляд, с такой технологией мало что можно сделать. Создание поддельных видео не является незаконным, их размещение в Интернете не является незаконным, и никто другой не может определить, является ли видео поддельным, если человек, создающий его, хочет, чтобы это видео было реальным.

Я не думаю, что средний пользователь Facebook начнет замечать дипфейковые видео, пока они не смогут отображаться в режиме реального времени. Хотя такие сайты, как FakeApp, создают поддельные видео, используя алгоритмы машинного обучения вместо традиционного программного обеспечения для редактирования, такие типы видео чрезвычайно сложно создавать из-за того, сколько вычислительной мощности вам нужно для каждой секунды отснятого материала. Необходимая мощность создаст огромную нагрузку на серверы и сети, а это означает, что для создания видео с достаточно высокой степенью достоверности потребуется очень много времени.

Из-за характера дипфейковых видео я не думаю, что мы увидим резкий рост их использования сразу после их создания. Публикация или распространение их в Интернете не является незаконным, поэтому мало что можно сделать, если кто-то хочет поделиться тем, что он создал. На мой взгляд, это, скорее всего, станет проблемой, когда сайты социальных сетей, такие как Facebook, начнут сталкиваться с проблемами с рекламодателями за размещение видео такого типа, потому что они могут вызвать возмущение среди зрителей, пытающихся вести свою повседневную жизнь, не сталкиваясь с поддельными видео. от друзей или членов семьи. В прошлом людей успешно обманывали с помощью традиционной технологии CGI, поэтому было бы трудно сказать, когда кого-то обманывают алгоритмом машинного обучения или кого-то обманывают из-за программного обеспечения для редактирования. Я думаю, что это станет проблемой, когда люди начнут терять веру в то, что они видят и слышат из СМИ, что может вызвать недоверие к общественным деятелям.

Я не думаю, что мы действительно будем полностью замечать дипфейки, пока не будет достигнуто какое-то технологическое продвижение. Прямо сейчас создание этих видео по-прежнему требует очень много времени и вычислительной мощности, поэтому вы можете себе представить, сколько времени уходит на рендеринг каждого из них. Это будет довольно кропотливая работа для людей, которым нужны миллионы копий, поскольку им придется делать это одну за другой, но как только появится что-то, что может генерировать их в больших масштабах, я думаю, мы, честно говоря, увидим, насколько серьезна проблема. это может стать.

Я не думаю, что люди действительно заметят это, пока не начнут принимать во внимание ракурсы камеры. Если человек, делающий поддельные видео, может получить достаточно кадров, на которых кто-то говорит или перемещается по видео, то не имеет значения, использует ли он традиционные инструменты редактирования или алгоритмы машинного обучения, потому что готовый продукт будет выглядеть достаточно реальным, чтобы его можно было выдать за подлинный. особо не думая об этом. Хотя создание дипфейковых видео в настоящее время чрезвычайно сложно и требует много времени, достижения в области технологий, которые позволяют делать больше вещей в режиме реального времени, сделают это намного проще. Прямо сейчас термин дипфейк относится к любому видео, которое было сфальсифицировано с помощью алгоритмов машинного обучения и традиционного программного обеспечения для редактирования, но если бы что-то могло делать и то, и другое одновременно, у нас была бы гораздо более серьезная проблема.

Я думаю, что поддельные видео не станут слишком популярными, пока люди не найдут простой способ заставить их работать на себя, вместо того, чтобы нанимать кого-то еще с большим бюджетом. Независимо от того, насколько дешевыми или дорогими будут эти вещи, большинству людей все равно потребуется значительное количество времени и денег, прежде чем они смогут создавать свои собственные подделки, не нанимая кого-то еще. Есть некоторые люди, которые зарабатывают на своем домашнем бизнесе, продавая дипфейковые видео, но по большей части я думаю, что пока это не станет чем-то, что сможет сделать каждый, это не окажет слишком большого влияния на общество.

Я не думаю, что люди начнут широко использовать эти видео, пока не появится большой финансовый стимул для этого. Прямо сейчас, если бы вы создали видео с поддельными кадрами без какой-либо узнаваемой или конкретной цели, вам было бы трудно привлечь к себе внимание, потому что в первую очередь не было бы ничего, заслуживающего критики. Даже если кто-то действительно захочет создать его для развлечения, для его создания все равно потребуется время и вычислительная мощность, поэтому в этом не было бы особого смысла, если бы у него не было цели. Если эти видео смогут стать чрезвычайно убедительными в масштабе, то я думаю, что люди начнут использовать их в негативных целях с целью зарабатывания денег.

Я не думаю, что поддельные видео действительно станут популярными, пока люди не смогут автоматически создавать клипы на основе разговоров. На данный момент большинство подделок представляют собой простые кадры, которые либо модифицированы, либо полностью переработаны, чтобы соответствовать той цели, для которой они были созданы. Если алгоритмы дипфейков смогут имитировать более реальные движения, такие как синхронизация губ или жесты, то я думаю, что это откроет целый новый мир возможностей, где люди смогут создавать гораздо более убедительный конечный продукт. Если видео способно имитировать реальные движения говорящих, то я могу представить, что они станут очень популярными как способ дезинформировать или оклеветать кого-то без каких-либо последствий, потому что никто не может на самом деле проверить, правда это или нет.

Related Articles

WP Radio
WP Radio
OFFLINE LIVE