IoT Worlds
БлогШтучний інтелект

Deepfake – що вам потрібно знати

Deepfake — це нова технологія, яку можна використовувати для маніпулювання відео та аудіо з метою створення неправдивого медіа-контенту. Останнім часом він часто з’являється в новинах з точки зору його використання в політичних цілях, але він має багато інших потенційних застосувань як у промисловості, так і в розвагах.

Що таке дипфейк і як він працює

Дипфейк створюється, коли хтось використовує програму штучного інтелекту для створення зображення, відео чи аудіокліпу того, що ніколи не відбувалося в реальності. Їх часто досить легко визначити, оскільки підроблений вміст зазвичай містить помилки або суперечності при перехресних посиланнях з автентичними медіа.

Як використовувати deepfakes на користь

Досі люди використовували цю технологію для сатиричних відео

Небезпека використання deepfakes у зловмисних цілях

Цю технологію можна використовувати для створення дезінформації, в яку люди безперечно повірять, що може призвести до катастрофічних наслідків у майбутньому. Наприклад, уявіть собі, якби було оприлюднено кадри, на яких глава держави каже, що хоче запустити ядерну атаку

Наслідки майбутнього фейкових новин для політики, журналістики та суспільства

У майбутньому буде легше, ніж будь-коли, створювати фальшиві ЗМІ, у які люди без сумніву вірять, що може призвести до катастрофічних наслідків у майбутньому. Наприклад, уявіть собі, якби було оприлюднено кадри, на яких глава держави каже, що хоче запустити ядерну атаку

Рішення для боротьби з цими проблемами в майбутньому

Людям різного походження, включаючи журналістів, стане все важливішим перевіряти вміст із кількох джерел, перш ніж повідомити що-небудь як правдиве або навіть просто поділитися чимось у соціальних мережах. Для технологічних компаній, таких як YouTube або Facebook, також може бути корисно робити більше, ніж просто покладатися на користувачів, які позначають вміст як якийсь проблематичний.

Підсумкові зауваження про важливість потенційного впливу цієї технології на суспільство

У майбутньому буде легше, ніж будь-коли, створювати фальшиві ЗМІ, у які люди безперечно вірять, що може призвести до катастрофічних наслідків у майбутньому. Наприклад, уявіть собі, якби було оприлюднено кадри, на яких глава держави каже, що хоче запустити ядерну атаку.

Deepfakes, як не бути обдуреним?

«Deepfakes» – це термін, який відноситься до відредагованих відео або зображень людей, які, здається, роблять те, чого насправді не робили. Ці глибокі підроблені відео та зображення можуть бути створені за допомогою програмного забезпечення штучного інтелекту (AI), такого як FakeApp. Відео та зображення Deepfake можна використовувати для створення глибоких фейкових новин або для будь-якої кількості шкідливих цілей. Для їхньої безпеки люди повинні переконатися, що у них є сучасне програмне забезпечення, використовувати унікальні паролі на кожному сайті, який вони відвідують, ніколи не зберігати паролі у своєму браузері, вимикати Flash, якщо він не потрібен, уникати встановлення розширень браузера, які пропонуються через спливаючі вікна в Інтернеті. сайти, яким ви не довіряєте, уникайте завантаження піратського програмного забезпечення, якщо це можливо, і ознайомтеся з нашими порадами щодо уникнення фейкових відео та зображень нижче.

Є кілька факторів, які можуть допомогти вам не бути обдуреним глибоким підробленим відео або зображенням. По-перше, ви повинні підтримувати своє програмне забезпечення в актуальному стані, оскільки це часто включає оновлення безпеки. Якщо ваше програмне забезпечення не оновлено, можливо, хтось скористається вразливими місцями в старих версіях програмного забезпечення, щоб отримати доступ до вашої системи без вашого відома. По-друге, якщо ви використовуєте унікальні паролі (і регулярно змінюєте їх), то навіть якщо один веб-сайт буде зламаний, це не вплине на інші веб-сайти, які ви відвідуєте в майбутньому з таким же паролем. Третій фактор — переконатися, що Flash встановлено тоді, коли він вам потрібен.

Як розпізнати глибоке фейкове відео

Deepfake відео — це відео, якими маніпулювали за допомогою штучного інтелекту, щоб виглядати так, ніби хтось говорить або робить те, чого він не робив. Відео Deepfake можна використовувати з різних причин, зокрема для пропаганди, розваги та дезінформації.

Щоб розпізнати фейкове відео, ви можете звернути увагу на кілька речей. Один із найпростіших способів розпізнати дипфейк – це якщо людина на відео виглядає не так, як зазвичай. Крім того, ви можете знайти незвичайні рухи в рисах обличчя людини або неприродні рухи губ. Ви також можете прослухати спотворення або невідповідності звуку.

Якщо ви не впевнені, справжнє відео чи підробка, може бути корисно запитати себе, яка мета цього відео. Кому буде корисно підробити це відео? Якщо, здається, немає чіткої мотивації для підробки відео, ймовірно, що відео є точним.

Ще одна річ, яку ви можете зробити, якщо ви намагаєтеся з’ясувати, чи сказала людина щось певним чином (наприклад, оманливо), — це послухати та порівняти їхню вимову з вимовою інших, які вона виголосила. Наприклад, якщо хтось раніше публічно говорив про якусь проблему, але ніколи не вимовляв жодного слова так, як це було в цій новій промові, — це сигнал обману.

Найперші дипфейки були створені за допомогою Adobe After Effects, що вимагає від користувачів знання редагування відео. Однак останнім часом ШІ використовували для створення глибоких фейків без будь-якого введення користувача. Це зменшує кількість постпродакшн, необхідних для створення відео, але мало перешкоджає створенню підробленого відео зовсім непоміченим.

Один із способів захистити себе від впливу глибоких фейків – це скептично ставитися до перегляду чи читання новин. Якщо щось не так, не вірте, доки не підтвердите, що це правда. Наприклад, перевірте кілька джерел, перш ніж повірити в те, що ви чуєте по телебаченню, оскільки глибокі фейкові відео стають все більш поширеним способом поширення дезінформації в Інтернеті. І пам’ятайте: те, що щось здається правдою, не означає, що це так.

Деякі приклади минулих фейкових відео включають одне, де колишній президент Обама говорив у расистському тоні, а інший, де актриса Галь Гадот, схоже, говорить, що вона належить до «Ісламської держави» (ІДІЛ). Ці відео показують, наскільки легко будь-кому, хто має доступ до потрібної технології та досвіду, створити глибокі фейки, які здаються реальними. Легкість, з якою можна створювати ці відео, також ускладнює для багатьох людей розрізняти, що є справжнім, а що ні.

Отримати розуміння того, як створюються ці відео, а також знати способи їх ідентифікації є важливим, якщо ви хочете захистити себе від того, щоб стати жертвою або ненавмисно рекламувати неправдиву інформацію в Інтернеті.

Як залишатися в курсі в суспільстві постправди

Якщо ви хочете бути в курсі, ви можете зробити кілька кроків. Перший крок — уникати читання інформації, яка не була підтверджена багатьма надійними джерелами. Ви також повинні подумати, яка мотивація може бути для того, щоб поділитися такою інформацією. Якщо джерело здається упередженим або якщо немає чіткого пояснення, чому вони щось поділяють, то вам слід переглянути, наскільки ви довіряєте представленій інформації. Крім того, пам’ятайте, що те, що щось здається правдою, не означає, що це так. Можливо, нерозумно базувати власну думку на неправдивій інформації, тому намагайтеся не робити поспішних висновків, поки не встигнете перевірити те, що ви бачите в Інтернеті. Якщо ви не впевнені, справжнє відео чи підробка, запитайте себе, яка мета цього відео. Кому буде корисно підробити це відео? Ви також можете шукати незвичайні рухи в рисах обличчя людини або неприродні рухи губ. І нарешті, якщо ви намагаєтеся з’ясувати, чи сказала людина щось певним чином (наприклад, оманливо), було б корисно прослухати та порівняти їхню вимову з вимовою інших, які вона вимовляла. Наприклад, якщо хтось раніше публічно говорив про якусь проблему, але ніколи не вимовляв жодного слова так, як це було в цій новій промові, — це сигнал обману.

Обличчя глибокої фейкової революції

Революція глибоких фейків – це постійне явище, коли люди можуть створювати відео, на яких люди говорять або роблять те, чого вони ніколи не робили. Технологія, яка лежить в основі глибоких фейків, називається «глибоким навчанням», що є типом машинного навчання, що дозволяє комп’ютерам вчитися робити речі на прикладі.

Цю технологію вже використовували для створення фейкових відео зі знаменитостями, і від цього буде тільки гірше. Ми повинні знати про цю технологію і бути готовими до наслідків.

Наслідки такої технології величезні. По-перше, дуже легко обдурити людей, щоб вони подумали, що ці відео реальні. Мені вдалося знайти субреддіт, де люди з відносною легкістю створюють підроблені відео, а якість є шаленою. Одне відео, створене кимось на цьому субреддіті, набрало майже 11 000 голосів. Це викликає занепокоєння, оскільки це означає, що існує ціла спільнота, яка бажає ділитися фальшивими відео, наче вони справжні. Крім того, немає жодних законів проти дипфейку, тому буде цікаво подивитися, як розвиватиметься подібний тип речей у найближчі роки.

Іншим наслідком є те, що ми можемо втратити довіру до цифрових медіа в цілому та припинити використовувати цифрові медіа для таких речей, як освіта та документація. Одним із прикладів є відео, на якому Барак Обама говорить про «фейкові новини», які насправді створив хтось інший. Це показує, як легко змусити людей виглядати погано, але ця технологія буде ще більш небезпечною, якщо використовувати її з політичними промовами, які мають реальні наслідки для життя людей.

Я знайшов веб-сайт, який може створювати підроблені відео, використовуючи лише фотографії Facebook. Просто завантажте 3-20 фотографій вашого обличчя, і програмне забезпечення об’єднає їх у реалістичне відео, де ви говорите все, що хочете. Люди вже починають використовувати ці відео, щоб помститися своїм колишнім або відповісти на людей, які зробили їх неправильно. Я думаю, що це небезпечно, тому що це означає, що ми можемо втратити довіру один до одного як люди, якщо дипфейк стане більш популярним.

Ця технологія викликає звикання, і вона може змусити нас захопитися речами, яких не існує. Багато людей вже витрачали свій час, намагаючись розвінчати відео, зроблені за цією технологією, а це означає, що їх постійно обманюють. Одним із прикладів є відео, де Барак Обама каже: «Ми вбили Усаму бен Ладена», яке було створене кимось. Це показує, як легко обдурити людей, використовуючи цю технологію, тому я думаю, що кожен повинен знати про її існування, перш ніж приймати будь-які рішення на основі того, що ви бачите в Інтернеті. Нам потрібні закони проти дипфейку, тому що я вірю, що ці відео виявляться руйнівними для стосунків між людьми в суспільстві, якщо їм дозволити розвиватися без обмежень. Це розділить наше суспільство на дві групи, оскільки ті, хто знає, будуть обережно ставитися до всього, що бачать в Інтернеті, а ті, хто ні. Це матиме негативний вплив на наше суспільство в цілому, оскільки люди не зможуть довіряти, що є справжнім, а що ні, а це означає, що ми будемо рідше спілкуватися один з одним або ділитися такими важливими речами, як документація та освіта через цифрові медіа.

Deepfakes, чому ваші дані нічого не варті?

Є три типи даних, які нічого не варті: Deepfakes, Ваші дані, Ваше майбутнє.

Deepfakes – це відео, створене за допомогою штучного інтелекту. Зазвичай вони використовуються для створення фільмів, перетворюючи обличчя однієї людини на тіло іншої людини або в інших оманливих цілях. Цей тип технології можна використовувати для створення підробленого відеоконтенту, який потенційно може дестабілізувати наше суспільство. Подібно до Deepfakes, ваші дані також нічого не варті, оскільки ними можна маніпулювати для будь-яких цілей. Останній тип даних, який нічого не варте, — це ваше майбутнє, тому що його неможливо побачити. Люди завжди намагаються передбачити майбутнє, але це досить складно.

Deepfakes – що вам потрібно знати про цей цифровий кошмар

Deepfakes — це тип цифрової маніпуляції, яка використовує штучний інтелект для створення відео людей, які виглядають так, ніби вони говорять або роблять те, чого ніколи не говорили чи робили. Deepfake відео часто використовуються для створення фейкових відео, але їх також можна використовувати для створення фейкових новин або для маніпулювання громадською думкою.

Deepfake відео є цифровим кошмаром, оскільки їх можна використовувати для поширення брехні та дезінформації. Вони також можуть бути використані для шантажу людей або для зашкодження їх репутації. Deepfake відео дуже важко виявити, тому важливо знати про них і скептично ставитися до будь-якого відео, яке виглядає занадто добре, щоб бути правдою.

Відео Deepfake створено за допомогою поєднання машинного навчання та штучного інтелекту. Першим кроком є створення набору даних, який включає відео людини, яку ви хочете змусити сказати або зробити те, що вона ніколи не робила. Ви можете використовувати безкоштовно доступні інструменти для створення цього навчального набору, який включатиме сотні або тисячі коротких відео вашої цілі. Алгоритми машинного навчання потім використовуються, щоб зняти ці окремі відео й «дізнатися», як має виглядати обличчя, коли воно робить різні вирази або вимовляє різні слова. Коли буде зібрано достатньо даних, алгоритми машинного навчання можуть створювати нові підроблені відео, які виглядають дуже реалістично та природно.

Термін Deepfakes придумав анонімний користувач Reddit.

Що таке deepfake audio?

Deepfake audio — це нова технологія, яка дозволяє створювати підроблений запис. Він функціонує таким чином, що створює звук чи відео з чиїмось голосом і наносить його на тіло іншої людини. Зазвичай це використовується людьми, щоб збентежити інших, але дипфейки також можуть використовуватися для створення підроблених відео та записів, щоб дискредитувати політиків і знаменитостей або загрожувати їм.

Deepfake audio — це відносно нова технологія, яка з’явилася за останні кілька років, але вона стає все популярнішою через простоту використання. В Інтернеті є кілька веб-сайтів, де люди завантажують звуки, а інші користувачі можуть покласти їх на чужий рот, щоб створювати відео. Цей процес стає можливим завдяки штучному інтелекту (AI), який можна використовувати для багатьох цілей, включаючи редагування відео або створення підроблених. Він працює, беручи дані з якогось джерела звуку і використовує їх для подальшої обробки для завершення роботи з відео. Люди використовували дипфейки з промовами політиків, щоб дискредитувати їх, або з відвертим звуком знаменитостей, щоб принизити їх.

Які можливі наслідки дипфейків?

Deepfakes – це тип відео, створеного штучним інтелектом, яке нещодавно з’явилося в Інтернеті. Ці відео створені за допомогою алгоритмів і змушують людей говорити те, чого вони ніколи не говорили, або, здається, роблять те, чого ніколи не робили. Таким чином, дипфейки можна використовувати як форму дезінформації, щоб змінити сприйняття реальності людьми. Цілком можливо, що дипфейки продовжуватимуть поширюватися та ставати все більш переконливими з часом, оскільки алгоритми можуть вчитися на попередніх відео про дипфейк і з часом покращуватись. Це може призвести до того, що жодні відеозаписи більше не будуть достовірними, що унеможливить повірити у те, що ми бачимо чи чуємо.

Одне з найважливіших наслідків, яке слід турбувати, – це питання автентичності. Публікація фейкових новин стає все більш легкою та поширеною практикою, настільки, що важко дізнатися, чи є якісь відео або фотографії реальними, тому що ми ніколи не можемо бути повністю впевненими. Значний внесок у вирішення цієї проблеми сприяє Інтернет. Коли ви шукаєте будь-що в Google, ви неодмінно зустрінете кілька веб-сайтів, які надають суперечливу інформацію, що робить її ще більш заплутаною, коли ви намагаєтеся розрізнити, що є правдою, а що ні. Якщо дипфейки стануть широко розглядатися як надійні джерела інформації, то негайним наслідком буде втрата довіри до всіх інших форм контенту через їх невизначеність. Це також може змусити нас поставити під сумнів усе, що чуємо чи бачимо, навіть те, що було записано нашими власними очима.

Зокрема, на журналістів може вплинути збільшення кількості дипфейків. Ця технологія може зробити неможливим для них знати, чи є інтерв’ю, яке вони проводять, справжнім чи ні, що ставить під загрозу їхню довіру. Якщо люди більше не вірять, що те, що вони повідомляють, є точним, то є велика ймовірність, що їхня аудиторія зменшиться, і люди звернуться до джерел, які пропонують контент, який виглядає більш законним, незалежно від його достовірності. Поки аудиторія вірить, що отримує правду звідкись ще, їхня довіра до основних ЗМІ продовжуватиме падати.

Крім того, наслідки поширеної дезінформації можуть спричинити зміни в міжнародних відносинах, якщо деякі країни не вирішують цю проблему досить швидко. Наприклад, якщо було опубліковано глибоке фейкове відео, у якому здавалося, що лідери двох країн ображають один одного, їхнє населення може стати ворожим один до одного і розвинути помилкове почуття ворожості. Якщо оригінальні кадри не будуть оприлюднені та спростовані достатньо швидко, люди, ймовірно, продовжуватимуть сприймати реальність так, як вона була для них спотворена підробленим відео, що робить насильницький обмін між громадянами набагато більш вірогідним, оскільки їх заохочують до дій на основі їхній гнів до людини, якої насправді не існує.

Ми також могли спостерігати значний спад у Голлівуді, оскільки глядачі перестали ходити в театри, тому що вони віддають перевагу перегляду фільмів вдома з дипфейками, а не без реалістичних візуальних ефектів. Індустрія може не встигати за технологіями, якщо вони розвиватимуться швидше, ніж час, необхідний для виробництва фільмів, що призведе до значного падіння доходів. Можливо, ми навіть почнемо дивитися фільми, які повністю створені комп’ютером, тому що актори більше не потрібні.

Хоча дипфейки потенційно можуть мати позитивний вплив на мистецтво, існує набагато більше потенційних негативних наслідків, оскільки ШІ продовжує розвиватися та поширюватися в різних галузях. Невід’ємним є те, що люди усвідомлюють проблему, щоб вони могли визначити, як її вирішити, перш ніж дезінформацію стане неможливо зупинити або стане занадто переконливою для її власного блага. З цієї причини розробники повинні постійно тестувати алгоритми та шукати способи обмежити їх можливості, щоб запобігти спотворенню інформації. Це може включати обмеження реалістичності відео або вимагати сертифікатів автентифікації, щоб ділитися певним вмістом. Наприклад, для того, щоб відео з дипфейками було розміщено на Facebook, їх потрібно буде позначити як підтверджені після перевірки компанією.

Можливо, навіть настане час, коли ми перестанемо розглядати віртуальну реальність і доповнену реальність як передові технології через те, наскільки розвинутим AI став. Весь цифровий контент може змішатися, тому важко визначити, що є автентичним, а що ні, що зруйнує нашу довіру до низки форм медіа. Єдиний спосіб запобігти цьому — якщо ми всі разом, як суспільство, покладемо край цій практикі, перш ніж вони мають шанси на успіх. Ми не маємо уявлення, як далеко зайде технологія глибоких фейків, чи буде вона для нас хороша чи погана, але ми не можемо дозволити їй поставити під загрозу нашу здатність сприймати реальність.


Коли ми очікуємо масового використання дипфейків?

Deepfakes – це відео, створені за допомогою алгоритмів штучного інтелекту або машинного навчання. Користувачі Deepfake можуть взяти кілька секунд відео і перетворити його на щось, що виглядає як хвилини. Deepfakes дозволяє пересічній людині створювати переконливі зміни обличчя, видавати себе за іншу особу або будь-які інші види маніпуляцій, які ви можете побачити у фільмах.

У якийсь момент ми, ймовірно, побачимо масове використання глибоких фейків, тому що AI стає все краще в розпізнаванні облич, голосів та інших речей, що дає змогу використовувати ці типи методів масового поширення.

Громадськість почне бачити розширене використання глибоких фейків, коли вони будуть відтворюватися в реальному часі. Це означає, що алгоритму для створення реалістичного відео потрібно менше кількох хвилин. Чим довше це займе, тим менше ймовірність того, що люди готові чекати, поки він з’явиться. Більшості людей не буде цікавити чи помітити, що це не справжня рендеринг у реальному часі, тому що більшість перестали звертати увагу, коли дізналися, що щось підробка – доки алгоритм може успішно обдурити їх очима без зайвих зусиль. Технологічні досягнення в області розпізнавання обличчя, алгоритмів машинного навчання та цифрового рендерингу можуть змусити середнього споживача помітити глибокі фейкові відео, але, ймовірно, пройдуть роки, перш ніж це станеться.

Ми почнемо бачити такі відео через три-п’ять років, тому що останнім часом не було особливого технологічного прогресу, і це відносно нова концепція. Ми вже можемо створювати традиційні підроблені відео, які виглядають справжніми, використовуючи програмне забезпечення для редагування, таке як Adobe Premiere Pro та After Effects. Єдина відмінність між цими відео та відео з глибоким фейком полягає в тому, що ми не можемо контролювати, що люди говорять або як вони рухають ротом, тому нам потрібне програмне забезпечення, наприклад FakeApp, яке використовує алгоритми машинного навчання для заміни обличчя тощо. Знадобилося б багато часу та грошей, щоб створити достатньо контенту, щоб громадськість сприймала відео з машинного навчання як реальні. Нам також потрібно більше технологічних досягнень, таких як дешеві 3D-принтери з високою роздільною здатністю, які можуть створювати головки в натуральну величину, не втрачаючи занадто великої чіткості. Крім того, я думаю, що ми, ймовірно, побачимо такі типи відео у фільмах до того, як вони стануть популярними в соціальних мережах, тому що фільми мають тривалість життя, ніж лише кілька хвилин, і люди будуть більш відкритими до них, якщо побачать їх у кінотеатрах чи в кінотеатрах. найменше рекламується великими виробничими компаніями.

Особисто я не думаю, що ми коли-небудь досягнемо точки, коли не будемо відрізняти глибокі фейки від традиційних, але це безумовно змінить наш погляд на такі речі, як інтерв’ю та виступи. На мою думку, ніхто нічого не може зробити з цією технологією. Створення підроблених відео не є незаконним, не заборонено публікувати їх в Інтернеті, і ніхто інший не може визначити, чи є відео підробленим, якщо особа, яка його створює, хоче, щоб це відео було справжнім.

Я не думаю, що пересічний користувач Facebook почне помічати глибокі фейкові відео, поки їх не можна буде відтворювати в режимі реального часу. Хоча такі сайти, як FakeApp, створюють підроблені відео за допомогою алгоритмів машинного навчання замість традиційного програмного забезпечення для редагування, створити відео такого типу надзвичайно важко через те, скільки обчислювальної потужності вам потрібно для кожної секунди відео. Потрібна потужність створила б величезне навантаження на сервери та мережі, а це означає, що для створення відео з достатньо високим ступенем достовірності знадобиться дуже багато часу.

Через природу дипфейкових відео, я не думаю, що ми побачимо різке зростання їх використання відразу після їх створення. Публікувати або розповсюджувати їх в Інтернеті не є незаконним, тому мало що можна зробити, якщо хтось захоче поділитися тим, що вони створили. На мою думку, це, швидше за все, почне ставати проблемою, коли сайти соціальних мереж, як-от Facebook, почнуть стикатися з рекламодавцями щодо розміщення таких відео, тому що вони можуть викликати обурення серед глядачів, які намагаються продовжувати своє повсякденне життя, не стикаючись з фальшивими відео. від друзів або членів сім’ї. У минулому людей успішно обдурювали традиційні технології CGI, тому було б важко сказати, коли когось обдурили алгоритмом машинного навчання чи були обдурені через програмне забезпечення для редагування. Думаю, це стане проблемою, коли люди почнуть втрачати віру в те, що бачать і чують від ЗМІ, що може викликати недовіру до публічних осіб.

Я не думаю, що ми дійсно будемо повноцінними дипфейками, поки не буде досягнуто певного технологічного прогресу. Наразі створення цих відео все ще займає дуже багато часу та вимагає багато обчислювальної потужності, тому ви можете уявити, скільки часу потрібно для відтворення кожного з них. Це була б досить трудомістка робота для людей, які хочуть мати мільйони копій, оскільки вони повинні були б робити це одну за одною, але коли з’явиться щось, що може створити їх у масштабі, я думаю, ми чесно побачимо, яка проблема це може стати.

Я не думаю, що люди справді помітять, доки не почнуть враховувати кути камери. Якщо людина, яка створює підроблені відео, може отримати достатньо кадрів, як хтось говорить або рухається на відео, то не матиме значення, чи використовує він традиційні інструменти редагування чи алгоритми машинного навчання, оскільки готовий продукт буде виглядати достатньо реальним, щоб видаватися за справжній. не замислюючись надто про це. Незважаючи на те, що створення глибоких фейків наразі є надзвичайно складним і трудомістким, прогрес у технологіях, який дозволяє робити більше речей у режимі реального часу, значно полегшить його роботу. Наразі термін «deepfake» відноситься до будь-якого відео, яке було підроблено за допомогою алгоритмів машинного навчання та традиційного програмного забезпечення для редагування, але якби щось було в змозі зробити обидва одночасно, у нас була б набагато більша проблема.

Я думаю, що підроблені відео не стануть надто популярними, поки люди не знайдуть простий спосіб змусити їх працювати на них, а не наймати когось іншого з великим бюджетом. Незалежно від того, наскільки дешевими чи дорогими будуть ці речі, більшості людей все одно знадобиться значна кількість часу та грошей, перш ніж вони зможуть створити власні підробки, не найнявши когось іншого. Є люди, які заробляють на своєму домашньому бізнесі, де продають глибокі фейкові відео, але здебільшого я думаю, що поки це не стане те, що може зробити кожен, це не матиме надто сильного впливу на суспільство.

Я не думаю, що люди почнуть широко використовувати ці відео, поки для цього не буде великого фінансового стимулу. Прямо зараз, якби ви створили відео з підробленими кадрами без будь-якої впізнаваної чи конкретної мети, тоді було б важко привернути будь-яку увагу, тому що спочатку не було б нічого, що варто було б критикувати. Навіть якщо хтось захоче створити його для розваги, для його створення все одно є час і обчислювальні потужності, тому не було б особливого сенсу, якби він не ставив перед собою мету. Якщо ці відео зможуть стати надзвичайно переконливими в масштабах, я думаю, що люди почнуть використовувати їх у негативних цілях з метою заробити гроші.

Я не думаю, що підроблені відео дійсно стануть популярними, поки люди не зможуть автоматично створювати кліпи на основі розмов. Наразі більшість підробок — це базові кадри, які або модифіковані, або повністю перекомпоновані, щоб відповідати будь-якій цілі, для якої вони створені. Якщо алгоритми deepfake змогли імітувати більше реальних рухів, таких як синхронізація губ або ярлики жестів, то я думаю, що це відкриє цілий новий світ можливостей, де люди зможуть створити набагато переконливіший кінцевий продукт. Якщо відео здатне імітувати рухи реального життя, які говорять, я можу собі уявити, що вони стануть дуже популярними як спосіб дезінформувати або наклеп на когось без будь-яких наслідків, тому що ніхто не міг фактично перевірити, чи справді це.

Related Articles

WP Radio
WP Radio
OFFLINE LIVE