IoT Worlds
BlogInteligencia artificial

Deepfake: lo que necesita saber

Deepfake es una nueva tecnología que se puede utilizar para manipular video y audio, con la intención de producir contenido multimedia falso. Ha estado mucho en las noticias últimamente en términos de su uso con fines políticos, pero tiene muchos otros usos potenciales tanto en la industria como en el entretenimiento.

Qué es un deepfake y cómo funciona

Se crea un deepfake cuando alguien usa un programa de inteligencia artificial para generar una imagen, video o clip de audio de algo que nunca sucedió en la realidad. A menudo, estos son bastante fáciles de identificar porque el contenido falso generalmente tiene errores o contradicciones cuando se compara con medios auténticos.

Cómo usar deepfakes para siempre

Hasta ahora, la gente ha utilizado esta tecnología para videos de sátira.

Los peligros de usar deepfakes con fines maliciosos

Esta tecnología se puede utilizar para crear información errónea que la gente creerá sin dudar y que podría tener consecuencias desastrosas en el futuro. Por ejemplo, imagine que se publicaron imágenes de un jefe de estado que dice que quiere lanzar un ataque nuclear.

Las implicaciones del futuro de las fake news en la política, el periodismo y la sociedad

En el futuro, será más fácil que nunca generar medios falsos que la gente creerá sin dudar, lo que podría tener consecuencias desastrosas en el futuro. Por ejemplo, imagine que se publicaron imágenes de un jefe de estado que dice que quiere lanzar un ataque nuclear.

Soluciones para combatir estos problemas en el futuro

Cada vez será más importante que las personas de todos los orígenes posibles, incluidos los periodistas, verifiquen el contenido a través de múltiples fuentes antes de reportar algo como cierto o incluso simplemente compartir algo en las redes sociales. También puede ser beneficioso para las empresas de tecnología como YouTube o Facebook hacer algo más que confiar en que los usuarios marquen el contenido como algo problemático.

Observaciones finales sobre la importancia del impacto potencial de esta tecnología en la sociedad

En el futuro, será más fácil que nunca generar medios falsos que la gente creerá sin dudar, lo que podría tener consecuencias desastrosas en el futuro. Por ejemplo, imagine que se publicaron imágenes de un jefe de estado que dice que quiere lanzar un ataque nuclear.

Deepfakes, ¿cómo evitar que nos engañen?

«Deepfakes» es un término que se refiere a videos o imágenes editados de personas que parecen estar haciendo algo que en realidad no hicieron. Estos videos e imágenes profundamente falsos pueden crearse mediante el uso de software de inteligencia artificial (IA), como FakeApp. Los videos e imágenes falsos profundos podrían usarse para crear noticias falsas profundas o para cualquier número de propósitos maliciosos. Por su seguridad, las personas deben asegurarse de tener el software actualizado, usar contraseñas únicas en cada sitio que visiten, nunca almacenar contraseñas en su navegador, deshabilitar Flash si no es necesario, evitar instalar extensiones de navegador que se ofrecen a través de ventanas emergentes en la web. sitios en los que no confía, evite descargar software pirateado si es posible y consulte nuestros consejos para evitar videos e imágenes falsos a continuación.

Hay algunos factores que pueden ayudarlo a evitar ser engañado por un video o una imagen profundamente falsos. Primero, debe mantener su software actualizado porque a menudo incluirá actualizaciones de seguridad. Si su software no está actualizado, es posible que alguien aproveche las vulnerabilidades de seguridad en versiones anteriores del software para obtener acceso a su sistema sin su conocimiento. En segundo lugar, si usa contraseñas únicas (y las cambia regularmente), incluso si un sitio web es pirateado, no afectará a ningún otro sitio web que visite en el futuro con la misma contraseña. Un tercer factor es asegurarse de que Flash esté instalado cuando lo necesite.

Cómo identificar un video deepfake

Los videos deepfake son videos que han sido manipulados usando IA para que parezca que alguien está diciendo o haciendo algo que no dijo. Los videos deepfake se pueden usar por una variedad de razones, que incluyen propaganda, entretenimiento y desinformación.

Para identificar un video falso profundo, hay algunas cosas que puede buscar. Una de las formas más fáciles de identificar un deepfake es si la persona en el video se ve diferente a como se ve normalmente. Además, puede buscar movimientos inusuales en los rasgos faciales de la persona o movimientos de labios no naturales. También puede escuchar distorsiones de audio o inconsistencias.

Si no está seguro de si un video es real o falso, puede ser útil preguntarse cuál es el propósito del video. ¿Quién se beneficiaría de falsificar este video? Si no parece haber una motivación clara para falsificar el video, es más probable que el video sea exacto.

Otra cosa que puede hacer si está tratando de averiguar si una persona dijo algo de cierta manera (por ejemplo, engañosamente) sería escuchar y comparar su pronunciación con la de otros discursos que haya hecho. Por ejemplo, si alguien ha hablado públicamente sobre un tema anteriormente pero nunca ha pronunciado una palabra de manera similar a como lo hizo en este nuevo discurso, eso indica engaño.

Los primeros deepfakes se crearon con Adobe After Effects, que requiere que los usuarios tengan conocimientos de edición de video. Sin embargo, más recientemente, la IA se ha utilizado para hacer deepfakes sin intervención del usuario. Esto reduce la cantidad de trabajo de posproducción que se requiere para crear un video, pero hace poco para impedir que alguien produzca un video falso sin ser detectado.

Una forma de protegerse de verse afectado por videos falsos profundos es ser escéptico al ver o leer noticias. Si algo parece extraño, no lo crea hasta que haya confirmado que es verdad. Por ejemplo, verifique varias fuentes antes de creer algo que escuche en la televisión porque los videos falsos se están convirtiendo en una forma cada vez más común de difundir información errónea en línea. Y recuerda: que algo parezca cierto no significa que lo sea.

Algunos ejemplos de videos falsos anteriores incluyen uno en el que el expresidente Obama habló en un tono racista y otro en el que la actriz Gal Gadot parecía estar diciendo que pertenecía al “Estado Islámico” (ISIS). Estos videos muestran lo fácil que puede ser para cualquier persona con acceso a la tecnología y la experiencia adecuadas crear falsificaciones profundas que parezcan reales. La facilidad con la que se pueden crear estos videos también hace que para muchas personas sea un desafío distinguir qué es real y qué no.

Obtener una comprensión de cómo se hacen estos videos, así como conocer algunas formas en que puede identificarlos, es esencial si desea protegerse de ser víctima o promover inadvertidamente información falsa en línea.

Cómo mantenerse informado en una sociedad de la posverdad

Si desea mantenerse informado, hay algunos pasos que puede seguir. El primer paso es evitar leer información que no haya sido corroborada por múltiples fuentes creíbles. También debe considerar cuál podría ser la motivación para compartir este tipo de información. Si la fuente parece parcial o si no hay una explicación clara de por qué están compartiendo algo, entonces debes reconsiderar cuánta confianza tienes en la información presentada. Además, recuerda que el hecho de que algo parezca cierto no significa que lo sea. Puede ser imprudente basar su propia opinión en información falsa, así que trate de no sacar conclusiones precipitadas hasta que haya tenido tiempo de verificar lo que ve en línea. Si no está seguro de si un video es real o falso, pregúntese cuál es el propósito del video. ¿Quién se beneficiaría de falsificar este video? También puede buscar movimientos inusuales en los rasgos faciales de la persona o movimientos de labios no naturales. Y, por último, si está tratando de averiguar si una persona dijo algo de cierta manera (por ejemplo, engañosamente), sería útil escuchar y comparar su pronunciación con la de otros discursos que haya pronunciado. Por ejemplo, si alguien ha hablado públicamente sobre un tema anteriormente pero nunca ha pronunciado una palabra de manera similar a como lo hizo en este nuevo discurso, eso indica engaño.

El rostro de la revolución del deepfake

La revolución de las falsificaciones profundas es un fenómeno continuo en el que las personas pueden crear videos de personas que dicen o hacen cosas que nunca hicieron. La tecnología detrás de los deepfakes se llama «aprendizaje profundo», que es un tipo de aprendizaje automático que permite que las computadoras aprendan a hacer cosas con el ejemplo.

Esta tecnología ya se ha utilizado para crear videos falsos de celebridades, y solo empeorará a partir de ahora. Necesitamos ser conscientes de esta tecnología y estar preparados para las consecuencias.

Las consecuencias de este tipo de tecnología son inmensas. Por un lado, es muy fácil engañar a la gente para que piense que estos videos son reales. Pude encontrar un subreddit donde las personas crean videos falsos con relativa facilidad y la calidad es increíble. Un video creado por alguien en este subreddit obtuvo casi 11,000 votos a favor. Esto es preocupante porque significa que hay toda una comunidad dispuesta a compartir videos falsos como si fueran reales. Además, no hay leyes contra las falsificaciones profundas, por lo que será interesante ver cómo progresa este tipo de cosas en los próximos años.

Otra consecuencia es que podemos perder nuestra confianza en los medios digitales en su conjunto y dejar de utilizarlos para cosas como la educación y la documentación. Un ejemplo es el video de Barack Obama hablando de «noticias falsas» que en realidad fue creada por otra persona. Esto demuestra lo fácil que es hacer quedar mal a la gente, pero esta tecnología será aún más peligrosa cuando se utilice con discursos políticos que tengan implicaciones reales en la vida de las personas.

Encontré un sitio web que puede crear videos falsos usando solo fotos de Facebook. Simplemente cargue de 3 a 20 imágenes de su rostro y el software las combinará en un video de aspecto realista en el que dice lo que quiera. Las personas ya están comenzando a usar estos videos para vengarse de sus ex o vengarse de las personas que los hicieron mal. Creo que esto es peligroso porque significa que podemos perder la confianza entre nosotros como humanos si el deepfake se vuelve más popular.

Esta tecnología es adictiva y tiene el potencial de obsesionarnos con cosas que no existen. Muchas personas ya han perdido el tiempo tratando de desacreditar videos hechos con esta tecnología, lo que significa que están siendo engañados todo el tiempo. Un ejemplo es un video donde Barack Obama dice «Matamos a Osama Bin Laden» que fue creado por alguien. Esto demuestra lo fácil que es engañar a las personas que usan este tipo de tecnología, por lo que creo que todos deberían conocer su existencia antes de tomar cualquier tipo de decisión basada en lo que ven en línea. Necesitamos leyes contra el deepfake porque creo que estos videos resultarán destructivos para las relaciones entre las personas en la sociedad si se les permite progresar sin limitaciones. Dividirá a nuestra sociedad en dos grupos, ya que los que saben serán cautelosos con todo lo que ven en línea y los que no. Esto tendrá un efecto negativo en nuestra sociedad en su conjunto porque las personas no podrán confiar en lo que es real y lo que no, lo que significa que será menos probable que nos comuniquemos entre nosotros o compartamos cosas importantes como documentación y educación a través de medios digitales.

Deepfakes, ¿por qué tus datos no valen nada?

Hay tres tipos de datos que no valen nada: Deepfakes, Your Data, Your Future.

Los deepfakes son videos creados con inteligencia artificial. Por lo general, se utilizan para crear películas transformando la cara de una persona en el cuerpo de otra persona, o para otros fines engañosos. Este tipo de tecnología se puede utilizar para crear contenido de video falso que potencialmente podría desestabilizar a nuestra sociedad. Al igual que Deepfakes, sus datos tampoco valen nada porque pueden manipularse para cualquier propósito. El último tipo de datos que no vale nada es tu futuro porque no se puede ver. La gente siempre está tratando de predecir el futuro, pero es bastante difícil.

Deepfakes – Lo que necesitas saber sobre esta pesadilla digital

Los deepfakes son un tipo de manipulación digital que utiliza inteligencia artificial para crear videos de personas que parecen estar diciendo o haciendo cosas que nunca dijeron o hicieron. Los videos deepfake a menudo se usan para crear videos falsos, pero también se pueden usar para crear noticias falsas o para manipular la opinión pública.

Los videos deepfake son una pesadilla digital porque pueden usarse para difundir mentiras y desinformación. También se pueden utilizar para chantajear a las personas o para dañar su reputación. Los videos deepfake son muy difíciles de detectar, por lo que es importante conocerlos y ser escéptico ante cualquier video que parezca demasiado bueno para ser verdad.

Los videos deepfake están hechos con una combinación de aprendizaje automático e inteligencia artificial. El primer paso es crear un conjunto de datos que incluya un video de la persona que desea que diga o haga algo que nunca hizo. Puede usar herramientas disponibles gratuitamente para generar este conjunto de capacitación, que incluirá cientos o miles de videos cortos de su objetivo. Luego se utilizan algoritmos de aprendizaje automático para tomar estos videos individuales y «aprender» cómo debe verse la cara cuando hace diferentes expresiones o dice diferentes palabras. Una vez que se han recopilado suficientes datos, los algoritmos de aprendizaje automático pueden generar nuevos videos falsos que se ven muy realistas y naturales.

El término Deepfakes fue acuñado por un usuario anónimo de Reddit.

¿Qué es el audio falso profundo?

Deepfake audio es una tecnología emergente que permite la creación de una grabación falsa. Funciona de tal forma que crea un sonido o video con la voz de alguien y lo pone en el cuerpo de otra persona. Las personas suelen usar esto para avergonzar a otros, pero los deepfakes también se pueden usar para crear videos y grabaciones falsos para desacreditar o amenazar a políticos y celebridades.

Deepfake audio es una tecnología relativamente nueva que surgió en los últimos dos años, pero se está volviendo más popular debido a su facilidad de uso. Hay varios sitios web en línea donde las personas cargan sonidos y otros usuarios pueden ponerlos en la boca de otra persona para crear videos. Este proceso es posible gracias a la inteligencia artificial (IA) que se puede utilizar para múltiples propósitos, incluida la edición de videos o la creación de videos falsos. Funciona tomando datos de algún tipo de fuente de audio y usándolos para su posterior procesamiento para completar el trabajo de video. La gente ha utilizado deepfakes con los discursos de los políticos para desacreditarlos o con el audio explícito de las celebridades para humillarlos.

¿Cuáles son las posibles implicaciones de las falsificaciones profundas?

Deepfakes es un tipo de video generado por IA que ha aparecido recientemente en Internet. Estos videos son creados por algoritmos y hacen que las personas digan cosas que nunca dijeron o parezcan estar haciendo algo que nunca hicieron. De esta manera, los deepfakes pueden usarse como una forma de desinformación para cambiar la percepción de la realidad de las personas. Es muy posible que los deepfakes continúen proliferando y se vuelvan más persuasivos a medida que pasa el tiempo porque los algoritmos pueden aprender de videos deepfake anteriores y mejorar con el tiempo. Esto podría llevar a un punto en el que ya no habría credibilidad en ninguna secuencia de video, lo que haría imposible creer todo lo que vemos o escuchamos.

Una de las implicaciones más importantes a tener en cuenta es la cuestión de la autenticidad. Publicar noticias falsas se ha convertido en una práctica cada vez más fácil y común, tanto que es difícil saber si un video o una fotografía son reales porque nunca podemos estar completamente seguros. Internet contribuye significativamente a este problema. Cuando busca cualquier cosa en Google, seguramente encontrará varios sitios web que presentan información contradictoria, lo que lo hace aún más confuso al intentar discernir qué es verdad y qué no. Si los deepfakes se vuelven ampliamente vistos como fuentes confiables de información, el efecto inmediato será una pérdida de confianza en todas las demás formas de contenido debido a su incertidumbre. También podría hacernos cuestionar todo lo que escuchamos o vemos, incluso las cosas que hemos registrado con nuestros propios ojos.

En particular, los periodistas podrían verse afectados por la mayor presencia de deepfakes. Esta tecnología podría hacer que les resulte imposible saber si las entrevistas que realizan son reales o no, lo que pone en juego su credibilidad. Si las personas ya no creen que lo que informan es exacto, entonces existe una buena posibilidad de que su audiencia disminuya y las personas recurran a fuentes que ofrecen contenido que parece más legítimo, independientemente de su validez. Mientras las audiencias crean que obtienen la verdad de algún otro lugar, su confianza en los principales medios de comunicación seguirá disminuyendo.

Además, las implicaciones de la desinformación generalizada pueden provocar cambios en las relaciones internacionales si algunos países no abordan este problema con la suficiente rapidez. Por ejemplo, si se publica un video falso que hace parecer que los líderes de dos países se insultan entre sí, entonces sus respectivas poblaciones podrían volverse hostiles entre sí y desarrollar una falsa sensación de hostilidad. Si el metraje original no se publica y refuta lo suficientemente rápido, es probable que las personas continúen percibiendo la realidad distorsionada por el video falso, lo que hace que los intercambios violentos entre ciudadanos sean mucho más probables porque se les habrá alentado a tomar medidas basadas en su ira hacia un individuo que en realidad no existe.

También podríamos ver una gran disminución en Hollywood a medida que los espectadores dejen de ir a los cines porque prefieren ver películas en casa con deepfakes en lugar de no tener efectos visuales realistas. Es posible que la industria no pueda mantenerse al día con la tecnología si evoluciona más rápido que el tiempo que lleva producir películas, lo que provocaría una caída significativa de los ingresos. Podríamos incluso empezar a ver películas completamente generadas por computadora porque los actores ya no son necesarios.

Aunque los deepfakes podrían tener efectos positivos en el arte, existe un potencial mucho mayor de consecuencias negativas a medida que la IA continúa avanzando y extendiéndose a través de varias industrias. Es fundamental que las personas tomen conciencia del problema para que puedan determinar cómo resolverlo antes de que la desinformación se vuelva imposible de detener o se vuelva demasiado persuasiva para su propio bien. Por esta razón, los desarrolladores deben probar continuamente los algoritmos y encontrar formas de limitar sus capacidades para evitar que la información se distorsione. Esto puede implicar limitar el aspecto realista de los videos o requerir certificados de autenticación para compartir cierto contenido. Por ejemplo, para que los videos de deepfakes se publiquen en Facebook, deberán marcarse como verificados después de que la empresa los revise.

Incluso puede llegar un momento en el que dejemos de considerar la realidad virtual y la realidad aumentada como tecnologías avanzadas debido a lo avanzada que se ha vuelto la IA. Todo el contenido digital podría mezclarse, por lo que es difícil saber qué es auténtico y qué no, lo que destruiría nuestra confianza en una serie de formas de medios. La única forma en que podemos evitar que esto suceda es si todos trabajamos juntos como sociedad para poner fin a estas prácticas antes de que tengan alguna posibilidad de tener éxito. No tenemos idea de hasta dónde llegará la tecnología deepfake, ya sea que resulte ser buena o mala para nosotros, pero no podemos permitir que comprometa nuestra capacidad de percibir la realidad.


¿Cuándo esperamos ver un uso masivo de deepfakes?

Los deepfakes son videos generados por inteligencia artificial o algoritmos de aprendizaje automático. Los usuarios de Deepfake pueden tomar unos segundos de video y convertirlo en algo que parezca minutos. Deepfakes le permite a una persona promedio crear intercambios de rostros convincentes, imitaciones de voz o cualquier otro tipo de manipulación que pueda ver en las películas.

Probablemente veremos el uso masivo de deepfakes en algún momento porque la IA está mejorando en el reconocimiento de rostros, voces y otras cosas, lo que hace posible que el uso de este tipo de técnicas se generalice.

El público comenzará a ver el uso avanzado de videos falsos profundos cuando estén listos para reproducirse en tiempo real. Esto significa, cuando un algoritmo tarda menos de unos minutos en crear un video realista. Cuanto más tarde, menos probable es que la gente esté dispuesta a esperar a que se genere. A la mayoría de la gente no le importará ni se dará cuenta si no se trata realmente de una representación en tiempo real porque la mayoría ha dejado de prestar atención una vez que saben que algo es falso, siempre que un algoritmo pueda engañarlos con éxito con los ojos sin demasiado esfuerzo. Los avances tecnológicos en el reconocimiento facial, los algoritmos de aprendizaje automático y la representación digital pueden hacer que el consumidor promedio comience a notar los videos falsos, pero probablemente pasarán años antes de que eso suceda.

Comenzaremos a ver este tipo de videos en tres a cinco años porque no ha habido mucho avance tecnológico recientemente y este es un concepto relativamente nuevo. Ya podemos crear videos falsos tradicionales que parecen reales mediante el uso de software de edición como Adobe Premiere Pro y After Effects. La única diferencia entre esos videos y los deepfakes es que no podemos controlar lo que dice la gente o cómo mueven la boca, por lo que necesitamos un software como FakeApp, por ejemplo, que utiliza algoritmos de aprendizaje automático para realizar intercambios de rostros y cosas similares. Se necesitaría mucho tiempo y dinero para crear suficiente contenido para que el público aceptara los videos de aprendizaje automático como reales. También necesitamos más avances tecnológicos, como impresoras 3D baratas de alta resolución que puedan crear cabezas de tamaño real sin perder demasiada claridad. Además, creo que probablemente veremos este tipo de videos en películas antes de que se vuelvan populares en las redes sociales porque las películas tienen una vida útil más larga que unos pocos minutos y las personas estarán más abiertas a verlas si las ven en los cines o en menos publicitado por las grandes productoras.

Personalmente, no creo que alguna vez lleguemos al punto en que no distingamos los videos deepfake de los tradicionales, pero definitivamente cambiaría la forma en que vemos cosas como entrevistas y discursos. En mi opinión, no hay mucho que nadie pueda hacer con este tipo de tecnología. No es ilegal crear videos falsos, no es ilegal publicarlos en línea y es imposible que nadie más sepa si un video es falso o no si la persona que lo crea quiere que sea real.

No creo que el usuario promedio de Facebook comience a notar videos falsos hasta que puedan reproducirse en tiempo real. Aunque los sitios como FakeApp hacen videos falsos utilizando algoritmos de aprendizaje automático en lugar del software de edición tradicional, este tipo de videos son extremadamente difíciles de crear debido a la cantidad de potencia informática que necesita para cada segundo de metraje. La energía necesaria ejercería una enorme presión sobre los servidores y las redes, lo que significa que llevaría mucho tiempo generar un video con un grado de autenticidad lo suficientemente alto.

Debido a la naturaleza de los videos falsos profundos, no creo que veamos un fuerte aumento en su uso inmediatamente después de su creación. No es ilegal publicarlos o redistribuirlos en línea, por lo que no se puede hacer mucho si alguien quiere compartir algo que ha creado. En mi opinión, lo más probable es que comience a convertirse en un problema cuando los sitios de redes sociales como Facebook comiencen a tener problemas con los anunciantes por alojar este tipo de videos porque podrían causar indignación entre los espectadores que intentan continuar con su vida diaria sin verse confrontados por videos falsos. de amigos o familiares. Las personas han sido engañadas con éxito por la tecnología CGI tradicional en el pasado, por lo que sería difícil saber cuándo alguien está siendo engañado por un algoritmo de aprendizaje automático o si ha sido engañado por un software de edición. Creo que esto se convertirá en un problema cuando las personas comiencen a perder la fe en lo que ven y escuchan de los medios de comunicación, lo que podría provocar una falta de confianza en las figuras públicas.

No creo que realmente estemos completamente informados sobre el deepfake hasta que se realice algún tipo de avance tecnológico. En este momento, la creación de estos videos aún requiere mucho tiempo y mucha potencia informática, por lo que puede imaginar cuánto tiempo lleva renderizar cada uno. Sería un trabajo bastante laborioso para las personas que quieren millones de copias, ya que tendrían que hacerlo una por una, pero una vez que haya algo que pueda generarlas a escala, creo que honestamente veremos qué tanto problema. esto podría convertirse.

No creo que la gente realmente se dé cuenta hasta que empiecen a tener en cuenta los ángulos de la cámara. Si la persona que hace videos falsos puede obtener suficientes imágenes de alguien hablando o moviéndose en el video, entonces no importará si está usando herramientas de edición tradicionales o algoritmos de aprendizaje automático porque el producto final se verá lo suficientemente real como para pasar como auténtico. sin pensar demasiado en ello. Aunque los videos deepfake actualmente son extremadamente difíciles y requieren mucho tiempo para crearlos, los avances en la tecnología que permiten hacer más cosas en tiempo real lo harán mucho más fácil. En este momento, el término deepfake se refiere a cualquier video que haya sido falsificado con algoritmos de aprendizaje automático y software de edición tradicional, pero si algo pudiera hacer ambas cosas a la vez, tendríamos un problema mucho mayor en nuestras manos.

Creo que los videos falsos no se volverán demasiado populares hasta que las personas encuentren una manera fácil de hacer que funcionen para ellos en lugar de tener que contratar a alguien más con un gran presupuesto. No importa cuán baratas o costosas sean estas cosas, la mayoría de las personas aún necesitarían una cantidad sustancial de tiempo y dinero antes de poder crear sus propias falsificaciones sin contratar a otra persona. Hay algunas personas por ahí que harán negocios desde sus hogares donde venden videos falsos, pero en su mayor parte creo que hasta que sea algo que cualquiera pueda hacer, no tendrá demasiado impacto en la sociedad.

No creo que la gente comience a usar estos videos de manera generalizada hasta que haya una gran cantidad de incentivos financieros para hacerlo. En este momento, si tuviera que crear un video con imágenes falsas sin ningún objetivo reconocible o específico, sería difícil obtener algún tipo de atención porque, en primer lugar, no habría nada que valiera la pena criticar. Incluso si alguien quisiera producir uno por diversión, todavía hay el tiempo y la potencia informática necesarios para hacerlo, por lo que no tendría mucho sentido si no tuvieran un objetivo en mente. Si estos videos pueden volverse extremadamente convincentes a gran escala, creo que las personas comenzarán a usarlos con fines negativos con el objetivo de ganar dinero.

No creo que los videos falsos se vuelvan realmente populares hasta que las personas puedan producir clips basados en conversaciones automáticamente. Por ahora, la mayoría de las falsificaciones son imágenes fijas básicas que se modifican o reorganizan por completo para adaptarse al propósito para el que fueron creadas. Si los algoritmos deepfake pudieran imitar más movimientos de la vida real, como la sincronización de labios o los atajos de gestos, creo que se abriría todo un nuevo mundo de posibilidades donde las personas pueden crear un producto final mucho más convincente. Si el video es capaz de imitar los movimientos de la vida real que hablan, entonces puedo imaginar que se volverían muy populares como una forma de desinformar o calumniar a alguien sin ninguna consecuencia porque nadie podría verificar si es real o no.

Related Articles

WP Radio
WP Radio
OFFLINE LIVE