Deepfake

Deepfake (word acuñado en 2017) es una técnica de síntesis de imágenes humanas basada en inteligencia artificial, utilizada para combinar y superponer imágenes y videos existentes con videos o imágenes originales, a través de una técnica de aprendizaje automático, conocida como red antagonista generativa. También se ha utilizado para crear videos pornográficos falsos que representan a celebridades y porno de venganza, pero también se puede usar para crear noticias falsas, engaños y estafas, para realizar actos de ciberacoso u otros delitos de diferente naturaleza, o sátira.

El desarrollo de la técnica tuvo lugar principalmente en dos áreas: investigación en instituciones académicas y desarrollo amateur en comunidades en línea. La investigación académica relacionada con deepfakes se encuentra principalmente en el campo de la visión por computadora, una rama de la informática a menudo basada en la inteligencia artificial, que se centra en el procesamiento informático de imágenes y videos digitales. Un proyecto de referencia inicial fue el "video Rewrite" , publicado en 1997, que modificó un video existente de una persona hablando, representando a esa persona para que pareciera que estaba pronunciando las palabras pertenecientes a una pista de audio diferente de la original. Fue el primer sistema que logró automatizar completamente este tipo de animación facial, utilizando técnicas de aprendizaje automático para crear conexiones entre los sonidos producidos por el sujeto del video y la forma de su rostro. Los proyectos académicos contemporáneos se han centrado en crear videos más realistas e implementar técnicas más simples, rápidas y accesibles. El proyecto "Synthesizing Obama" , lanzado en 2017, edita videos del ex presidente estadounidense Barack Obama, que lo representa mientras pronuncia palabras que pertenecen a una pista de audio separada. El programa "Face2Face" , lanzado en 2016, edita videos que representan la cara de una persona, representándola mientras imita las expresiones faciales de otra persona en tiempo real. El término "deepfakes" se originó a finales de 2017 de un usuario de Reddit llamado "deepfakes" . "Él, como los otros usuarios en el R/deepfakes Reddit, compartió deepfakes creado; en muchos de los videos se intercambiaron caras de celebridades con las de actrices en videos pornográficos, mientras que el contenido no es pornográfico incluyó muchos videos que representan la cara del actor Nicolas Cage entró en varias películas. En diciembre de 2017, Samantha Cole publicó un artículo sobre R/deepfakes en Vice, que primero llamó la atención sobre deepfakes que se comparte en comunidades en línea. Seis semanas más tarde, Cole escribió en un artículo sobre el aumento de la inteligencia artificial asistida pornografía falsa. En febrero de 2018, r / deepfake fue prohibido de Reddit debido a compartir pornografía involuntaria, y otros sitios web también prohibieron el uso de deepfakes para pornografía involuntaria, incluidos Twitter y el sitio Pornhub. Sin embargo, otras comunidades en línea permanecieron, incluidas las comunidades de Reddit que no compartían pornografía, como R/SFWdeepfakes (abreviatura de" safe for work deepfakes ") , donde los miembros compartieron deepfakes que representaban a celebridades, políticos y otros en escenarios no pornográficos. Otras comunidades en línea continúan compartiendo pornografía en plataformas que no han prohibido el uso de deepfakes pornográficos. Los deepfakes pornográficos aparecieron en internet en 2018, particularmente en Reddit, y fueron prohibidos en sitios como Reddit, Twitter y Pornhub. En el otoño de 2017, un usuario anónimo de Reddit bajo el seudónimo "deepfakes" publicó varios videos porno en Internet. El primero que atrajo la atención de muchos fue el deepfake de Daisy Ridley. También es uno de los videos más conocidos de deepfake. Otro fue el deepfake en la simulación en la que se ve a Gal Gadot teniendo relaciones sexuales con su medio hermano, mientras que otros representaron celebridades como Emma Watson, Ariana Grande, Katy Perry, Taylor Swift o Scarlett Johansson. Las escenas no eran reales, pero fueron creadas gracias a la inteligencia artificial. Fueron cancelados poco tiempo después. Con el paso del tiempo, la comunidad de Reddit corrigió muchos errores en los videos falsos, haciéndolos cada vez más difíciles de distinguir del contenido real. Las fotografías no pornográficas y los vídeos de celebridades, que estaban disponibles en línea, se utilizaron como datos de capacitación para los diversos programas informáticos. Sin embargo, también dijo que no intentaría eliminar ninguno de los deepfakes, porque creía que no afectarían su imagen y las diferentes leyes en todos los países y la cultura de Internet hacen que cualquier intento de eliminar los deepfakes sea "una causa perdida" ; cree que cada celebridad como ella está protegida por su propia fama, los deepfakes representan una seria amenaza para propia reputación dañada debido a la pornografía involuntaria en deepfakes o venganza porno El fenómeno de deepfake se informó por primera vez en diciembre de 2017 en la sección técnica y científica de la revista Vice, lo que lo llevó a difundirse en otros medios. Scarlett Johansson, un tema frecuente del porno deepfake, habló públicamente sobre el tema al Washington Post en diciembre de 2018. Expresó su preocupación por el fenómeno, describiendo a Internet como un "vasto túnel espacial de oscuridad que se come a sí mismo." En el Reino Unido, los fabricantes de materiales deepfake pueden ser procesados por acoso, pero hay una voluntad de hacer deepfake un delito específico. Los Deepfakes se han utilizado para representar falsamente a políticos famosos en portales de video o salas de chat. Por ejemplo, la cara del presidente argentino Mauricio Macri fue reemplazada por la cara de Adolf Hitler, y la cara de Angela Merkel fue reemplazada por la de Donald Trump. En abril de 2018, Jordan Peele y Jonah Peretti crearon un deepfake usando a Barack Obama como un anuncio sobre el peligro de deepfakes. En enero de 2019, Fox emitió un deepfake de Trump en el que se burlaban de él por su apariencia y color de piel.

En enero de 2018, se lanzó una aplicación llamada FakeApp. La aplicación permite a los usuarios crear y compartir videos fácilmente con caras intercambiables. La aplicación utiliza una red neuronal artificial y la potencia del Procesador gráfico y de tres a cuatro gigabytes de memoria para generar el video falso. Para obtener información detallada, el programa necesita una gran cantidad de material visual que represente a la persona "víctima" , con el fin de aprender qué aspectos de la imagen deben cambiarse, utilizando un algoritmo de aprendizaje profundo basado en secuencias de video e imagen. El software utiliza la estructura AI TensorFlow de Google, que, además del resto, ya se había utilizado para el programa DeepDream. Las celebridades son los temas más importantes de los videos falsos, pero otras personas también aparecen. En agosto de 2018, investigadores de la Universidad de California, Berkeley publicaron un artículo presentando una aplicación de baile falso, que creó habilidades de baile falsas utilizando IA. También hay alternativas de código abierto al programa original FakeApp, como Deepfacelab, FaceSwap y Myfakeapp.

Aargauer Zeitung dice que la manipulación de imágenes y videos a través del uso de inteligencia artificial puede convertirse en un peligroso fenómeno de masas. Sin embargo, la falsificación de imágenes y videos también es más antigua que la llegada de software de edición de video y programas de edición de imágenes; en este caso, el nuevo aspecto es el realismo. También puedes usar deepfakes para engaños específicos y porno de venganza. Un efecto de deepfakes es que ya no es posible distinguir si el contenido es dirigido (por ejemplo, sátira) o genuino. El investigador de IA Alex Champandard dijo que todo el mundo debería saber lo rápido que se pueden falsificar las cosas hoy en día con esta tecnología, y que el problema no es técnico, sino que se debe resolver con confianza en la información y el periodismo. El principal problema es que la humanidad podría caer en una época en la que ya no es posible determinar si el contenido de un medio corresponde a la verdad. Algunos sitios, como Twitter y Gfycat, anunciaron que eliminarían el contenido de deepfake y bloquearían a sus autores. Anteriormente, la plataforma Discord bloqueaba un canal de chat con videos pornográficos de algunas celebridades. El sitio porno Pornhub planeaba bloquear este contenido; en cualquier caso, se informó que el sitio no impuso esta prohibición. En Reddit, la situación inicialmente no estaba clara, hasta que la sección dedicada a deepfakes fue suspendida el 7 de febrero de 2018, debido a la violación de las políticas de "pornografía involuntaria" . En septiembre de 2018, Google agregó "imágenes pornográficas sintéticas e involuntarias" a su lista de prohibición, lo que permite a cualquier persona solicitar resultados de bloqueo que muestren sus desnudos falsos.

La edición de mediados de diciembre de 1986 de la revista Analog, publicó Picaper por Jack Wodhams. La trama gira en torno a videos digitalmente mejorados o generados digitalmente, creados por hackers experimentados que sirven a abogados y personalidades políticas sin escrúpulos. El protagonista principal, un trabajador que resuelve problemas para el Departamento de monitoreo de sistemas, inusualmente encuentra un video de alta calidad, pero falso. Jack wodhams define tales videos artificiales como "picaper" o "mimepic" , animaciones de imágenes basadas en "información de imagen presentada, copiada a través de selecciones de un número infinito de variables que un programa podría proporcionar" . Para Wodhams, la pornografía no es el mayor peligro de esta tecnología. En la historia, el falso video Interactivo se pone en una videoconferencia. La conclusión a reflexionar es que "la vieja idea de que las imágenes no mienten tendrá que sufrir una revisión drástica" .

Massimo Gramellini en el correo utilizó "profondo falso" , pero otras posibles traducciones también fueron avanzadas.

Pornografía

Infografía

Aprendizaje automático

Simulación de multitud

La simulación de multitudes es la expresión que se refiere al proceso de simular el movimiento (o dinámica) de un gran número de entidades o personajes. Se usa ...

Imágenes de alto rango dinámico

HDRI, acrónimo de High dynamic range imaging, es una técnica utilizada en infografía y fotografía para obtener una imagen en la que el rango dinámico, es decir,...

Gráficos 3D

Técnicas fotográficas

Esta página se basa en el artículo de Wikipedia: Fuente, Autores, Licencia Creative Commons Reconocimiento-CompartirIgual.
This page is based on the Wikipedia article: Source, Authors, Creative Commons Attribution-ShareAlike License.
contactos
Política de privacidad , Descargos de responsabilidad