Videos que muestran a celebridades en escenas de películas porno, políticos dando discursos polémicos u ofreciendo consejos financieros. Las temáticas varían pero el objetivo de los que crean y hacen circular este contenido es el mismo: engañar al usuario. Y se valen de una tecnología conocida como deep fake.
Deep fake se podría traducir como “profundamente falso”. Es una tecnología basada en deep learning o aprendizaje profundo, que permite editar videos para generar clips falsos híper realistas. Si bien muchas veces se usan para realizar estafas, otras veces son la clave para producir todo tipo de creaciones artísticas.
La tecnología detrás de los deep fakes
Esta técnica de inteligencia artificial se basa en redes generativas antagónicas (GAN, por sus siglas en inglés). Son dos redes neuronales entrenadas con el mismo conjunto de datos –imágenes, videos y voces de miles de clips que hay en la web. Ambas redes van interactuando entre ellas, como si fuera una competencia, y a partir de ahí se van logrando los resultados.
Una de las redes es generativa, es decir que va a ir produciendo contenido (imágenes, videos, voz) a partir de los datos que recibió. La otra red tiene la función de discernir si lo que va viendo es una imagen producida por la red generativa o un contenido original que viene de los datos de entrenamiento.
Ese juego entre ambas redes es lo que permite ir produciendo contenido falso hiperrealista. La precisión se va logrando a partir de esa interacción continua. El sistema aprende a partir de la exposición a la información. Funciona de manera similar al cerebro humano y de ahí que se lo conozca como una red neuronal.
Los usos de este tipo de tecnología
En 2018 se empezó a popularizar el concepto deep fake, luego de que circularan videos editados digitalmente para mostrar a diferentes celebridades en escenas porno. Varias actrices de Hollywood reportaron este tipo de engaños que circulaban por la web. Se estima que hasta el 96% de todos los deep fake son pornográficos, lo cual puede ser empleado para dañar la reputación de una persona o realizar extorsiones.
Se estima que hasta el 96% de todos los deep fake son pornográficos, lo cual puede ser empleado para dañar la reputación de una persona o realizar extorsiones.
Ese año también se viralizó un video del expresidente de Estados Unidos, Barack Obama, diciendo “Donald Trump es un completo idiota”. Era un clip creado por el actor y guionista Jordan Peele a través de su productora MonkeyPaw Production, con el objetivo de concientizar sobre lo fácil que puede ser manipular contenido multimedia para engañar a la gente.
Desde entonces y hasta la fecha ha estado circulando un sinnúmero de contenido manipulado digitalmente con esta tecnología. Tal es el caso del video falso que se viralizó hace unos meses, en el cual se muestra a Elon Musk invitando a los usuarios a hacer una inversión en una plataforma de criptomonedas llamada BitVex para obtener hasta un 30% de ganancias en criptomonedas. Incluso, dice que él mismo hizo una inversión de 50 millones de dólares en ese sitio. Un anzuelo que desarrollaron estafadores para lograr obtener fondos de algunos usuarios apurados por hacer inversiones, según identificó y reportó en su momento el sitio Bleeping Computers.
No siempre se usan con fines maliciosos
El problema no es la tecnología per se sino los usos que se hagan de ella. Los deep fakes también son útiles en la industria del arte. Hay una gran variedad de aplicaciones que permiten generar versiones hiperrealistas y diseños innovadores a partir de estas redes neuronales.
Esta tecnología permitió que se mantuviera el personaje de Carrie Fisher en Star Wars: Rogue One luego de que la actriz falleciera. Fue también empleado para producir una versión joven de Robert De Niro en el film El irlandés.
Otro caso muy renombrado fue la versión digital de Salvador Dalí que crearon el museo Dalí en San Petersburgo (Florida) y una agencia de publicidad. Lograron reproducir la estética y los movimientos del artista de una manera sorprendente, para ofrecerles a los asistentes al museo una experiencia interactiva única.
Cómo identificar los deep fakes
El problema surge cuando se utilizan deep fakes con fines maliciosos como realizar estafas, afectar la reputación de una persona o diseminar información falsa que eventualmente afectan la democracia.
El primer obstáculo que hay que sortear para mantenerse a salvo de este tipo de engaños es el desconocimiento. Un estudio de Kaspersky indica que en América Latina, el 70% de los usuarios de internet ignora la existencia de esta táctica.
En América Latina, el 70% de los usuarios de internet ignora la existencia de esta táctica.
De los encuestados, los peruanos (75%) son los que más la desconocen, seguidos de los mexicanos y chilenos (ambos con 72%), los argentinos (67%), brasileños (66%) y colombianos (63%). Para los expertos en ciberseguridad, este índice de desconocimiento es preocupante porque podría garantizar el éxito de tácticas de ingeniería social y fraude que aplican esta tecnología.
Ver esta publicación en Instagram Una publicación compartida de Bas Uterwijk (@ganbrood)
“Los deepfakes son un excelente ejemplo de una tecnología que se desarrolla más rápido de lo que realmente podemos comprender y manejar las complicaciones. Es por eso que se percibe como una adición al conjunto de herramientas de un artista y como un nuevo instrumento de desinformación que desafía aquello en lo que nosotros como sociedad podemos confiar”, asegura Vladislav Tushkanov, director de Data Scientist en Kaspersky, en un comunicado difundido por esa entidad.
Además de estar alerta, es importante estar atento a ciertos detalles como la mirada. Usualmente, los protagonistas de esos videos falsos parpadean poco o muestran movimientos oculares poco realistas.
Es una tecnología que se desarrolla más rápido de lo que realmente podemos comprender y manejar sus complicaciones.Vladislav Tushkanov, director de Data Scientist en Kaspersky
De hecho, a partir de la premisa de que los videos falsos suelen tener esta falla, hace dos años investigadores de la Universidad de Buffalo desarrollaron una herramienta que permite identificar automáticamente las fotos deep fake analizando los reflejos de luz en los ojos de los usuarios. La herramienta, según sus desarrolladores, demostró una efectividad del 94%. Aunque todavía no es un sistema de acceso para el público en general muestra un posible camino para identificar estos engaños.
También se pueden buscar incongruencias en el cabello, el movimiento de los labios o tono de piel. Todavía esta tecnología está en vías de optimización con lo cual muchas veces los resultados pueden tener este tipo de indicios que denotan falsedad.
Dibuje, maestro: un sistema de Inteligencia Artificial genera alucinantes imágenes a pedido
Por otro lado, comienzan a surgir iniciativas y regulaciones que buscan limitar este tipo de tecnología. Google prohibió los algoritmos deepfake de Google Colaboratory, su servicio informático gratuito con acceso a GPU. Por otra parte, en varios estados de Estados Unidos hay normativa que regula este tipo de contenidos; y hay un proyecto de ley en China que exige la identificación de los contenidos generados por computadora.
La entrada Deep fakes para todos los gustos: estafas y creaciones artísticas se publicó primero en Diario Con Vos.