#CienciaYTecnologia •
“El presidente Donald Trump es un total y completo idiota”. Esto es lo que aparentemente dijo el expresidente de Estados Unidos, Barack Obama, en un video de un minuto. Pero, la expresión “la realidad no es lo que parece” nunca había tomado tanta relevancia como ahora, pues el verdadero Obama nunca dijo esto; mas bien, fue un “deepfake”.
¿Qué son los deepfakes?
Los deepfakes, también conocidos como “medios sintéticos”, son creaciones multimedia generadas por Inteligencia Artificial (IA) que utilizan técnicas de deep learning para manipular imágenes, videos o audio.
Cada vez se vuelven más comunes y virales este tipo de imágenes. Por ejemplo, si viste al Papa Francisco con una chamarra Balenciaga, o a Barack Obama jugando basquetbol con una playera del equipo Lakers, son ejemplos de deepfakes.
El término es una combinación de las palabras en inglés “deep learning” (aprendizaje profundo) y “fake” (falso). De acuerdo con el medio especializado en tecnología Techslang, los deepfakes funcionan explotando dos modelos de aprendizaje automático.
Un modelo crea las falsificaciones a partir de un conjunto de datos de videos de muestra, mientras que el otro intenta detectar si el video es realmente un fraude. Cuando el segundo modelo ya no puede decir si el video es falso, es probable que el deepfake también sea lo suficientemente creíble para un espectador humano. Esta técnica se denomina red adversarial generativa (GAN, por sus siglas en inglés).
GAN funciona mejor cuando el conjunto de datos que se le proporciona es grande. Por eso, gran parte de los vídeos tienden a presentar a políticos y celebridades del mundo del espectáculo, pues hay más videos y fotografías que GAN puede usar para crear deepfakes muy realistas.
Deepfakes: una tecnología que empezó el siglo pasado
La idea de manipular videos data desde la década de los 90. Desde entonces, ya se hablaba de “computer vision” (visión por computadora), que era la ciencia del desarrollo de software que puede comprender imágenes de la misma manera que los humanos y los animales.
Incluso, en 1997, se generó el primer deepfake llamado “Video Rewrite”, donde aparece una mujer con una voz y rostro que no le pertenecen. Este se podría considerar el primero de la historia.
Sin embargo, el término se popularizó gracias a un usuario de Reddit, llamado “Deepfakes”. En 2017, el personaje anónimo subió una serie de videos para adultos con las caras de las actrices Gal Gadot, Emma Watson, Katy Perry, Taylor Swift y Scarlett Johansson, lo que despertó tanto la curiosidad como la preocupación en torno a esta tecnología.
Los riesgos de los deepfakes
“Esta es la cara del dolor”, compartió una famosa Twitcher que fue víctima de un deepfake, donde sobrepusieron su rostro en un video pornográfico. «No debería ser parte de mi trabajo tener que pagar dinero para que eliminen estas cosas. ¡Eso no debería ser parte de mi trabajo! Y el hecho de que lo sea es agotador», compartió.
Aunque los deepfakes pueden ser utilizados para numerosos propósitos, de acuerdo con un estudio realizado en 2019 por el laboratorio de IA Deeptrace , 96% de los deepfakes eran de contenido pornográfico y, de estos, 99% de las víctimas eran mujeres.
Incluso, en sus inicios, también era conocido como “AI-generated porn” (pornografía generada con IA). “La pornografía deepfake es un fenómeno que ataca y daña exclusivamente a las mujeres”, escribieron los autores del estudio.
Por otro lado, en mayo de 2019, apareció un video manipulado de Nancy Pelosi en el que la presidenta de la Cámara de Representantes de Estados Unidos aparecía ebria. El video fue visto más de 2.5 millones de veces en Facebook en cuestión de días y compartido por destacados líderes políticos.
Desde entonces, otro de los grandes riesgos de los deepfakes es su uso para desprestigiar líderes políticos y, parte del problema es que cada vez los videos son más sofisticados, por lo que la detección puede ser complicada.
“Los deepfakes pueden ser muy convincentes y difíciles de que podamos distinguirlos de lo real, lo que ha generado muchas preocupaciones, pues se utilizan para desinformar o manipular las noticias, la privacidad personal y hasta el uso de videos pornograficos de celebridades o personas conocidas”, compartió René Padilla, CEO de Introid, empresa de soluciones de IA, Introid.
Usos positivos de los deepfakes
Padilla señala que, aunque los deep fakes han sido mal utilizados, también tienen usos positivos, principalmente en la industria del cine y el entretenimiento. Películas como Avatar utilizaron la técnica “Motion Capture”, donde le ponen al actor unos marcadores , capturan todo el movimiento y gesticulaciones y después, en la computadora, hacen el reemplazo.
Otro ejemplo fue en la película “Rápidos y Furiosos 7”. El fallecimiento del actor Paul Walker se produjo cuando aún no se había terminado de filmar la película y, para terminar las escenas, la producción utilizó dobles y tecnología de CGI.
Además, esta tecnología también permite que se graben escenas peligrosas sin poner en riesgo a los actores.
Otro de sus usos puede ser en el doblaje de las películas, pues ahora la sincronización de labios puede ser mucho más exacta con la traducción a distintos idiomas.
En la educación e investigación, se puede utilizar para recrear eventos históricos o discursos y permitir nuevas experiencias de aprendizaje.
También puede ser una tecnología positiva para proteger la identidad de las personas cuando requieren ser anónimas, con voces y rostros para respetar la privacidad. Esto puede ser especialmente útil en juicios, documentales o cualquier escenario que requiera de total anonimato.
¿Cómo detectar un deepfake?
“Anteriormente era muy evidente porque había muchos errores, pero ahora es casi indistinguible. Todavía hay algunas marcas, pero poco a poco se está haciendo mucho mejor esta superposición de caras”, compartió Padilla.
Detectar deepfakes se vuelve cada vez más difícil para el ojo humano e, incluso, empresas como Intel ahora buscan crear tecnologías que puedan detectar deepfakes. También, en 2019, Facebook, en conjunto con empresas como Microsoft y numerosas universidades estadounidenses, realizaron un rally a manera de investigación para mejorar la detección de los deepfakes.
Además de estas tecnologías, hay ciertas pistas que te pueden indicar si un contenido es falso:
- Movimientos de ojos poco naturales: Si el personaje no parpadea, tiene movimientos oculares “raros” o no mira a los sujetos con los que está interactuando.
- Desajuste en color e iluminación: Si tiene un tono de piel poco realista, manchas, hay una iluminación extraña o sombras posicionadas incorrectamente.
- El audio: Frecuentemente, los productores de deepfakes se enfocan más en lo visual que en el sonido. Observa bien la sincronización de labios, una palabra pronunciada de manera bizarra o incluso, la falta de audio.
- Forma del cuerpo o movimientos poco fluidos: Si se mueve, literalmente, como un robot o de manera poco natural.
- Movimientos faciales artificiales: Si lo que dice no va de acuerdo con su expresión facial.
Expansión