El 30 de octubre de 1938 el entonces joven Orson Welles puso al mundo al borde de la histeria, provocando pánico entre miles de personas a quienes convenció de que Estados Unidos estaba siendo invadido por un ejército de alienígenas.  A eso de las ocho de la noche, en el Estudio Uno de la Columbia Broadcasting en Nueva York, Welles iba a interpretar la novela del escritor británico H.G. Wells, «La guerra de los mundos». Presentaron la radionovela contada en forma de noticiero de último momento y muchos radioyentes que sintonizaron más tarde la emisora o no prestaron atención al inicio, creyeron que efectivamente estaban siendo invadidos por extraterrestres.  Se estima que cerca de 12 millones de personas escucharon la transmisión y muchísimas más fueron presas del pánico, huyendo de sus casas y colapsando carreteras y comisarías. Durante varias horas se recibieron mensajes que decían haber visto a los extraterrestres.

¿Pueden imaginarse el impacto si esa supuesta invasión se transmitiese en 2019, con televisores de alta definición e imágenes que confundan al ojo humano, sin poder distinguir lo verdadero de lo falso? ¿Y su viralización en redes sociales?

La inteligencia artificial (IA) está ayudando a que los videos logren lo que ya se consiguió con la fotografía: engañar al ojo humano con imágenes sintéticas.  Por ejemplo, según Martin Enthed, Manager del IKEA Digital Lab, alrededor del 75% de todas las imágenes de productos de la marca IKEA son gráficos de inteligencia artificial y se presentan en resolución tan alta, que son excelentes para todo tipo de uso[1].

Pero eso no es todo: también pueden manipularse las imágenes humanas y crear retratos de personas inexistentes con la técnica conocida como deepfake. El nombre de deepfake proviene de deep learning, que significa aprendizaje profundo, siendo la principal corriente de desarrollo de la IA. Se trata de una técnica basada en sintetizar la imagen humana combinando y superponiendo imágenes creadas digitalmente, utilizando para ello algoritmos de aprendizaje no supervisados y vídeos o imágenes ya existentes.  El origen de esta técnica se da en el campo de la investigación con aplicaciones prácticas en el cine. Por ejemplo, en la última película de la saga Star Wars, Carrie Fisher, la conocida princesa Leia, había fallecido durante su rodaje, por lo que hubo que hacer uso de esta técnica para que apareciese en la película.

Scarlett Johansson conoce de qué se trata el aspecto oscuro de las deepfakes: ha sido atacada por este nuevo tipo de acosador que utiliza inteligencia artificial para crear videos pornográficos sorprendentemente convincentes (pero, por supuesto, falsos). Johansson ha llegado a la triste conclusión de que tratar de luchar contra estos videos «falsos» es «infructuoso» y una «causa perdida». Pero ella no es la única: el Washington Post destacó recientemente la historia de una mujer de unos 40 años que fue víctima de similar falsificación.

También hubo un video falso, muy realista, de Michelle Obama creado con un programa llamado FakeApp, que superpuso su rostro en el cuerpo de una actriz de películas pornográficas. Fakeapp es un programa que creó un desarrollador anónimo utilizando software de código abierto escrito por Google y permite crear deepfakes si contamos con algunas de imágenes de la persona que queremos simular en el vídeo (cuantas más imágenes tengamos, mejor). La inteligencia artificial del programa aprende de esas imágenes y es capaz de recrear un rostro sobre otro, como una máscara inteligente.

Las «deepfakes» o los «medios sintéticos» podrían llegar a evitar capas de protección y presentarse como reales, convirtiéndose en una herramienta política de desinformación. En este rumbo, el actor y cineasta Jordan Peele y su cuñado de Jonah Peretti, fundador de BuzzFeed,  idearon un experimento para advertir de los potenciales peligros de aplicar la inteligencia artificial (IA) para fabricar noticias falsas en formato audiovisual (audiovisual): hicieron nada menos que un video de Barack Obama diciendo muchas cosas inconvenientes. En este link pueden ver el video deepfake de Obama: https://www.youtube.com/watch?v=cQ54GDm1eL0

Si bien es posible que algunos de los videos se consideren difamación, dado que los clips no representan datos reales robados, no existe una violación de las leyes de privacidad en EEUU. Este es un tema que abogados, jueces, legisladores y todos aquellos vinculados a la administración de justicia deberían comenzar a considerar de manera innovadora y abarcativa.

[1] https://petapixel.com/2014/08/28/flip-ikea-catalog-75-photography-see-cgi/