Facebook ha anunciado que ha reforzado sus políticas para identificar y eliminar aquellos vídeos que hayan sido manipulados o editados para cambiar el contenido con el fin de engañar, que se han popularizado con el nombre de «deepfake».

Uno de los mayores problemas digitales de hoy en día son los contenidos manipulados para engañar o «deepfake» -vídeos editados utilizando la Inteligencia Artificial (IA) para manipular contenidos con el fin de distorsionar la realidad-. Es importante diferenciar los vídeos manipulados con malas intenciones de los que se editan para mejorar la calidad de imagen y de audio.

Con la creciente tendencia de los «deepfake» en redes sociales, Facebook ha anunciado que ha reforzado sus políticas para hacer frente a este tipo de vídeos en su plataforma y cualquier otro tipo de contenido manipulado. Para ello, van a investigar todo contenido generado a partir de herramientas de IA y cuentas falsas además de trabajar conjuntamente con instituciones, gobiernos y empresas para descubrir a las personas detrás de estos contenidos.

A partir de ahora Facebook eliminará cualquier contenido que haya sido editado o sintetizado, pero no por motivos de mejora de calidad de audio e imagen, de manera que el vídeo generado pueda llegar a hacer a una persona creer que lo que se dice en él es cierto. También se eliminarán los vídeos creados a partir de IA o aprendizaje automático que se fusionen, reemplacen o superpongan a otro vídeo para hacerlo parecer auténtico. Estas nuevas políticas no se extienden a vídeos satíricos ni de parodia.

La compañía ya estaba trabajando en la identificación de «deepfakes» desde septiembre de 2019 con su programa Deep Fake Detection Challenge que ha unido a personas de todo el mundo en la búsqueda de contenidos manipulados. Además, se han unido a Reuters para crear un curso de entrenamiento que ayude a los periodistas a identificar noticias falsas.

Esta decisión, anunciada antes de las elecciones presidenciales en los Estados Unidos, «no se aplica al contenido paródico o satírico» ni a los vídeos que han sido editados de tal manera que omitan palabras o cambien su orden, según Monika Bickert, vicepresidenta de Facebook.

Un vídeo como el que se burlaba de Nancy Pelosi, presidenta de la Cámara de Representantes de EE.UU., en el que parecía estar borracha no se adaptaría a de estas nuevas pautas. Facebook también continuará eliminando contenido audiovisual que viole los «estándares de la comunidad», y reducirá en gran medida la audiencia de aquellos etiquetados como falsos por auditores externos («verificadores de hechos».)

Extraído de ABC