Medios

Los consejos del Wall Street Journal para detectar deepfakes (Parte 2)

Parte 1


 

Encontrar versiones anteriores de las imágenes

Las deepfakes a menudo se basan en imágenes que ya están disponibles online. Los motores de búsqueda de imágenes inversas como Tineye o Google Image Search son útiles para encontrar posibles versiones más antiguas del video, para averiguar si un aspecto de este fue manipulado.

 

Examinando las imágenes

La edición de programas como Final Cut permite a los periodistas reducir la velocidad de las tomas, hacer zoom en la imagen y mirarla fotograma a fotograma o pausar varias veces. Esto ayuda a revelar fallas obvias: destellos y falta de claridad alrededor de la boca o la cara, luces o movimientos no naturales, y las diferencias entre los tonos de piel, que son signos reveladores de una deepfake.

A modo de experimento, aquí hay algunas fallas técnicas que el equipo forense del Journal encontró durante una sesión de capacitación con imágenes de Barack Obama, creadas por productores de videos en BuzzFeed.

Las formas en forma de caja alrededor de los dientes revelan que esta es una imagen insertada en el material de archivo original.

Las formas en forma de caja alrededor de los dientes revelan que esta es una imagen insertada en el material de archivo original.
Los movimientos antinaturales, como la barbilla cambiante y el cuello en crecimiento, muestran que las imágenes son falsas.

Además de estos detalles faciales, también puede haber pequeñas ediciones en el primer plano o en el fondo del material de archivo. ¿Da la impresión de que se insertó o eliminó un objeto en una escena que podría cambiar el contexto del video (por ejemplo, un arma, un símbolo, una persona, etc.)? Una vez más, la luz tenue, borrosa y antinatural puede ser un indicador de imágenes falsas.

En el caso del audio, hay que estar atentos a la entonación no natural, la respiración irregular, las voces con sonido metálico, y las ediciones obvias. Todos estos son indicios de que el audio puede haber sido generado por inteligencia artificial. Sin embargo, es importante tener en cuenta que los artefactos de imagen, los fallos y las imperfecciones también se pueden introducir mediante la compresión de video. Es por eso que a veces es difícil determinar de manera concluyente si un video ha sido modificado o no.

 

La democratización de la deepfake se suma al desafío

Varias compañías están creando tecnologías, a menudo por razones inocuas, que, sin embargo, podrían terminar siendo utilizadas para crear deepfakes. Estos son algunos ejemplos:

 

Extracción de objetos

Adobe está trabajando en Project Cloak, una herramienta experimental para la eliminación de objetos en video, que facilita a los usuarios sacar gente u otros detalles del material de archivo. El producto podría ser útil en la edición de imágenes en movimiento. Pero algunos expertos piensan que las microediciones como estas, la eliminación de pequeños detalles en un video, pueden ser incluso más peligrosas que las obviedades falsas, ya que son más difíciles de detectar.

Alteración del clima

Existen algoritmos para la traducción de imágenes que permiten a los usuarios modificar el clima o la hora del día en un video, como este ejemplo desarrollado por el fabricante de chips Nvidia mediante el uso de redes de confrontación generativas. Estos algoritmos podrían utilizarse para la postproducción de escenas de películas tomadas durante días con diferentes climas. Pero esto podría ser problemático para las salas de redacción y otros medios, porque para verificar las imágenes y reducir el tiempo de filmación de los videos, es común examinar la hora del día, el clima, la posición del sol y otros indicadores en busca de pistas sobre inconsistencias.

Tanto Adobe como Nvidia declinaron hacer comentarios.

Voces artificiales

Los archivos de audio también pueden manipularse automáticamente: la empresa Lyrebird crea voces artificiales basadas en muestras de audio de personas reales. Un minuto de grabaciones de audio es suficiente para generar una réplica digital completa, que puede decir cualquier frase que el usuario ingrese en el sistema. Las implicaciones de esta tecnología incluyen permitir a los desarrolladores de videojuegos agregar voces a los personajes.

Las herramientas disponibles para el consumidor que facilitan la manipulación de video y audio pueden acelerar la proliferación de deepfakes. Algunas de las compañías detrás de estas herramientas ya están considerando medidas de seguridad para evitar el uso indebido de su tecnología. “Estamos explorando diferentes direcciones, incluidas las técnicas de marca criptográfica, nuevos protocolos de comunicación, así como el desarrollo de asociaciones con universidades para trabajar en seguridad y autenticación”, dijo Alexandre de Brébisson, CEO y cofundador de Lyrebird.

 

Las ramificaciones de las deepfakes para la sociedad

Si bien estas técnicas pueden utilizarse para reducir significativamente los costos de producción de películas, juegos y entretenimiento, representan un riesgo para los medios de comunicación y para la sociedad en general. Por ejemplo, los videos falsos podrían colocar a los políticos en reuniones con agentes extranjeros, o incluso mostrar a soldados cometiendo crímenes contra civiles. El audio falso puede hacer que parezca que ciertos funcionarios del gobierno están planeando en privado ataques contra otras naciones.

Legisladores como los senadores Mark Warner y Marco Rubio ya están advirtiendo de escenarios como estos, y están trabajando en posibles estrategias para evitarlos. Más aun, las deepfakes podrían utilizarse para engañar a las organizaciones de noticias y socavar su confiabilidad. La publicación de un video falso no verificado en una noticia puede manchar la reputación de una sala de redacción y, en última instancia, hacer que los ciudadanos pierdan (más aun) la confianza en los medios. Otro peligro posible para los periodistas: ataques personales profundos que muestran a los profesionales de las noticias en situaciones comprometidas, o que alteran los hechos, nuevamente para desacreditarlos o intimidarlos.

A medida que las deepfakes se abren camino en las redes sociales, su difusión probablemente seguirá el mismo patrón que otras noticias falsas. En un estudio del MIT que investigó la difusión de contenido falso en Twitter publicado entre 2006 y 2017, los investigadores encontraron que “la falsedad se difundió significativamente más lejos, más rápido, más profunda y más ampliamente que la verdad en todas las categorías de información”. Las historias falsas son 70 por ciento más probables de retuitearse que las verdaderas, y llega a 1500 personas seis veces más rápido que los artículos certeros.

 

Qué es lo que sigue

Las deepfakes no van a desaparecer en el corto plazo. Es seguro decir que estas elaboradas falsificaciones dificultarán la verificación de los medios, y este desafío podría volverse más difícil con el tiempo.

“Hemos visto este rápido aumento en la tecnología de aprendizaje profundo y la pregunta es: ¿Va a seguir así o se está estancando? ¿Qué sucederá después? ”, dijo Hany Farid, un experto en fotografía forense, que se unirá a la Universidad de California en Berkeley el próximo año. Dijo que los próximos 18 meses serán críticos: “Creo que los problemas están llegando a un punto crítico”, y agregó que espera que los investigadores hayan logrado avances antes del ciclo electoral de 2020.

A pesar de la incertidumbre actual, las salas de redacción pueden y deben seguir la evolución de esta amenaza al realizar investigaciones, asociarse con instituciones académicas y capacitar a sus periodistas sobre cómo aprovechar las nuevas herramientas.


Y aquí está la solución a nuestro cuestionario deepfake: el material de la izquierda se modificó con la ayuda de AI.

Un equipo de investigadores usó una forma de recreación facial llamada “Deep Video Portraits” para transferir los movimientos faciales de Barack Obama a la cara de Ronald Reagan. Así es como se ve:

Vía