Medios

Cómo reconocer un video “Deep Fake” (Parte 1)

A estas alturas, es probable que hayas escuchado alguna charla sobre “deep fakes”, la tecnología emergente que inspiró los titulares más recientes, como “We Are Truly F—ed” y “Deep Fakes: A Looming Crisis For National Security, Democracy and Privacy?”.


Un deep fake es un video que muestra la cara de una persona pegada al cuerpo de otra persona. Aunque en teoría esto no es nada nuevo, los videos “deep fake” pueden ser sorprendentemente convincentes, y el software para hacerlos surgió en muy poco tiempo, lo que provocó titulares como los de arriba.

El ampliamente difundido video de lo que parece ser el ex presidente Barack Obama dando un anuncio de servicio público (PSA) sobre noticias falsas, pero que en realidad es el cineasta Jordan Peele poniendo palabras en la boca de Obama, es sorprendentemente realista.

Como dijeron los oradores de un reciente panel de SXSW, los videos se adentran más en la psique humana que las imágenes fijas, y tienen el potencial de ser mucho más impactantes.

Productos como FakeApp ya están disponibles para hacer estos videos falsos, y las herramientas de manipulación de audio pronto estarán en el mercado. Las herramientas de audio podrían ser incluso más peligrosas, según Donie O’Sullivan, un productor del equipo de Social Discovery de la CNN.

“Si puedes hacer que suene convincentemente como si alguien dijera algo que no dijeron, y publicar ese audio”, dijo O’Sullivan a GIJN, ” es algo mucho más difícil de verificar”.

La tecnología para hacer estas manipulaciones “deep fake” es tan nueva que el investigador y docente de Bellingcat, Aric Toler, dijo que los grupos habituales que se centran en combatir los intentos de desinformación están luchando por ponerse al día.

Pero eso no significa que no haya un montón de gente que lo intente.

 

Hacia dónde se dirigen los esfuerzos de prevención de Deep Fake

Las herramientas que pueden marcar posibles “deep fakes” son casi inexistentes en este momento, pero los académicos, periodistas y empresas de tecnología están tratando de ponerse al día. Google anunció que está desarrollando una herramienta para identificar videos alterados, pero no ha dicho cuándo saldrá, o cuáles serán sus capacidades.

Un equipo del Laboratorio de Computación Visual en Munich desarrolló FaceForensics , un programa que pudo identificar exitosamente videos alterados en un formato en bruto, pero no fue tan exitoso en videos comprimidos para la web.

Otro equipo en Italia propuso una técnica para detectar irregularidades en el flujo de sangre en la cara de una persona.

Gfycat, el sitio web más conocido por albergar divertidos gifs de gatos y celebridades, podría tener los mecanismos más avanzados hasta el momento. La revista Wired describió las herramientas de inteligencia artificial que Gfycat está utilizando para rastrear contenido falso en su propio sitio. Uno de ellos intenta bloquear la cara y encontrar un vídeo que coincida con el fondo. Otra marca una versión de baja calidad de un video famoso si existe una versión de mayor calidad en otro lugar. La implicación es que una versión de menor calidad del mismo video podría ser una deep fake. No es la solución perfecta, pero al menos es una forma de utilizar la tecnología para ayudar a identificar estos productos.

Pero esas herramientas solo se usan internamente, y Gfycat no ha anunciado ningún plan para hacerlas públicas.

El equipo en Munich lanzó su script en Github, pero solo compartirá su conjunto de datos con personas que firmen un formulario de Términos de uso.

Licenciar un software “falso” o restringir el acceso a él es una de las soluciones que un grupo de investigadores propuso en un estudio reciente sobre el uso malicioso de la inteligencia artificial. Los investigadores, formados por miembros de la Electronic Frontier Foundation, la Universidad de Oxford y otros, se centraron en vías teóricas de avanzada, ya que todo el tema es muy nuevo.

Un equipo de la Universidad de Missouri está desarrollando un programa, llamado VeriPixel, que usaría la tecnología blockchain para adjuntar una huella a las imágenes tomadas en teléfonos inteligentes o cámaras.

“Necesitamos un mecanismo que diga que sí, que un archivo es el original”, dijo William Fries, uno de los desarrolladores, a GIJN. “El beneficio de blockchain es que… no importa lo que pase, la información histórica sigue siendo precisa”.

Pero VeriPixel, al igual que los otros programas, todavía está en la etapa de desarrollo.

Mientras tanto, los periodistas están atrapados en lo que siempre han confiado: el pensamiento crítico. Los antecedentes, la búsqueda de pruebas que lo corroboran y, lo que es más importante, la elaboración de informes simples y anticuados son siempre la mejor manera de abordar una fuente incompleta, “falsa” o no.

 

Continúa