jueves 28 de marzo de 2024
Cursos de periodismo

Una nueva tecnología de playback podría convertir los videos de noticias falsas en un verdadero problema

Imaginen el peor de los casos. Cineastas dudosos utilizan computadoras artificialmente inteligentes para cargar audio sin procesar en una versión simulada de Barack Obama. El audio es en realidad la voz de Obama, y ​​la cara es realmente su cara. Pero los movimientos de sus labios son completamente falsos. Los cineastas publican el video en Internet, y como la tecnología es tan buena, es prácticamente imposible notar que es falso. Bueno, esta ya no es una situación hipotética.

Investigadores de la Universidad de Washington desarrollaron un método que utiliza el aprendizaje automático para estudiar los movimientos faciales de Obama, y luego reproducir el movimiento de los labios en forma realista para cualquier pieza de audio. Eso significa que pueden hacer videos de Obama diciendo casi todo lo que quieran, en cualquier entorno que quieran. El efecto funciona especialmente bien al usar audio aleatorio de la voz de Obama (digamos una vieja grabación de Obama como estudiante de derecho), y hacen que parezca que Obama dijo esas cosas ayer mismo.

Este nuevo desarrollo se basa en la investigación de la creación de videos realistas de personas que hablan sin realmente grabar con una cámara de vídeo. En el pasado, se logró un efecto de sincronización de labios similar grabando a varias personas diciendo las mismas frases una y otra vez para captar los movimientos específicos de la boca necesarios para hacer cada sonido. El equipo de la Universidad de Washington optimizó este proceso, al alimentar grandes cantidades de metraje mostrando una persona (Obama) hablando en una red neuronal, y luego utilizó algoritmos para determinar las diferencias en los movimientos de la boca. Eligieron a Obama por la gran cantidad de horas de Obama hablando en video en el dominio público.

El problema de la sincronización de los labios es especialmente difícil, dicen los investigadores, porque los humanos son increíblemente buenos detectando pequeñas inexactitudes visuales en el habla. «Si no se hacen bien los dientes, o la barbilla se mueve en el momento equivocado, la gente puede detectarlo de inmediato y va a parecer falso», dijo el autor principal Supashan Suwajanakorn en un comunicado. «Así que tenemos que lograr la región de la boca en forma perfecta para llegar al resultado esperado.»

Para la demostración definitiva, los investigadores utilizaron viejos audios de Obama hablando en un programa de entrevistas y con un equipo de noticias en Harvard, y luego crearon un nuevo video de Obama en la Oficina Oval recitando las líneas. No es perfecto, pero está muy cerca.

El nuevo avance se basa en el mismo trabajo previo del equipo de investigación de la Universidad de Washington que involucró la capacitación de computadoras para reconocer a ciertos personajes, como Tom Hanks. Al identificar qué rasgos hacen que una cara en particular y sus expresiones sean únicas, el equipo desarrolló un método que les permitiría crear movimiento, representaciones en 3D de una cara específica utilizando una foto o un video corto. A partir de ahí, podrían convertir las simulaciones en títeres. Incluso crearon un falso Barack Obama dando un discurso de George W. Bush.

Por supuesto, hay otros equipos trabajando en problemas similares en todo el mundo, y todos están logrando muy buenos resultados en la creación de videos falsos increíblemente realistas, incluso con equipos de bajo presupuesto. El año pasado, por ejemplo, un equipo de Stanford creó un método de reconstitución facial que podría realizarse con cualquier webcam barata. Es increíblemente espeluznante:

Mientras que pueden imaginarse las implicaciones conspirativas de la tecnología como esta, las aplicaciones prácticas son mucho más mundanas. Por ejemplo, los investigadores piensan que este tipo de tecnología mejoraría el video chat, ya que una computadora podría generar una imagen tuya hablando, evitando los siempre horribles cortes en el feed de video. Por otra parte, los museos y los parques temáticos podrían utilizar grabaciones antiguas de figuras históricas para crear videos u hologramas mostrándolos dando discursos famosos, utilizando el audio real de los eventos.

Pero aun así, la capacidad de usar tecnología de fácil acceso para crear imágenes y videos falsos está creciendo día a día. La semana pasada, el investigador de seguridad Greg Allen publicó una nota de advertencia en Wired : «La AI (inteligencia artificial) hará que sea muy fácil falsificar cualquier cosa», escribe Allen:

Combinada, la trayectoria de las falsificaciones baratas es preocupante. En el ritmo actual de progreso, puede ser que en tan poco como dos o tres años las falsificaciones de audio realistas sean lo suficientemente buenas como para engañar al oido sin formación, y será en sólo cinco o 10 años que las falsificaciones puedan engañar al menos algún tipo de análisis forense. Cuando las herramientas para producir videos falsos se desempeñen con una calidad superior a la actual y estén disponibles simultáneamente para aficionados no entrenados, estas falsificaciones pueden comprender una gran parte del ecosistema de información. El crecimiento de esta tecnología transformará el significado de la evidencia y la verdad en dominios como el periodismo, las comunicaciones gubernamentales, el testimonio en la justicia penal y, por supuesto, la seguridad nacional.

Como muestra la investigación de esta semana, ese ritmo de progreso está aumentando, rápido. La buena noticia es que la tecnología como la que se está desarrollando en la Universidad de Washington también podría utilizarse para detectar falsificaciones de medios. La mala noticia, bueno, Allen resume las malas noticias muy bien cuando dice que esta tecnología «transformará el significado de la evidencia y la verdad». Si pensabas que los sitios web de noticias falsas eran un problema, imaginate lo que podría hacer un video falso de una cámara policial.

Vía

- Publicidad -

Lo último