Medios

Los consejos del Wall Street Journal para detectar deepfakes (Parte 1)

La inteligencia artificial está alimentando la próxima fase de la desinformación. El nuevo tipo de medio sintético conocido como deepfakes plantea grandes desafíos para las salas de redacción en lo que respecta a la verificación. Este contenido es realmente difícil de rastrear. Por ejemplo, ¿podrías decir cuál de las imágenes de abajo es falsa? (al final de la nota encontrarás la respuesta)


El diario The Wall Street Journal, se toma muy en serio esta amenaza, y han lanzado un grupo de trabajo interno de Deepfakes liderado por los equipos de Ética y Estándares y de Investigación y Desarrollo. Este grupo, el WSJ Media Forensics Committee, está compuesto por editores de video, fotos, imágenes, investigación, plataformas y noticias que han recibido capacitación en detección de deepfakes. Más allá de este esfuerzo central, organizan seminarios de capacitación, desarrollan guías de redacción, y colaboran con instituciones académicas como Cornell Tech para identificar formas en que puede utilizarse la tecnología para combatir este problema.

“Crear conciencia en la sala de redacción sobre las últimas tecnologías es fundamental”, dijo Christine Glancey, editora adjunta del equipo de Ética y Estándares que encabezó el comité forense. “No sabemos dónde pueden surgir los errores futuros, por lo que queremos que todos los ojos estén atentos a la desinformación”.

A continuación una descripción de las percepciones obtenidas, y las prácticas que utilizan en relación con las deepfakes.

 

¿Cómo se crean la mayoría de las deepfakes?

La producción de la mayoría de las deepfakes se basa en una técnica de aprendizaje automático denominada “redes de confrontación generativa” o GANs. Los falsificadores pueden utilizar este enfoque para intercambiar las caras de dos personas, por ejemplo, las de un político y un actor. El algoritmo busca instancias donde ambos individuos muestran expresiones similares, y el posicionamiento facial. En segundo plano, los algoritmos de inteligencia artificial están buscando la mejor coincidencia para yuxtaponer ambas caras.

Debido a que la investigación sobre GAN y otros enfoques para el aprendizaje automático está disponible públicamente, la capacidad de generar deepfakes se está extendiendo rápidamente. El software de código abierto ya permite que cualquier persona con conocimientos técnicos y una tarjeta gráfica lo suficientemente potente, pueda crear una deepfake.

Algunas instituciones académicas como la Universidad de Nueva York están adoptando originales enfoques para la alfabetización mediática. Una clase en el Programa de Telecomunicaciones Interactivas (ITP) en NYU Tisch (“Faking the News”), expone a los estudiantes a los peligros de las deepfakes al enseñarles cómo forjar contenido utilizando técnicas de IA. “El estudio de esta tecnología nos ayuda no solo a comprender las posibles implicaciones, sino también las limitaciones”, dijo Chloe Marten, gerente de productos en Dow Jones, y alumna de la clase de la NYU.

 

Técnicas utilizadas para crear deepfakes

Los creadores de deepfakes pueden utilizar una variedad de técnicas. Aquí se detallan algunas:

Faceswap: un algoritmo puede insertar sin problemas la cara de una persona en un video determinado. Esta técnica podría usarse para colocar la cara de una persona en el cuerpo de un actor, y ponerla en situaciones en las que nunca estuvo realmente.

Sincronización de labios: los falsificadores pueden insertar una boca con sincronización de labios en la cara de otra persona. Combinar el material de archivo con un nuevo audio, puede hacer que parezca que están diciendo cosas que realmente no dijeron.

Recreación facial: los falsificadores pueden transferir expresiones faciales de una persona a otro video. Con esta técnica, los investigadores pueden jugar con la apariencia de una persona, y hacer que parezcan disgustados, enojados o sorprendidos.

Transferencia de movimiento: los investigadores también han descubierto cómo transferir los movimientos corporales de una persona en un video de origen, a una persona en un video determinado. Por ejemplo, pueden capturar los movimientos de un bailarín y hacer que ciertos actores se muevan de la misma manera. En colaboración con investigadores de la Universidad de California, Berkeley, el corresponsal del diario Jason Bellini probó esta técnica, y terminó bailando como Bruno Mars.

Los periodistas tienen un papel importante en informar al público sobre los peligros y desafíos de las tecnologías de inteligencia artificial. Informar sobre estos temas es una forma de crear conciencia, e informar al público.

 

¿Cómo pueden detectarse las deepfakes?

Se está trabajando en soluciones y probando nuevas herramientas que pueden ayudar a detectar o prevenir falsificaciones en los medios. En toda la industria, las organizaciones de noticias pueden considerar múltiples enfoques para ayudar a autenticar los medios de comunicación si sospechan alteraciones.

“Hay formas técnicas de verificar si se ha modificado el material de archivo, como analizarlo fotograma a fotograma en un programa de edición de video para buscar formas no naturales y elementos agregados, o realizar una búsqueda de imagen inversa”, dijo Natalia V. Osipova, periodista de video senior en el Wall Street Journal. Pero la mejor opción es a menudo la vía tradicional: “Comunícate directamente con la fuente y el tema, y ​​usa su criterio editorial”.

 

Examinando la fuente

Si alguien ha enviado imágenes sospechosas, un buen primer paso es intentar contactar con la fuente. ¿Cómo la obtuvo esa persona? ¿Dónde y cuándo fue filmada? Obtener la mayor cantidad de información posible, solicitar una prueba adicional de los reclamos, y luego verificar, es clave.

Si el video está online y no se conoce el autor, vale la pena explorar otras preguntas: ¿Quién filmó supuestamente el video? ¿Quién lo publicó y lo compartió, y con quién? La verificación de los metadatos del video o la imagen con herramientas como InVID u otros visores de metadatos, puede proporcionar respuestas.

Además de llevar a cabo este proceso internamente, The Wall Street Journal colabora con organizaciones de verificación de contenido como Storyful y Associated Press. Este es un panorama en rápido movimiento con soluciones emergentes que aparecen regularmente en el mercado. Por ejemplo, las nuevas herramientas que incluyen TruePic y Serelay usan blockchain para autenticar fotos. Independientemente de la tecnología utilizada, los humanos en la sala de redacción están en el centro del proceso.

“La tecnología por sí sola no resolverá el problema”, dijo Rajiv Pant, director de tecnología del Journal. “La forma de combatir las fallas profundas es multiplicar los humanos con herramientas de inteligencia artificial”.

 

Continúa