domingo 22 de octubre
Medios

Cómo cubrir la desinformación

First Draft se viene haciendo esta pregunta desde las elecciones francesas, cuando tuvieron que tomar decisiones difíciles sobre qué información hacer pública en CrossCheck. La preocupación se debía a que, en los casos en que los rumores, los artículos engañosos o los elementos visuales fabricados estuvieran confinados a comunidades de nicho, abordar el contenido podría ayudar a difundirlos aun más.

Desde entonces enfrentaron los mismos desafíos en las elecciones alemanas y británicas. El trabajo los convenció de que los periodistas, los verificadores de hechos y la sociedad civil necesitan urgentemente discutir cuándo, cómo y por qué divulgamos ejemplos de información errónea y desinformación, y las campañas automatizadas que a menudo se utilizan para promoverlas. De particular importancia es la definición de un “punto de inflexión” en el que la mala información y la des-información se vuelven beneficiosas para abordar. A continuación 10 preguntas para iniciar tal discusión:

¿Quien es mi público?
¿Es probable que hayan visto una determinada pieza de información errónea o mal informada? Si no es así, ¿cuáles son las consecuencias de llamar la atención de un público más amplio?

¿Cuándo debemos publicar historias sobre des-informaciones?
¿Cuánto tráfico debe tener una pieza de información errónea y des-información antes de abordarla? En otras palabras, ¿cuál es el “punto de inflexión”, y cómo lo medimos? En Twitter, por ejemplo, ¿comprobamos si un hashtag ha llegado a los diez principales temas de tendencias de un país?

¿Qué pensamos del impacto de la des-información, particularmente en Twitter?
¿Nos preocupamos por cuántas personas ven el contenido? ¿O nos importa quién ve el contenido? En particular, ¿es importante Twitter en virtud del número de personas que lo utilizan, o es importante porque ciertos grupos, como las organizaciones de noticias y los políticos, lo utilizan? ¿Cómo cambian nuestras respuestas a estas preguntas, cómo evaluamos el impacto de la información?

¿Cómo aislar las interacciones humanas de una manera informáticamente asequible?
Cuando hablamos del “alcance” de una pieza de contenido, debemos referirnos a cuántos humanos lo vieron. Sin embargo, identificar el número de seres humanos que vieron una pieza de información puede ser difícil y computacionalmente caro. ¿Qué algoritmos podrían ser ideados para calcular el alcance humano (al menos en Twitter) de una manera oportuna y económica?

Para aquellos de nosotros cuyo objetivo principal es detener la mala información, ¿qué estrategias de distribución podríamos considerar más allá de las editoriales?
¿Debemos apuntar a las cuentas que se han comprometido con el contenido problemático con mensajes directos, para disminuir nuestras posibilidades de perpetuar la falsedad? ¿Deberíamos usar anuncios de Facebook para determinados grupos? ¿Es este incluso el papel de las organizaciones de noticias o sin fines de lucro como First Draft?

¿Cómo escribimos nuestras correcciones?
¿Cómo podemos utilizar las investigaciones de los campos de la psicología y la comunicación para maximizar el impacto positivo de nuestras correcciones, y minimizar las posibilidades de represalias?

¿Por qué reportar los intentos de amplificación fabricados?
¿Estamos poniendo en perspectiva la popularidad del contenido artificialmente potenciado? ¿Estamos tratando de sensibilizar a la gente sobre los bots para que estén más alertas? ¿Estamos tratando de alentar a las plataformas o al gobierno a tomar medidas contra la des-información?

¿Quién debería estar hablando de amplificación fabricada?
Las organizaciones de noticias no están en condiciones de hacer un trabajo que no se publicará. Por lo tanto, dado que a veces puede ser contraproducente publicar sobre los bots en redes, ¿deberían las organizaciones de noticias investigarlos?

¿Dónde terminan las responsabilidades de los periodistas y comienzan las de la comunidad de inteligencia?
El monitoreo y debilitamiento activo de la información está cayendo incómodo entre los diferentes sectores. Estamos viendo que cada vez surgen más iniciativas de monitoreo de la desinformación fuera del periodismo, como el dashboard Hamilton 68, que fue co-creado por analistas de antiterrorismo actuales y antiguos. ¿Qué papel deben tener los periodistas para combatir activamente los intentos de influir en la opinión pública en otro país?

¿Cómo deberíamos escribir sobre los intentos de amplificación fabricados?
¿Debemos centrarnos en desacreditar los mensajes de las campañas automatizadas (comprobación de hechos), o nos centramos en los actores detrás de ellas (comprobación de la fuente)? ¿Hacemos ambas cosas? ¿Cómo podemos demostrar que nuestras investigaciones son creíbles sin informar a los operadores bot o perpetuar el contenido que estaban impulsando?

Las preguntas anteriores, aunque fundamentales, no son fáciles de responder. Tampoco es fácil decidir qué hacer una vez que tengamos las respuestas a estas preguntas. Tal vez necesitamos nuevas políticas éticas para informar sobre estos temas. Tal vez las redacciones deban coordinar cómo manejar los intentos a gran escala de manipular los medios de comunicación.

Las organizaciones que cubren información errónea y des-información necesitan discutir estos temas, y está claro que esas conversaciones deben incluir investigadores académicos, algunos de los cuales han estado estudiando las correcciones y la desinformación durante décadas. Es demasiado importante para equivocarse.

Vía

 

Dejar un comentario