Recomendaciones de los expertos para combatir la “infodemia” en redes

La pandemia y las elecciones estadounidenses nos han recordado el peligro que representa la desinformación para nuestra salud y nuestra democracia.

Durante los últimos cinco meses, la directora ejecutiva de The Signals Network, Delphine Halgand-Mishra, dirigió un equipo de periodistas que examinó detenidamente las plataformas sociales y su papel en la “infodemia”. Junto a ella trabajaron 15 miembros del comité, incluida la directora ejecutiva de Rappler, Maria Ressa, la directora de investigación global del ICFJ, Julie Posetti, y el científico de datos Christopher Wylie (mejor conocido por ser el denunciante que informó sobre Cambridge Analytica). El grupo formó parte del Foro sobre Información y Democracia, una iniciativa lanzada en 2019 por 11 organizaciones no gubernamentales, y a su vez presentaron 250 recomendaciones sobre lo que deben hacer las plataformas para combatir la desinformación.

Ad

El informe solicita principalmente la creación de un nuevo modelo de co-rregulación para que las plataformas, los gobiernos y la sociedad civil trabajen juntos para moderar el contenido social. Esta pluralidad podría ayudar al nuevo organismo a ganarse la confianza del público, en lugar de ser percibido como un tomador de decisiones arrogante o autoritario.

Claro que esto puede llevar años de discusiones y negociaciones. Entonces, ¿Qué pueden hacer las plataformas ahora mismo para limitar la difusión de información errónea?

Una de las recomendaciones del informe es que las plataformas podrían imponer un período de prueba para que las personas que siguen un tipo particular de contenido “deconstruyan” el algoritmo. En la práctica, esto significaría que, por ejemplo, los amantes de los gatos verían cada vez menos contenido relacionado con gatos, y estarían cada vez más expuestos a otros temas.

Los autores explican que este “nivel de ruido obligatorio”, en el que las plataformas expondrían intencionalmente a los usuarios a una cierta cantidad de contenido nuevo, ayudaría a romper las cámaras de eco.

Si bien este tipo de soluciones no están exentas de dificultades, alguien tendrá que decidir en última instancia a qué contenido nuevo exponer a los usuarios, cómo medir su calidad y qué ayudaría realmente a abordar las cámaras de eco.

Quizás el mayor obstáculo para el cambio es que la desinformación está en el corazón del modelo de negocio: las plataformas están vendiendo nuestra atención y así es como ganan dinero. Cambiar el algoritmo podría hacer que los usuarios pasen menos tiempo en las plataformas, lo que puede no ser del agrado de los anunciantes.

A pesar de eso, incluso Facebook reconoce ahora que se necesita una nueva solución a la moderación de contenido para detener la propagación de información errónea en la plataforma social. Según Monika Bickert, vicepresidenta de política de contenido en Facebook, la plataforma finalmente reconoció que toma cierto grado de decisiones editoriales, como amplificar o degradar el contenido, y en ese sentido, necesita tener reglas transparentes en torno a la moderación.

Pero, ¿quién decide qué es desinformación?

«Hoy son las plataformas», dice Halgand-Mishra. «Es por eso que necesitamos un nuevo modelo que incluya a la sociedad civil y los gobiernos, así como a las empresas de tecnología».

Al moderar el contenido dañino, argumenta el informe, uno de los requisitos debería ser la procedencia: proporcionar más contexto sobre el origen de la información. Pero el informe va más allá: los autores recomiendan que los directores ejecutivos de las empresas de redes sociales sean responsables personal y legalmente de la transparencia y la divulgación de algoritmos e ingresos. Las plataformas también deberían introducir una evaluación seria del impacto de los derechos humanos y probar la implicación de contenido potencialmente dañino para las minorías o la salud mental de los usuarios, afirman los autores.

Tales cambios requerirán un ejército de moderadores de contenido que deben ser lo más diversos posibles. Las plataformas necesitarán personas que hablen dialectos regionales para poder evaluar el riesgo para las minorías, o expertos en salud para tomar decisiones sensatas sobre cómo una información puede afectar el bienestar físico y mental de los usuarios.

Pero, al igual que con todo lo que está fuertemente regulado, el peligro es que los malos actores simplemente pasarían desapercibidos. En el caso de las redes sociales, esto significaría principalmente pasar a grupos de mensajería privados. Tratar de moderar este espacio viene con una serie de nuevos dolores de cabeza en torno al equilibrio de la privacidad y la protección del cifrado, al mismo tiempo que se preocupa por el impacto de la información errónea en los usuarios.

A pesar de eso, «tenemos que hacer algo debido a lo que está sucediendo en este momento públicamente», concluye Halgand-Mishra. «Todavía se puede agregar fricción y brindar más información de una manera que proteja los derechos humanos y la democracia».

Vía