sábado 20 de abril de 2024
Cursos de periodismo

Cuatro iniciativas para combatir los discursos de odio en internet

Internet se ha convertido en un caldo de cultivo para los discursos de odio. El anonimato, la sensación de irrealidad y la facilidad de crear y publicar contenido favorecen que los mensajes de odio estén cada vez más presentes en el discurso público online. Organizaciones, gobiernos y medios de comunicación en todo el mundo comienzan a unir fuerzas para frenar este tipo de conductas.

#NoMoreHaters: un proyecto de Maldita.es y la Fad

No More Haters es un proyecto de la Fad y Maldita.es que cuenta con el apoyo de Google.org a través del programa Impact Challenge. Mediante una serie de “mini newsgames”, disponibles para AndroidiOS y ordenador, pretenden llegar a más de 35.000 jóvenes de entre 14 y 29 años para mostrarles la importancia de generar discursos libres de odio, basados en el respeto y la tolerancia. El proyecto se basa en la investigación “Romper cadenas de odio, tejer redes de apoyo: los y las jóvenes ante los discursos de odio” del Centro Reina Sofía sobre Adolescencia y Juventud y la Fad, centrado en las posturas y opiniones de los jóvenes frente a este tipo de discursos.

Los minijuegos se basan en la premisa de que la alfabetización digital y la visibilización de las injusticias resultan clave en la lucha contra el odio. El Rondo del odio, inspirado en el rosco de Pasapalabra, reta al usuario a adivinar conceptos y conductas relacionadas con la discriminación, el acoso o el odio. El segundo minijuego, titulado Verdad o bulo, se centra en los bulos, noticias y contenidos manipulados que circulan en la red. El jugador debe adivinar si se trata de una noticia real o una estrategia de desinformación. Cada una de las tarjetas interactivas en las que se estructura el juego, incluye un enlace al contenido verificado por Maldita.es. Por último, en Quizzz el usuario debe ponerse en la piel de una víctima o testigo de conductas de odio. La premisa es muy sencilla: ¿cómo actuarías?

Perspective: una API contra la toxicidad en internet

En varias ocasiones hemos analizado cómo la Inteligencia Artificial está transformando la manera de captar, procesar, generar y distribuir el contenido periodístico. A pesar de los retos éticos que plantea, la IA ha demostrado ser una potente herramienta para personalizar contenidos, automatizar procesos y ayudar a gestionar las sobrecargas de trabajo e información. En la lucha contra los discursos de odio, no podía ser menos. Aunque todavía queda mucho trabajo por delante, algunas aplicaciones comienzan a dar resultados prometedores. Hablamos de Perspective, una API gratuita que utiliza técnicas de aprendizaje automático (machine learning) para identificar comentarios y conductas tóxicas en la red.

La herramienta, que ya ha sido utilizada por The New York Times, The Wall Street Journal, Le Monde o El País, ofrece varias prestaciones según el tipo de usuario:

  • Para moderadores: ayuda a revisar los comentarios publicados en la web.
  • Para comentaristas: ofrece feedback sobre el uso de vocabulario o expresiones consideradas “tóxicas”.
  • Para lectores: permite ocultar y decidir qué tipo de comentarios se muestran.

El sistema de clasificación se basa en el impacto que el texto puede generar en la conversación global. En concreto, se tienen en cuenta aspectos como la toxicidad general, el uso de insultos, la blasfemia, la amenaza, el ataque personal o el contenido sexualmente explícito. En su web puedes consultar cómo han implementado la herramienta medios, organizaciones y plataformas de todo el mundo.

TikTok: transfobia, cyberbullying y su apuesta por el “contenido amable”

De acuerdo con el Digital 2022 Global Overview Report, TikTok es la aplicación móvil más descargada den 2021. Se calcula que cada segundo se registran ocho nuevos usuarios, lo que supone más de 650.000 al día. Por eso, no es de extrañar que la plataforma se encuentre continuamente en el punto de mira. Hace unos meses analizamos algunas iniciativas de alfabetización mediática que TikTok ha desarrollado para combatir la proliferación de bulos. Sin embargo, las estrategias de desinformación y el contenido manipulado no son los únicos problemas que afronta la plataforma.

Estudios recientes han destacado su papel en la proliferación de conductas extremistas e ideologías de odio. En esta misma línea, un informe de la organización GLAAD, asegura que TikTok es una red social “insegura para el colectivo LGBTQ+”. Ante dichas afirmaciones, la plataforma ha lanzado una serie de iniciativas enfocadas a la “eliminación total” del acoso y los discursos de odio. En agosto de 2020, publicaron un plan de acción de cinco pasos centrado en la detección de conductas abusivas. En septiembre de ese mismo año, anunciaron su adhesión al Código de Conducta de la Unión Europea, al que pertenecen otras redes sociales como Facebook, Twitter o Youtube. Como resultado, entre abril y junio de 2021, TikTok eliminó cerca de 81 millones de vídeos por incumplir su Política de Seguridad, de los cuales más de un millón estaban relacionados con los discursos de odio.

Una de las iniciativas más aplaudidas por los usuarios es su nueva política de cero tolerancia ante las violencias dirigidas contra el colectivo LGBTQ+. Hace tan solo unas semanas, TikTok anunció la prohibición de contenido transfóbico, el deadnaming o la promoción de las terapias de conversión. Además, recientemente han actualizado su política de seguridad para incluir vídeos, recomendaciones y consejos contra el ciberbullying.

Otra iniciativa interesante es su apuesta por el “contenido amable”. Con el objetivo de crear un ambiente positivo, centrado en la creatividad y el apoyo entre los usuarios, TikTok ha lanzado dos nuevas prestaciones que fomentan los discursos amables. La primera se trata de un sistema de filtrado de comentarios que permite a los creadores de contenido bloquear o eliminar los comentarios no deseados, así como establecer un filtro automático basado en palabras clave. La segunda, tiene como objetivo hacer reflexionar a los usuarios que van a realizar comentarios ofensivos. Para ello, tras realizar un análisis de contenido basado en palabras clave “hostiles”, pide al usuario que reconsidere su contenido antes de publicarlo.

El compromiso de los medios: la importancia de la ética periodística

La cobertura de eventos relacionados con los discursos y crímenes de odio suele ser complicada. A menudo corremos el riesgo de promocionar o incentivar aquellas actitudes y comentarios que queremos denunciar. De acuerdo con el Al Jazeera Media Institutealgunos medios avivan “conductas hostiles” debido al enfoque de sus informaciones. En este sentido, han publicado una serie de artículos titulada “​​How the media can propagate hate speech” con la que pretenden promover un cambio de paradigma con la construcción de una contranarrativa más amable.

  • The problem with hate speech: How the media has fuelled its rise. El artículo se centra en el papel de los algoritmos en la creación de “cámaras de eco” que promueven discursos racistas y sirven de “justificación moral” para la violencia contra las minorías. Además, exploran la teoría del “pánico moral” y su papel en iniciativas y campañas políticas a nivel global. En concreto, analizan cuatro casos de estudio: la guerra civil en Ruanda, los refugiados sirios en Líbano y Jordania, Iraq y la cobertura sobre inmigrantes y refugiados en los medios occidentales.
  • How to avoid stirring up hate through your reporting. El segundo artículo ofrece consejos para abordar temas controvertidos sin dar lugar a situaciones discriminatorias o que inciten al odio. Para ello, explican cuatro pasos que todo reportero debe seguir al cubrir una noticia controvertida. También ofrecen dos herramientas que permiten evaluar de forma ética nuestro trabajo: la fórmula SAD (situational definition, analysis y decision) y el método del dilema.

Media Against Hate, de la Federación Europea de Periodistas (EFJ), también ofrece recursos interesantes. A través de informes, campañas de concienciación y módulos formativos para periodistas, pretenden promover el equilibrio entre el cumplimiento de los estándares éticos y el respeto por la libertad de expresión.

  • Medios contra el discurso de odio. Mediante una serie de escenarios basados en hechos reales, el módulo explica cómo identificar los discursos de odio y contrarrestarlos de manera efectiva sin descuidar la libertad de expresión y el derecho a la igualdad. Los autores animan a utilizar esta herramienta como una oportunidad de aprendizaje y discusión en el ámbito laboral. El contenido se basa en ‘Hate Speech’ Explained: The Toolkit de la organización británica ARTICLE 19.
  • Cómo contrarrestar los discursos de odio y gestionar una comunidad online. El módulo, dirigido a periodistas, blogueros y administradores de redes sociales, explica conceptos clave (como la diferencia entre mis-information y disinformation) y profundiza en las estrategias empleadas por las principales plataformas sociales con el fin de contrarrestar los discursos de odio.
  • Prácticas periodísticas éticas sobre migrantes y refugiados. El módulo profundiza en el desafío que supone informar de manera justa, precisa y responsable ante una crisis humanitaria en la que están implicados migrantes y refugiados. Se trata de un tema con una importante carga política y emocional, en la que la comprensión de las diferentes culturas, etnias y trasfondos políticos es imprescindible. En este sentido, el módulo incide en la importancia de la terminología empleada, los ángulos de las noticias, las fuentes y el uso de contenido audiovisual sensible.

Alba García Ortega

Vía

- Publicidad -

Lo último