jueves 18 de abril de 2024
Cursos de periodismo

Documentos filtrados muestran el «umbral» de Facebook para eliminar páginas y grupos

Esta pieza forma parte de una serie de notas del blog de Vice, Motherboards, sobre las estrategias de moderación de contenido de Facebook. El resto de la cobertura puede leerse aquí.

 

El pasado martes, los representantes de Facebook, Twitter y YouTube testificaron ante los legisladores sobre las estrategias de moderación de contenido de sus plataformas. En la audiencia, como señaló Sheera Frenkel, reportera del New York Times, Facebook mencionó repetidamente lo que describió como un «umbral» que debe alcanzarse antes de que la plataforma decida prohibir una página en particular por violar las políticas del sitio.

«Nadie ha definido nunca cuál es el umbral o quién lo establece», tuiteó Frenkel. Otros medios de comunicación también mencionaron este umbral: «Facebook no puede decidir cuándo se debe prohibir una página», escribió Engadget. Pero Facebook ha decidido cuándo se deben prohibir las páginas, simplemente no ha discutido sus directrices públicamente.

Motherboard obtuvo documentos internos de Facebook, que establecen cual es este umbral para múltiples tipos de contenido diferente, incluyendo algunas instancias de discurso de odio. Las noticias proporcionan más granularidad para comprender cómo decide exactamente Facebook prohibir ciertas páginas o grupos, y se produce cuando la plataforma enfrenta nuevas críticas sobre su decisión de no prohibir determinadas páginas controvertidas, como el sitio conspirativo InfoWars.

Un documento de capacitación de un moderador de Facebook para campañas difamatorias dice que la función de Facebook para páginas dedicadas a, digamos, una banda, organización, figura pública o empresa, el administrador debe recibir 5 «strikes» dentro de los 90 días para la página en sí misma para ser eliminada.

Alternativamente, a los moderadores de Facebook se les indica que eliminen una página si al menos el 30 por ciento del contenido publicado por otras personas dentro de los 90 días infringe los estándares de la comunidad de Facebook. Según el documento, existe una política similar del 30 por ciento o más para los grupos de Facebook.

En una línea similar, otro documento de campañas difamatorias dice que un perfil debe ser retirado si hay 5 o más contenidos del usuario que indiquen propaganda de odio, fotos del usuario presente con un líder identificable, u otras violaciones relacionadas. Y aunque los documentos obtenidos por Motherboard se crearon recientemente, las políticas de Facebook cambian regularmente, por lo que no está claro si estos parámetros exactos siguen vigentes.

Por supuesto, esto todavía depende de que los moderadores identifiquen y etiqueten las publicaciones como violatorias para alcanzar ese umbral. Ha habido un feroz debate online sobre lo que califica como «discurso de odio» y «noticias falsas» y sobre si InfoWars debería permitirse en Facebook. Facebook dijo la semana pasada que «Se ven páginas, tanto a la izquierda como a la derecha, publicando lo que consideran opinión o análisis, pero que otros llaman noticias falsas», tuiteó la empresa. «Creemos que prohibir estas páginas sería contrario a los principios básicos de la libertad de expresión».

Otro documento enfocado en contenido sexual dice que los moderadores deben anular la publicación de páginas y grupos bajo la base de solicitación sexual si hay más de 2 «elementos», como la descripción de la página, título, foto o publicación fija, que incluyan solicitación explícita de imágenes desnudas o, si la página es más sutil, incluya un método de contacto o una ubicación. Este documento nuevamente reitera las reglas de más del 30 por ciento y 5 publicaciones de administrador que se encuentran en el documento de discurso difamatorio.

Sin embargo, ese umbral va a variar según el tipo de contenido que se comparte. Facebook le dijo a Motherboard que alguien que comparta material de explotación infantil, por ejemplo, será expulsado inmediatamente.

«Las consecuencias por violar nuestros estándares comunitarios varían según la gravedad de la violación y la historia de una persona en la plataforma», escribió un vocero en un comunicado. «Por ejemplo, podemos advertir a alguien sobre una primera violación, pero si continúa violando nuestras políticas, podemos restringir su capacidad para publicar en Facebook o desactivar su perfil. También podemos notificar a las autoridades cuando creemos que existe un riesgo real de daño físico o una amenaza directa a la seguridad pública».

Durante su testimonio el martes, la Directora de Global Policy Management de Facebook, Monika Bickert, dijo, cuando hablaba sobre la página de InfoWars, «si hubiesen publicado suficiente contenido que violaba nuestro umbral, esa página hubiera desaparecido. Ese umbral varía, dependiendo de la gravedad de los diferentes tipos de violaciones”.

Vía

- Publicidad -

Lo último