jueves 28 de marzo de 2024
Cursos de periodismo

Fake News 2.0: la guerra propagandística se sofistica

Los creadores de noticias falsas a escala industrial son cada vez más expertos en evitar las nuevas reglas de las plataformas web, la IA defensiva, y los lectores en guardia para la propaganda política.

Por qué es importante: las tácticas utilizadas por los malos actores durante el último ciclo electoral se modificaron para evitar una detección más sofisticada, y aprovechar las nuevas tecnologías, lo que hace que algunas de ellas sean más difíciles de identificar y detener en tiempo real.

El panorama general: en 2016, muchas tácticas de uso común se centraron en difundir noticias falsas ampliamente, en voz alta y de manera torpe. Muchos de estos esfuerzos fueron eliminados por tecnologías actualizadas y más sofisticadas como la inteligencia artificial (AI).

  • Personas mal intencionadas crearon dominios como abc.com.co o usatoday.com.co. Un documento de Google Docs de la profesora de medios Melissa Zimdars se difundió ampliamente a finales de 2016, advirtiendo a los usuarios sobre este tipo de dominios. Pero una táctica similar todavía es utilizada por políticos y partidos para crear sitios partidistas que parecen ser independientes.
  • Las plataformas han tomado medidas enérgicas contra el cloaking, una táctica que hace que la gente haga clic en algo, a menudo un video, al confundirlos sobre su contenido.

Entre líneas: los elementos insidiosos están tratando de imitar comunicaciones más normales, en lugar de arrojar comentarios brillantes que podrían hacer que los señalen por difundir odio o violencia.

  • «Los días de la furia de Twitter han desaparecido», dice Padraic Ryan, periodista principal de Storyful, una empresa de inteligencia de redes sociales. «El lenguaje y los comportamientos se vuelven mucho más sofisticados y humanos para evitar la detección».

 

Que sigue:

En 2018 y más allá, se trata de evitar la detección.

  • Las cuentas falsas y las botnets siguen siendo ampliamente utilizadas para difundir noticias e información falsas.
  • Pero ahora que las plataformas están priorizando la eliminación de millones de cuentas falsas, los malos actores buscan secuestrar cuentas reales para evitar ser detectados.
  • Los malos actores buscan parecer más humanos en Twitter y Facebook. Esto implica tácticas más sofisticadas, como utilizar Tweetdeck para programar tweets escritos previamente para imitar los comportamientos de publicación de los humanos.
  • Gran parte de la nefasta actividad actual se centra en evitar parecer una cuenta falsa o bot. La premisa básica detrás de esta táctica es operar más como una operación de influencia que como una operación automatizada, dice Renée DiResta, Directora de Investigación en New Knowledge, Policy Lead en Data for Democracy y Media Fellow en Mozilla.

«La nueva tendencia es que los malos actores aprovechen la polarización existente para manipular grupos de personas reales, en lugar de crear o pretender ser grupos de personas».

DiResta llama a la táctica mencionada anteriormente «commandeering», donde los elementos insidiosos usan cuentas secuestradas para apuntar a personas reales que ya se han movilizado en grupos partidistas en redes sociales o mensajes desde 2016.

Los ataques de malware a los usuarios de redes sociales cotidianas están aumentando a medida que los malos actores buscan secuestrar identidades reales para evitar la detección.

Hemos visto que la tendencia aumenta cada vez más con los malos elementos que utilizan botnets de malware más que cualquier otra cosa. Hace unos años, el 60% de la actividad no humana era malware, pero ahora, aproximadamente el 75% de los ataques bot provienen de dispositivos comprometidos (botnets) «.

– Tamer Hassan, cofundador y CTO en White Ops, una firma de detección de fraude

Mensajes encriptados: Whatsapp y Messenger, propiedad de Facebook, reciben la mayor parte del escrutinio por noticias falsas en plataformas de mensajería privadas, pero los expertos dicen que las plataformas de comunicación más pequeñas también están siendo utilizadas como armas, como la mensajería directa de Twitter y Telegram.

Dark texts: los textos anónimos de «peer to peer» podrían ser otra fuente de comunicación imposible de rastrear, a menudo pidiendo dinero a las personas para solventar anuncios, informa Vice. Las nuevas plataformas de texto están permitiendo campañas políticas para enviar mensajes de texto a decenas de millones de personas sin pedir permiso primero.

Deepfakes: la tecnología se ha vuelto tan sofisticada que el software disponible públicamente facilita a los malos actores la creación de «Deepfakes» o fotos o videos alterados. Como informa Kaveh Waddell, de Axios, la mayoría del software intercambia la cara de una persona con el cuerpo de otra persona, o hace que parezca que alguien está diciendo algo que ellos no dijeron.

  • Muchas plataformas están invirtiendo en tecnologías para eliminar Deepfakes, pero algunas se están volviendo tan sofisticadas que incluso los periodistas están perplejos con ellas. En marzo, Facebook dijo que estaba comenzando a probar la verificación de hechos de fotos y videos.

Herramientas de bot más sofisticadas: se están creando nuevas herramientas para manipular la información en los blogs o el nivel de comentarios en los sitios web de todos los días, dice Mike Marriott, investigador de Digital Shadows, una empresa de seguridad digital.

En profundidad: en un nuevo informe, Marriott explica que herramientas como BotMasterLabs y ZennoStore afirman promover contenido en cientos de miles de plataformas, incluidos foros y blogs, pero en realidad controlan un gran número de bots que están programados para publicar en tipos específicos de foros sobre diferentes temas.

Nuevos motivos para pruebas A/B. A medida que la campaña de Trump presumía, Facebook fue una tremenda plataforma para probar rápidamente miles de mensajes en busca de efectividad. Si bien sigue siendo un caldo de cultivo para la desinformación, los malos actores dependen más de los grupos de redes cerrados para los mensajes de prueba A/B, los memes y las historias.

«Hay un elemento de coordinación en plataformas marginales como Reddit, 4chan y Gab, donde las personas intentan unirse con el objetivo de lograr que la desinformación se aplique a plataformas más convencionales, como Facebook y Twitter, para influir en una mayor discusión antes de las elecciones.»

– Padraic Ryan, Periodista Senior en Storyful

El resultado final: la mayoría de las plataformas en el ecosistema digital han tomado más medidas para eliminar los incentivos financieros para aquellos que crean noticias políticas falsas. Lamentablemente, gran parte del trabajo realizado por los malos actores en 2016 ha sentado las bases para ataques aún más sofisticados en 2018.

«Uno de los mayores cambios en los últimos años es que las personas ahora están tan predispuestas a violar lo que solían ser principios de seguridad comunes haciendo clic en cosas que no conocen. Los malos actores se están aprovechando de esto, así como de la mayor susceptibilidad de personas que han sido expuestas a noticias falsas antes «.

– Tony Lauro, gerente de arquitectura de ciberseguridad en Akamai Technologies

- Publicidad -

Lo último