Medios

Google modificó su algoritmo tras el aumento de tiroteos en Estados Unidos

La desinformación y las noticias falsas son tan comunes después de los tiroteos en masa en Estados Unidos, que Google ha tenido que ajustar su algoritmo para compensarlo, según reveló un ingeniero de la empresa.


Pandu Nayak, quien se unió a la compañía hace 14 años para trabajar en su motor de búsqueda, le dijo al diario The Guardian que los asesinatos en masa presentaban un desafío cada vez mayor para que el motor de búsqueda entregue resultados precisos.

“En estos últimos años, ha habido un aumento trágico en tiroteos», dijo Nayak. “Y resulta que, durante estos tiroteos, en la niebla de eventos que se están desarrollando, puede surgir una gran cantidad de desinformación de varias formas”.

“Y para abordar esto, hemos desarrollado algoritmos que reconocen que se está produciendo un evento trágico, y que debemos aumentar nuestras nociones de ‘autoridad’, incrementar el peso de ‘autoridad’ en nuestra clasificación para que podamos mostrar contenido de alta calidad en lugar de desinformación en ese momento crítico”.

Autoridad, según la definición de Google, significa páginas que cumplen con las pautas del evaluador de calidad de búsqueda de la compañía, un documento de 166 páginas (PDF) que la compañía distribuye a sus 16.000 evaluadores de calidad de búsqueda.

Esos empleados son responsables de verificar los ajustes en el algoritmo de Google para garantizar que muestren los mejores resultados, calificando los resultados de la búsqueda en dos escalas: una que marca si se satisfacen las necesidades del buscador, y una segunda que marca la calidad de la página, definida en más de 80 páginas de las directrices con «MC de muy alta calidad» (contenido principal), «muy alto nivel de EAT» (experiencia, autoridad, confianza) y «reputación muy positiva».

Las directrices de calidad de búsqueda se publicaron por primera vez en 2013, pero los evaluadores han sido durante mucho tiempo una parte fundamental de cómo la compañía juzga los cambios en su algoritmo. Sin embargo, solo recientemente se han volcado explícitamente hacia mantener fuera de los resultados de búsqueda los discursos de odio, la desinformación y las noticias falsas.

En 2017, Google agregó a los evaluadores la capacidad explícita de marcar los elementos de búsqueda como «ofensiva o perturbadora», luego de que The Guardian y The Observer publicaran una serie de notas que mostraban cómo el motor de búsqueda promueve el contenido extremista.

Una historia en particular resaltó cómo una búsqueda de «¿sucedió realmente el Holocausto?» devolvió como resultado principal, un enlace al foro de supremacistas blancos Stormfront, explicando cómo promover la negación del Holocausto. Esa búsqueda ahora se incluye en las pautas del evaluador como un ejemplo de contenido para marcar, y Nayak destacó la mejora.

“Hace dos años y medio, The Guardian publicó este artículo que señalaba que para la consulta ‘¿sucedió realmente el Holocausto?’, estábamos destacando la negación del Holocausto en la parte superior. Claramente es un mal resultado, claramente no es algo que queramos hacer por nuestros usuarios”.

«Es instructivo tener en cuenta lo que hicimos al respecto. Lo que no hicimos fue entrar y simplemente eliminar el resultado de esa consulta. La razón para eso, la razón por la que no hacemos tales intervenciones manuales para «arreglar» la consulta, es que el problema reportado en particular, este o cualquier otro problema, suele ser la punta del iceberg. Es el que acaba de informarse, pero generalmente hay muchos otros problemas que son como el cuerpo del iceberg que nadie eligió informarnos”.

“Entonces, en este caso particular, lo que realmente queremos hacer es investigar y entender por qué ocurrió este problema en primer lugar. Entender por qué nuestros algoritmos causaron este problema. Y llegar al corazón del problema, arreglarlo, y entonces, incluso si no resolvemos todo el iceberg, resolvemos una gran parte».

Nayak mostró una diapositiva que demuestra que el término de búsqueda ahora lleva al museo conmemorativo del holocausto de los Estados Unidos. Para los usuarios británicos, sin embargo, el resultado principal es el artículo original de The Observer que reveló el problema en primer lugar.

Vía