14.2 C
Buenos Aires
domingo 24 de octubre de 2021
Cursos de periodismo

Google arregla su algoritmo «racista» borrando a los gorilas

En junio de 2015, un usuario de Google Photos descubrió que el programa etiquetaba a sus amigos negros como gorilas. La inteligencia artificial de Google no era capaz de distinguir una tez oscura de humano de la de simios como gorilas y chimpancés. Ese sesgo racista de la máquina obligó a disculparse a Google, que se comprometió a buscar una solución al error. Dos años después, la solución está clara: para que el programa no confunda a humanos con gorilas, han sacado a los gorilas del buscador. Y a los chimpancés. Y a los monos.

En Wired han hecho la prueba, alimentando a la máquina con miles de fotos, incluidas las de estos grandes simios y también de otras especies de monos. El programa —ideado para clasificar las fotos de los usuarios por sí solo, usando inteligencia artificial— responde a la perfección cuando le pides que encuentre orangutanes, gibones, babuinos o monos tití, encontrándolos sin problemas. Pero se queda en blanco cuando le preguntas por «monos», «gorilas» y «chimpancés», aunque tenga unos cuantos en sus entrañas. El parche de Google es hacer desaparecer estos animales del léxico de esta aplicación para la gestión de fotos personales (no el buscador de imágenes). El programa tampoco sabe buscar «hombre negro» o «mujer negra».

La forma de solucionar el problema es borrar el problema: autocensurar esas etiquetas. «La tecnología de etiquetado de imágenes todavía es joven y lamentablemente no es perfecta», respondió un portavoz de Google, admitiendo el parche. Flickr generó un problema similar, al etiquetar a negros como simios. El algoritmo de Facebook permitía discriminar por su raza a los usuarios. Estos subproductos inesperados están por todas partes.

elpais.com  (elpais.com)