15.5 C
Buenos Aires
martes 29 de septiembre de 2020
Periodismo . com

Si está en la cocina, es una mujer: cómo los algoritmos refuerzan los prejuicios

Un hombre calvo, de unos sesenta años, mueve con sus espátulas de madera unos trozos de carne dentro de una sartén. Lleva gafas de pasta, vaqueros y está frente a los fogones de su pequeña cocina, decorada en tonos claros. Al ver esta imagen, la inteligencia artificial lo tiene claro y gracias a su sofisticado aprendizaje etiqueta lo que ve: cocina, espátula, fogones, mujer. Si está en una cocina, entre fogones, debe ser una mujer. Un equipo de la Universidad de Virginia acaba de publicar un estudio en el que señala una vez más lo que muchos especialistas vienen denunciando: la inteligencia artificial no solo no evita el error humano derivado de sus prejuicios, sino que puede empeorar la discriminación y está reforzando muchos estereotipos.

En su trabajo, estos científicos pusieron la lupa en las imágenes de dos gigantescos bancos de imágenes, de los que se usan habitualmente para entrenar a las máquinas. Y, sobre todo, en lo que aprendían de ellas. Inicialmente, los hombres protagonizaban un 33% de las fotos que contenían personas cocinando. Tras entrenar a la máquina con estos datos, el modelo mostró su flaqueza: dedujo que el 84% de la muestra eran mujeres. «Se sabe que las tecnologías basadas en big data a veces empeoran inadvertidamente la discriminación debido a sesgos implícitos en los datos», advierten los autores. «Mostramos que partiendo de un corpus sesgado de género», añaden, los modelos predictivos «amplifican el sesgo».

elpais.com  (elpais.com)