jueves 30 de junio de 2022
Cursos de periodismo

Consiguen identificar la raza de una persona con una placa de rayos X

Académicos han entrenado un sistema de aprendizaje automático para clasificar el origen de una persona a través de estas imágenes, donde en principio no hay marcadores de raza, y no saben cómo ni por qué funciona.

Modelos de aprendizaje basados en inteligencia artificial pueden identificar la raza de alguien solo a partir de sus radiografías, según ha revelado una nueva investigación, algo que sería imposible para un médico humano que mirara las mismas imágenes.

Los resultados plantean algunas cuestiones preocupantes sobre el papel de la IA en el diagnóstico, la evaluación y el tratamiento médicos: ¿podría el software informático aplicar involuntariamente un sesgo racial al estudiar imágenes como estas?

Tras haber entrenado su IA con cientos de miles de imágenes de rayos X etiquetadas con detalles de la raza del paciente, un equipo internacional de investigadores sanitarios de EE.UU., Canadá y Taiwán probó su sistema con imágenes de rayos X que el software informático no había visto antes (y del que no tenía información adicional).

La IA pudo predecir la identidad racial del paciente que aparecía en esas imágenes con una precisión sorprendente, incluso cuando las exploraciones se tomaron de personas de la misma edad y el mismo sexo. El sistema alcanzó niveles del 90% con algunos grupos de imágenes.

«Nos propusimos realizar una evaluación exhaustiva de la capacidad de la IA para reconocer la identidad racial de un paciente a partir de imágenes médicas», escriben los investigadores en su artículo publicado.

«Demostramos que los modelos estándar de aprendizaje profundo de IA pueden ser entrenados para predecir la raza a partir de imágenes médicas con un alto rendimiento a través de múltiples modalidades de imágenes, que se mantuvo en condiciones de validación externa».

La investigación se hace eco de los resultados de un estudio anterior que descubrió que los escaneos de inteligencia artificial de las imágenes de rayos X tenían más probabilidades de pasar por alto los signos de enfermedad en las personas negras. Para evitar que esto ocurra, los científicos tienen que entender por qué se produce en primer lugar.

Por su propia naturaleza, la IA imita el pensamiento humano para detectar rápidamente patrones en los datos. Sin embargo, esto también significa que puede sucumbir involuntariamente a los mismos tipos de sesgos. Y lo que es peor, su complejidad hace que sea difícil desentrañar los prejuicios que hemos tejido en ellas.

Por el momento, los científicos no están seguros de por qué el sistema de IA es tan bueno para identificar la raza a partir de imágenes que no contienen esa información, al menos no en la superficie. Incluso cuando se proporciona información limitada, eliminando pistas sobre la densidad ósea, por ejemplo, o centrándose en una pequeña parte del cuerpo, los modelos siguieron funcionando sorprendentemente bien a la hora de adivinar la raza indicada en el archivo.

Es posible que el sistema encuentre signos de melanina, el pigmento que da el color a la piel, que aún son desconocidos para la ciencia.

«Nuestro hallazgo de que la IA puede predecir con exactitud la raza declarada por los propios pacientes, incluso a partir de imágenes médicas corruptas, recortadas y con ruido, a menudo cuando los expertos clínicos no pueden hacerlo, crea un enorme riesgo para todos los despliegues de modelos en imágenes médicas», escriben los investigadores.

La investigación se suma a un creciente cúmulo de pruebas de que los sistemas de IA pueden reflejar a menudo los sesgos y prejuicios de los seres humanos, ya sean racistas, sexistas o de otro tipo.

Esto debe equilibrarse con el poderoso potencial de la inteligencia artificial para analizar muchos más datos con mayor rapidez que los seres humanos, desde las técnicas de detección de enfermedades hasta los modelos de cambio climático.

El estudio deja muchas preguntas sin respuesta, pero por ahora es importante ser consciente del potencial de los prejuicios raciales que pueden aparecer en los sistemas de inteligencia artificial, especialmente si vamos a entregarles más responsabilidades en el futuro.

«Tenemos que hacer una pausa», dijo el investigador y médico Leo Anthony Celi, del Instituto Tecnológico de Massachusetts, al Boston Globe.

«No podemos apresurarnos a llevar los algoritmos a los hospitales y clínicas hasta que estemos seguros de que no están tomando decisiones racistas o sexistas».

La investigación se ha publicado en The Lancet Digital Health.

Contenido Premium

- Publicidad -

Lo último