martes 28 de junio de 2022
Cursos de periodismo

Es muy arriesgado dejar a los algoritmos de IA sin supervisión humana

En 2018, Pete Fussey, profesor de sociología de la Universidad de Essex, estudiaba cómo la policía de Londres utilizaba sistemas de reconocimiento facial para buscar sospechosos en las calles. Durante los dos años siguientes, acompañó a los agentes de la Policía Metropolitana en sus camionetas mientras vigilaban diferentes zonas de la ciudad, para lo cual utilizaban cámaras montadas y software de reconocimiento facial.

Fussey hizo dos descubrimientos importantes, que expuso en un estudio publicado en 2019. En primer lugar, el sistema de reconocimiento facial era lamentablemente inexacto. De las 42 coincidencias generadas por computadora obtenidas en los seis recorridos de los que participó, solo ocho, o el 19%, resultaron ser correctas.

En segundo lugar, y algo más preocupante, es que la mayoría de las veces los agentes de policía asumían que el sistema de reconocimiento facial probablemente estaba en lo correcto. “Recuerdo que las personas decían: ‘Si no estamos seguros, deberíamos suponer que es una coincidencia’” correcta, dice. Fussey llamó a este fenómeno “deferencia hacia el algoritmo”.

bloomberglinea.com  (www.bloomberglinea.com)