Medios

Periodismo impulsado por inteligencia artificial: ¿ahorro de tiempo o accidente anunciado?

Confiar en la inteligencia artificial para producir artículos ha demostrado ser un gran ahorro de tiempo, pero es un proceso propenso a errores y también puede generar problemas éticos, según un informe sobre ‘periodismo automatizado’, es decir, periodismo generado a partir de grandes conjuntos de datos procesados ​​por IA.


La agencia de noticias Press Association ha demostrado su potencial: lograron producir 50000 historias adaptadas a los medios de comunicación locales en el espacio de tres meses, a través de su servicio de noticias RADAR.

A medida que este tipo de tecnología mejora, también lo hacen sus aplicaciones para el periodismo. Pero es importante recordar que también tiene sus dificultades, según afirma la profesora de ciencias de la computación de la Universidad de Brighton, Anya Belz, autora del informe “Fully Automatic Journalism: We Need to Talk About Non-fake News Generation”.

«Por el momento, esto significa que las noticias generadas en forma automática deben ser revisadas cuidadosamente por editores humanos en busca de errores de datos y de otro tipo, así como del contexto faltante», dijo.

Muchos otros esfuerzos de inteligencia artificial han citado la necesidad de retener a los periodistas en el proceso, en medio del temor de que sólo los robots puedan producir periodismo. Pero el artículo de Belz identifica otra gran preocupación: el riesgo de sesgo que se filtra en los artículos de los datos de origen.

Para esto examinó ejemplos de RADAR de la Asociación de la Prensa, así como Monok, con sede en Suecia. Monok extrae fragmentos de artículos de noticias existentes y los resume en una nueva pieza, lo que facilita que los errores se filtren por la red.

La lección importante para recordar acerca de la inteligencia artificial es que los datos incorrectos producen malos resultados. Cuando la compañía sueca United Robots se equivocó en sus puntajes de fútbol, tuvo consecuencias desastrosas para los titulares que se generaron.

Para Monok, ha habido casos en que la IA ha reemplazado ciertas palabras, como sustituir “7 años” por “70 años”, y “estudiante palestino de Harvard” por “estudiante griego de Harvard”.

Ambos ejemplos fueron vistos y corregidos por editores humanos antes de ser publicados; esto demuestra la importancia de tener una línea final de verificación humana antes de llegar a publicar. Sin embargo, esto es menos necesario para modelos como RADAR, ya que las historias se generan a partir de datos alimentados a plantillas hechas por humanos para que coincidan con el tema, la ubicación y la publicación.

El hecho es que el periodismo automatizado es tan confiable como la información que se le ha brindado durante su desarrollo y capacitación. En un extremo de la escala, esto podría hacer que el programa asuma el pronombre de un entrevistado. En el extremo más extremo, podría ser propenso a sesgos en torno a partidismos o grupos políticos.

A pesar de los riesgos que pueden surgir de su uso, el contenido de noticias generado automáticamente otorga a los medios de comunicación locales y regionales una forma de satisfacer las demandas de contenido a una fracción de su costo.

«Si pueden utilizarse esas técnicas automatizadas para sobrevivir y enfocar al personal en el periodismo de investigación local, por ejemplo, entonces creo que mucha gente estaría de acuerdo en que eso es algo bueno», dijo Belz.

Aunque la escritura automática es de uso limitado en la actualidad, Belz predice que su uso será expandido y generalizado en unos pocos años. Pero hasta entonces, la tecnología todavía tiene un camino por recorrer para resolver las preocupaciones existentes.

Vía