miércoles 1 de mayo de 2024
Cursos de periodismo

Los lectores confían menos en los medios que etiquetan su contenido creado por IA

A una abrumadora mayoría de los lectores les gustaría que los editores de noticias les dijeran cuando la Inteligencia Artificial ha dado forma a la cobertura informativa que están viendo. Pero, según un nuevo estudio, los medios pagan un precio alto cuando revelan el uso de IA generativa.

Este es el enigma en el que se centra el nuevo estudio de Benjamin Toff, de la Universidad de Minnesota, y Felix M. Simon, del Oxford Internet Institute. Su documento de trabajo «‘¿Podrían no usarla? La paradoja de la divulgación de la IA para la confianza de la audiencia en las noticias» es uno de los primeros experimentos que examinan las percepciones de la audiencia sobre las noticias generadas por IA.

Más de tres cuartas partes de los adultos estadounidenses creen que los artículos de noticias escritos por IA serían «algo malo». Pero, desde Sports Illustrated hasta Gannett, está claro que ese barco en particular ha zarpado. Pedir información a Google y obtener como respuesta contenidos generados por IA no es el futuro, es nuestra realidad actual.

Gran parte de la investigación existente sobre la percepción de la IA en la elaboración de noticias se ha centrado en la recomendación algorítmica de noticias, es decir, en cuestiones como qué opinan los lectores de que los robots elijan sus titulares. Algunos han sugerido que los consumidores de noticias pueden percibir las noticias generadas por IA como más justas y neutrales debido a la «heurística de la máquina» en la que la gente cree que la tecnología funciona sin cosas molestas como las emociones humanas o los motivos ocultos.

En este experimento, realizado en septiembre de 2023, los participantes leyeron noticias de contenido político variado, desde un artículo sobre el estreno de la película «Barbie» hasta la cobertura de una investigación sobre Hunter Biden. En algunos casos, el trabajo estaba claramente etiquetado como generado por IA. Algunos de los artículos etiquetados con IA iban acompañados de una lista de noticias utilizadas como fuentes.

Hay que señalar un par de limitaciones. Los artículos que se mostraron a los participantes, aunque procedían de la empresa tecnológica HeyWire AI, que vende «contenidos periodísticos generados por IA», se publicaban bajo un nombre ficticio, y la falta de implicaciones y asociaciones con el mundo real puede afectar a los resultados. La muestra de casi 1.500 personas también era ligeramente más educada y más liberal que el público estadounidense en general (existe una amplia -y cada vez mayor- división partidista en lo que se refiere a la confianza en los medios de comunicación). Se trata de un documento de trabajo o preimpresión, lo que significa que los resultados aún no han sido revisados por pares.

El coautor, Toff, ha dicho que la idea de esta investigación surgió después de que le preguntaran sobre la confianza en las noticias generadas por inteligencia artificial, y que no sabía la respuesta. Algunas conclusiones del experimento resultante y de una conversación con los coautores:

Los lectores perciben como menos fiables a las organizaciones de noticias que publican noticias generadas por IA

En una escala de confianza de 11 puntos, los encuestados que vieron las noticias etiquetadas como generadas por inteligencia artificial valoraron a la agencia de noticias aproximadamente medio punto por debajo de los que vieron el artículo sin la etiqueta, una diferencia estadísticamente significativa.

Curiosamente, los encuestados no evaluaron el contenido de la noticia etiquetada como generada por IA como menos preciso o más tendencioso.

Los investigadores hallaron la mayor diferencia de confianza entre quienes estaban familiarizados con «lo que implica la producción e información legítima de noticias». Las personas con menor «conocimiento de los procedimientos informativos», en palabras de los investigadores, no otorgaban puntos de confianza a los medios por etiquetar contenidos como generados por IA.

Los que desconfían de los medios de noticias… siguen desconfiando de los medios de noticias generados por IA

Existe cierta esperanza de que la IA generativa pueda aumentar la confianza entre quienes menos confían en los medios de comunicación. Dada la baja confianza histórica en los medios de comunicación entre los republicanos en EE.UU., ¿quizás algunas audiencias verían la IA generativa como una mejora respecto a los periodistas profesionales? Un experimento anterior descubrió que presentar las noticias como si procedieran de la IA reducía la percepción de parcialidad entre las personas con las actitudes partidistas más hostiles hacia los medios de comunicación. Más recientemente, un editor de un sitio alemán de noticias digitales que experimentó con contenidos asistidos por IA dijo que una encuesta de audiencia sugería que algunos lectores parecen favorecer «la precisión mecánica de la tecnología» frente a «la persona propensa a errores o ideológicamente formada».

Pero los coautores Toff y Simon no encontraron ninguna mejora en este experimento. Su investigación no mostró cambios a partir de las divulgaciones de IA entre los segmentos menos confiados del público.

Toff afirma que en futuras investigaciones se podría estudiar si diferentes etiquetas podrían generar confianza en determinados segmentos del público.

«Me pregunto si hay formas de describir el uso de la IA que ofrezcan al público más garantías sobre la información subyacente que se comunica, tal vez destacando los casos en que existe un amplio consenso entre una gran variedad de fuentes que comunican la misma información», afirma Toff.

«No creo que todos los públicos vean inevitablemente todos los usos de estas tecnologías en las redacciones como algo netamente negativo», añadió, «y me interesa especialmente saber si hay formas de describir estas aplicaciones que puedan ser recibidas realmente de forma positiva como una razón para ser más confiados en lugar de menos.»

A los bots les fue mejor cuando citaron sus fuentes

El aumento de la transparencia ha sido uno de los rasgos distintivos de muchos esfuerzos por mejorar la confianza en el periodismo. Ahora que las herramientas de inteligencia artificial siguen arrojando información errónea y fuentes dudosas, es muy recomendable que los periodistas tengan la oportunidad de comprobar las fuentes originales. Para ello, a algunos encuestados se les mostró una lista de fuentes de noticias de la vida real que la IA utilizó para generar el artículo.
Los investigadores descubrieron que cuando se proporcionaba una lista de fuentes junto al artículo de noticias, las etiquetas que revelaban el uso de IA no reducían la confianza. En otras palabras, los «efectos negativos asociados a la percepción de confianza se contrarrestan en gran medida cuando los artículos revelan la lista de fuentes utilizadas para generar el contenido».

Conclusiones

Confirmando estudios anteriores, Toff y Simon descubrieron que una abrumadora mayoría creía que las organizaciones de noticias deberían «avisar a los lectores o espectadores de que se había utilizado IA»: más del 80% de todos los encuestados. El 78% de los que respondieron que querían que se informara de ello afirmaron que las empresas de noticias «deberían proporcionar una nota explicativa en la que se describa cómo se ha utilizado la IA».
Los investigadores también aceptaron respuestas abiertas de los participantes en el estudio, que dieron lugar a sugerencias prácticas para etiquetar el contenido generado por IA («un símbolo universalmente aceptado» o «etiquetas para toda la industria» similares a la «forma estándar en que se muestra la información nutricional en los productos alimenticios») y algunas declaraciones de desaprobación general («o simplemente podrían no hacerlo», escribió uno).

«Aunque la gente suele decir que quiere transparencia y divulgación sobre todo tipo de prácticas y políticas editoriales, la probabilidad de que la gente realmente haga click y lea y se comprometa con explicaciones detalladas sobre el uso de estas herramientas y tecnologías es probablemente bastante baja», dijo Toff.

Las etiquetas nutricionales mencionadas por uno de los encuestados podrían ser instructivas para reflexionar sobre lo que quieren los consumidores de noticias. «La gente quiere que las empresas informen de lo que contienen sus alimentos, aunque el 99% de las veces no vaya a leer la lista de ingredientes», señala Toff.

Es fácil olvidar que sólo ha pasado un año desde el lanzamiento de ChatGPT, que ayudó a poner en marcha un cambio radical en la industria tecnológica. Muchos periodistas -y la audiencia- todavía están familiarizándose con la tecnología y las percepciones, para bien o para mal, pueden evolucionar. Los investigadores descubrieron, por ejemplo, que los encuestados que dijeron haber oído o leído «mucho» sobre organizaciones de noticias que utilizaban IA generativa eran más propensos a decir que pensaban que la IA hacía un mejor trabajo que los humanos en la redacción de artículos de noticias.

«El público suele ser muy escéptico, cuando no directamente cínico, sobre lo que hacen los periodistas humanos (y muchas de las noticias que la gente encuentra en las redes sociales no les dan muchas razones para pensar lo contrario). Inevitablemente, a medida que se generalice el uso de estas herramientas, las redacciones tendrán que lidiar con la forma de comunicar eficazmente para qué se utilizan estas tecnologías y para qué no, y sabemos muy poco sobre cómo hacerlo», afirma Toff. «Ya esperamos mucho del público en términos de alfabetización mediática para poder desenvolvernos en el entorno informativo contemporáneo; el uso de estas tecnologías en las noticias añade un nivel completamente distinto, y ni las redacciones ni el público disponen de un vocabulario muy desarrollado para desenvolverse en ambos sentidos».

Simon insistió en que estas primeras conclusiones no deben disuadir a las empresas periodísticas de establecer normas sobre el uso responsable y la divulgación de la IA, y señaló que el trabajo comparativo en torno a la divulgación está «muy avanzado». Las empresas periodísticas deben considerar en qué casos tiene sentido divulgar información (por ejemplo, cuando un artículo ha sido escrito en gran parte por la IA) y en qué casos no (cuando los periodistas han utilizado una herramienta de transcripción de IA para transcribir entrevistas que han servido de base para el reportaje).

Vía

Lo último