viernes 3 de mayo de 2024
Lo mejor de los medios

Ética, Inteligencia Artificial y el futuro de las noticias: reflexiones en el aniversario de ChatGPT

En el plazo de un año, «Inteligencia Artificial» ha pasado de ser una palabra de moda en el mundo de la tecnología a convertirse en una palabra de uso cotidiano, hasta llegar a ser la Palabra del Año del Diccionario Collins. Su meteórico ascenso en la conciencia del público refleja algo más que una tendencia: marca el inicio de un cambio en la forma de operar de las empresas. Este ha sido sin duda el caso de quienes, en el sector de la información, han experimentado con tecnologías de IA y se han visto afectados por los dilemas éticos que conlleva.

A punto de cumplirse un año del lanzamiento de ChatGPT, la plataforma de IA que sin duda la dio a conocer al gran público, es la ocasión ideal para echar la vista atrás y recordar en qué punto se encontraba el sector de la información en relación con la IA antes de 2023, analizar cómo ChatGPT ha reconfigurado las redacciones y debatir las implicaciones éticas de su uso en el sector de la información.

En el año transcurrido desde su lanzamiento, ChatGPT ha sido objeto de varias actualizaciones:

  • Noviembre de 2022: se lanza ChatGPT.
  • Febrero de 2023: El lanzamiento de la suscripción ChatGPT Plus permite a los usuarios acceder a ChatGPT incluso en horas pico por 20 dólares al mes.
  • Marzo de 2023: El lanzamiento del modelo GPT-4 ofrece contenidos aún mejores y permite subir imágenes.
  • Mayo de 2023: Se añaden plugins a ChatGPT, incluida la posibilidad de navegar por Internet.
  • Septiembre de 2023: Las actualizaciones de la base de datos de septiembre de 2021 a enero de 2022 permiten acceder a información más reciente.
  • Octubre de 2023: La integración con DALL-E 3 permite generar imágenes a partir de prompts dentro de ChatGPT.
  • Noviembre de 2023: Se lanza ChatGPT multimodal, que permite a los usuarios utilizar GPT-4, el reconocimiento de imágenes, DALL-E 3 y el intérprete de códigos en la misma sesión.

Las redacciones ya jugaban con la IA mucho antes de que se convirtiera en una palabra de moda. Un estudio realizado por la London School of Economics (LSE) en 32 países y 71 redacciones trató de entender cómo se incorporaba la IA a las redacciones en 2019. Descubrió que casi la mitad de los encuestados aprovechaban la IA para la recopilación de noticias, dos tercios para la producción y poco más de la mitad para la distribución.

Pero, ¿qué consideraban exactamente los encuestados IA en 2019? El estudio destacó que las definiciones variaban significativamente entre los diferentes encuestados, desde herramientas que automatizaban tareas hasta tecnologías basadas en aprendizaje automático o chatbots. En última instancia, la variada comprensión de la IA subrayó la diversidad de sus usos. Por ejemplo, en la práctica, las aplicaciones de la IA en las redacciones de 2019 abarcaron desde el rastreo de las redes sociales en busca de información hasta la ayuda a los periodistas de investigación en el filtrado de extensos conjuntos de datos y documentos. También desempeñó un papel en la automatización de la creación de contenidos sencillos, la gestión de muros de pago y la personalización de contenidos.

Independientemente de cómo se utilizara, las motivaciones para adoptar la IA estaban claras: el 68% de las redacciones pretendía aumentar la eficacia periodística, el 45% buscaba ofrecer contenidos más relevantes para los usuarios, y el el 18% pretendía mejorar los procesos empresariales.

Las redacciones de hoy en día están cada vez más moldeadas por la IA, con herramientas como ChatGPT que agilizan la generación de contenidos. Se puede observar un marcado repunte en la adopción: en 2023, un asombroso 90% de las redacciones que utilizan IA emplean estas herramientas para la creación de contenidos, un aumento notable desde el 75% en 2019. Los casos de uso de la generación de contenidos con IA incluyen:

Redacción de artículos basada en IA, utilizando la capacidad de DALL-E 3 para crear imágenes de acompañamiento, mejorando la comprobación de hechos, aumentar la narración visual y la interacción con el público, por nombrar sólo algunas.

Más allá de la producción, la IA también está redefiniendo la selección de contenidos. Editores de noticias como The Times han recurrido a la IA para crear quizzes de noticias personalizados, mientras que otros, como la cadena pública belga VRT, la han utilizado para generar recomendaciones de contenidos a medida. Esto está en línea con el estudio 2023 LSE, que encontró que el 80% de las redacciones que adoptan la IA aprovechan estas tecnologías para mejorar la distribución de noticias, un salto significativo desde el 50% registrado en 2019.

Las herramientas de IA como ChatGPT desempeñan un papel cada vez más importante en las redacciones. La IA puede completar tareas triviales como ayudar con la elección de palabras y el resumen de contenidos. Sin embargo, Burt Herman, del NiemanLab, también subraya que los periodistas son esenciales en las redacciones a medida que la IA se generaliza. Más que nunca, afirma, es importante que los periodistas apliquen sus normas éticas y su pensamiento crítico para orientar y evaluar la influencia de la tecnología.

De hecho, el papel de los periodistas se ha ampliado más allá del simple uso eficaz de las herramientas de IA. Las responsabilidades de los periodistas incluyen ahora cuestionar las implicaciones éticas y morales del uso de la IA. Son responsables de establecer normas para su uso y rastrear sus posibles abusos. Deben mantener la supervisión y el control humanos de la IA para evitar la propagación de información errónea. En la actualidad, los periodistas actúan como guardianes e intérpretes de las capacidades de la IA, garantizando que el público esté informado sobre las posibles repercusiones en la sociedad.

A medida que las organizaciones de noticias se enfrentan a la influencia de la IA en el contenido editorial y la comercialización de la industria, la ética está en el primer plano de las preocupaciones de las redacciones. Un estudio de la LSE de 2023 destaca que el 82% de las organizaciones de noticias han redactado directrices para abordar estos retos, centrándose en el impacto ético, las cuestiones legales y la dinámica de la industria.

La BBC y Associated Press son ejemplos de organizaciones de noticias que experimentan con la IA generativa. Aunque aprecian sus ventajas, se mantienen alerta ante implicaciones éticas como la desinformación y la parcialidad, y subrayan la necesidad de confianza, responsabilidad social y supervisión humana en el periodismo. Ambas están aplicando activamente medidas para salvaguardar sus contenidos y su propiedad intelectual del uso indebido de la IA. Esto implica establecer directrices estrictas sobre el papel de la IA en el periodismo, garantizar la edición humana y defender las normas periodísticas.

El consenso entre las redacciones es claro: es necesaria una evaluación continua del papel de la IA en el periodismo. Las evaluaciones periódicas garantizan que la integración de la IA se ajusta a las prácticas éticas y mejora la calidad periodística.

Al conmemorar el primer aniversario de ChatGPT, la mayoría puede apreciar cómo la IA ha transformado las redacciones al agilizar la generación y distribución de contenidos. Sin embargo, también ha planteado dilemas éticos, retos legales y cambios en las prácticas periodísticas. Los periodistas son ahora no sólo creadores de contenidos, sino también supervisores e intérpretes éticos de los contenidos generados por la IA. El futuro exige un equilibrio entre la innovación tecnológica y el mantenimiento de los valores fundamentales del periodismo.

Vía

Lo último