jueves 18 de abril de 2024
Cursos de periodismo

Si un robot comete injurias… ¿Quién es responsable?

«Trabajaré incansablemente para mantenerlo informado, ya que los textos se escribirán en mi sistema sin interrupciones».

Así es como el presentador de inteligencia artificial de Xinhua News se anunció a la audiencia global en la Conferencia Mundial de Internet en noviembre pasado. Siguiendo el modelo del presentador real Zhang Zhow, se dice que el lector de noticias virtual es el primero de su tipo, según la agencia estatal de noticias de China. Pero las señales de que el periodismo automatizado pronto jugará un papel central en la industria de los medios de comunicación han estado allí por mucho tiempo.

Para las organizaciones de noticias, los algoritmos que generan narrativas convincentes son una perspectiva emocionante. Muchos habrían alzado una ceja cuando Associated Press comenzó a confiar en la automatización para cubrir el béisbol de ligas menores y transformar las ganancias corporativas en historias publicables. Avancemos un par de años y ahora parece casi imposible encontrar un medio de noticias importante que no esté experimentando con su propio reportero robot.

Desde una perspectiva empresarial, esto tiene mucho sentido. Los bots de noticias son convenientes, baratos y no se quejan cuando se les pide que produzcan un artículo a las 3 am del sábado. Y sobre todo, son rápidos. En 2015, el podcast Planet Money de NPR organizó un concurso de escritura entre uno de sus periodistas y un algoritmo. Alerta de spoiler: el algoritmo ganó. El periodista ni siquiera estuvo cerca.

Sin embargo, a pesar de su aparente infalibilidad, los robots, como sus antecesores humanos, también son vulnerables a los errores. En el negocio de las noticias, uno de los peores errores es cometer difamación. Entonces, ¿cómo deberían los tribunales tratar los casos en que un robot genera una declaración difamatoria? Los expertos legales y tecnológicos creen que ahora es el momento de decidirlo.

Gracias a una serie de fallos históricos emitidos por la Corte Suprema de los Estados Unidos en la segunda mitad del siglo anterior, la Primera Enmienda brinda una fuerte protección a los periodistas en las demandas por difamación. Los funcionarios públicos no pueden reclamar los daños por difamación sin probar primero que el acusado actuó con «malicia real», sabiendo que una declaración era falsa, o que demostró un desprecio imprudente por la verdad.

«Eso simplemente no funciona muy bien con un algoritmo», dice Lyrissa Lidsky, decana de la Facultad de Derecho de la Universidad de Missouri y experta en derecho de la Primera Enmienda. «Es difícil hablar sobre el conocimiento que tiene un algoritmo, o si un algoritmo actuó de manera imprudente».

Los bots no toman decisiones conscientes cuando producen contenido. Se comportan sobre la base de código escrito por el hombre. Sin embargo, es posible que los programadores no siempre puedan predecir cada palabra de una nota o su connotación, especialmente cuando se trata de aprendizaje automático.

Mientras que un bot no puede actuar con malicia real, su diseñador puede. El reporte de robots puede parecer imparcial y objetivo, pero los humanos a menudo construyen sus propios sesgos en sistemas automatizados. Esto plantea riesgos potenciales para los editores.

«Las organizaciones de noticias tendrán que ser muy cuidadosas con la contratación de personas para participar en este tipo de áreas de desarrollo tecnológico», dice Amy Kristin Sanders, profesora asociada de la Universidad de Texas en Austin.

Sanders es una de los tres investigadores coautores de un estudio reciente que resalta la complicada manera de determinar la falla, cuando se acusa a un algoritmo de cometer difamación. Sin embargo, ella cree que, en muchos aspectos, estos casos no son diferentes de los casos de responsabilidad del fabricante.

“No hay una sola persona que sea responsable de diseñar un abrelatas, digamos. Y así, la ley ha encontrado formas, si un abrelatas funciona mal y daña a alguien, para dar cuenta de eso».

Al igual que un abrelatas, la elaboración de un algoritmo generalmente requiere el esfuerzo de varias personas. El lector no encontraría sus nombres al pie de un artículo generado por AI, en contraste con uno escrito por una persona real. Estas circunstancias hacen que sea más difícil asignar la culpa personal.

Apuntar responsabilidades no parece ser tan útil de todos modos. En cualquier caso, la organización de noticias en sí misma sería la responsable de difundir una falsedad. Por lo tanto, los medios deben estar pensando principalmente en formas de evitar tales situaciones en primer lugar.

Esto no es menos importante para los creadores de contenido estadounidenses. A pesar de gozar de la protección de la Primera Enmienda a nivel nacional, puede resultar difícil demostrar su inocencia en otros lugares.

La Unión Europea ha presionado a los gigantes tecnológicos de EE. UU. para que eliminen el contenido de sus plataformas y cuiden mejor los datos de los usuarios. La democracia puede ser un valor fundamental, tanto para los estadounidenses como para los europeos, pero tienen sus diferencias cuando se equilibran entre salvaguardar la reputación y promover la libertad de expresión.

«Se podría pensar que, según la forma en que se logra el equilibrio en otros países, es más probable que consideren a las organizaciones de noticias responsables de los casos de difamación impulsados ​​por bots», dice Lidsky.

Para protegerse, los medios pueden necesitar reafirmar su creencia en el juicio humano. Hasta cierto punto, los algoritmos pueden reemplazar al periodista. No deberían reemplazar al medio.

La transparencia radical es otro paso necesario para los medios de comunicación, según James Gordon, editor en jefe del Reynolds Journalism Institute (RJI) en la Universidad de Missouri.

«Publicar su código, ponerlo a disposición del público, indicando la intención del código, eso es muy importante».

Gordon dice que la industria de las noticias debe ser cautelosa al revolucionar el periodismo en lugar de seguir el ejemplo de los gigantes de Silicon Valley.

“La filosofía ‘Move fast and break things’ es genial, a menos que estés al margen de la sociedad o de alguien que se vea afectado negativamente por estas tecnologías, productos y servicios», dice.

Vía

- Publicidad -

Lo último