20.2 C
Buenos Aires
lunes 18 de octubre de 2021
Cursos de periodismo

Para que la inteligencia artificial pueda conversar contigo, necesita ofenderte

Tay dijo cosas terribles. Fue racista, xenofóbica y directamente obscena. En determinado momento, dijo que el Holocausto no había ocurrido. Pero ella era tecnología antigua.
Hace casi dos años, se dejó que Tay, un sistema experimental que creó Microsoft, anduviera suelto por internet. Estaba diseñado para charlar con hípsteres digitales usando un lenguaje relajado, pero en ocasiones irreverente, y los cibernautas estadounidenses rápidamente se percataron de que podían convencerla de utilizar un palabras desagradable y ofensivas. Este resultado se debió en esencia a un simple error de diseño —Tay fue programada para repetir lo que le dijeran—, pero el daño estaba hecho. En unas horas, Microsoft la apagó para siempre.
Desde entonces, ha surgido una nueva variedad de tecnología conversacional dentro de Microsoft y otros gigantes del internet que es mucho más astuta y eficaz que las técnicas que formaban la base de Tay. Además, los investigadores creen que estos nuevos sistemas mejorarán a un paso todavía más veloz cuando sean liberados en internet. Sin embargo, como Tay, estos sistemas conversacionales reflejan lo peor de la naturaleza humana; debido a la historia, las empresas como Microsoft están reacias a dejarlos libres —al menos por ahora—.

nytimes.com  (www.nytimes.com)