miércoles 28 de mayo de 2025
spot_img

Mujer pide el divorcio porque ChatGPT «leyó» en el café que su marido la engañaba

Una mujer griega decidió iniciar los trámites de divorcio luego de que un chatbot de inteligencia artificial, supuestamente ChatGPT, interpretara los restos de café en la taza de su esposo y sugiriera que él estaba teniendo una aventura. El hecho, reportado por medios locales, generó revuelo en redes sociales y volvió a abrir el debate sobre el uso que algunas personas hacen de las herramientas tecnológicas.

Según el testimonio del marido, con quien llevaba 12 años de matrimonio y tienen dos hijos, su esposa había subido una foto del fondo de su taza de café al chatbot, pidiéndole una lectura en clave de tasseografía, práctica que consiste en adivinar el futuro a través de los posos de café o té. La IA habría respondido que el hombre estaba pensando en iniciar una relación extramatrimonial con una mujer cuyo nombre empezaba con “E”. En una interpretación aún más radical, añadió que el engaño ya estaba en curso.

La reacción de la mujer no se hizo esperar. Primero lo echó de su casa, luego explicó a sus hijos que se estaban divorciando, y finalmente le envió una notificación formal por parte de su abogado. Todo en cuestión de tres días. El esposo, sorprendido, se negó a una separación consensuada y cuestionó la validez de una acusación basada en una lectura automatizada. Su abogado argumenta que las afirmaciones de un chatbot no tienen peso legal y que rige el principio de presunción de inocencia.

El caso expone los riesgos de tomar decisiones importantes basadas en supuestas capacidades predictivas de sistemas de inteligencia artificial. Aunque la práctica de leer el café tiene raíces históricas —se remonta a la Turquía del siglo XVI bajo el sultanato de Suleimán el Magnífico—, tradicionalmente ha sido ejercida por adivinos, no por chatbots entrenados en procesamiento de lenguaje natural.

La historia se viralizó en Reddit, donde muchos usuarios reaccionaron con ironía. Algunos señalaron que la IA está “quitando trabajo a los videntes”, mientras otros recordaron que, si bien el desarrollo de estos modelos es notable, también pueden generar respuestas absurdas o erróneas. Un comentario recurrente fue que “cada vez más personas vulnerables no pueden distinguir entre realidad y ficción cuando interactúan con este tipo de tecnología”.

Este episodio se suma a una creciente lista de casos donde el uso erróneo o descontextualizado de herramientas de IA termina en situaciones insólitas, poniendo de manifiesto la necesidad de un mayor alfabetismo digital, así como límites claros en el uso de modelos generativos para consultas de orden personal o emocional.

Lo último