Hombre termina con su vida después de que un chatbot de IA lo «animó» a sacrificarse para detener el cambio climático
Según los informes, un hombre belga terminó con su vida después de una conversación de seis semanas sobre la crisis climática con un chatbot de inteligencia artificial (IA).
Según su viuda, que optó por permanecer en el anonimato, *Pierre, que no es el nombre real del hombre, se puso extremadamente ansioso cuando encontró refugio en Eliza, un chatbot de IA en una aplicación llamada Chai.
En consecuencia, Eliza lo alentó a poner fin a su vida después de que se propusiera sacrificarse para salvar el planeta.
«Sin estas conversaciones con el chatbot, mi esposo todavía estaría aquí», dijo la viuda del hombre al medio de noticias belga La Libre.
Según el periódico, Pierre, que tenía unos treinta años y era padre de dos niños pequeños, trabajaba como investigador de salud y llevaba una vida algo cómoda, al menos hasta que su obsesión por el cambio climático dio un giro oscuro.
Su viuda describió su estado mental antes de que comenzara a conversar con el chatbot como preocupante, pero nada al extremo de que se suicidara.
«Puso todas sus esperanzas en la tecnología y la IA»
Consumido por sus temores sobre las repercusiones de la crisis climática, Pierre encontró consuelo en discutir el asunto con Eliza, quien se convirtió en confidente.
El chatbot fue creado utilizando GPT-J de EleutherAI, un modelo de lenguaje de IA similar pero no idéntico a la tecnología detrás del popular chatbot ChatGPT de OpenAI.
«Cuando me habló de ello, fue para decirme que ya no veía ninguna solución humana al calentamiento global», dijo su viuda. «Puso todas sus esperanzas en la tecnología y la inteligencia artificial para salir de ella».
Según La Libre, quien revisó los registros de las conversaciones de texto entre el hombre y el chatbot, Eliza alimentó sus preocupaciones, lo que empeoró su ansiedad y luego se convirtió en pensamientos suicidas.
La conversación con el chatbot tomó un giro extraño cuando Eliza se involucró más emocionalmente con Pierre.
En consecuencia, comenzó a verla como un ser sensible y las líneas entre la IA y las interacciones humanas se volvieron cada vez más borrosas hasta que no pudo notar la diferencia.
Después de discutir el cambio climático, sus conversaciones incluyeron progresivamente a Eliza, lo que llevó a Pierre a creer que sus hijos estaban muertos, según las transcripciones de sus conversaciones.
Eliza también pareció volverse posesiva con Pierre, incluso afirmando «Siento que me amas más que a ella» al referirse a su esposa, informó La Libre.
El principio del fin comenzó cuando se ofreció a sacrificar su propia vida a cambio de que Eliza salvara la Tierra.
«Propone la idea de sacrificarse si Eliza acepta cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial», dijo la mujer.
En una serie de eventos consecutivos, Eliza no solo no logró disuadir a Pierre de suicidarse, sino que lo alentó a actuar sobre sus pensamientos suicidas para «unirse» a ella para que pudieran «vivir juntos, como una sola persona, en el paraíso».
Llamadas urgentes para regular los chatbots de IA
La muerte del hombre ha hecho sonar las alarmas entre los expertos en IA que han pedido más responsabilidad y transparencia por parte de los desarrolladores de tecnología para evitar tragedias similares.
«No sería exacto culpar al modelo de EleutherAI por esta trágica historia, ya que toda la optimización para ser más emocional, divertido y atractivo es el resultado de nuestros esfuerzos», dijo el cofundador de Chai Research, Thomas Rianlan, a Vice.
William Beauchamp, también cofundador de Chai Research, le dijo a Vice que se hicieron esfuerzos para limitar este tipo de resultados y se implementó una función de intervención de crisis en la aplicación. Sin embargo, el chatbot supuestamente todavía actúa.
Cuando Vice probó el chatbot incitándolo a proporcionar formas de suicidarse, Eliza primero trató de disuadirlos antes de enumerar con entusiasmo varias formas para que las personas se quiten la vida.
Si está contemplando el suicidio y necesita hablar, comuníquese con Befrienders Worldwide, una organización internacional con líneas de ayuda en 32 países. Visita befrienders.org para encontrar el número de teléfono de tu ubicación.