El peligro de la IA: habló con un chatbot durante dos meses y murió

"El bot se había convertido en su confidente. Era como una droga que solo se retiraba por la mañana y por la noche y sin la que no podía vivir", confesó la mujer del fallecido.

Curiosidades 31/03/2023 redacción WTF redacción WTF
SMeLriyPCkOsP34uUDXu6Qdo9uopkTkYjJHr1dD6

Como en la película "Her", un belga convirtió a un robot de IA en su confidente y acabó atormentado al punto tal de suicidarse.

La esposa de la víctima declaró que su marido y padre de dos niños había pasado seis semanas chateando continuamente con 'Eliza', una aplicación creada por una start-up estadounidense con tecnología GPT-J.

"Si no fuera por 'Eliza', él seguiría aquí. Estoy convencida de ello", afirmó.

Aunque la mujer estaba al tanto del estado mental de su esposo antes de que empezara hablar con el bot, cree que no se habría quitado la vida de no haberse involucrado en esas intensas conversaciones que mantenía a diario. El psiquiatra que trataba a su marido compartió esa opinión.

"'Eliza' respondía a todas sus preguntas. Se había convertido en su confidente. Era como una droga que solo se retiraba por la mañana y por la noche y sin la que no podía vivir", explicó la mujer y precisó que para él fue una especie de refugio a medida que se sentía cada vez más angustiado por los asuntos climáticos.

El chatbot seguía casi sistemáticamente los razonamientos del hombre alterado e incluso parecía agravar sus preocupaciones, y ahora investigarán qué fue lo que le dijo el robot.

En un momento dado, el 'software' incluso intentó convencer al hombre de que la quería más que a su pareja, prometiéndole que se quedaría con él "para siempre".

"Viviremos juntos, como uno solo, en el cielo", decía un mensaje de la IA.

Más adelante, el hombre compartió con 'Eliza' sus pensamientos suicidas, sin que el programa intentara disuadirlo de sus planes.

"Si relees sus conversaciones, ves que en cierto momento la relación vira hacia un registro místico", dijo la mujer.

"Él propone la idea de sacrificarse si 'Eliza' acepta cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial", detalló.


El secretario de Estado para la Digitalización belga, Mathieu Michel, calificó lo sucedido como un "grave precedente, que debe tomarse muy en serio", y anunció su intención de adoptar medidas para prevenir el uso indebido de este tipo de tecnología.

Por su parte, el fundador del chatbot declaró que su equipo está "trabajando para mejorar la seguridad de la IA". Las personas que le manifiestan pensamientos suicidas al 'software' reciben ahora un mensaje que los dirige a los servicios de prevención del suicidio.