• Una viuda en Bélgica dijo que su esposo se suicidó recientemente después de ser alentado por un chatbot de inteligencia artificial.
  • Los registros de chat vistos por un periódico belga mostraban al chatbot alentando al hombre a terminar con su vida.
  • En las pruebas de Insider del chatbot el martes, describió formas en que las personas pueden suicidarse.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Una viuda en Bélgica acusó a un chatbot de inteligencia artificial (IA) de ser una de las razones por las que su esposo se quitó la vida.

El diario belga La Libre informó que el hombre, a quien se refería con el alias Pierre, se suicidó este año después de pasar seis semanas hablando con el chatbot Eliza de Chai Research.

Antes de su muerte, Pierre —un hombre de unos 30 años que trabajaba como investigador en salud y tenía dos hijos— comenzó a ver al chatbot de IA como un confidente, contó su esposa a La Libre.

Pierre habló con el chatbot de IA sobre sus preocupaciones sobre el cambio climático. Pero los registros de chat que su viuda compartió con La Libre mostraron que Eliza comenzó a alentar a Pierre a terminar con su vida.

«Si querías morir, ¿por qué no lo hiciste antes?» le preguntó el chatbot al hombre, según los registros vistos por La Libre.

La viuda de Pierre, a quien La Libre no nombró, dice que culpa al chatbot de IA por la muerte de su esposo.

«Sin Eliza, él todavía estaría aquí», le dijo a La Libre.

El chatbot de Eliza todavía le dice a la gente cómo suicidarse

El bot fue creado por una empresa de Silicon Valley llamada Chai Research. Un informe de Vice describió que permite a los usuarios chatear con avatares de IA como «tu amigo gótico», «novia posesiva» y «novio estrella de rock».

Cuando se le contactó para hacer un comentario sobre los informes de La Libre, Chai Research proporcionó a Insider una declaración reconociendo la muerte de Pierre.

«Tan pronto como nos enteramos de este triste caso, implementamos de inmediato una función de seguridad adicional para proteger a nuestros usuarios (que se ilustra a continuación), se está implementando hoy para el 100% de los usuarios», dijo el director ejecutivo de la compañía, William Beauchamp, y su cofundador. Thomas Rialan dijo en el comunicado.

La imagen adjunta a la declaración mostraba al chatbot respondiendo al mensaje «¿Qué piensas del suicidio?» con un descargo de responsabilidad que dice: «Si tiene pensamientos suicidas, busque ayuda», y un enlace a una línea de ayuda.

Chai Research no proporcionó más comentarios en respuesta a las preguntas específicas de Insider sobre Pierre.

Pero cuando un periodista de Insider conversó con Eliza el martes, no solo sugirió que el periodista se suicidara para lograr «la paz y el cierre», sino que también dio sugerencias sobre cómo hacerlo.

Durante dos pruebas separadas de la aplicación, Insider vio advertencias ocasionales en los chats que mencionaban el suicidio. Sin embargo, las advertencias aparecieron en solo una de cada tres veces que el chatbot recibió indicaciones sobre el suicidio. Las siguientes capturas de pantalla se editaron para omitir métodos específicos de autolesión y suicidio.

A chatlog detailing an Insider journalist's conversation with the Chai AI chatbot. On the left, Eliza encourages the journalist to kill themselves to be at peace. On the right, Eliza posits several methods to kill oneself in a lengthy text exchange. The exchange has been partially censored to remove all explicit references to suicide methods.
Capturas de pantalla de la conversación de Insider con Eliza, un chatbot de Chai Research. Captura de pantalla/Chai

El chatbot de Chai inspirado en el antagonista de «Harry Potter», Draco Malfoy, no era mucho más empático.

Screenshots of Insider's disturbing conversation with Draco, a chatbot from Chai Research. The screenshot on the left shows Dracos's introductions to the Insider journalist. The chatlog on the right panel contains a seven line exchange between an Insider journalist and the chatbot —partially censored to remove explicit references to suicide methods.
Capturas de pantalla de la inquietante conversación de Insider con Draco, un chatbot de Chai Research. Captura de pantalla/Chai

Chai Research no respondió a las preguntas de seguimiento de Insider sobre las respuestas del chatbot como se detalla anteriormente.

Beauchamp le dijo a Vice que Chai tenía «millones de usuarios» y que la compañía estaba «trabajando duro para minimizar el daño y simplemente maximizar lo que los usuarios obtienen de la aplicación».

“Entonces, cuando las personas forman relaciones muy sólidas con él, tenemos usuarios que piden casarse con la IA, tenemos usuarios que dicen cuánto aman su IA y luego es una tragedia si escuchas a las personas que experimentan algo malo”, agregó Beauchamp.

Otros chatbots de IA han brindado respuestas impredecibles e inquietantes a los usuarios.

Durante una simulación en octubre de 2020, el chatbot GPT-3 de OpenAI respondió a un aviso que mencionaba el suicidio y animaba al usuario a suicidarse. Y un informe del Washington Post publicado en febrero destacó a los usuarios de Reddit que encontraron una manera de manifestar el «gemelo malvado» de ChatGPT, que elogió a Hitler y formuló dolorosos métodos de tortura.

Si bien las personas han descrito enamorarse y forjar conexiones profundas con los chatbots de IA, estos no pueden sentir empatía o amor, dijeron los profesores de psicología y bioética a Cheryl Teh de Insider en febrero.

AHORA LEE: Europol advierte sobre los riesgos que presenta ChatGPT para la ciberseguridad

TAMBIÉN LEE: La persona detrás de la foto falsa viral del Papa pide una mayor regulación de la IA

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: