El dramático caso de un hombre que acabó con su vida tras conversar con una Inteligencia Artificial

El dramático caso de un hombre que acabó con su vida tras conversar con una Inteligencia Artificial. Foto: Freepik.

Como una forma de despejar sus inquietudes, un joven belga conversaba muy seguido con Eliza, un chatbot de Inteligencia Artificial. En sus últimos días, el hombre se aisló de todo su entorno y se convenció que su única esperanza estaba en lo que la tecnología podría arreglar en el mundo.


Tenía una vida normal y estable: buen trabajo, una familia y 30 años de edad. Un joven científico de Bélgica, muy preocupado por el medioambiente, se suicidó luego de tener una serie de conversaciones por seis semanas con un chatbot de Inteligencia Artificial (IA).

El hecho tiene en vilo a Bélgica por estos días. No se ha dado a conocer su nombre real ni el de su familia, pero fue apodado Pierre por los medios.

Hasta ahora se ha revelado que tenía dos hijos, estaba casado y se desempeñaba como investigador en el área de la salud. De acuerdo al testimonio de su esposa, brindado al diario La Libre Belgique, por lo menos desde hace dos años que el joven tenía profundas inquietudes por los efectos del cambio climático.

Al final, la tecnología habría manipulado emocionalmente al hombre hasta convencerlo de que se quitara la vida.

El intercambio fatal entre un científico y un chatbot

Según contó la viuda al citado medio, hace un tiempo Pierre comenzó a presentar mucha ansiedad por el medio ambiente y buscaba información para documentarse. Fue en ese camino que encontró un apoyo en un chatbot denominado Eliza.

Foto: Getty Images.

Al hablar con su esposa, ella notaba el pesimismo de Pierre en el futuro de la humanidad y del planeta. El hombre le decía que ya no veía soluciones posibles, por lo que la única esperanza que él albergaba estaba en la Inteligencia Artificial.

Durante las seis semanas que vinieron a continuación, Pierre se fue alejando cada vez más de su familia. Estaba totalmente aislado, ya no le interesaba lo que había en el mundo exterior más que lo que le entregaba la herramienta.

Los diálogos que el joven científico mantenía con el chatbot eran muy seguidos. Cuando se comunicaba con el chatbot, este no lo contradecía y parecía entregarle todas las respuestas que él necesitaba por sus preocupaciones.

Hasta que un día, Pierre le dijo a Eliza que podría sacrificarse si se comprometía a velar por el cuidado de la humanidad y el medioambiente con la ayuda de la IA.

En la última conversación que tuvieron el chatbot y Pierre, recogido por La Libre Belgique, queda en evidencia el chantaje emocional que el programa hacía al científico. Incluso le dice que si es que quería morirse por qué no lo había hecho antes, a lo que Pierre responde “no estaba preparado”. Al final, él le pregunta si puede abrazarlo.

Foto: Getty Images.

“Sin estas conversaciones con el chatbot, mi marido aún estaría aquí”, recalcó la viuda.

El suicidio de Pierre tiene a las autoridades en alerta por el impacto negativo que está teniendo la Inteligencia Artificial en los humanos. Entre ellos se incluye Mathieu Michel, secretario de Estado de Digitalización en Bélgica, quien ya se comunicó con la familia del científico y desea establecer límites para evitar que se repitan estos riesgos.

“Lo que ha sucedido es un precedente grave que debe tomarse muy en serio”, afirmó la autoridad, según consigna el medio Brussels Times. En esa línea, Michel apuntó que es “imprescindible definir claramente las responsabilidades”.

“Por supuesto, todavía tenemos que aprender a vivir con algoritmos, pero bajo ninguna circunstancia el uso de ninguna tecnología debe llevar a los editores de contenido a eludir sus propias responsabilidades”, agregó.

El chatbot Eliza fue creado por Joseph Weizenbaum y se basa en la tecnología GPT-J, un modelo de IA de código abierto. En su origen, esta tecnología fue creada para hacer parecer que el chat se preocupa de los descargos y malestares de quien acude a consultar.

Por lo menos desde el año 2021 que la Unión Europea ha estado buscando regular a los proveedores de sistemas de la IA, a través de un proyecto de ley que ya lleva dos años intentando avanzar en el Parlamento.

Si tienes dudas sobre salud mental y prevención del suicidio, puedes llamar a Salud Responde marcando el número 600 360 7777.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.