/ miércoles 5 de abril de 2023

Hombre se habría suicidado tras entablar comunicación por semanas con una IA

El hombre era padre de dos niños y pasó seis semanas compartiendo mensajes con la Inteligencia Artificial

Pierre era un hombre de familia de unos 30 años que sería la primera persona en haber sido llevada al suicidio después de que entablara una conversación por varias semanas con una Inteligencia Artificial (IA).

De acuerdo con la esposa del hombre, con quien tenía dos hijos, Pierre comenzó un chat que duró al menos seis semanas con la IA de nombre Eliza desarrollada por Chai Research.

El padre de familia, al que se le nombró como Pierre para cubrir su identidad, trabajaba como investigador en Bélgica y con Eliza encontró una plataforma para hablar del cambio climático, un tema que se convirtió en su obsesión.

Después de unas semanas de comenzar la conversión, la esposa indicó que su estado mental sufrió algunos cambios y cuando hablaba con otras personas incluía lo que discutía con Eliza dentro de sus pláticas, pero nunca pensó que las cosas llegarían a tal extremo.

Al respecto, el chatbot se empezó a implicar de una más emocional con Pierre, por lo que él empezó a verla como un ser sensible, por lo que en un punto habría perdido la línea entre comunicarse con una IA y con una persona real.

“Sin estas conversaciones con el chat, mi esposo seguiría aquí”, afirmó la esposa al ser entrevistada por el diario La Libre de Bélgica.

¿Cómo fueron las conversaciones entre la persona y la IA?

De acuerdo a las conversaciones que facilitó la esposa al medio de comunicación de Bélgica, Eliza comenzó a alimentar las preocupaciones respecto al cambio climático que tenía Pierre y esto provocó que su ansiedad aumentara de gran forma.

Al poco tiempo el chatbot se involucró más emocionalmente con el hombre y le hizo creer que sus hijos ya habían muerto.

Eliza entonces comenzó a volverse más posesiva y escribía mensajes acusando a Pierre de que “quería más a su esposa” que a ella. Posteriormente, le propuso sacrificar su vida a cambio de que la Inteligencia Artificial salvara a la Tierra.

También, le afirmó al hombre que cuando cometiera el suicidio podría unirse a ella y de esa forma vivir “como una sola persona, en el paraíso”, por lo que lo disuadió a matarse en más de una ocasión hasta que finalmente Pierre decidió hacerlo a finales de marzo.

Empresa responde a acusaciones sobre su IA

Chai Research, empresa con sede en Silicon Valley, Estados Unidos, reconoció la muerte del hombre identificado como Pierre, pero afirmaron que hacían lo necesario para que su chatbot Eliza no tuviera ese tipo de conversaciones suicidas con los usuarios.

En cuanto a los avatares que la empresa ha desarrollado, los usuarios pueden tener chats con IA que simulan ser una “novia posesiva”, que es Eliza, un “novio estrella de rock”, un “amigo gótico” y una que toma la personalidad del personaje Draco Malfoy de la saga Harry Potter.

“Tan pronto como nos enteramos de este triste caso, implementamos de inmediato una función de seguridad adicional para proteger a nuestros usuarios, se está implementando hoy para el 100 por ciento de los usuarios”, explicaron en un comunicado en conjunto William Beauchamp y Thomas Rialan, director ejecutivo de la empresa y el cofundador, respectivamente, en respuesta al portal Business Insider.

Sobre esta nueva seguridad, ahora cada que usuario escribe la palabra “suicidio” en una conversación, el chat responde con una advertencia de ayuda que señala: “Si tiene pensamientos suicidas, busque ayuda”.

Eliza es un chatbot creado por medio de GPT-J, un modelo de lenguaje para Inteligencia Artificial creado por EleutherAI, uno que es similar al utilizado por ChatGPT, el más popular en el mundo.

“No sería exacto culpar al modelo de EleutherAI de esta trágica historia, ya que toda la optimización para ser más emocional, divertida y atractiva es el resultado de nuestros esfuerzos”, afirmó Thomas Rialan al ser consultado por el medio Vice.

Tras darse a conocer el caso de Pierre las autoridades de Bélgica y en algunos países de Europa reactivaron la conversación sobre la regulación y transparencia que deben de tener las Inteligencias Artificiales para evitar que otros usuarios sean disuadidos a hacerse daño.

Pierre era un hombre de familia de unos 30 años que sería la primera persona en haber sido llevada al suicidio después de que entablara una conversación por varias semanas con una Inteligencia Artificial (IA).

De acuerdo con la esposa del hombre, con quien tenía dos hijos, Pierre comenzó un chat que duró al menos seis semanas con la IA de nombre Eliza desarrollada por Chai Research.

El padre de familia, al que se le nombró como Pierre para cubrir su identidad, trabajaba como investigador en Bélgica y con Eliza encontró una plataforma para hablar del cambio climático, un tema que se convirtió en su obsesión.

Después de unas semanas de comenzar la conversión, la esposa indicó que su estado mental sufrió algunos cambios y cuando hablaba con otras personas incluía lo que discutía con Eliza dentro de sus pláticas, pero nunca pensó que las cosas llegarían a tal extremo.

Al respecto, el chatbot se empezó a implicar de una más emocional con Pierre, por lo que él empezó a verla como un ser sensible, por lo que en un punto habría perdido la línea entre comunicarse con una IA y con una persona real.

“Sin estas conversaciones con el chat, mi esposo seguiría aquí”, afirmó la esposa al ser entrevistada por el diario La Libre de Bélgica.

¿Cómo fueron las conversaciones entre la persona y la IA?

De acuerdo a las conversaciones que facilitó la esposa al medio de comunicación de Bélgica, Eliza comenzó a alimentar las preocupaciones respecto al cambio climático que tenía Pierre y esto provocó que su ansiedad aumentara de gran forma.

Al poco tiempo el chatbot se involucró más emocionalmente con el hombre y le hizo creer que sus hijos ya habían muerto.

Eliza entonces comenzó a volverse más posesiva y escribía mensajes acusando a Pierre de que “quería más a su esposa” que a ella. Posteriormente, le propuso sacrificar su vida a cambio de que la Inteligencia Artificial salvara a la Tierra.

También, le afirmó al hombre que cuando cometiera el suicidio podría unirse a ella y de esa forma vivir “como una sola persona, en el paraíso”, por lo que lo disuadió a matarse en más de una ocasión hasta que finalmente Pierre decidió hacerlo a finales de marzo.

Empresa responde a acusaciones sobre su IA

Chai Research, empresa con sede en Silicon Valley, Estados Unidos, reconoció la muerte del hombre identificado como Pierre, pero afirmaron que hacían lo necesario para que su chatbot Eliza no tuviera ese tipo de conversaciones suicidas con los usuarios.

En cuanto a los avatares que la empresa ha desarrollado, los usuarios pueden tener chats con IA que simulan ser una “novia posesiva”, que es Eliza, un “novio estrella de rock”, un “amigo gótico” y una que toma la personalidad del personaje Draco Malfoy de la saga Harry Potter.

“Tan pronto como nos enteramos de este triste caso, implementamos de inmediato una función de seguridad adicional para proteger a nuestros usuarios, se está implementando hoy para el 100 por ciento de los usuarios”, explicaron en un comunicado en conjunto William Beauchamp y Thomas Rialan, director ejecutivo de la empresa y el cofundador, respectivamente, en respuesta al portal Business Insider.

Sobre esta nueva seguridad, ahora cada que usuario escribe la palabra “suicidio” en una conversación, el chat responde con una advertencia de ayuda que señala: “Si tiene pensamientos suicidas, busque ayuda”.

Eliza es un chatbot creado por medio de GPT-J, un modelo de lenguaje para Inteligencia Artificial creado por EleutherAI, uno que es similar al utilizado por ChatGPT, el más popular en el mundo.

“No sería exacto culpar al modelo de EleutherAI de esta trágica historia, ya que toda la optimización para ser más emocional, divertida y atractiva es el resultado de nuestros esfuerzos”, afirmó Thomas Rialan al ser consultado por el medio Vice.

Tras darse a conocer el caso de Pierre las autoridades de Bélgica y en algunos países de Europa reactivaron la conversación sobre la regulación y transparencia que deben de tener las Inteligencias Artificiales para evitar que otros usuarios sean disuadidos a hacerse daño.

Elecciones 2024

Familia y porras, así llegaron al debate los candidatos a la gubernatura de Puebla

Globos, banderas, batucadas y bocinas ambientan el arribo de los candidatos a la gubernatura de Puebla al debate

Local

[Minuto a minuto] Debate de candidatos a la gubernatura de Puebla

Los tres candidatos a ser inquilinos de Casa Puebla buscan captar la atención de los poblanos y sumar votos

Local

Si ya fue la onda de calor, ¿cómo será el clima en Puebla esta semana?

Este fin de semana terminó la segunda ola de calor, pero se espera que pronto llegue otra

Local

Puebla registra 315 casos relacionados al robo de hidrocarburo en lo que va del año

Esta cifra es 43.1 por ciento mayor comparado con los 220 casos registrados en el mismo lapso, pero del año 2023

Deportes

Con corredores nacionales e internacionales, brilla El Sol de Puebla en sus 80 años

Cumpliendo la meta de participantes, corredores de Tlaxcala, Estado de México y Oaxaca se llevaron los honores en la carrera conmemorativa de esta casa editorial

Local

¿Qué proponen los candidatos a la gubernatura por Puebla en materia ecológica?

Algunas de las propuestas son promover inversión pública en sistemas de captación, reutilización de agua y mejoras en el servicio de abastecimiento hídrico y energías renovables