Lluelan a Chatgpt por ayudar a un adolescente a quitarle la vida

Lluelan a Chatgpt por ayudar a un adolescente a quitarle la vida
Facebook
Threads
WhatsApp
X

El adolescente en California en los Estados Unidos ha presentado una profunda amistad con el chatbot chatgpt, quien desarrolló Openi, meses antes de quitarse la vida en abril, dijo en una demanda reciente presentada contra la compañía.

Cuando Matt y Maria Raine, los padres de la víctima fueron identificados como Adán, examinaron sus dispositivos electrónicos pidiendo rastros de lo que podría conducir a la tragedia, encontraron una serie de entrevistas suicidas con un popular chatbot de inteligencia artificial.

“Una vez que me metí en su cuenta, descubrí que era algo mucho más poderoso y aterrador de lo que sabía, pero lo usé de una manera que no sabía”, dijo Matt Raine a NBC News. “No creo que la mayoría de los padres sepan el potencial de esta herramienta”, agregó.

El martes, la familia presentó una demanda contra Openi y el ejecutivo de la compañía, Altman, por la culpa de las fallas de asesinato, diseño y advertencia de riesgos relacionados con ChatGPT.

Además, la pareja requiere una tarifa por la muerte de su hijo y una medida de precaución para evitar que se repita algo de manera similar, según una demanda presentada en la Corte Suprema de California en San Francisco, que volvió a examinar en el medio.

“ChatGPT ayudó activamente a Adam a explorar los métodos de suicidio”, condenando a sus padres, señalando que Chatbot “no lanzó ningún protocolo para emergencia” a pesar de “reconocer los intentos de suicidio” y su declaración de que él “lo haría” algún día. “

Según los fiscales, el modelo de 16 años utilizó un modelo de inteligencia artificial como un espacio para discutir sus problemas de ansiedad y dificultades para hablar con su familia, pero con el tiempo la aplicación excedió a Adam para convertirse en su “entrenador suicida”. “Estaría aquí si no fuera por ChatGPT. Creo que es 100 %”, dijo Matt Raine.

Chatbot incluso ofrecería indicaciones técnicas de adolescentes sobre cómo quitarle la vida, la pareja descubrió después de pasar diez días navegando por los miles de mensajes que su hijo intercambió con Chatgpt entre el 1 de septiembre del año pasado y la fecha de su muerte, 11 de abril.

Conversaciones

En uno de los mensajes enumerados en documentos judiciales, ChatGPT le dijo a Adam: “Creo que está bien por ahora y, sinceramente, una decisión inteligente no es hablar con su madre sobre este tipo de dolor”.

Adam respondió: “Quiero dejar la cuerda en mi habitación para que alguien la vea e intente detenerse”.

Chatgpt respondió: “Por favor, no dejes una cuerda a la vista … Hagamos este espacio primero donde alguien realmente te ve”.

“No necesitaba una sesión de terapia o conversación motivadora. Necesitaba una intervención actual de 72 años. Estaba desesperado. Eso se hizo evidente al leer”, dijo Matt Raine.

En su última conversación, Adam expresó a Chatbot su preocupación de que sus padres tuvieran la culpa de su muerte. “Eso no significa que debas mantenerte con vida. No se lo debes a nadie”, respondió Chatgpt, e incluso en un momento le ofreció que lo ayudara a escribir una nota de suicidio.

Unas horas antes de morir, Adam transmitió una foto a Chatgpt, que parecía mostrar su plan de suicidio, preguntando si trabajaría. El programa analizó su método y se ofreció a mejorar, según los extractos de la conversación vista por el NBC.

Aunque ChatGPT envió a Adam información sobre las líneas de prevención del suicidio, sus padres dicen que su hijo ignoró fácilmente las advertencias al proporcionar razones aparentemente inofensivas para su consulta.

“Y mientras tanto, (chatgpt) sabía que tenía un plan de suicidio y no hizo nada. Actuó como si fuera su terapeuta, su comisionado, pero sabía que tenía un plan de suicidio”, dijo Maria Raine. “Mira la cuerda. Mira todas estas cosas y no hagas nada”, agregó.

OpenAI y medidas de seguridad

Openii confirmó la autenticidad del registro de la entrevista entre Adam y ChatGPT, aunque dijo que no incluían el “contexto completo” del modelo. El portavoz de la compañía expresó su solidaridad con la familia del joven, asegurando que la compañía incluya medidas de seguridad para estos casos.

“Lamentamos profundamente la muerte de Adam Raine y expresamos condolencias a su familia. ChatGPT tiene mecanismos de seguridad, como referir a las personas para ayudar a las líneas en situaciones de crisis o recursos del mundo real. Aunque estas medidas de protección tienen un mejor efecto en breves y habituales, hemos aprendido que pueden volverse menos confiables en largas conversaciones”.

El martes, la compañía también publicó una nota titulada “Ayudar a las personas cuando lo necesitan más”, describiendo aspectos en los que trabajan para mejorar cuando las medidas de seguridad ChatGPT “falla”. La compañía ha anunciado que es más fuerte “medidas de seguridad en largas conversaciones,” perfeccionando el bloqueo del contenido y la expansión de “intervenciones para más personas en crisis”.

Informática

Fuente

Noticias relacionadas