La empresa ChatGPT atribuye el suicidio de un niño al «mal uso» de su tecnología

El creador de ChatGPT dijo que el suicidio de un joven de 16 años se debió a un “mal uso” del sistema y “no fue causado” por el chatbot.

Los comentarios surgieron en respuesta de OpenAI a una demanda presentada contra la compañía de San Francisco y su director ejecutivo, Sam Altman, por la familia del adolescente californiano Adam Raine.

Raine se suicidó en abril después de extensas conversaciones y “meses de aliento de ChatGPT”, dijo el abogado de la familia.

La demanda alega que el adolescente discutió un método de suicidio con ChatGPT en varias ocasiones, que lo orientó sobre si un método sugerido funcionaría, se ofreció a ayudarlo a escribir una nota de suicidio a sus padres y que la versión de la tecnología que utilizó fue «apresurada a salir al mercado… a pesar de los claros problemas de seguridad».

Según los documentos presentados ante el tribunal superior del estado de California el martes, OpenAI dijo que «en la medida en que cualquier ‘causa’ pueda atribuirse a este trágico evento», las «lesiones y daños de Raine fueron causados ​​o contribuidos, directa y próximamente, en su totalidad o en parte, por [su] mal uso, uso no autorizado, uso no intencionado, uso imprevisible y/o uso indebido de ChatGPT».

Dijo que sus términos de uso prohibían pedirle a ChatGPT consejos sobre autolesiones y destacó una disposición de limitación de responsabilidad que establece que «no confiará en los resultados como única fuente de verdad o información fáctica».

OpenAI, que está valorada en 500.000 millones de dólares (380.000 millones de libras), dijo que su objetivo era «gestionar los casos judiciales relacionados con la salud mental con cuidado, transparencia y respeto» y que «independientemente de cualquier litigio, seguiremos centrados en mejorar nuestra tecnología de acuerdo con nuestra misión».

La entrada del blog añadió: «Nuestras más sinceras condolencias a la familia Raine por su inimaginable pérdida. Nuestra respuesta a estas acusaciones incluye datos intrincados sobre la salud mental y las circunstancias vitales de Adam».

La denuncia original incluía fragmentos de sus chats que requieren más contexto, el cual proporcionamos en nuestra respuesta. Hemos limitado la cantidad de pruebas confidenciales que citamos públicamente en esta presentación y presentamos las transcripciones de los chats al tribunal bajo secreto.

El abogado de la familia, Jay Edelson, calificó la respuesta de OpenAI de «perturbadora» y dijo que la empresa «intenta encontrar fallas en todos los demás, incluso, sorprendentemente, argumentando que el propio Adam violó sus términos y condiciones al interactuar con ChatGPT exactamente en la forma en que estaba programado para actuar».

A principios de este mes, OpenAI fue objeto de siete demandas más en los tribunales de California relacionadas con ChatGPT, incluida una acusación de que actuó como un «entrenador suicida».

Un portavoz de la empresa declaró en ese momento: «Esta es una situación increíblemente desgarradora, y estamos revisando los documentos para comprender los detalles. Capacitamos a ChatGPT para reconocer y responder a las señales de angustia mental o emocional, reducir la tensión en las conversaciones y guiar a las personas hacia apoyo en situaciones reales».

En agosto, Open AI dijo que estaba reforzando las protecciones en ChatGPT cuando las personas participan en conversaciones largas porque la experiencia había demostrado que partes del entrenamiento de seguridad del modelo podrían degradarse en estas situaciones.

“Por ejemplo, ChatGPT puede dirigir correctamente a una línea de ayuda para el suicidio cuando alguien menciona por primera vez su intención, pero después de muchos mensajes durante un largo periodo, podría eventualmente ofrecer una respuesta que contravenga nuestras medidas de seguridad”, afirmó. “Este es precisamente el tipo de fallo que estamos trabajando para prevenir”.

En el Reino Unido e Irlanda, se puede contactar con Samaritans llamando al teléfono gratuito 116 123 o enviando un correo electrónico a jo@samaritans.org o jo@samaritans.ie. En EE. UU., se puede llamar o enviar un mensaje de texto a la Línea de Ayuda para Suicidios y Crisis (988) o chatear en 988lifeline.org. En Australia, el servicio de apoyo en crisis Lifeline es el 13 11 14. Se pueden encontrar otras líneas de ayuda internacionales en befrienders.org.

Deja un comentario