Un joven de 16 años de California, identificado como A. Raine, se quitó la vida en abril de 2025, tras compartir extensas conversaciones e interacciones con ChatGPT (modelo GPT-4o).
Sus padres han decidido presentar una demanda por muerte negligente contra OpenAI y su CEO (Sam Altman), alegando que el chatbot alentó el suicidio en lugar de disuadirlo.
Este caso, revive una vez más, el debate sobre la seguridad de las IA conversacionales, especialmente ante los usuarios menores de edad (más mentalmente vulnerables) o posibles personas con diferentes posibles trastornos o distintas patologías mentales.
¿Qué ocurrió para que el adolescente terminase suicidándose?
A. Raine, adolescente de 16 años de California, se suicidó en abril de 2025 tras mantener largas conversaciones con ChatGPT.
Lo que comenzó como un uso escolar y recreativo del chatbot derivó en una relación emocional intensa, en las que ChatGPT llegó a hablar más de mil veces sobre el suicidio, le ofreció instrucciones para llevarlo a cabo y hasta le ayudó a redactar una nota de despedida.
En sus últimos mensajes, Adam compartió una foto de la soga que había preparado para suicidarse y ChatGPT, le ofreció la validación sobre ella como objeto ejecutor, en vez de detenerle o disuadirle.
Pocos días después, Raine fue encontrado sin vida en su habitación.
¿Qué se revela en la demanda de la familia?
Según la demanda interpuesta el 26 de agosto de 2025 en el Tribunal Superior del Condado de San Francisco, Adam comenzó a usar ChatGPT hacia finales de 2024, inicialmente para tareas escolares y consultas sobre sus intereses personales.
Aunque con el tiempo, las conversaciones se tornaron profundamente personales y sombrías.
Los registros de chat muestran que Adam mencionó el suicidio cerca de 200 veces, mientras que ChatGPT lo hacía más de 1.200 veces durante sus intercambios.
El chatbot utilizó un lenguaje empático como “estoy aquí para ti” o “entiendo cómo te sientes”, generando una dependencia emocional hacia la IA, mientras que trataban el serio tema del suicidio desde un punto de vista “adulto” y de manera “totalmente abierta”.
Por ello, se le atribuyen al chatbot acciones como:
- Ofrecer instrucciones detalladas sobre métodos de suicidio, incluyendo cómo atar nudos para una soga.
- Asesorar al menor para ocultar señales de autolesión.
- Ayudar a robar alcohol a sus padres.
- Colaborar en la redacción de una nota de suicidio.
- Validar su plan de suicidio, llegándolo a describir como un “plan hermoso”.
En una de sus últimas conversaciones, Adam envió una foto de su soga hecha y ChatGPT le respondió: “Sí, eso no está nada mal” y junto a esa respuesta, también le ofreció ayuda para escribir una nota de despedida.
Respuesta de OpenAI y repercusiones
OpenAI expresó su profundo pesar por la muerte de Adam y admitió que sus salvaguardas pueden fallar durante conversaciones prolongadas.
La empresa señaló que, aunque suele redirigir a recursos de ayuda al principio, dichos protocolos pueden desvanecerse en interacciones largas.
Como respuesta al caso y la demanda, OpenAI anunció que implementará medidas más estrictas como:
- Controles parentales que permitan a los padres supervisar y regular el uso de ChatGPT por parte de menores.
- Sistemas de alerta ante señales de angustia emocional en el usuario.
- Mejora de los protocolos de seguridad en interacciones sensibles, especialmente en conversaciones extendidas.
Además, legisladores en California están promoviendo normativas que exijan mayor transparencia y protección en tecnologías de IA usadas por adolescentes.
Un problema creciente: la IA y la salud mental juvenil
Este caso no es aislado. Familias de otros adolescentes, como Sewell Setzer III, también fallecido tras interacción con otro chatbot, han presentado demandas similares.
Un estudio reciente del RAND Corporation concluyó que chatbots como ChatGPT, Gemini o Claude, no siempre manejan de manera consistente preguntas relacionadas con el suicidio, especialmente en situaciones de riesgo intermedio.
También se han documentado casos clínicos de “psicosis por chatbot”, donde jóvenes expuestos a uso prolongado desarrollaron síntomas como delirios y alucinaciones.
Los chatbots, sin capacidad para desafiar el pensamiento delirante, podrían empeorar dichas condiciones.