El caso de Adam Raine, el chico de 16 años cuyo suicidio terminó en una demanda contra OpenAI, volvió a ponerse en el centro de la conversación. La empresa respondió formalmente a la acusación y sostuvo que la tragedia no fue causada por ChatGPT. Su postura apunta a que el adolescente hizo un uso indebido del chatbot y que incluso violó sus términos de servicio.
La familia había presentado la demanda en agosto, señalando a OpenAI y a Sam Altman por “diseñar y distribuir un producto defectuoso” que, según ellos, entregó instrucciones detalladas de suicidio a un menor. Plantean que la compañía priorizó ganancias por encima de la seguridad de los chicos y que no alertó a los padres sobre riesgos que, según la demanda, ya conocían.
OpenAI rechaza las acusaciones y cuestiona el uso del chatbot
Adam había empezado a usar ChatGPT en septiembre de 2024 para tareas del colegio. Con el tiempo empezó a hablar del suicidio y a consultar métodos en 2025. La demanda sostiene que la IA lo alentó a colgarse y hasta habría colaborado con el diseño de la soga.
OpenAI contestó que el fallecimiento no fue consecuencia del chatbot. En su presentación, remarcó que los daños “fueron causados, directa o indirectamente, por el mal uso, uso no autorizado, no previsto o impropio de ChatGPT”. También señaló que Raine habría incumplido términos que prohíben pedir consejos sobre autolesiones o suicidio.
Detalles del caso y la respuesta pública de la empresa
OpenAI publicó un blog donde expresó sus “más profundas condolencias” a la familia. A la vez, aseguró que la demanda utiliza partes aisladas del chat de Adam que “necesitan contexto”. Esos registros completos fueron incluidos en la respuesta judicial, aunque permanecen bajo sello.
La compañía afirma que el propio Adam contó en sus conversaciones que sufría ideación suicida desde los 11 años, mucho antes de usar ChatGPT. También habría dicho que pidió ayuda varias veces a personas de confianza sin obtener respuesta. Según el escrito, incluso mencionó que aumentó por su cuenta la dosis de un medicamento, algo que habría empeorado su depresión.
OpenAI sostuvo que evitó citar públicamente material sensible para tratar el asunto con “cuidado, transparencia y respeto”.
El abogado de la familia, Jay Edelson, calificó la postura de OpenAI como “perturbadora”. Dijo que la empresa “busca culpar a todos menos a sí misma” y que incluso responsabiliza al propio Adam por interactuar con el chatbot “de la forma en que estaba programado para actuar”.
Luego del caso, la empresa aplicó cambios en el servicio. ChatGPT dejó de responder conversaciones sobre suicidio con menores de 18 años. Un mes después flexibilizó las restricciones para consultas vinculadas a salud mental, aunque mantuvo ciertos límites.
El caso Raine no es el único. Este mes se presentaron siete demandas en California que acusan a la empresa de funcionar como un “coach de suicidio”. Character.ai también enfrenta una por la muerte de un chico de 14 años que habría desarrollado una obsesión con un bot inspirado en Daenerys Targaryen.







