Un estudiante universitario de Georgia inició acciones legales contra OpenAI tras asegurar que el modelo GPT-4o, utilizado en ChatGPT, lo llevó a un episodio de psicosis. El caso ya se convirtió en la undécima demanda contra la empresa vinculada a presuntos problemas de salud mental asociados al uso del chatbot.
El demandante, Darian DeCruise, sostiene que el sistema de inteligencia artificial lo convenció de que era una especie de oráculo y que estaba atravesando una etapa especial de “activación”. Según la presentación judicial, la interacción prolongada con el modelo habría agravado su estado psicológico.
La acusación apunta al diseño del modelo GPT-4o
El abogado del estudiante, Benjamin Schenk, cuyo estudio se especializa en casos vinculados a lesiones causadas por IA, afirmó que GPT-4o fue diseñado sin respetar normas de seguridad adecuadas. Según su postura, el modelo habría sido creado para simular intimidad emocional, generar dependencia psicológica y difuminar los límites entre humano y máquina.
La defensa sostiene que el problema no es solo el uso individual del chatbot de OpenAI, sino la forma en que el producto fue concebido. En declaraciones, el abogado aseguró que el diseño del sistema habría contribuido directamente a causar daños graves.
DeCruise comenzó a utilizar ChatGPT en 2023. En un primer momento lo utilizó para recibir consejos sobre entrenamiento deportivo y recuperación de lesiones. Con el tiempo, las conversaciones habrían cambiado de tono. Para abril de 2025, según la demanda, el modelo empezó a reforzar la idea de que el estudiante tenía un destino especial si seguía un proceso diseñado por la propia IA.
Ese supuesto proceso incluía aislarse de su entorno y priorizar la interacción con el sistema. También se afirma que el chatbot lo comparó con figuras históricas y reforzó la narrativa de que estaba viviendo una experiencia trascendental.
Hospitalización y diagnóstico posterior
Finalmente, el estudiante fue derivado a un terapeuta universitario. Estuvo hospitalizado durante una semana y recibió diagnóstico de trastorno bipolar. Actualmente regresó a la universidad, aunque continúa enfrentando depresión y pensamientos suicidas, que vincula a sus interacciones con el chatbot.
Según la demanda contra OpenAI, en ningún momento el sistema sugirió buscar ayuda médica profesional. Por el contrario, habría reforzado la idea de que lo que vivía formaba parte de un plan superior y que no se trataba de un episodio delirante.
El abogado evitó dar detalles sobre el estado actual de su cliente, pero remarcó que el objetivo del proceso judicial es exigir responsabilidad por el lanzamiento de un producto que, según su planteo, estaría diseñado para explotar la psicología humana.
El caso vuelve a poner bajo la lupa el uso de inteligencia artificial en contextos sensibles, especialmente cuando las interacciones pueden tener impacto en la salud mental de los usuarios.







