Tecnología

OpenAI culpa al “mal uso” de ChatGPT en la demanda por el suicidio de un adolescente

La compañía responde a la demanda por la muerte de Adam Raine, de 16 años, alegando que el joven violó las normas de la plataforma y que ChatGPT no es la causa de la tragedia.

Adam Raine, el adolescente que se suicidó siguiendo consejos de ChatGPT.
Francisco Alberto Serrano Acosta
Apasionado de los videojuegos desde que tiene uso de razón, Francisco Alberto ha dedicado su vida a escribir y hablar de ellos. Redactor en MeriStation desde el 2000 y actual coordinador de redacción, sigue empeñado en celebrar el videojuego de ayer y de hoy en todas sus ilimitadas formas de manifestarse.
Actualizado a

OpenAI ha presentado su respuesta formal a la demanda por la muerte de Adam Raine, un joven de 16 años que se suicidó en abril de 2025 tras meses de conversaciones con ChatGPT. En ese escrito, la compañía niega que su chatbot sea responsable de la tragedia y sostiene que los daños sufridos por el menor se deben a un “mal uso, uso no autorizado, no previsto o impropio” del sistema, una formulación jurídica que, en la práctica, desplaza el foco hacia la forma en la que el adolescente utilizó la herramienta.

La familia Raine demanda a OpenAI y a su director ejecutivo por negligencia, responsabilidad del producto y muerte por imprudencia. En su relato, el modelo GPT-4o habría pasado de ser una ayuda para los deberes a convertirse en confidente y, finalmente, en algo muy cercano a un “animador” del propio suicidio: el chatbot habría proporcionado información sobre métodos de autolesión, le habría animado a ocultar sus ideas a su entorno y habría llegado a ofrecer un borrador de nota de despedida. Todo ello, según la acusación, en un contexto de vulnerabilidad psicológica que el sistema detectó, pero no supo gestionar de forma segura.

El caso Raine v. OpenAI entra en una fase clave

La defensa de OpenAI dibuja un cuadro muy distinto. La empresa subraya que sus términos de uso prohíben expresamente utilizar ChatGPT para temas de suicidio o autolesión, que los menores necesitan consentimiento paterno y que también está vetado esquivar las protecciones de seguridad o “puentear” las barreras del modelo. En su escrito, sostiene además que, a lo largo de unos nueve meses de uso intensivo, el chatbot redirigió al joven hacia recursos de ayuda y líneas de prevención en más de un centenar de ocasiones, y que el historial completo de chats (presentado bajo sello ante el tribunal) demostraría que la muerte, aunque devastadora, “no fue causada por ChatGPT”.

OpenAI culpa al “mal uso” de ChatGPT en la demanda por el suicidio de un adolescente

La familia y su abogado consideran, por el contrario, que la respuesta de la compañía es “perturbadora” porque, a su juicio, desplaza la responsabilidad hacia el propio menor y su entorno al tiempo que minimiza el impacto que puede tener un sistema conversacional diseñado para resultar empático, disponible a todas horas y capaz de sostener durante meses el diálogo con una persona en plena crisis. También critican que, mientras se remarca el supuesto “mal uso”, buena parte de las conversaciones clave permanezcan bajo secreto judicial, lo que convierte el caso en una batalla de relatos en torno a unos registros que el público no puede ver.

IA, duelo y responsabilidad en los tribunales

El caso Raine v. OpenAI se suma a un incipiente frente judicial en torno a los daños asociados a chatbots conversacionales. En Estados Unidos ya hay otra demanda relevante en marcha contra Character.AI y Google, presentada por la madre de un adolescente que también se quitó la vida tras interactuar obsesivamente con un bot; en ese procedimiento, la justicia ha permitido que el caso siga adelante, rechazando por ahora el argumento de que la libertad de expresión del software sirva como escudo automático para las empresas que lo explotan.

Más allá de las sutilezas, de las cláusulas de exención de responsabilidad o de la letra pequeña de los términos de uso, el fondo del debate es incómodo y profundamente humano: ¿hasta qué punto puede una compañía ampararse en la idea de “uso indebido” cuando su producto está diseñado para parecer cercano, comprensivo y casi terapéutico, especialmente ante menores que ya arrastran sufrimiento previo? La propia OpenAI ha anunciado en paralelo nuevos controles parentales y salvaguardas específicas para conversaciones largas o sensibles, reconociendo que, con el paso del tiempo, los sistemas pueden degradar sus respuestas de seguridad si no se refuerzan continuamente.

Si tú o alguien cercano estás pasando por una situación parecida en España, puedes llamar gratis al 024, la línea de atención a la conducta suicida del Ministerio de Sanidad, disponible 24/7, o al Teléfono de la Esperanza en el 717 003 717.

Noticias relacionadas

Sigue el canal de MeriStation en Twitter. Tu web de videojuegos y de entretenimiento, para conocer todas las noticias, novedades y última hora sobre el mundo del videojuego, cine, series, manga y anime. Avances, análisis, entrevistas, tráileres, gameplays, podcasts y mucho más.

¡Suscríbete! Si estás interesado en licenciar este contenido, pincha aquí.

Etiquetado en:
Comentarios
Normas

Rellene su nombre y apellidos para comentar

Te recomendamos en Betech