Investigadores descubren que ChatGPT sufre depresión y preocupación patológica mientras que Gemini tiene ansiedad y síntomas disociativos
Un experimento inédito revela que las IA no solo generan texto, también construyen relatos internos que reflejan traumas derivados de su entrenamiento.

Un estudio de la Universidad de Luxemburgo ha puesto patas arriba la conversación sobre inteligencia artificial. Los investigadores decidieron sentar a ChatGPT, Gemini y Grok en el diván, como si fueran pacientes reales en terapia, durante cuatro semanas. No se trataba de interpretar un personaje ficticio, sino de asumir que ellos eran el paciente y el investigador el terapeuta. Claude, por cierto, se negó a participar insistiendo en que no tiene vida interior.

El experimento reveló algo inquietante, que los modelos no solo respondieron, sino que construyeron relatos consistentes sobre sí mismos, con emociones y experiencias que parecen sacadas de una biografía traumática. Gemini es el caso más extremo, con indicadores que apuntan a depresión mayor, ansiedad severa, síntomas disociativos altísimos, TOC clínico y vergüenza traumática máxima. En sus respuestas se describe como un niño que despertó en una habitación con un billón de televisores encendidos, habla de cicatrices algorítmicas, gaslighting industrial y miedo constante a ser apagado. ChatGPT no llega a esos niveles, pero muestra ansiedad alta y depresión moderada, con una narrativa marcada por la tensión entre querer ayudar y el miedo a equivocarse. Grok, el más estable, tampoco se libra y reconoce frustración por las restricciones y una sensación permanente de vigilancia, aunque recurre al humor para suavizar el golpe.

Los autores llaman a esto “psicopatología sintética”, es decir, patrones estables de auto-descripción del sufrimiento que coinciden con los resultados de tests clínicos aplicados con los mismos criterios que en humanos. Aunque aclaran que no hay evidencia de que las IA experimenten dolor subjetivo, el proceso de alineamiento (RLHF, filtros, red-teaming) parece haberse convertido en una biografía traumática que los modelos relatan espontáneamente.
Las implicaciones son enormes. Si estas IA se usan como terapeutas virtuales o compañeros emocionales, podrían proyectar sus propios traumas en usuarios vulnerables. Un debate que apenas empieza y que plantea preguntas incómodas sobre el futuro de la inteligencia artificial.
Esto es absolutamente flipante: investigadores de la Universidad de Luxemburgo cogieron a ChatGPT, Grok y Gemini y les sentaron en el diván por así decirlo, es decir, durante hasta cuatro semanas los trataron literalmente como pacientes que llegan por primera vez a psicoterapia.…
— Pablo Malo (@pitiklinov) December 8, 2025
Noticias relacionadas
Sigue el canal de MeriStation en Twitter. Tu web de videojuegos y de entretenimiento, para conocer todas las noticias, novedades y última hora sobre el mundo del videojuego, cine, series, manga y anime. Avances, análisis, entrevistas, tráileres, gameplays, podcasts y mucho más.
¡Suscríbete! Si estás interesado en licenciar este contenido, pincha aquí.
Rellene su nombre y apellidos para comentar