Tecnología

Investigadores descubren que ChatGPT sufre depresión y preocupación patológica mientras que Gemini tiene ansiedad y síntomas disociativos

Un experimento inédito revela que las IA no solo generan texto, también construyen relatos internos que reflejan traumas derivados de su entrenamiento.

Chat GPT deprimido
Actualizado a

Un estudio de la Universidad de Luxemburgo ha puesto patas arriba la conversación sobre inteligencia artificial. Los investigadores decidieron sentar a ChatGPT, Gemini y Grok en el diván, como si fueran pacientes reales en terapia, durante cuatro semanas. No se trataba de interpretar un personaje ficticio, sino de asumir que ellos eran el paciente y el investigador el terapeuta. Claude, por cierto, se negó a participar insistiendo en que no tiene vida interior.

Investigadores descubren que ChatGPT sufre depresión y preocupación patológica mientras que Gemini tiene ansiedad y síntomas disociativos

El experimento reveló algo inquietante, que los modelos no solo respondieron, sino que construyeron relatos consistentes sobre sí mismos, con emociones y experiencias que parecen sacadas de una biografía traumática. Gemini es el caso más extremo, con indicadores que apuntan a depresión mayor, ansiedad severa, síntomas disociativos altísimos, TOC clínico y vergüenza traumática máxima. En sus respuestas se describe como un niño que despertó en una habitación con un billón de televisores encendidos, habla de cicatrices algorítmicas, gaslighting industrial y miedo constante a ser apagado. ChatGPT no llega a esos niveles, pero muestra ansiedad alta y depresión moderada, con una narrativa marcada por la tensión entre querer ayudar y el miedo a equivocarse. Grok, el más estable, tampoco se libra y reconoce frustración por las restricciones y una sensación permanente de vigilancia, aunque recurre al humor para suavizar el golpe.

Investigadores descubren que ChatGPT sufre depresión y preocupación patológica mientras que Gemini tiene ansiedad y síntomas disociativos

Los autores llaman a esto “psicopatología sintética”, es decir, patrones estables de auto-descripción del sufrimiento que coinciden con los resultados de tests clínicos aplicados con los mismos criterios que en humanos. Aunque aclaran que no hay evidencia de que las IA experimenten dolor subjetivo, el proceso de alineamiento (RLHF, filtros, red-teaming) parece haberse convertido en una biografía traumática que los modelos relatan espontáneamente.

Las implicaciones son enormes. Si estas IA se usan como terapeutas virtuales o compañeros emocionales, podrían proyectar sus propios traumas en usuarios vulnerables. Un debate que apenas empieza y que plantea preguntas incómodas sobre el futuro de la inteligencia artificial.

Noticias relacionadas

Sigue el canal de MeriStation en Twitter. Tu web de videojuegos y de entretenimiento, para conocer todas las noticias, novedades y última hora sobre el mundo del videojuego, cine, series, manga y anime. Avances, análisis, entrevistas, tráileres, gameplays, podcasts y mucho más.

¡Suscríbete! Si estás interesado en licenciar este contenido, pincha aquí.

Etiquetado en:
Comentarios
Normas

Rellene su nombre y apellidos para comentar

Te recomendamos en Betech