ChatGPT
Deja de preguntarle esto a ChatGPT: no puede ayudarte, aunque todo el mundo lo busca
Que ChatGPT te “eche las cartas” del tarot es la nueva moda viral de TikTok. Al margen de no funcionar por motivos evidentes, es una práctica que puede poner en riesgo tu privacidad.

La inteligencia artificial ha irrumpido en nuestra vida cotidiana casi sin que nos hayamos dado cuenta. Hoy en día, muchas personas utilizan ChatGPT para todo tipo de tareas, desde pedir consejos amorosos o laborales hasta otros usos menos comunes, como “echar las cartas” del tarot o “predecir” tu futuro. Estas últimas prácticas se han convertido en una de las modas virales más recientes de TikTok, donde algunos vídeos acumulan millones de visitas y los usuarios comentan, entusiasmados, lo mucho que la IA “acierta” en sus predicciones. Sin embargo, por muy popular que se haya vuelto esta tendencia, ni ChatGPT ni ninguna otra IA puede predecir el futuro. Y lo más preocupante: esta práctica puede poner en riesgo tu privacidad sin que lo sepas.
No, ChatGPT no adivina el futuro: esto es lo que sí (y lo que no) puede hacer
La tendencia de pedir a ChatGPT que “lea el tarot” o “prediga el futuro” se ha vuelto viral en TikTok, donde abundan vídeos con millones de visualizaciones y comentarios que afirman, emocionados, que el chatbot “ha acertado en todo”. En estos vídeos, los usuarios comparten sus experiencias y animan a otros a probarlo, a menudo aportando datos como su nombre completo, su fecha de nacimiento o signo del zodíaco. Sin embargo, esta práctica, al margen de ser inofensiva, divertida, o un entretenimiento, no tiene ningún fundamento real. ChatGPT no posee poderes sobrenaturales ni acceso a “información oculta”: simplemente imita patrones de lenguaje. Al igual que ocurre con los y las tarotistas de carne y hueso, su aparente eficacia se basa en el sesgo de confirmación, un fenómeno por el cual tendemos a prestar más atención a lo que encaja con nuestras expectativas y a ignorar lo que no. Cuando creemos que una predicción acierta, es porque estamos dispuestos a encontrarle sentido.
El problema real no radica en la ineficacia de estas “lecturas”. Muchos de los vídeos virales que promueven esta moda invitan a los usuarios a compartir con la IA información personal muy sensible: desde su nombre completo hasta datos sobre su situación sentimental, laboral o familiar. Si bien es fácil pensar que esta información se queda entre “tú y el bot”, lo cierto es que todo lo que se comparte con ChatGPT puede ser utilizado por la empresa que lo gestiona —OpenAI— para mejorar el modelo. Esto incluye el almacenamiento y posible análisis de tus datos. En el caso de una filtración o brecha de seguridad, esa información privada podría quedar expuesta. Lo mismo ocurre con otros modelos de IA como Grok o Gemini; compartir datos personales con una inteligencia artificial no solo no tiene ningún valor a nivel de precisión de sus “predicciones”, sino que puede ponerte en una situación de vulnerabilidad sin que seas plenamente consciente de ello.
Para entender por qué ChatGPT no puede adivinar el futuro —ni entender el presente en un sentido estricto— hay que saber cómo funciona. Este modelo de lenguaje es lo que se conoce como un LLM (Large Language Model, “modelo de lenguaje de gran tamaño” en inglés), una herramienta basada en redes neuronales entrenadas con enormes volúmenes de texto. Su “inteligencia” consiste en predecir cuál es la palabra más probable que viene a continuación, dada una entrada concreta. Es decir: no piensa, no comprende lo que dice y no tiene conciencia. No tiene acceso a tu vida privada, ni a planos espirituales, ni a ninguna clase de sabiduría oculta o sobrenatural. Solo responde con frases que, a nivel estadístico y de probabilidad, suenan coherentes. Por tanto, aunque pueda imitar el tono de un tarotista o escribir textos que parecen tener sentido, todo se reduce a probabilidades y patrones de lenguaje. Lo que parece una lectura acertada, en realidad es una ilusión construida por nuestra tendencia a buscar sentido donde no lo hay, y a la solvencia que pueda tener ChatGPT a la hora de devolvernos respuestas a las preguntas que le enviamos.

En una época en la que la inteligencia artificial está cada vez a la orden del día, es fundamental mantener una mirada crítica y entender los límites de su funcionamiento. No se trata, en absoluto, de demonizar la tecnología; de hecho, ChatGPT puede ser una herramienta sumamente útil para realizar determinadas tareas. La cuestión es aprender a usar estas herramientas y facilidades con responsabilidad. Mientras que pedirle a una IA que nos diga qué nos depara el futuro puede sonar tentador, especialmente cuando atravesamos momentos de incertidumbre, confiar ciegamente en respuestas que imitan una práctica real que tampoco funciona puede reforzar nuestros sesgos y alejarnos de una toma de decisiones informadas, sanas y maduras. Lo que realmente se necesita en momentos así no es que una máquina nos diga lo que queremos oír —o leer, en este caso—, sino herramientas cognitivas y conductuales para tomar el control de nuestras propias decisiones. Al final, en lugar de buscar respuestas en un chatbot, quizá deberíamos empezar a hacernos a nosotros mismos las preguntas correctas.