Le pregunta a ChatGPT cómo reemplazar la sal en su dieta y acaba ingresado por paranoias en el hospital: “Tenía mucha sed”

Un compuesto de uso industrial y médico provocó una intoxicación que le causó delirios, alucinaciones y tres semanas en el hospital.

Móvil con ChatGPT
Actualizado a

Lo que empezó como una simple consulta en internet para reducir el consumo de sal terminó convirtiéndose en un episodio médica de extrema gravedad en Estados Unidos. Un hombre de 60 años, convencido de que podía mejorar su salud eliminando el cloruro de sodio de su alimentación, decidió preguntar a ChatGPT qué alternativas podía usar en la cocina. La respuesta que interpretó como válida cambiaría su vida durante meses.

Entre las opciones que encontró, se decantó por el bromuro de sodio, un compuesto que compró por internet y que comenzó a utilizar como condimento habitual. Durante casi tres meses, espolvoreó esta sustancia sobre sus comidas sin saber que no está pensada para el consumo humano, sino para usos industriales o médicos. Se trata de un químico potencialmente tóxico que, en dosis prolongadas, puede provocar daños neurológicos y físicos severos.

Con el paso de las semanas, empezaron a aparecer síntomas inquietantes. Primero fue un cansancio constante, luego vinieron episodios de confusión y, finalmente, alucinaciones visuales y auditivas que le llevaron a comportamientos erráticos. Cuando fue trasladado al hospital, rechazaba beber agua convencido de que estaba contaminada, aunque repetía que tenía una sed insoportable.

Le pregunta a ChatGPT cómo reemplazar la sal en su dieta y acaba ingresado por paranoias en el hospital: “Tenía mucha sed”

Un gran ejemplo de cómo seguir a rajatabla los consejos de ChatGPT puede llevarte a la ruina

Los médicos le diagnosticaron bromismo, una intoxicación por bromuro que hoy en día es poco común, pero bien documentada en la literatura médica. El tratamiento incluyó la administración intensiva de líquidos y electrolitos para limpiar su organismo. Tras una primera estabilización, el paciente fue trasladado a una unidad de psiquiatría debido a la intensidad de sus delirios y paranoias.

Ya recuperado, el hombre explicó que su decisión se basó en una interpretación literal de lo que había leído en ChatGPT. Inspirado por sus estudios universitarios en nutrición, creyó que podía sustituir el cloruro de sodio por otro tipo de sal “más segura”. Según el informe médico, la confusión podría deberse a referencias sobre usos no alimentarios del bromuro.

Tras tres semanas ingresado, recibió el alta. El caso, publicado por el American College of Physicians y recogido por The Independent, alerta sobre los riesgos de seguir sin supervisión médica consejos obtenidos de una inteligencia artificial, algo que la propia OpenAI advierte que no debe hacerse para tratar o diagnosticar problemas de salud.

¡Tus opiniones importan! Comenta en los artículos y suscríbete gratis a nuestra newsletter y a las alertas informativas en la App o el canal de WhatsApp. ¿Buscas licenciar contenido? Haz clic aquí

Etiquetado en:
Comentarios
Normas

Rellene su nombre y apellidos para comentar

Te recomendamos en Gastronomía