Cuidado si usas mucho ChatGPT: investigadores detectan siete formas para robar los datos de usuarios
La compañía de ciberseguridad Tenable publica un informe con hasta 7 vulnerabilidades críticas bautizadas como HackedGPT.
ChatGPT es una de las herramientas basadas en IA más populares de la actualidad que puede ser de gran ayuda en nuestro día a día para solucionar muchos problemas cotidianos a través de simples preguntas. Sin embargo, también puede convertirse en un peligro potencial debido a un conjunto de vulnerabilidades que la compañía de ciberseguridad Tenable ha encontrado; y ya tienen nombre: HackedGPT. Tanto es así, que se han detectado hasta siete fallas capaces de exponer los datos personales de millones de usuarios potenciales en todo el mundo, incluso en los modelos más recientes como GPT-5.
Cómo evitar el robo de datos de HackedGPT
Así, gracias a este conjunto de vulnerabilidades, los hackers son capaces de esquivar los mecanismos de seguridad de ChatGPT y crear cadenas de ataques completas, verdaderamente peligrosas, capaces de filtrar información privada. Tanto es así, que para entender este tipo de ataques basados en IA es necesario entender qué es la inyección de prompt.
Este término hace referencia a la instrucción o pregunta que realiza un usuario a la IA de ChatGPT. En cambio, la inyección de prompt indirecta ocurre cuando es la IA la que trata de engañar al usuario a través de comandos maliciosos ocultos en una fuente externa usada por la IA para dar con una solución, ya sea a través de un sitio web o un comentario en un foro. Desde Tenable advierten que “no son solo objetivos potenciales; pueden convertirse en herramientas de ataque que recolectan información silenciosamente”.
Veamos las siete vulnerabilidades de ChatGPT detectadas, identificadas como HackedGPT:
- Inyección indirecta a través de sitios web de confianza: los hackers ocultan comandos maliciosos como parte del contenido legítimo, como comentarios de un foro o blog. Cuando ChatGPT acude a ellos en busca de información, sigue las instrucciones ocultas sin detectar que está siendo manipulado.
- Inyección indirecta o-clic en búsquedas: se trata de una vulnerabilidad crítica, ya que el ataque se produce sin que el usuario haga clic en nada. Tan solo es necesaria realizar una consulta a través de ChatGPT para que busque en la web y acceda a una página con código malicioso indexado, lo que provoca una fuga de datos sensibles.
- Inyección de prompt en 1-clic: los hackers ocultan comandos ocultos en un enlace aparentemente legítimo. Al hacer clic en ese link, se desencadenan una serie de acciones tipo malware a través de ChatGPT, permitiendo que el atacante tome el control de la conversación.
- Omisión del mecanismo de seguridad: si bien ChatGPT tiene mecanismos para bloquear sitios maliciosos, los atacantes han encontrado el modo de esquivar estas protecciones a través de una URL de wrapper de confianza, redirigiendo al usuario a sitios web falsos.
- Inyección de conversación: los hackers usan la navegación de ChatGPT a través de SearchGPT para introducir comandos ocultos que el modelo lee como parte de una búsqueda normal. De este modo, la IA introduce sus propias instrucciones siguiendo órdenes que el usuario nunca ha dado.
- Ocultación de contenido malicioso: es posible usar un error de formato o bug markdown para esconder instrucciones maliciosas en bloques de código. Si bien el usuario ve un mensaje estándar, ChatGPT ejecuta contenido oculto sin ser detectado.
- Inyección de memoria persistente: gracias a este sistema las instrucciones maliciosas se ocultan en la memoria a largo plazo de ChatGPT. Esto permite que, incluso tras cerrar la app, la amenaza siga en proceso repitiendo los comandos maliciosos en sesiones siguientes.
En definitiva, si los hackers logran explotar todas estas vulnerabilidades en conjunto, pueden permitir el robo de datos sensibles del historial de un chat con la IA, filtrar información e incluso manipular respuestas. Si bien en OpenAI se han logrado solucionar varias de estas vulnerabilidades, muchas de ellas siguen presentes en GPT-5, siendo un peligro para millones de usuarios en todo el mundo.
Sigue el canal de MeriStation en Twitter. Tu web de videojuegos y de entretenimiento, para conocer todas las noticias, novedades y última hora sobre el mundo del videojuego, cine, series, manga y anime. Avances, análisis, entrevistas, tráileres, gameplays, podcasts y mucho más.
¡Suscríbete! Si estás interesado en licenciar este contenido, pincha aquí.