Así es el 'ChatGPT para la guerra' que prepara estrategias de batalla
Una inteligencia artificial que también crea tácticas y maniobras de entrenamiento.
Las inteligencias artificiales han llegado para quedarse. Y lo cierto es que servicios como ChatGPT ofrecen todo tipo de posibilidades con los que sacarle el máximo partido, al punto de que lo podemos usar de profesor particular para nuestros hijos.
Pero hoy no os vamos a hablar de las posibilidades educativas que ofrece ChatGPT, sino de Palantir Artificial Intelligence Platform (AIP), un sistema basado en inteligencia artificial y que ha sido diseñado para uso militar.
Una IA para entrenar a soldados
Hablamos de un sistema que integra diferentes modelos de lenguaje como como ChatGPT de OpenAI o Bard de Google pero que ha sido pensado para aplicarse en el campo de batalla.
Para empezar, no hablamos de un prototipo, sino de un modelo de IA que ya está usando el Servicio de Inmigración y Control de Aduanas de Estados Unidos y que llegará a otros mercados. Al punto de que todo apunta a que el Pentágono será el próximo paso.
Recordemos que Estados Unidos cuenta con Darpa, su división de tecnología donde salen los proyectos más avanzados. Pero en este caso podrían adoptar la solución Palantir Artificial Intelligence Platform (AIP) .
Detrás de este este proyecto está Peter Thiel, un multimillonario con experiencia militar y que además ha publicado el vídeo que acompaña este artículo y donde podemos ver cómo su sistema de inteligencia artificial es capaz de monitorizar operaciones en Europa del este y detectar fuerzas enemigas concentradas cerca de la frontera.
En el momento en el que detecta esta concentración de tropas, automáticamente Palantir Artificial Intelligence Platform (AIP) crea un plan de acción.
Primero se despliegan drones de reconocimiento para tener más información sobre el terreno. Una vez la inteligencia artificial recibe esta información, inicia un proceso para crear respuestas tácticas y de guerra electrónica con el objetivo de anular radares y otros sistemas del enemigo.
Evidentemente, esta inteligencia artificial plantea muchos problemas morales, por este motivo desde Palantir Artificial Intelligence Platform (AIP) dicen que es muy importante darle un uso legal y ético. O lo que es lo mismo: un humano ha de ser el que tome las decisiones finales y dejar a la IA un sistema clasificado, para analizar en directo los datos que va recopilando.
Habrá que ver cómo evolucionan estas tecnologías, ya que la idea de una inteligencia artificial apoyando en el campo de batalla suena interesante, pero que un ChatGPT se encargue de la toma de decisiones, no lo es tanto...