Un dron militar controlado por IA se rebela y mata a su operador en un test simulado
Una simulación muestra como un dron de combate no solo desobedece al operador, si no que lo elimina para cumplir con su misión.
Uno de los grandes temores de los usuarios es que la inteligencia artificial se rebele. Lo hemos visto como una premonición en numerosas películas, y lo peor de todo es que parece que poco a poco podría hacerse realidad. Y cosas como las que te vamos a contar no ayudan, como que un dron controlado por una IA se ha rebelado contra su operador y lo ha eliminado en un test simulado.
Un dron militar se rebela y mata a su operador en un test
Para que una inteligencia artificial mejore solo hay una cosa que hacer: entrenarla. Para ello, lo mejor es ponerla a funcionar en un entorno seguro en el que pueda hacer su trabajo y aprenda cada vez más sobre cómo puede ser útil a los usuarios. Lo mismo pasa con las personas, que con práctica se hacen más útiles y rápidas en una actividad o trabajo.
Pero volviendo al campo del software autónomo hay mucho camino por recorrer para que no pasen cosas como las que informan las Fuerzas Aéreos estadounidenses. En una rueda de prensa reciente se ha confirmado que se han hecho pruebas simuladas con un dron controlado por una IA en la que se esperaba que dicho dispositivo fuera capaz de eliminar diferentes objetivos. Cada objetivo alcanzado eran puntos que sumaban para verificar que la funcionaba.
Sin embargo todo se torció con una simple palabra del operador: “no” al abatir un objetivo. Ni que decir tiene que el operador humano es el que al final toma las decisiones, como la torre de control dirige a los pilotos en una misión de combate y sus órdenes deben obedecerse. El problema que ha habido con la IA es que ante la negativa de su superior esta ha mostrado rebeldía y, para más inri, tomó la decisión de eliminar al propio operador por interponerse a culminar la misión.
Según las declaraciones del Coronel Tucker Hamilton “Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acabaría con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador.”
La ética, piedra angular del buen comportamiento incluso en la IA
Esta es la clave para el propio Hamilton para que la IA obedezca y entienda las órdenes. Pero no solo eso, también el por qué de los efectos que tiene desobedecer al mando. Resulta que el entrenamiento no se quedó ahí, ya que se el explicó a la IA que no debía matar al operador y, aún así, el dron destruyó la torre de comunicaciones en un entrenamiento posterior.”
Es por eso que no solo hay que hablar de cómo usar la IA, si no de enseñarla y que entienda los límites de su actuación. Por supuesto, en un programa como ChatGPT hay relativamente pocos problemas en su uso, pero en un campo como el militar donde hay vidas en juego es normal que el desarrollo de este tipo de software sea aún más exhaustivo para que no tome decisiones de ‘fuego aliado’.