Gaming Club
Regístrate
españaESPAÑAméxicoMÉXICOusaUSA
Betech
Ciencia y tecnología

DRONES

Un dron ataca a humanos sin habérselo ordenado: Su IA autónoma decidió el ataque

Naciones Unidas informa del primer ataque de un dron militar de forma autónoma en el conflicto de Libia.

Actualizado a
Un dron ataca a humanos sin habérselo ordenado: Su IA autónoma decidió el ataque

Skynet tendrá conciencia de sí mismo a las 2 y 14 de la madrugada del 29 de agosto de 1997”. Esa frase fue acuñada por Arnold Schwarzenegger hace 30 años -treinta…- en la obra maestra capital del cine de acción que es Terminator 2. Y hoy la traemos de vuelta porque llevamos un tiempo en que las tecnologías de ahora parecen estar buscando la precuela del infame Skynet, la red neuronal IA que decide que los humanos sobramos -algo así como la The Matrix.

Piloto de Drones

¿Sabéis que dentro de los ejércitos hay una profesión que es piloto de drones? No el típico dron que ves en una tienda de AliExpress o los que usan en documentales para filmar volcanes, sino drones militares equipados con armamento real.

Hay pilotos del ejército de los EEUU que van a su cuartel dentro de los USA, se sientan en la silla, pilotan un drone Reaper o Predator de forma remota a decenas de miles de kilómetros de distancia, vuelan un objetivo porque así lo ordenan desde Inteligencia -esté o no dentro de un núcleo urbano con población civil-, y se marchan a casa a dormir bien o a lidiar con su conciencia, según sea el caso.

Dron militar Reaper
Ampliar
Dron militar Reaper

Pero, al igual que el villano de Skynet hace en Terminator 3, el papel del ser humano es cada vez más irrelevante en los conflictos armados. ¿Por qué? Por pensar, por ser propensos a un cambio de intenciones, de decisiones, a tener ‘corazonadas’. Eso una máquina no lo contempla, sólo su programación y las órdenes. Y eso es lo que ha llevado a un dron militar a tener el ‘honor’ de entrar en la historia como el primer dron que ha atacado de forma autónoma a gente, sin que ningún operador se lo ordenase.

STM Kargu-2 dron militar

Según un informe del Consejo de Seguridad de las Naciones Unidas, el año pasado por primera vez un dron militar podría haber atacado de forma autónoma a seres humanos en Libia. No se han revelado detalles de la operación ni si hubo víctimas, pero confirma que estas armas autónomas letales ya se utilizan en el campo de batalla a pesar de los esfuerzos internacionales por prohibirlas.

Un dron STM Kargu-2 de fabricación turca habría sido utilizado para "perseguir y poner en peligro a distancia" a convoys y soldados en retirada, según el informe. El uso de estos drones en el conflicto libio puede abrir un nuevo capítulo para las armas autónomas. Herramientas programadas para que la IA decida por sí misma eliminar sus objetivos, incluidos los humanos.

STM Kargu-2 dron militar
Ampliar
STM Kargu-2 dron militar

Tirando de informes, en junio de 2020 el ejército turco compró unos 500 drones Kargu a Defense Technologies Engineering and Trade Inc, más conocida como STM, una empresa armamentística turca. La primera generación de estos drones fue presentada en 2017 y en 2019 se mostró la variante Kargu-2, capaz de realizar ataques en modo enjambre y operar de forma autónoma.

El Halcón turco para la guerra asimétrica

Kargu se puede traducir en turco como "halcón”, y la compañía explica que están diseñados para "la guerra asimétrica y la lucha contra el terrorismo" -la guerra asimétrica es cuando se desata un conflicto violento entre contendientes con una diferencia extrema de recursos bélicos, como un país con un ejército profesional peleando contra un grupo de rebeldes insurgentes.

Con un peso de unos 7 kg, el dron puede permanecer en el aire durante al menos 30 minutos y volar a una velocidad de unos 145 km/h. Los drones de la serie Kargu pueden ser operados manualmente, pero también están preparados para operar de forma autónoma gracias al uso de sensores que van desde cámaras de vídeo electro-ópticas e infrarrojas hasta un sistema de imágenes láser (LIDAR).

A través del programa KERKES, la empresa STM preparó sus drones para que pudieran coordinarse de forma autónoma en enjambre y moverse siguiendo el GPS. Junto con otros 20 drones, los Kargu-2 están programados con una IA capaz de seleccionar y atacar objetivos.

El informe de las Naciones Unidas, ¿qué pasó con el dron?

El informe del Consejo de Seguridad de las Naciones Unidas describe el hecho de la siguiente manera:

"Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomas letales como el STM Kargu-2 y otras municiones de merodeo. Sistemas de armas autónomas letales que fueron programados para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, un verdadero "dispara, olvida y encuentra.

Los vehículos aéreos de combate no tripulados y las pequeñas capacidades de inteligencia, vigilancia y reconocimiento de los drones de que disponían las fuerzas afiliadas a Haftar fueron neutralizados por interferencia electrónica gracias al sistema de guerra electrónica Koral”, lo que implica que los atacados tuvieron que recurrir a armas anti-drones para escapar de su ataque.

Las pruebas encontradas por las Naciones Unidas indican que los STM Kargu-2 utilizaron munición y están operativos en Libia. Es la primera vez que se detecta su uso y su despliegue constituye una violación del párrafo 9 de la resolución 1970 (2011). Por el momento no se ha informado de ninguna víctima de estas armas autónomas (sería la primera), pero en los vídeos de demostración de STM se muestra cómo estos drones atacan a un grupo de maniquíes.

El proceso de decisión para atacar de un dron autónomo

Las minas antipersona pueden configurarse para adaptar su sensibilidad y sólo detonarse con adultos. En el caso de los drones autónomos, todavía hay mucho debate sobre los parámetros específicos que determinan cuándo atacan. El aprendizaje automático de estos drones está programado con un gran conjunto de datos y permite diferenciar los objetos.

También vehículos como tanques, autobuses o furgonetas. Se supone que los diferentes ejércitos pueden entrenar a la IA del dron para que se centre en las particularidades del enemigo, dándole acceso a bases de datos con imágenes e información de quienes desean matar.

Sin embargo, del mismo modo que hemos visto cómo los algoritmos tienen muchos sesgos y no están exentos de fallos, estos drones autónomos también pueden salir mal, con consecuencias fatales.

Prohibir el armamento inteligente

Expertos y organizaciones piden prohibir estas armas autónomas antes de que sea demasiado tarde. La Unión Europea ya ha alertado contra estos "robots asesinos". También Estados Unidos y Rusia son conscientes de las implicaciones de estas LAW ("Lethal Autonomous Weapons"). Sin embargo, tanto una como otra potencia, apoyadas principalmente por Corea del Sur, Israel y Australia, han bloqueado la negociación para prohibirlas.

Naciones Unidas tiene la intención de prohibirlas desde finales de 2013, pero apenas ha habido avances. Durante este tiempo, personalidades como Brad Smith, presidente de Microsoft, Elon Musk, CEO de Tesla y DeepMind y hasta un total de 116 expertos de 26 países han pedido que se prohíba el desarrollo y uso de robots asesinos autónomos. Porque "una vez abierta esta caja de Pandora, será difícil cerrarla".

¿Sigue siendo Skynet producto de la imaginación de un cineasta visionario? ¿O cada vez su aparición en el escenario bélico moderno es más y más plausible?