Los avances de los drones en Ucrania podrían traer el amanecer de los robots asesinos

Los avances de los drones en Ucrania han acelerado una tendencia tecnológica largamente esperada que pronto podría llevar al campo de batalla los primeros robots de combate completamente autónomos del mundo, inaugurando una nueva era de guerra.

Cuanto más dure la guerra, más probable será que se utilicen drones para identificar, seleccionar y atacar objetivos sin la ayuda de humanos, según analistas militares, combatientes e investigadores de inteligencia artificial.

Eso marcaría una revolución en la tecnología militar tan profunda como la introducción de la ametralladora. Ucrania ya tiene drones de ataque semiautónomos y armas contra drones dotados de IA. Rusia también afirma poseer armamento de IA, aunque las afirmaciones no están probadas. Pero no hay instancias confirmadas de una nación que haya puesto en combate robots que hayan matado completamente solos.

Los expertos dicen que puede ser solo cuestión de tiempo antes de que Rusia o Ucrania, o ambos, los desplieguen.

“Muchos estados están desarrollando esta tecnología”, dijo Zachary Kallenborn, analista de innovación de armas de la Universidad George Mason. «Claramente, no es tan difícil».

La sensación de inevitabilidad se extiende a los activistas, que han intentado durante años prohibir los drones asesinos, pero ahora creen que deben conformarse con tratar de restringir el uso ofensivo de las armas.

El ministro de transformación digital de Ucrania, Mykhailo Fedorov, está de acuerdo en que los drones asesinos totalmente autónomos son «un próximo paso lógico e inevitable» en el desarrollo de armas. Dijo que Ucrania ha estado haciendo “mucha investigación y desarrollo en esta dirección”.

“Creo que el potencial para esto es grande en los próximos seis meses”, dijo Fedorov a The Associated Press en una entrevista reciente.

El teniente coronel ucraniano Yaroslav Honchar, cofundador de la organización sin fines de lucro de innovación de aviones no tripulados de combate Aerorozvidka, dijo en una entrevista reciente cerca del frente que los combatientes de guerra humanos simplemente no pueden procesar información y tomar decisiones tan rápido como las máquinas.

Los líderes militares ucranianos actualmente prohíben el uso de armas letales totalmente independientes, aunque eso podría cambiar, dijo.

«Todavía no hemos cruzado esta línea, y digo ‘todavía’ porque no sé qué pasará en el futuro». dijo Honchar, cuyo grupo ha encabezado la innovación de drones en Ucrania, convirtiendo drones comerciales baratos en armas letales.

Rusia podría obtener IA autónoma de Irán o de cualquier otro lugar. Los drones explosivos Shahed-136 de largo alcance suministrados por Irán han paralizado las plantas de energía ucranianas y aterrorizado a los civiles, pero no son especialmente inteligentes. Irán tiene otros drones en su arsenal en evolución que, según dice, cuentan con IA.

Sin muchos problemas, Ucrania podría hacer que sus drones armados semiautónomos sean totalmente independientes para sobrevivir mejor a las interferencias en el campo de batalla, dicen sus fabricantes occidentales.

Esos drones incluyen el Switchblade 600 fabricado en EE. UU. y el Warmate polaco , que actualmente requieren que un ser humano elija objetivos a través de una transmisión de video en vivo. La IA termina el trabajo. Los drones, técnicamente conocidos como «municiones merodeadoras», pueden flotar durante minutos sobre un objetivo, esperando un tiro limpio.

“La tecnología para lograr una misión totalmente autónoma con Switchblade prácticamente existe hoy en día”, dijo Wahid Nawabi, director ejecutivo de AeroVironment, su fabricante. Eso requerirá un cambio de política, para eliminar al ser humano del circuito de toma de decisiones, que él estima está dentro de tres años.

Los drones ya pueden reconocer objetivos como vehículos blindados utilizando imágenes catalogadas. Pero hay desacuerdo sobre si la tecnología es lo suficientemente confiable para garantizar que las máquinas no se equivoquen y se lleven la vida de los no combatientes.

Si cualquiera de los bandos fuera al ataque con IA completa, es posible que ni siquiera sea el primero.

Un informe no concluyente de la ONU del año pasado sugirió que los robots asesinos debutaron en el conflicto interno de Libia en 2020, cuando los drones Kargu-2 de fabricación turca en modo totalmente automático mataron a un número no especificado de combatientes.

Un portavoz de STM, el fabricante, dijo que el informe se basaba en información «especulativa, no verificada» y que «no debería tomarse en serio». Le dijo a AP que el Kargu-2 no puede atacar a un objetivo hasta que el operador se lo ordene.

La IA totalmente autónoma ya está ayudando a defender Ucrania. Fortem Technologies, con sede en Utah, ha suministrado al ejército ucraniano sistemas de caza de drones que combinan pequeños radares y vehículos aéreos no tripulados, ambos impulsados ​​​​por IA. Los radares están diseñados para identificar drones enemigos, que luego los UAV desactivan disparándoles redes, todo sin ayuda humana.

El número de drones dotados de IA sigue creciendo. Israel los ha estado exportando durante décadas. Su Harpy, que elimina el radar, puede flotar sobre el radar antiaéreo hasta nueve horas esperando que se encienda.

Otros ejemplos incluyen el helicóptero armado no tripulado Blowfish-3 de Beijing . Rusia ha estado trabajando en un avión no tripulado de inteligencia artificial submarino con cabeza nuclear llamado Poseidón . Los holandeses están probando actualmente un robot terrestre con una ametralladora calibre .50.

 

Honchar cree que Rusia, cuyos ataques contra civiles ucranianos han mostrado poco respeto por el derecho internacional, ya habría utilizado drones autónomos asesinos si el Kremlin los tuviera.

“No creo que tengan escrúpulos”, coincidió Adam Bartosiewicz, vicepresidente de WB Group, que fabrica Warmate.

La IA es una prioridad para Rusia. El presidente Vladimir Putin dijo en 2017 que quien domine esa tecnología gobernará el mundo. En un discurso del 21 de diciembre, expresó su confianza en la capacidad de la industria armamentista rusa para integrar la IA en las máquinas de guerra, y enfatizó que «los sistemas de armas más efectivos son aquellos que operan de manera rápida y prácticamente en modo automático». Los funcionarios rusos ya afirman que su dron Lancet puede operar con total autonomía.

“No va a ser fácil saber si Rusia cruza esa línea y cuándo”, dijo Gregory C. Allen, ex director de estrategia y política del Centro Conjunto de Inteligencia Artificial del Pentágono.

Cambiar un dron de pilotaje remoto a autonomía total puede no ser perceptible. Hasta la fecha, los drones capaces de funcionar en ambos modos se han desempeñado mejor cuando los pilotea un humano, dijo Allen.

La tecnología no es especialmente complicada, dijo el profesor de la Universidad de California-Berkeley, Stuart Russell, un destacado investigador de IA. A mediados de la década de 2010, los colegas a los que encuestó acordaron que los estudiantes de posgrado podrían, en un solo término, producir un dron autónomo «capaz de encontrar y matar a un individuo, digamos, dentro de un edificio», dijo.

Un esfuerzo por establecer reglas básicas internacionales para los drones militares hasta ahora ha sido infructuoso. Nueve años de conversaciones informales de las Naciones Unidas en Ginebra lograron pocos avances, y las principales potencias, incluidos Estados Unidos y Rusia, se opusieron a la prohibición. La última sesión, en diciembre, terminó sin una nueva ronda programada.

Los legisladores de Washington dicen que no aceptarán una prohibición porque no se puede confiar en que los rivales que desarrollan drones los usen éticamente.

Toby Walsh, un académico australiano que, como Russell, hace campaña contra los robots asesinos, espera lograr un consenso sobre algunos límites, incluida la prohibición de los sistemas que utilizan el reconocimiento facial y otros datos para identificar o atacar a personas o categorías de personas.

“Si no tenemos cuidado, van a proliferar mucho más fácilmente que las armas nucleares”, dijo Walsh, autor de “Máquinas que se comportan mal”. “Si puedes hacer que un robot mate a una persona, puedes hacer que mate a mil”.

A los científicos también les preocupa que las armas de IA sean reutilizadas por terroristas . En un escenario temido, el ejército de EE. UU. gasta cientos de millones en escribir código para impulsar drones asesinos. Luego es robado y copiado, dando efectivamente a los terroristas la misma arma.

El público mundial está preocupado. Una encuesta de Ipsos realizada para Human Rights Watch en 2019 encontró que el 61 % de los adultos en 26 países se oponen al uso de sistemas letales de armas autónomas.

Hasta la fecha, el Pentágono no ha definido claramente un «arma autónoma» ni ha autorizado una sola arma de este tipo para que la usen las tropas estadounidenses, dijo Allen, exfuncionario del Departamento de Defensa. Cualquier sistema propuesto debe ser aprobado por el presidente del Estado Mayor Conjunto y dos subsecretarios.

Eso no impide que las armas se desarrollen en los EE. UU. Los proyectos están en marcha en la Agencia de Proyectos de Investigación Avanzada de Defensa , laboratorios militares, instituciones académicas y en el sector privado.

El Pentágono ha enfatizado el uso de IA para aumentar los guerreros humanos. La Fuerza Aérea está estudiando formas de emparejar pilotos con pilotos de drones. Un impulsor de la idea, el exsecretario adjunto de Defensa Robert O. Work, dijo en un informe el mes pasado que «sería una locura no ir a un sistema autónomo» una vez que los sistemas habilitados para IA superen a los humanos, un umbral que dijo que se cruzó. en 2015, cuando la visión por computadora eclipsó la de los humanos.

Los humanos ya han sido expulsados ​​en algunos sistemas defensivos. El escudo antimisiles Cúpula de Hierro de Israel está autorizado para abrir fuego automáticamente, aunque se dice que es monitoreado por una persona que puede intervenir si el sistema va tras el objetivo equivocado.

Múltiples países y todas las ramas del ejército estadounidense están desarrollando drones que pueden atacar en enjambres mortales sincronizados, según Kallenborn, el investigador de George Mason.

Entonces, ¿las guerras futuras se convertirán en una lucha hasta el último dron?

Eso es lo que predijo Putin en un chat televisado de 2017 con estudiantes de ingeniería: “Cuando los drones de un partido son destruidos por los drones de otro, no tendrá más remedio que rendirse”.