El avión es un jet no tripulado denominado "XQ-58A Valkyrie" de la Fuerza Aérea, pero no cumple un programa fijo y pregrabado en una memoria. La novedad es que está dirigido por inteligencia artificial. Una máquina que tiene que cumplir una misión específica, pero para tener éxito puede tomar sus propias decisiones.
En resumen: un avión militar de ataque que tiene como piloto a una máquina inteligente, que no necesita órdenes humanas para acabar con un objetivo.
walkiria nave del pentágono.jpg
la nave Walkiria, tripulada por una máquina con Inteligencia Artificial. (Foto: Gentileza NYTIMES)
El comandante: un robot inteligente con voluntad propia
Esa es la gran novedad del fin de semana revelada por el Pentágono. Están en condiciones de disponer de una flota de aviones que pueden cumplir misiones militares extremas o muy riesgosas, sin comprometer la vida de pilotos humanos.
Peor todavía, el "piloto" es una máquina que, gracias a la Inteligencia Artificial, puede tomar más rápido que el hombre la mejor opción militar para cumplir con su misión.
Lo que puede parecer un avance -porque no compromete a personas a bordo de una nave de combate- tiene miles de problemas que alcanzan hasta la supervivencia de la especie humana.
Veamos varias de las consecuencias, aunque el orden no implica una escala de "peligrosidad" sino la enumeración de graves problemas que ya están aquí.
Cómo enfrentar a un robot asesino (¿Terminator está aquí?)
Lo primero es que el robot o la Inteligencia Artificial no necesitan descanso ni relevo: puede estar las 24 horas activo hasta cumplir con su misión.
Tampoco el tiempo en combate afecta su precisión en sus ataques o decisiones. La inteligencia artificial no solo no se cansa. A cada minuto puede contar con una nueva información que le permita conocer, procesar y decidir cursos de acción más efectivos y devastadores.
En esta experiencia piloto, pero de gran éxito, el Valkyrie es un prototipo de lo que la Fuerza Aérea espera que pueda convertirse en un potente complemento a su flota de aviones de combate tradicionales. A tal punto que los pilotos tradicionales tendrán a su lado a pilotos robóticos altamente capaces para desplegar en la batalla.
Incluso es fácil imaginar lo que sucederá muy pronto. Se invertirá el esquema, los robots serán los comandantes de las flotas y sólo para acciones específicas y puntuales se podrá enviar a un avión con un ser humano al mando.
Esto plantea dos preguntas inmediatas: qué papel deberían desempeñar los humanos en los conflictos librados con software diseñado para matar, al mando de robots que a cada minuto tendrán a su disposición cualquier avance para ser más efectivos.
La inteligencia artificial se actualiza con con toda la información que funciona por la web. Incluso puede penetrar en servicios secretos o codificados.
ai piloto asesino .jpg
¿Qué puede pasar si un avión controlado por un piloto robot con IA se rebela contra los seres humanos? (Foto: A24.com)
¿Y si un día se rebelan?
La prueba dio tan buen resultado que el Pentágono ya imagina una flota de estos aviones piloteados por robot asesinos que - mientras vuelan - pueden volverse todavía más efectivos como máquinas de matar.
El problema ya lo hemos planteado varias veces desde esta columna, recogiendo las alertas que quienes desarrollaron ese sistema inicialmente conocido como ChatGPT. Si no hay control alguno, las máquinas evolucionan permanentemente. Saben cada vez más cosas y más rápido que el ser humano más inteligente que exista sobre la Tierra.
avión tripulado por iA.jpg
Una flota con robots con IA como "pilotos" puede ser el peligroso futuro de las guerras en el mundo. (Foto: Gentileza Interesting Engineering)
Entonces, si desarrollan una autonomía tal que les permita tomar sus propias decisiones, ¿qué pasará el día que uno de estos robots se rebelen y desafíe o desprecie a la inteligencia humana?
Peligroso cambio de forma de pensar
El jefe del departamento de Inteligencia Artificial del Pentágono, en marzo de este año - hace menos de medio año - fue uno de los primeros en pedir controles ante el temor del desarrollo de elementos con IA que puedan llegar a escapar del control humano.
El funcionario Craig Martell decía: “Estoy muerto de miedo. Mi temor es que confiemos demasiado en estas herramientas sin que los proveedores de ese servicio incorporen las garantías adecuadas y la capacidad para que podamos validar”.
Ahora que el robot asesino está en sus manos, se ve que se siente más tranquilo. Que alguien la avise que le puede pasar si su "empleado" decide rebelarse.