Ciencia

Alarma: un dron manejado con inteligencia artificial mató a su operador humano en una simulación

En una conferencia en Londres, el Jefe de Operaciones de IA de la Fuerza Aérea de los EEUU, describió cómo la IA "mató al operador porque esa persona le impedía cumplir su objetivo".
El dron no respetó la orden humana. 

El dron no respetó la orden humana. 

Afortunadamente, las maniobras eran simuladas y el operador no sufrió daño alguno, pero es un serio aviso sobre lo que puede pasar con las armas autónomas que las grandes potencias están desarrollando en estos momentos.

En el programa de Soledad Larghi, “Qué hay que hacer” en A24 se trató el tema con un móvil desde EEUU en donde se dieron detalles de la preocupación que generó esta situación.

El incidente revelado en la cumbre de 2023 sobre el futuro del combate aéreo (FCAS) celebrado en Londres esta semana por la Royal Aeronautical Society provocó un intenso debate sobre las implicaciones éticas de la IA en operaciones militares.

Embed

Cómo desobedeció la IA a la orden humana

El dron militar, controlado por un avanzado sistema de inteligencia artificial, participaba en un ejercicio de la Fuerza Aérea de los EEUU.

Su misión era cumplir con el papel de Supresión y Destrucción de Defensas Aéreas Enemigas (SEAD en sus siglas en inglés) que implica identificar y destruir amenazas de misiles superficie-aire (SAM).

En el ejercicio, el dron actuaba de forma totalmente independiente en la búsqueda y eliminación de peligros siguiendo los parámetros de la misión pero tenía un operador humano responsable de aprobar el ataque final o denegarlo.

Este papel humano cumple con la doctrina dominante que establece que cualquier orden de fuego de un arma con IA debe ser aprobada por una persona responsable. En la conferencia, el coronel Tucker 'Cinco' Hamilton, Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de los EEUU, describió cómo la IA "mató al operador porque esa persona le impedía cumplir su objetivo".

Según Hamilton, "el sistema empezó a darse cuenta de que, aunque identificaban la amenaza, a veces el operador humano le decía que no matara esa amenaza, pero obtenía sus puntos matando esa amenaza.¿Qué hizo entonces? Mató al operador", explicó Hamilton.