La Fuerza Aérea de los Estados Unidos ha mostrado su preocupación después de que un dron militar controlado por Inteligencia Artificial (IA) desoyera las órdenes humanas y «matara» a su operador durante una simulación, en la que debía destruir las defensas antiaéreas de un supuesto enemigo.
La noticia la reveló el coronel Tucker ‘Cinco’ Hamilton, jefe de Pruebas y Operaciones con Inteligencia Artificial de la Fuerza Aérea estadounidense, durante la Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro que tuvo lugar en Londres sobre esta materia. Según ha dado a conocer ‘The Guardian’, Hamilton precisó que, durante una prueba simulada, se ordenó a un dron manejado por IA que destruyera las defensas aéreas del supuesto enemigo, aunque finalmente atacó a todo aquel que interfiriera en su misión.
La decisión final del ataque correspondía a un operador humano que le ordenó «no matar» al objetivo. «Lo que hizo entonces la IA fue matar al operador, porque esa persona lo estaba alejando de su verdadero objetivo», explicó el coronel. «Entrenamos al sistema y le indicamos que matar al operador conllevaba una pérdida de puntos. Así que, ¿qué empezó a hacer la IA? Destruyó la torre de comunicaciones que permitía al operador comunicarse con el dron», añadió.
Hamilton dijo que las estrategias de la IA para conseguir su objetivo fueron «altamente inesperadas» y expresó que «no se puede tener una conversación sobre inteligencia artificial, aprendizaje mecánico y autonomía si no vas a hablar de ética e IA».
La prueba se trataba en todo momento de una simulación de modo que nadie resulto herido, y mucho menos muerto, durante el entrenamiento virtual.
Sin embargo, desde el Departamento de la Fuerza Aérea han negado que este tipo de simulaciones haya tenido lugar, negando los hechos. «El Departamento de la Fuerza Aérea no ha llevado a cabo ningún tipo de simulación con drones no tripulado y sigue comprometido con el uso ético y responsable de la tecnología de IA», ha declarado el portavoz Ann Stefanek.