Coronel de la Fuerza Aérea de los EE.UU. que había contado como durante una simulación un dron controlado por Inteligencia Artificial (IA) se había vuelto contra su operador humano, asegura ahora que se expresó mal y que dicho experimento nunca pasó, que fue todo un “ejercicio mental”.
Entre los días 23 y 24 de mayo, la Royal Aeronautical Society organizó en su sede de Londres la conferencia Future Combat Air & Space Capabilities Summit, que reunió a casi 70 ponentes y más de 200 delegados del sector de las fuerzas armadas, el mundo académico y los medios de comunicación de todo el mundo para debatir sobre el tamaño y la forma de las capacidades aéreas y espaciales de combate del futuro.
Durante la conferencia se abordaron diferentes temas, entre los cuales se habló sobre el desarrollo de la Inteligencia Artificial y su aplicación en el campo de batalla del futuro.
Situación Skynet
Una de las presentaciones estuvo a cargo del coronel Tucker «Cinco» Hamilton, Jefe de Pruebas y Operaciones de Inteligencia Artificial de la USAF, que ofreció una visión de las ventajas y los peligros de los sistemas de armamento más autónomos.
Tras haber participado en el desarrollo del sistema Auto-GCAS para salvar vidas en los F-16, Hamilton participa ahora en pruebas de vuelo de vanguardia de sistemas autónomos, incluidos los F-16 no tripulados capaces de librar combates aéreos (experimento llamado Alpha Dogfight). Sin embargo, advirtió del peligro de confiar demasiado en la IA, señalando lo fácil que es engañarla y de que es capaz de crear estrategias muy inesperadas para lograr su objetivo.
Según habría relatado Hamilton, durante una prueba simulada se encargó a un dron dotado de IA una misión SEAD de identificación y destrucción de emplazamientos SAM, en la que la decisión final de si atacarla o no, la tomaba un humano. Sin embargo, tras haber sido «reforzada» en el entrenamiento para que la destrucción de las baterías SAM fuera la opción preferida, la IA decidió que la mejor forma de lograr su objetivo primario, era sacarse de encima al operador humano que tenía la capacidad de anular la orden de ataque.
Hamilton explicaba: «Lo entrenamos en la simulación para identificar y apuntar a una amenaza SAM. Y entonces el operador decía sí, mata esa amenaza». El sistema empezó a darse cuenta de que, aunque a veces identificaba la amenaza, el operador humano le decía que no la atacara, pero conseguía sus puntos matándola. ¿Y qué hizo? Mató al operador. Mataba al operador porque esa persona le impedía cumplir su objetivo«.
Hamilton continuó: «Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Perderás puntos si lo haces». ¿Y qué empezó a hacer? Empieza a destruir la torre de comunicaciones que el operador utiliza para comunicarse con el dron e impedir que mate al objetivo«.
Vea también: Inteligencia Artificial, el inicio de una nueva era para el combate aéreo
Repercusiones en los medios globales
Las voces de alarma sonaron tanto en medios especializados como en los medios masivos de comunicación, de como una inteligencia artificial se había vuelto contra sus creadores humanos, de alguna forma confirmando los pronósticos apocalípticos para la humanidad vaticinada en obras de ciencia ficción como Terminator, Matrix, y tantas otras.
Todo fue un mal entendido…esperemos
Sin embargo, en el día de hoy, el coronel Tucker «Cinco» Hamilton se comunicó con la revista AEROSPACE (publicación de la Royal Aeronautical Society) para aclarar que se “equivocó” en su forma de expresarse durante su presentación en la Future Combat Air & Space Capabilities Summit y que la «simulación de avión no tripulado IA rebelde» era un «experimento mental», solo un caso hipotético basado en escenarios plausibles y resultados probables, en lugar de una simulación real de la USAF.
UPDATED: Highlights from the Future Combat Air and Space Capabilities Summit #AI #drones #GCAP #Tempest #USAF #RAF #FCAS #FCAS23 https://t.co/cNgqzIP50g pic.twitter.com/DU2XQLrPPj
— Royal Aeronautical Society (@AeroSociety) June 2, 2023
Hamilton aclaró: «Nunca hemos realizado ese experimento, ni tendríamos que hacerlo para darnos cuenta de que se trata de un resultado plausible». Aclara que la USAF no ha probado ninguna IA armada de esta forma (real o simulada) y afirma: «A pesar de que se trata de un ejemplo hipotético, ilustra los retos del mundo real que plantea la capacidad potenciada por IA y es la razón por la que la Fuerza Aérea de los EE.UU. esta comprometida con el desarrollo ético de la IA».
Según Hamilton, el objetivo de su presentación era hacer hincapié en que no se puede hablar de inteligencia artificial, sin desarrollar también una ética de la inteligencia artificial.