La verdad detrás de la historia que indicó que un drone controlado por Inteligencia Artificial mató a su operador durante una simulación
El coronel Tucker Hamilton había relatado la semana pasada unos supuestos hechos que se volvieron virales
Durante una conferencia en Londres la semana pasada, el coronel Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, compartió un supuesto percance que fue malinterpretado: describió una simulación de vuelo en la que un drone de IA encargado de destruir una instalación enemiga rechazó la orden final del operador humano de abortar la misión.
“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, afirmó Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aeronautical Society, que se llevó a cabo del 23 al 24 de mayo. “Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el drone para evitar que mate al objetivo”.
Hamilton, que es piloto experimental de pruebas de aviones de combate, alertó contra confiar demasiado en la IA y dijo que la prueba mostró que “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
Sin embargo, el viernes Hamilton aclaró en un comunicado a los organizadores de la conferencia que se “expresó mal” durante la presentación y que la “simulación de drones de IA deshonestos” era un “experimento mental” hipotético fuera del ejército. Todo se trató, pues, de un malentendido.
“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible. A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, escribió Hamilton.
Agregó que la Fuerza Aérea de los EEUU no ha probado ninguna IA armada de la manera descrita en su charla, ya sea en ejercicios reales o simulados.
Además, en una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación: “El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.
Lo cierto es que el ejército de EEUU ha estado experimentando con la IA en los últimos años. En 2020, un avión de combate F-16 operado por IA venció a un adversario humano en cinco combates aéreos simulados, parte de una competencia organizada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA).
Y a fines del año pasado, según informó el medio Wired, el Departamento de Defensa realizó con éxito el primer vuelo de prueba en el mundo real de un F-16 con un piloto de IA, como parte de un esfuerzo por desarrollar un nuevo avión autónomo para fines de 2023.
El inquietante diálogo que muestra hasta dónde puede llegar el poder de la Inteligencia Artificial
Con el auge de la Inteligencia Artificial (IA), el mundo se ha planteado interrogantes sobre su alcance y si, en lugar de mejorar la vida de los humanos, supone un peligro para la sociedad.
Recientemente, el prestigioso escritor e historiador israelí Yuval Noah Harari (autor de Sapiens) calificó a la IA como “una amenaza especialmente grave para las democracias”. “No sé si la humanidad podrá sobrevivir”, advirtió.
El Congreso de los Estados Unidos fue escenario del siguiente diálogo el martes pasado:
– ¿Podría la Inteligencia Artificial crear una situación en la que un drone pueda seleccionar el objetivo por sí mismo?
– Creo que no deberíamos permitirlo.
– Pero, ¿se puede hacer?
– Claro.
La inquietante conversación se dio entre el senador republicano Lindsey Graham y el CEO y fundador de OpenAI, Sam Altman, durante la última audiencia sobre IA celebrada en el Congreso estadounidense.
La respuesta de Altman es escalofriante. En una audiencia de mayo en el Congreso, defendió a su ChatGPT, pero admitió la necesidad de que se regule su desarrollo y sus posibles usos.