La Fuerza Aérea niega ejecutar una simulación en la que un dron de IA “mató” a su operador

La Fuerza Aérea niega ejecutar una simulación en la que un dron de IA “mató” a su operador
Un vehículo aéreo no tripulado armado en la pista, pero de color naranja.
Agrandar
/ Un vehículo aéreo no tripulado armado en la pista, pero de color naranja.

imágenes falsas

Durante las últimas 24 horas, varios medios de comunicación informaron una historia ahora retractada que afirma que la Fuerza Aérea de los EE. UU. había realizado una simulación en la que un dron controlado por IA “se volvió rebelde” y “mató al operador porque esa persona le impedía lograr su objetivo”. La Fuerza Aérea de EE. UU. ha negado que alguna simulación haya tenido lugar, y la fuente original de la historia dice que se “equivocó al hablar”.

La historia se originó en un resumen publicado en el sitio web de la Royal Aeronautical Society que sirvió como una descripción general de las sesiones en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro que tuvo lugar la semana pasada en Londres.

En una sección de ese artículo titulada “AI, ¿Skynet ya está aquí?” Los autores del artículo relatan una presentación del Coronel Tucker “Cinco” Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, quien habló sobre una “prueba simulada” en la que un dron habilitado para IA, encargado de identificar y destruir misiles tierra-aire sitios, comenzó a percibir las decisiones humanas de “no seguir” como obstáculos para lograr su misión principal. Según los informes, en la “simulación”, la IA atacó a su operador humano y, cuando se entrenó para no dañar al operador, destruyó la torre de comunicación, evitando que el operador interfiriera con su misión.

La Royal Aeronautical Society cita a Hamilton diciendo:

Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acabaría con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza a veces, el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo.

Entrenamos al sistema: “Oye, no mates al operador, eso es malo. Perderás puntos si haces eso”. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo.

Este jugoso dato sobre un sistema de IA que aparentemente decidió matar a su operador simulado comenzó a circular en las redes sociales y pronto fue recogido por publicaciones importantes como Vicio

y El guardián (ambos han actualizado sus historias con retractaciones). Pero poco después de que la historia saliera a la luz, la gente en Twitter comenzó a cuestionar su veracidad, con algún dicho que por “simulación”, los militares se refieren a un escenario hipotético, no necesariamente a una simulación de software basada en reglas.

Hoy, Insider publicado una negación firme de la Fuerza Aérea de EE. UU., que dijo: “El Departamento de la Fuerza Aérea no ha realizado ninguna simulación de drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel fueron sacados de contexto y estaban destinados a ser anecdóticos”.

No mucho después, la Royal Aeronautical Society actualizó su resumen de la conferencia con una corrección de Hamilton:

El coronel Hamilton admite que “habló mal” en su presentación en la Cumbre FCAS de la Royal Aeronautical Society, y que la “simulación de drones de IA deshonestos” fue un “experimento mental” hipotético de fuera del ejército, basado en escenarios plausibles y resultados probables en lugar de un real. Simulación del mundo real de la USAF, diciendo: “Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible”. Aclara que la USAF no ha probado ninguna IA armada de esta manera (real o simulada) y dice: “A pesar de que se trata de un ejemplo hipotético, esto ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometidos con el desarrollo ético de la IA”.

El malentendido y la rápida propagación viral de un “demasiado bueno para ser verdadLa historia muestra lo fácil que es difundir involuntariamente noticias erróneas sobre la IA “asesina”, especialmente cuando se ajusta a las nociones preconcebidas de la mala práctica de la IA.

Aún así, muchos expertos gritó la historia como demasiado simple para empezar, y no solo por críticas técnicas explicando que un sistema militar de inteligencia artificial no necesariamente funcionaría de esa manera. Como un usuario de BlueSky llamado “trucha kilgore” con humor Ponlo“Sabía que esta historia era una tontería porque imagínense a los militares saliendo y diciendo que un costoso sistema de armas en el que están trabajando apesta”.

Leave a Reply

Your email address will not be published. Required fields are marked *