La Fuerza Aérea de EE. UU. niega la historia de un dron asesino con IA

La Fuerza Aérea de EE. UU. niega la historia de un dron asesino con IA

La máquina de publicidad de la inteligencia artificial ha alcanzado un punto álgido y está comenzando a causar algunos dolores de cabeza extraños para todos.

Desde OpenAI lanzó ChatGPT A fines del año pasado, la IA ha estado en el centro de las discusiones de Estados Unidos sobre el progreso científico, el cambio social, perturbación económicaeducación, diablos, incluso el futuro del porno. Con su papel cultural fundamental, sin embargo, ha venido una buena cantidad de mentiras. O, más bien, la incapacidad del oyente promedio para saber si lo que está escuchando califica como una tontería o es, de hecho, información precisa sobre una tecnología nueva y audaz.

Un claro ejemplo de esto apareció esta semana con una noticia viral que implosionó rápidamente. Durante un conferencia de defensa

alojado en Londres, un coronel Tucker “Cinco” Hamilton, el jefe de pruebas y operaciones de IA con la USAF, contó una historia muy interesante sobre una “prueba simulada” reciente que involucraba un dron equipado con IA. Tucker le dijo a la audiencia de la conferencia que, durante el curso de la simulación, cuyo propósito era entrenar el software para apuntar a las instalaciones de misiles enemigos, el programa de IA se volvió rebelde al azar, se rebeló contra su operador y procedió a “matarlo”. Hamilton dijo:

“Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acabaría con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”.

En otras palabras: Hamilton parecía estar diciendo que la USAF efectivamente había doblado la esquina y nos había puesto de lleno en el territorio de la pesadilla distópica, un mundo donde el gobierno estaba ocupado entrenando un poderoso software de inteligencia artificial que, algún día, seguramente se volvería rebelde y nos mataría a todos. .

La historia fue recogida por varios medios, incluyendo Vicio y Persona enteraday las historias de la IA rebelde se extendieron rápidamente como un reguero de pólvora en Twitter.

Pero, desde el principio, la historia de Hamilton parecía… rara. Por un lado, no estaba exactamente claro lo que había sucedido. Una simulación había salido mal, claro, pero ¿qué significaba eso? ¿Qué tipo de simulación era? ¿Cuál fue el programa de IA que se volvió loco? ¿Era parte de un programa del gobierno? Nada de esto se explicó claramente, por lo que la anécdota sirvió principalmente como una narración dramática con detalles decididamente confusos.

Efectivamente, no mucho después de que la historia explotara en la prensa, la Fuerza Aérea salió con una refutación oficial de la historia.

“El Departamento de la Fuerza Aérea no ha llevado a cabo ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, bromeó una portavoz de la Fuerza Aérea, Ann Stefanek. múltiples medios de comunicación. “Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.

Mientras tanto, Hamilton comenzó una gira de retractación, hablando con varios medios de comunicación y diciéndoles a todos de manera confusa que esto no era una simulación real, sino un “experimento mental”. Dijo además: “Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible”, The Guardian. lo cita como diciendo “A pesar de que este es un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, afirmó además.

Por el aspecto de esta gira de disculpas, seguramente parece que Hamilton se comunicó mal o simplemente estaba inventando cosas. Tal vez vio la película de James Cameron. El terminador unas cuantas veces antes de asistir a la conferencia de Londres y su imaginación se apoderó de él.

Pero, por supuesto, hay otra forma de leer el incidente. La interpretación alternativa implica suponer que, en realidad, esta cosa hizo suceda, sea lo que sea que Tucker estaba tratando de decir, y tal vez ahora el gobierno no quiere exactamente que todos sepan que están a un paso de liberar Skynet en el mundo. Eso parece… ¿aterradoramente posible? Por supuesto, no tenemos evidencia de que ese sea el caso y no hay una razón real para pensar que lo sea. Pero el pensamiento está ahí.

Tal como está, el episodio resume el estado actual del discurso de la IA: una conversación confusa que oscila entre fantasías especulativas, relaciones públicas exageradas de Silicon Valley y nuevas realidades tecnológicas aterradoras, con la mayoría de nosotros confundidos sobre cuál es cuál.

Leave a Reply

Your email address will not be published. Required fields are marked *