La IA de lanzamiento nuclear sería ilegal según la ley propuesta de EE. UU.

La IA de lanzamiento nuclear sería ilegal según la ley propuesta de EE. UU.
Una imagen generada por IA de una nube de hongo nuclear.
Agrandar / Una imagen generada por IA de una nube de hongo nuclear.

a mitad de camino

El miércoles, el senador estadounidense Edward Markey (D-Mass.) y los representantes Ted Lieu (D-Calif.), Don Beyer (D-Va.) y Ken Buck (R-Colo.) Anunciado legislación bipartidista que busca evitar que un sistema de inteligencia artificial tome decisiones de lanzamiento nuclear. La Ley de Bloqueo de Lanzamiento Nuclear por Inteligencia Artificial Autónoma prohibiría el uso de fondos federales para lanzar cualquier arma nuclear mediante un sistema automatizado sin un “control humano significativo”.

“Como vivimos en una era cada vez más digital, debemos asegurarnos de que los humanos tengan el poder para comandar, controlar y lanzar armas nucleares, no los robots”, dijo Markey en un comunicado de prensa. “Es por eso que me enorgullece presentar la Ley de Lanzamiento Nuclear en Bloque por Inteligencia Artificial Autónoma. Necesitamos mantener a los humanos informados sobre cómo tomar decisiones de vida o muerte para usar la fuerza letal, especialmente para nuestras armas más peligrosas”.

El nuevo proyecto de ley se basa en la política existente del Departamento de Defensa de EE. UU., que estados que en todos los casos, “Estados Unidos mantendrá un ser humano ‘al tanto’ de todas las acciones críticas para informar y ejecutar las decisiones del presidente para iniciar y terminar el empleo de armas nucleares”.

El nuevo proyecto de ley tiene como objetivo codificar el principio del Departamento de Defensa en ley, y también sigue la recomendación del Comisión Nacional de Seguridad en Inteligencia Artificialque pidió a los EE. UU. que reafirmen su política de que solo los seres humanos pueden autorizar el empleo de armas nucleares.

“Si bien el uso militar de la IA por parte de los EE. UU. puede ser apropiado para mejorar la seguridad nacional, el uso de la IA para desplegar armas nucleares sin una cadena humana de mando y control es imprudente, peligroso y debe prohibirse”, dijo Buck en un comunicado. “Me enorgullece copatrocinar esta legislación para garantizar que los seres humanos, no las máquinas, tengan la última palabra sobre las decisiones militares más críticas y sensibles”.

El nuevo proyecto de ley surge a medida que crece la ansiedad sobre el potencial futuro de la tecnología de inteligencia artificial generativa que avanza rápidamente (y, a veces, se entiende poco y se sobrevalora), lo que llevó a un grupo de investigadores a pedir una pausa en el desarrollo de sistemas “más poderosos” que GPT-4. en marzo.

Si bien no se teme que GPT-4 lance un ataque nuclear, un grupo de investigadores de IA que evalúan las capacidades de los modelos de lenguaje grande más populares de la actualidad para OpenAI temen que los futuros sistemas de IA más avanzados puedan ser una amenaza para la civilización humana. Parte de ese miedo se ha transferido a la población en general, a pesar de las preocupaciones sobre las amenazas existenciales de la IA. controversial en la comunidad más amplia de aprendizaje automático.

Dejando de lado los temas candentes en tecnología, el nuevo proyecto de ley también es parte de un plan más amplio de Markey and Lieu para evitar la escalada nuclear. La pareja también recientemente reintroducido un proyecto de ley que prohibiría a cualquier presidente estadounidense lanzar un ataque nuclear sin autorización previa del Congreso. El objetivo general, según los congresistas, es reducir el riesgo de un “Armagedón nuclear” y obstaculizar la proliferación nuclear.

Los copatrocinadores de la Ley de lanzamiento nuclear en bloque por inteligencia artificial autónoma en el Senado incluyen a Bernie Sanders (I-Vt.) y Elizabeth Warren (D-Massachusetts).

Leave a Reply

Your email address will not be published. Required fields are marked *