Los críticos cuestionan la alineación tecnológica de la nueva junta de seguridad de IA de Seguridad Nacional

Los críticos cuestionan la alineación tecnológica de la nueva junta de seguridad de IA de Seguridad Nacional
Una fotografía modificada de un científico de 1956 embotellando cuidadosamente

El viernes, el Departamento de Seguridad Nacional de EE.UU. Anunciado la formación de una Junta de Seguridad de Inteligencia Artificial que consta de 22 miembros procedentes de la industria tecnológica, el gobierno, el mundo académico y organizaciones de derechos civiles. Pero dada la naturaleza nebulosa del término “IA”, que puede aplicarse a una amplio espectro de la tecnología informática, no está claro si este grupo podrá siquiera ponerse de acuerdo sobre de qué nos están protegiendo exactamente.

El presidente Biden ordenó al secretario del DHS, Alejandro Mayorkas, que estableciera la junta, que se reunirá por primera vez a principios de mayo y posteriormente trimestralmente.

El supuesto fundamental que plantea la existencia de la junta, y que se refleja en la orden ejecutiva de IA de Biden de octubre, es que la IA es una tecnología intrínsecamente riesgosa y que los ciudadanos y las empresas estadounidenses deben estar protegidos de su uso indebido. En ese sentido, el objetivo del grupo es ayudar a protegerse contra adversarios extranjeros que utilizan la IA para alterar la infraestructura estadounidense; desarrollar recomendaciones para garantizar la adopción segura de la tecnología de inteligencia artificial en los servicios de transporte, energía e Internet; fomentar la colaboración intersectorial entre el gobierno y las empresas; y crear un foro donde los líderes de IA compartan información sobre los riesgos de seguridad de la IA con el DHS.

Vale la pena señalar que la naturaleza mal definida del término “Inteligencia Artificial” no favorece a la nueva junta en cuanto a alcance y enfoque. La IA puede significar muchas cosas diferentes: puede impulsar un chatbot, volar un avión, controlar los fantasmas en Pac-Man, regular la temperatura de un reactor nuclear o jugar una gran partida de ajedrez. Pueden ser todas esas cosas y más, y dado que muchas de esas aplicaciones de IA funcionan de manera muy diferente, no hay garantía de que dos personas en el tablero estén pensando en el mismo tipo de IA.

Esta confusión se refleja en las citas proporcionadas en el comunicado de prensa del DHS de los nuevos miembros de la junta, algunos de los cuales ya están hablando de diferentes tipos de IA. Mientras OpenAI, Microsoft y Anthropic están monetizando sistemas de IA generativa como ChatGPT basados ​​en grandes modelos de lenguaje (LLM), Ed Bastian, director ejecutivo de Delta Air Lines, se refiere a clases completamente diferentes de aprendizaje automático cuando dice: “Al impulsar herramientas innovadoras Al igual que los recursos de la tripulación y la predicción de turbulencias, la IA ya está haciendo contribuciones significativas a la confiabilidad del sistema de viajes aéreos de nuestra nación”.

Por lo tanto, definir el alcance de lo que significa exactamente la IA (y qué aplicaciones de la IA son nuevas o peligrosas) podría ser uno de los desafíos clave para la nueva junta.

Una mesa redonda de directores ejecutivos de grandes tecnologías genera críticas

Para la reunión inaugural de la Junta de Seguridad de IA, el DHS seleccionó un grupo con gran peso en la industria tecnológica, poblado por directores ejecutivos de cuatro importantes proveedores de IA (Sam Altman de OpenAI, Satya Nadella de Microsoft, Sundar Pichai de Alphabet y Dario Amodei de Anthopic), el director ejecutivo Jensen Huang del principal fabricante de chips de inteligencia artificial, Nvidia, y representantes de otras importantes empresas tecnológicas como IBM, Adobe, Amazon, Cisco y AMD. También hay representantes de las grandes empresas aeroespaciales y de aviación: Northrop Grumman y Delta Air Lines.

Al leer el anuncio, algunos críticos discreparon con la composición de la junta. En LinkedIn, fundador del Distributed AI Research Institute (DAIR) Timnit Gebru criticó especialmente la presencia de OpenAI en el tablero y escribió“Ya he visto la lista completa y es divertidísimo. Zorros cuidando el gallinero es un eufemismo”.

Leave a Reply

Your email address will not be published. Required fields are marked *