La “Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Frontera” de California (también conocida como SB-1047) ha provocado una oleada de titulares y debate En cuanto a la “seguridad” general de los grandes modelos de inteligencia artificial, los críticos temen que el enfoque exagerado del proyecto de ley en las amenazas existenciales que presentan los futuros modelos de IA pueda limitar gravemente la investigación y el desarrollo de usos más prosaicos y no amenazantes de la IA en la actualidad.
SB-1047presentado por el Senador Estatal Scott Wienerpasó el Senado de California En Mayo Con una votación de 32 a 1, parece estar bien posicionada para una votación final en la Asamblea Estatal en agosto. El texto del proyecto de ley requiere que las empresas que están detrás de modelos de IA suficientemente grandes (actualmente fijados en $100 millones en costos de capacitación y la potencia de procesamiento aproximada que implican esos costos hoy) implementen procedimientos y sistemas de prueba para prevenir y responder a “incidentes de seguridad”.
El proyecto de ley establece una definición legalista de esos incidentes de seguridad que, a su vez, se centra en definir un conjunto de “daños críticos” que un sistema de IA podría permitir. Eso incluye daños que provoquen “víctimas masivas o daños por un valor de al menos 500 millones de dólares”, como “la creación o el uso de armas químicas, biológicas, radiológicas o nucleares” (hola, Red Sky
El creador de un modelo de IA no puede ser considerado responsable del daño causado por compartir información “públicamente accesible” desde fuera del modelo; simplemente pedirle a un LLM que resuma El libro de cocina del anarquista Probablemente no lo convertiría en una violación de la ley, por ejemplo. En cambio, el proyecto de ley parece estar más preocupado por futuro Inteligencias artificiales que podrían generar “nuevas amenazas a la seguridad pública”. Más que un humano que utiliza una IA para generar ideas dañinas, la SB-1047 se centra en la idea de una IA “que se comporta de manera autónoma sin que medie la solicitud de un usuario” y actúa “con una supervisión, intervención o control humanos limitados”.
Para evitar esta eventualidad que parece sacada de una novela de ciencia ficción, cualquiera que entrene un modelo lo suficientemente grande debe “implementar la capacidad de ejecutar rápidamente un apagado total” y tener políticas establecidas para determinar cuándo se ejecutaría dicho apagado, entre otras precauciones y pruebas. El proyecto de ley también se centra en puntos sobre acciones de IA que requerirían “intención, imprudencia o negligencia grave” si las llevara a cabo un ser humano, lo que sugiere un grado de agencia que no existe en los modelos de lenguaje de gran tamaño actuales.
¿Ataque de la IA asesina?
Este tipo de lenguaje en el proyecto de ley probablemente refleja los temores particulares de su redactor original, el cofundador del Centro para la Seguridad de la IA (CAIS), Dan Hendrycks. Un artículo de la revista Time de 2023Hendrycks presenta el argumento existencialista maximalista de que “las presiones evolutivas probablemente inculcarán en las IA comportamientos que promuevan la autoconservación” y conducirán a “un camino hacia ser suplantados como la especie dominante de la Tierra”.
Si Hendrycks tiene razón, entonces una legislación como la SB-1047 parece una precaución de sentido común; de hecho, puede que no sea suficiente. Los partidarios del proyecto de ley, entre ellos los expertos en IA Geoffrey Hinton y Josué Bengiode acuerdo con La afirmación de Hendrycks que el proyecto de ley es un paso necesario para evitar posibles daños catastróficos causados por los sistemas avanzados de inteligencia artificial.
“Los sistemas de IA que superan un cierto nivel de capacidad pueden plantear riesgos significativos para las democracias y la seguridad pública”, escribió Bengio en un artículo. aprobación “Por lo tanto, deben ser sometidos a pruebas adecuadas y a las medidas de seguridad adecuadas. Este proyecto de ley ofrece un enfoque práctico para lograrlo y es un gran paso hacia los requisitos que he recomendado a los legisladores”.
“Si vemos aquí algún comportamiento de búsqueda de poder, no es el de los sistemas de IA, sino el de los agoreros de la IA.
La experta en políticas tecnológicas, Dra. Nirit Weiss-Blatt
Pero los críticos sostienen que la política de IA no debería guiarse por temores descabellados a sistemas futuros que se parecen más a la ciencia ficción que a la tecnología actual. “La SB-1047 fue redactada originalmente por grupos sin fines de lucro que creen en el fin del mundo por una máquina sensible, como el Centro para la Seguridad de la IA de Dan Hendrycks”. Daniel Jeffriesuna voz destacada en la comunidad de IA, le dijo a Ars. “No se puede partir de esta premisa y crear un proyecto de ley de seguridad sensato, sólido y ‘ligero'”.
“Si vemos aquí algún comportamiento que busque el poder, no es de los sistemas de IA, sino de los agoreros de la IA”, añadió la experta en políticas tecnológicas Nirit Weiss-Blatt. “Con sus miedos ficticios, intentan aprobar una legislación ficticia que, según numerosos expertos en IA y defensores del código abierto, podría arruinar la ventaja tecnológica de California y de Estados Unidos”.