La UE vota para prohibir la IA en la vigilancia biométrica y exige la divulgación de los sistemas de IA

La UE vota para prohibir la IA en la vigilancia biométrica y exige la divulgación de los sistemas de IA
La bandera de la UE frente a un fondo generado por IA.
Agrandar / La bandera de la UE frente a un fondo generado por IA.

UE / Difusión Estable

El miércoles, los funcionarios de la Unión Europea votaron para implementar regulaciones propuestas más estrictas con respecto a la IA, según Reuters. El borrador actualizado de la “Ley de IALa ley incluye la prohibición del uso de IA en vigilancia biométrica y requiere sistemas como ChatGPT de OpenAI para revelar cuándo la IA ha generado contenido. Si bien el borrador aún no es vinculante, da una fuerte indicación de cómo los reguladores de la UE están pensando en la IA.

Los nuevos cambios a la ley propuesta por la Comisión Europea, que aún no se han finalizado, tienen la intención de proteger a los ciudadanos de la UE de posibles amenazas relacionadas con la tecnología de aprendizaje automático.

Los cambios se producen en medio de la proliferación de sistemas generativos de IA que imitan las habilidades conversacionales humanas, como ChatGPT y GPT-4 de OpenAI, que han desencadenado controvertidos llamados a la acción entre los científicos de IA y los ejecutivos de la industria con respecto a los posibles riesgos sociales. Sin embargo, la Ley de IA propuesta por la UE tiene más de 2 años, por lo que no es solo una respuesta instintiva a la exageración de la IA. Incluye disposiciones que protegen contra otros tipos de daños de la IA que están más basados ​​en el aquí y ahora que en una toma de control hipotética de la IA.

“Mientras las grandes empresas tecnológicas hacen sonar la alarma sobre sus propias creaciones, Europa se ha adelantado y ha propuesto una respuesta concreta a los riesgos que la IA está empezando a plantear”, dijo Brando Benifei, coponente del proyecto de ley. (Un co-relator es similar a un copatrocinador de un proyecto de ley en el Congreso de los EE. UU., compartiendo la responsabilidad con otra persona para redactar y guiar la legislación propuesta a través del proceso legislativo).

El nuevo borrador de la Ley de IA incluye una disposición que prohibiría a las empresas extraer datos biométricos (como fotos de usuarios) de las redes sociales con fines de capacitación en reconocimiento facial. Noticias de firmas como Clearview AI que usan esta práctica para crear sistemas de reconocimiento facial generó severas críticas de los defensores de la privacidad en 2020. Sin embargo, Reuters informa que esta regla podría ser una fuente de controversia con algunos países de la UE que se oponen a una prohibición general de la IA en la vigilancia biométrica.

El nuevo borrador de la UE también impone medidas de divulgación y transparencia sobre la IA generativa. Se requeriría que los servicios de síntesis de imágenes como Midjourney divulguen contenido generado por IA para ayudar a las personas a identificar imágenes sintetizadas. El proyecto de ley también requeriría que las empresas de IA generativa proporcionen resúmenes del material con derechos de autor extraído y utilizado en la capacitación de cada sistema. Si bien la industria editorial respalda esta propuesta, de acuerdo a The New York Times, los desarrolladores de tecnología argumentan en contra de su viabilidad técnica.

Además, los creadores de sistemas generativos de IA deberán implementar salvaguardas para evitar la generación de contenido ilegal, y las empresas que trabajan en “aplicaciones de alto riesgo” deben evaluar su impacto potencial en los derechos fundamentales y el medio ambiente. El borrador actual de la ley de la UE designa los sistemas de inteligencia artificial que podrían influir en los votantes y las elecciones como “de alto riesgo”. También clasifica los sistemas utilizados por las plataformas de redes sociales con más de 45 millones de usuarios en la misma categoría, abarcando así plataformas como Meta y Twitter.

Según Reuters, Microsoft e IBM aplauden las nuevas reglas propuestas por los legisladores de la UE, aunque esperan que se perfeccione aún más la legislación propuesta. “Creemos que la IA requiere medidas de protección legislativas, esfuerzos de alineación a nivel internacional y acciones voluntarias significativas por parte de las empresas que desarrollan e implementan la IA”, dijo un portavoz de Microsoft al servicio de noticias.

Sin embargo, a pesar de los crecientes llamados a la regulación de la IA, algunas empresas como Meta han minimizado las amenazas potenciales de los sistemas de aprendizaje automático. En una conferencia en París el miércoles, el científico jefe de IA de Meta, Yann LeCun, dijo: “La IA es intrínsecamente buena porque el efecto de la IA es hacer que las personas sean más inteligentes”.

Además, algunos críticos piensan que la alarma sobre el riesgo existencial de los sistemas de IA es marchito y solo sirve para ayudar a empresas como Microsoft y OpenAI a lograr captura regulatoria—Usando su poder e influencia para dar forma a las regulaciones a su favor. Especialmente en lo que respecta a la posible regulación de la IA en los EE. UU., los críticos argumentan que permitir que los gigantes tecnológicos escriban las reglas podría dañar a las empresas más pequeñas y reprimir la competencia.

La Comisión Europea introdujo por primera vez la Proyecto de normas de la Ley AI en abril de 2021, y algunos han criticado la paso lento de regulaciones en el escenario global, pero con la tecnología cambiando tan rápidamente, es difícil mantenerse al día. El jefe de industria de la UE, Thierry Breton, enfatizó la necesidad de una acción rápida en lugar de retrasar el progreso. “La IA plantea muchas preguntas, social, ética y económicamente”, dijo. “Pero ahora no es el momento de presionar ningún ‘botón de pausa’. Al contrario, se trata de actuar rápido y asumir la responsabilidad”.

Los expertos dicen que después de un debate considerable sobre las nuevas reglas entre los países miembros de la UE, no se espera una versión final de la Ley de IA hasta finales de este año.

Leave a Reply

Your email address will not be published. Required fields are marked *