Los eurodiputados presionan por las reglas más estrictas del mundo sobre IA

Los eurodiputados presionan por las reglas más estrictas del mundo sobre IA

Los eurodiputados dieron un paso clave al adoptar nuevas reglas el jueves (11 de mayo) sobre la regulación de las herramientas de inteligencia artificial, la prohibición de las tecnologías policiales predictivas y el reconocimiento facial para la vigilancia de los ciudadanos.

Los reguladores de todo el mundo están compitiendo para ponerse al día con la velocidad de desarrollo de nuevas tecnologías, como ChatGPT, un chatbot basado en IA.

El jueves en las comisiones de mercado interior y libertades civiles, los eurodiputados optaron por endurecer las normas propuestas en un esfuerzo por defender los derechos humanos y fundamentales.

“Fue el primer intento de regular la IA en el mundo de esta manera horizontal y exhaustiva”, dijo el miércoles a los periodistas el eurodiputado socialista y demócrata italiano Brando Benifei, uno de los legisladores clave que trabajan en el expediente.

Los eurodiputados líderes en la legislación no esperan cambios importantes en la legislación antes de la votación en el pleno.

Propuesta por primera vez en 2021, la Ley de IA establecería reglas que rigen cualquier producto y servicio que utilice un sistema de inteligencia artificial. La legislación clasifica las herramientas de IA en cuatro rangos según su nivel de riesgo, desde mínimo hasta inaceptable.

Las aplicaciones más riesgosas enfrentan reglas más estrictas que requieren más transparencia y utilizan datos más precisos.

Las herramientas policiales que tienen como objetivo predeterminar dónde ocurrirán los delitos y por quién, por ejemplo, como la prevista en la película Minority Report, serán prohibidas.

La tecnología de reconocimiento facial remoto también estará prohibida, con la excepción de contrarrestar y prevenir una amenaza terrorista específica.

Se espera que se prohíban los llamados sistemas de “puntuación social”, que ya se están desarrollando en China, que juzgan o castigan a las personas y las empresas en función de su comportamiento.

Los sistemas de IA utilizados en categorías de alto riesgo como el empleo y la educación, que afectarían el curso de la vida de una persona, se enfrentan a estrictos requisitos de transparencia, evaluación de riesgos y medidas de mitigación.

El objetivo es “evitar una sociedad controlada basada en la IA, en lugar de hacer que la IA apoye más la libertad y el desarrollo humano, no una pesadilla securitaria”, dijo Benifei el miércoles.

“Pensamos que estas tecnologías podrían usarse, en lugar de para bien, también para mal, y consideramos que los riesgos son demasiado altos”, agregó.

“Con nuestro texto, también mostramos qué tipo de sociedad queremos”, dijo el eurodiputado italiano, y agregó: “una sociedad en la que se consideren la puntuación social, la vigilancia predictiva, la categorización biométrica, el reconocimiento emocional, el raspado indiscriminado de imágenes faciales de Internet”. prácticas inaceptables”.

Los empleadores o la policía utilizan el reconocimiento emocional para identificar a los trabajadores o conductores cansados.

La mayoría de los sistemas de inteligencia artificial, como los videojuegos o los filtros de correo no deseado, entran en la categoría de riesgo bajo o nulo.

Si bien la legislación original no cubría los chatbots en detalle, los eurodiputados agregaron una enmienda para poner a ChatGPT y la IA generativa similar al mismo nivel que los sistemas de IA de alto riesgo.

Como nuevo requisito, cualquier material protegido por derechos de autor utilizado para enseñar a los sistemas de IA cómo generar texto, imágenes, video o música debe documentarse, de modo que los creadores puedan decidir si su trabajo se ha utilizado y recibir un pago por ello.

Las infracciones generarán multas de hasta 30 millones de euros o el seis por ciento de los ingresos globales anuales de una empresa, que en el caso de empresas tecnológicas como Google y Microsoft podrían ascender a miles de millones.

Sin embargo, podrían pasar años antes de que las reglas entren en vigencia. Los eurodiputados en el pleno votarán la legislación a mediados de junio. Luego comienzan las negociaciones con los gobiernos de la UE y la comisión.

El texto final se espera para finales de año, o principios de 2024 a más tardar, seguido de un período de gracia para las empresas, que suele ser de dos años.

Lagunas

Los defensores de los derechos digitales dieron la bienvenida al primer paso en la adopción de la Ley de IA de la UE, pero la criticaron por los derechos de los migrantes.

“El parlamento está enviando un mensaje de importancia mundial a los gobiernos y desarrolladores de IA con su lista de prohibiciones, poniéndose del lado de las demandas de la sociedad civil de que algunos usos de la IA son demasiado dañinos para permitirlos”, dijo Sarah Chander, asesora principal de políticas de European Digital Rights. (EDRi), un grupo de defensa de los derechos.

“Desafortunadamente, el apoyo del Parlamento Europeo a los derechos de las personas no llega a proteger a los migrantes de los daños de la IA”, agregó Chander.

EDRi dijo que los eurodiputados no incluyeron en la lista de prácticas prohibidas en las que se utiliza la IA para facilitar las devoluciones ilegales de migrantes, o para perfilar a las personas de manera discriminatoria (por ejemplo, detectores de mentiras basados ​​en IA y sistemas de perfiles de riesgo).

Sin embargo, los funcionarios fronterizos también prohibirían el uso de la tecnología de reconocimiento facial en tiempo real.

“No hay salvaguarda más fuerte [than this ban]. Un paso fronterizo es un espacio público. Según el texto que tenemos en este momento, no podrá implementar la tecnología de reconocimiento biométrico de IA en un espacio público”, dijo otro eurodiputado clave en el expediente, el rumano Dragos Tudorache, de Renew Europe.

EDRi también advirtió que cualquier dilución de lo que constituye una IA de alto riesgo abriría lagunas peligrosas.

AccessNow, un grupo de defensa de los derechos civiles digitales, abogó por eliminar una autoevaluación excluida de la clasificación de alto riesgo, lo que corre el riesgo de convertir la Ley de IA en una “autorregulación”.

Los grupos de la industria advirtieron, por otro lado, que la regulación podría generar costos adicionales para las empresas y obstaculizar la innovación digital en Europa.

“Los desarrolladores de IA europeos ahora estarían en desventaja en comparación con sus contrapartes extranjeras por los cambios de los eurodiputados, como la amplia extensión de la lista de sistemas de IA prohibidos y los casos de uso de alto riesgo”, dijo la Asociación de la Industria de la Computación y las Comunicaciones ( CCIA) Europa, dijo una organización sin fines de lucro, que cuenta con Amazon, Apple, Facebook, Google, Twitter entre sus miembros.

Leave a Reply

Your email address will not be published. Required fields are marked *