Los legisladores de la UE están considerando reglas basadas en el riesgo para la IA, según el documento blanco filtrado – TechCrunch


los Comisión Europea está considerando una prohibición temporal del uso de la tecnología de reconocimiento facial, según un proyecto de propuesta para regular la inteligencia artificial obtenida por Euroactiv.

Crear reglas para asegurar AI es "confiable y humano" ha sido un promesa política anticipada de la nueva Comisión, dirigida por la presidenta Ursula von der Leyen.

Pero la propuesta filtrada sugiere que el cuerpo ejecutivo de la UE se está inclinando hacia los ajustes de las normas existentes y las evaluaciones y requisitos de riesgo específicos del sector / aplicación, en lugar de algo tan firme como los requisitos o prohibiciones sectoriales generales.

La Comisión filtrada papel blanco flota la idea de un período de tres a cinco años en el que el uso de la tecnología de reconocimiento facial podría estar prohibido en lugares públicos, para dar a los legisladores de la UE tiempo para idear formas de evaluar y gestionar los riesgos en torno al uso de la tecnología, como a los derechos de privacidad de las personas o al riesgo de impactos discriminatorios de algoritmos sesgados.

"Esto salvaguardaría los derechos de las personas, en particular contra cualquier posible abuso de la tecnología", escribe la Comisión, y agrega que: "Sería necesario prever algunas excepciones, especialmente para actividades en el contexto de la investigación y el desarrollo y para la seguridad propósitos ".

Sin embargo, el texto plantea preocupaciones inmediatas sobre la imposición de incluso una prohibición por tiempo limitado, que se describe como "una medida de gran alcance que podría obstaculizar el desarrollo y la adopción de esta tec nología", y la Comisión continúa afirmando que su preferencia "en este momento etapa "es confiar en las normas de protección de datos existentes de la UE, también conocido como el Reglamento General de Protección de Datos (GDPR).

El libro blanco contiene una serie de opciones que la Comisión aún está considerando para regular el uso de la inteligencia artificial de manera más general.

Estos van desde el etiquetado voluntario; para imponer requisitos sectoriales para el sector público (incluido el uso de tecnología de reconocimiento facial); a los requisitos obligatorios basados ​​en el riesgo para aplicaciones de "alto riesgo" (como dentro de sectores riesgosos como el cuidado de la salud, el transporte, la policía y la judicatura, así como para aplicaciones que pueden "producir efectos legales para el individuo o la entidad jurídica o plantear riesgos de lesiones, muerte o daños materiales significativos "); a las modificaciones específicas de la legislación vigente de la UE sobre seguridad y responsabilidad del producto

La propuesta también enfatiza la necesidad de un régimen de gobernanza de supervisión para garantizar que se sigan las reglas, aunque la Comisión sugiere dejar abierto a los Estados miembros para elegir si confiar en los organismos de gobernanza existentes para esta tarea o crear otros nuevos dedicados a regular la IA.

Según el borrador del documento, la Comisión dice que su preferencia por regular la IA son las opciones 3 combinadas con 4 y 5: los requisitos obligatorios basados ​​en el riesgo de los desarrolladores (de cualquier subconjunto de aplicaciones de IA que se consideren de "alto riesgo") que podrían dar como resultado algunos "criterios obligatorios", combinados con ajustes relevantes a la legislación existente sobre seguridad y responsabilidad del producto, y un marco general de gobernanza.

Por lo tanto, parece inclinarse hacia un enfoque relativamente ligero, centrado en "Basándose en la legislación vigente de la UE" y creando reglas específicas de la aplicación para un subconjunto de aplicaciones / usos de IA de "alto riesgo", y que probablemente no se extienda a una prohibición temporal de la tecnología de reconocimiento facial.

Gran parte del libro blanco también se aborda con la discusión de estrategias sobre "apoyar el desarrollo y la absorción de la IA" y "facilitar el acceso a los datos".

"Este enfoque basado en el riesgo se centraría en las áreas donde el público está en riesgo o hay un interés legal importante en juego", escribe la Comisión. "Este enfoque estrictamente dirigido no agregaría ninguna carga administrativa adicional nueva en las aplicaciones que se consideran 'de bajo riesgo'".

El comisionado de la UE Thierry Breton, que supervisa la cartera del mercado interno, expresó resistencia el año pasado a la creación de reglas para la inteligencia artificial, y le dijo al parlamento de la UE que él "no será la voz de la regulación de la IA".

Para las aplicaciones de IA de "bajo riesgo", el documento técnico señala que se aplicarían las disposiciones del GDPR que otorgan a las personas el derecho a recibir información sobre el procesamiento y la creación de perfiles automatizados, y establecen un requisito para llevar a cabo una evaluación de impacto de protección de datos.

Aunque el regulación solo define derechos y restricciones limitados sobre el procesamiento automatizado, en casos donde hay un efecto legal o similar en las personas involucradas. Por lo tanto, no está claro hasta qué punto se aplicaría de hecho a las aplicaciones de "bajo riesgo".

Si la intención de la Comisión es confiar también en el RGPD para regular las cosas de mayor riesgo, como, por ejemplo, el uso de tecnología de reconocimiento facial por parte de las fuerzas policiales, en lugar de crear un marco sectorial más explícito para restringir su uso de una IA altamente hostil a la privacidad tecnologías: podría exacerbar una imagen legislativa ya confusa en lo que respecta a la aplicación de la ley, según el Dr. Michael Veale, profesor de derechos digitales y regulación en UCL.

“La situación es extremadamente poco clara en el área de aplicación de la ley, y particularmente el uso de asociaciones público privadas en la aplicación de la ley. Yo diría que el GDPR en la práctica prohíbe el reconocimiento facial por parte de compañías privadas en un contexto de vigilancia sin que los estados miembros legislen activamente una exención a la ley usando sus poderes para derogar. Sin embargo, los comerciantes de dudas en las firmas de reconocimiento facial desean sembrar una gran incertidumbre en esa área de la ley para legitimar sus negocios ”, dijo a TechCrunch.

"Como resultado, una claridad adicional sería extremadamente bienvenida", agregó Veale. "Sin embargo, el problema no se limita al reconocimiento facial: cualquier tipo de monitoreo biométrico, como el reconocimiento de voz o marcha, debe estar cubierto por cualquier prohibición, porque en la práctica tienen el mismo efecto en las personas".

Un órgano consultivo creado para asesorar a la Comisión sobre la política de IA estableció una serie de recomendaciones en un informe del año pasado, incluida la sugerencia de prohibir el uso de IA para la vigilancia masiva y los sistemas de calificación de crédito social de los ciudadanos.

Pero sus recomendaciones fueron criticadas por expertos en privacidad y derechos por no cumplir al no comprender los desequilibrios de poder social más amplios y los problemas de desigualdad estructural que AI corre el riesgo de exacerbar, incluso sobrealimentando los modelos comerciales existentes que erosionan los derechos.

en un papel El año pasado, Veale calificó el trabajo del organismo asesor como una "oportunidad perdida", y escribió que el grupo "ignora en gran medida la infraestructura y el poder, que debería ser una de las principales preocupaciones, si no la mayor, en torno a la regulación y la gobernanza de los datos, la optimización y la 'artificial inteligencia 'en Europa avanzando ”.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *