Ley de IA: dejar la supervisión a los técnicos no protegerá los derechos

Ley de IA: dejar la supervisión a los técnicos no protegerá los derechos

En mayo, el Parlamento Europeo tiene previsto votar la histórica Ley de Inteligencia Artificial, el primer intento integral del mundo de regular el uso de la IA.

Sin embargo, se ha prestado mucha menos atención a cómo se implementarán en la práctica los aspectos clave de la ley, aquellos relacionados con las aplicaciones de “alto riesgo” de los sistemas de IA. Este es un descuido costoso, porque el proceso previsto actual puede poner en peligro significativamente los derechos fundamentales.

Normas técnicas: ¿quién, qué y por qué es importante?

Según la versión actual de la ley, la clasificación de las tecnologías de IA de alto riesgo incluye las que se utilizan en la educación, la contratación y gestión de empleados, la prestación de beneficios y servicios de asistencia pública y la aplicación de la ley. Si bien no están prohibidos, cualquier proveedor que desee llevar una tecnología de inteligencia artificial de alto riesgo al mercado europeo deberá demostrar el cumplimiento de los “requisitos esenciales” de la ley.

Sin embargo, la ley es vaga sobre lo que estos requisitos implican realmente en la práctica, y los legisladores de la UE tienen la intención de ceder esta responsabilidad a dos organizaciones de estándares técnicos poco conocidas.

El Comité Europeo de Normalización (CEN) y el Comité Europeo de Normalización Electrotécnica (CENELEC) se identifican en la Ley de IA como los organismos clave para desarrollar estándares que establezcan los marcos técnicos, requisitos y especificaciones para tecnologías aceptables de IA de alto riesgo.

Estos organismos están compuestos casi exclusivamente por ingenieros o tecnólogos que representan a los estados miembros de la UE. Con poca o ninguna representación de expertos en derechos humanos u organizaciones de la sociedad civil, existe un peligro real de que estos organismos tengan el poder de facto para determinar cómo se implementa la Ley AI sin los medios para garantizar que su objetivo previsto: proteger los derechos fundamentales de las personas. derechos— se cumple verdaderamente.

En ARTÍCULO 19, hemos estado trabajando durante más de media década en la construcción y el fortalecimiento de la consideración de los derechos humanos en los organismos de normalización técnica, incluido el Grupo de Trabajo de Ingeniería de Internet (IETF), el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) y la Unión Internacional de Telecomunicaciones. (UIT). Sabemos por experiencia que no están configurados para comprometerse significativamente con estas consideraciones.

Cuando se trata de tecnología, es imposible separar por completo las opciones de diseño técnico de los impactos en el mundo real sobre los derechos de las personas y las comunidades, y esto es especialmente cierto en el caso de los sistemas de IA que CEN y CENELEC deberían abordar según los términos actuales de el acto.

Es probable que los estándares que produzcan establezcan requisitos relacionados con el gobierno de datos, la transparencia, la seguridad y la supervisión humana.

Todos estos elementos técnicos tendrán un impacto directo en el derecho a la privacidad de las personas y efectos colaterales en sus derechos a la protesta, al debido proceso, a la salud, al trabajo ya la participación en la vida social y cultural. Sin embargo, para comprender cuáles son estos impactos y abordarlos de manera efectiva, la experiencia en ingeniería no es suficiente; también necesitamos experiencia en derechos humanos para ser parte del proceso.

Aunque la Comisión Europea ha hecho referencias específicas a la necesidad de esta experienciaasí como la representación de otros intereses públicos, será difícil de lograr en la práctica.

Con pocas excepciones, la membresía de CEN y CENELEC está cerrada a la participación de cualquier organización que no sean los organismos nacionales de normalización que representan los intereses de los estados miembros de la UE. Incluso si hubiera una manera sólida para que los expertos en derechos humanos participaran de forma independiente, no existen compromisos ni mecanismos de rendición de cuentas para garantizar que se respete la consideración de los derechos fundamentales en este proceso, especialmente cuando estas consideraciones entran en conflicto con las empresas o el gobierno. intereses.

El establecimiento de normas como acto político

La normalización, lejos de ser un ejercicio puramente técnico, probablemente será muy político, ya que CEN y CENELEC tendrán la tarea de responder algunas de las preguntas más complicadas que quedaron abiertas en los requisitos esenciales de la Ley, preguntas que se abordarían mejor a través de consultas abiertas. procesos regulatorios y normativos transparentes y consultivos.

Al mismo tiempo, el Parlamento Europeo no tendrá la capacidad de vetar las normas ordenadas por la Comisión Europea, incluso cuando los detalles de estas normas puedan requerir un mayor escrutinio democrático o interpretación legislativa. Como resultado, estos estándares pueden debilitar drásticamente la implementación de la Ley de IA, dejándola ineficaz frente a las tecnologías que amenazan nuestros derechos fundamentales.

Si la UE se toma en serio su compromiso de regular la IA de manera que respete los derechos humanos, externalizar esas consideraciones a organismos técnicos no es la respuesta.

Una mejor manera de avanzar podría incluir el establecimiento de un marco de “evaluación del impacto de los derechos fundamentales” y un requisito para que todos los sistemas de inteligencia artificial de alto riesgo se evalúen de acuerdo con este marco como condición para su comercialización. Tal proceso podría ayudar a garantizar que estas tecnologías se entiendan, analicen y, si es necesario, mitiguen adecuadamente caso por caso.

La Ley de IA de la UE es una oportunidad fundamental para trazar algunas líneas rojas muy necesarias en torno a los usos más dañinos de las tecnologías de IA y poner en práctica las mejores prácticas para garantizar la responsabilidad a lo largo del ciclo de vida de los sistemas de IA. Los legisladores de la UE tienen la intención de crear un sistema sólido que salvaguarde los derechos humanos fundamentales y ponga a las personas en primer lugar. Sin embargo, al ceder tanto poder a las organizaciones de estándares técnicos, socavan la totalidad de este proceso.