Los algoritmos racistas y la IA no pueden determinar la política migratoria de la UE

Los algoritmos racistas y la IA no pueden determinar la política migratoria de la UE

Varar a personas en el mar y dejarlas ahogarse en lugar de rescatarlas. Decisiones sobre la vida de las personas en manos de pruebas de detector de mentiras poco fiables. Decisiones importantes sobre seguridad en manos de algoritmos.

Estos son solo algunos ejemplos del camino que estamos recorriendo, que los legisladores de la UE ahora tienen una rara oportunidad de prevenir.

Hemos visitado campos de refugiados de alta tecnología en Grecia, visto fronteras violentas en toda Europa y hablado con cientos de personas que están al borde de la brutalidad asistida por tecnología

. La IA en la migración se usa cada vez más para hacer predicciones, valoraciones y evaluaciones basadas en suposiciones racistas con las que está programada.

Pero con lo que viene, legislación para regular la Inteligencia Artificial (la “Ley de IA de la UE”), la UE tiene la oportunidad de vivir sus valores autoproclamados, establecer un estándar global y trazar líneas rojas en las tecnologías más dañinas.

Los políticos han convertido la migración en un arma política y las políticas de la UE se están volviendo cada vez más violentas: endurecimiento de las fronteras, aumento de las deportaciones, empoderamiento de agencias como Frontex, que se han visto repetidamente implicadas en graves abusos contra los derechos humanos, e incluso tolerar el arresto y encarcelamiento de los -Voluntarios de rescate, médicos, abogados y periodistas.

Cada vez más, las tecnologías automatizadas y de vigilancia se están probando en las fronteras y en los procedimientos de migración, y las personas que buscan seguridad son tratadas como conejillos de indias.

Recopilación de datos biométricos

Esta tecnología a menudo se basa en la recopilación sistemática a gran escala de datos personales y biométricos de las personas. Se invierten ingentes recursos en Herramientas de TI para almacenar y administrar cantidades colosales de datos.

El Vigilancia de la privacidad de la UE llamó a esta maquinaria para eludir los compromisos de Europa con los derechos fundamentales al servicio de la Fortaleza Europa.

En las negociaciones que se intensificarán esta semana, el Parlamento Europeo podrá elegir qué tecnologías prohíbe. Pueden asegurarse de que la Ley de IA regule adecuadamente todos los usos nocivos de esta tecnología y marcar una gran diferencia en la vida de las personas en movimiento y racializadas que ya viven en Europa.

Una coalición de la sociedad civil, académicos y expertos internacionales ha estado pidiendo enmiendas a la ley durante casi un año, con casi 200 signatarios que apoyan cambios muy necesarios y una nueva campaña dirigida por EDRi, AccessNow, PICUM y Refugee Law Lab llamada #ProtegerNoVigilar para arrojar luz sobre estos temas.

El punto ciego de la Ley AI sobre la violencia fronteriza socava toda la ley como herramienta para regular la tecnología peligrosa. Ya se están haciendo compromisos a puerta cerrada en el Parlamento Europeo que no incluyen la prohibiciones necesarias en el contexto migratorio.

Esto es a la vez perjudicial y miope. En ausencia de tales prohibiciones, los gobiernos y las instituciones desarrollarán y utilizarán tecnologías invasivas que las pondrán en desacuerdo con las leyes regionales e internacionales.

Específicamente, si los eurodiputados permiten que se use la IA para facilitar la violencia contra las personas que intentan llegar a Europa, los estados socavarán fundamentalmente el derecho a solicitar asilo.

líneas rojas

Para proteger los derechos de todas las personas, la Ley AI debe prohibir el uso de evaluaciones de riesgos individuales y elaboración de perfiles que utilicen datos personales y confidenciales; prohibir los detectores de mentiras de IA en el contexto de la migración; prohibir el uso de análisis predictivos para facilitar las devoluciones; y prohibir la identificación y categorización biométrica remota en espacios públicos, incluso en el control fronterizo y migratorio.

La categoría de ‘alto riesgo’ también debe fortalecerse para incluir varios usos de la IA en el contexto de la migración, incluidos los sistemas de identificación biométrica y la IA para el seguimiento y la vigilancia en las fronteras.

Por último, la ley necesita medidas más estrictas de supervisión y rendición de cuentas que reconozcan los riesgos del intercambio inadecuado de datos que afecten los derechos humanos fundamentales de movilidad y asilo de las personas, y garanticen que las propias bases de datos de migración de la UE estén cubiertas por la ley.

A menos que se modifique, la Ley de IA de la UE no previene los daños irreversibles en la migración y, al hacerlo, socava su propio propósito: proteger los derechos de todas las personas afectadas por el uso de la IA.

La tecnología siempre es política. Refleja la sociedad que lo crea y, por lo tanto, puede acelerar y automatizar el racismo, la discriminación y la violencia sistémica.

Y a menos que tomemos medidas ahora, la Ley de Inteligencia Artificial de la UE habilitará tecnología peligrosa en la migración y allanará el camino hacia un futuro en el que los derechos de todos se vean amenazados.

Con las fuerzas fronterizas de la UE expandiendo su uso de tecnología de vigilancia y perfiles raciales; y las muertes y los abusos contra los derechos humanos rutinarios en las fronteras de la UE; los nuevos sistemas de IA solo pueden potenciar los abusos actuales y arriesgar más vidas.

Una vez que está en uso, no hay vuelta atrás, y todos corremos el riesgo de ser arrastrados al experimento. El acto es una oportunidad única en una generación para garantizar que la IA no se pueda usar para mal: el Parlamento Europeo debe actuar para salvarla.

Leave a Reply

Your email address will not be published. Required fields are marked *