El fin del anonimato en las calles: ¿está Europa preparada para ello?

El fin del anonimato en las calles: ¿está Europa preparada para ello?

A raíz de los disturbios de noviembre en Dublín, estalló en Irlanda y en toda Europa un debate latente sobre si el uso policial de tecnologías de reconocimiento facial podría evitar un mayor caos en las calles.

“La tecnología de reconocimiento facial ahorrará mucho tiempo, acelerará las investigaciones y liberará a la Garda [Irish police] recursos para la actuación policial de alta visibilidad que todos queremos ver”, afirmó recientemente la ministra de Justicia irlandesa, Helen McEntee.

  • El uso de esta tecnología es ampliamente aceptado en casos donde los ciudadanos esperan ser identificados (Foto: Centro de noticias Delta)

Si bien estos beneficios se prueban repetidamente en programas controlados, los defensores de la privacidad han expresado su preocupación por su efecto paralizador en las democracias, así como por sus riesgos discriminatorios inherentes.

El debate en Irlanda resurgió en el contexto de intensas negociaciones en Bruselas sobre la Ley de IA, el libro de reglas que regulará las tecnologías impulsadas por IA, como el reconocimiento facial.

Inicialmente, los eurodiputados intentaron presionar para que se prohibiera el reconocimiento automático de personas en espacios públicos, pero el texto final incluye varias excepciones que harían el uso de esta tecnología legalmente aceptable.

Esto incluye, por ejemplo, la búsqueda de determinadas víctimas y sospechosos de delitos y la prevención de ataques terroristas.

Y desde que Europa se convirtió en la primera en establecer reglas que rigen la IA en el mundo, muchos aplaudieron el acuerdo alcanzado a principios de diciembre.

Pero activistas como Amnistía Internacional consideran que el fracaso de la UE a la hora de prohibir el uso de esta tecnología intrusiva en espacios públicos es un “precedente devastador”, ya que la ley de la UE tiene como objetivo establecer estándares globales.

La adopción generalizada de estas tecnologías por parte de las autoridades encargadas de hacer cumplir la ley en los últimos años ha generado preocupaciones sobre la privacidad y la vigilancia masiva, y los críticos etiquetan las cámaras que todo lo ven respaldadas por una base de datos como “Gran Hermano” o la “Pesadilla Orwelliana”.

El Tribunal Europeo de Derechos Humanos se pronunció recientemente por primera vez sobre el uso del reconocimiento facial por parte de las fuerzas del orden.

El tribunal de Estrasburgo consideró que Rusia había violado la convención europea de derechos humanos al utilizar tecnologías biométricas para encontrar y arrestar a un manifestante pacífico.

Pero las implicaciones siguen siendo inciertas ya que el tribunal dejó abiertas muchas otras cuestiones.

“Sin duda, consideró una violación del derecho a la vida privada. Sin embargo, es posible que haya aprovechado el despliegue del reconocimiento facial en Europa, sin limitar claramente sus aplicaciones “justas”,”, afirma Isadora Neroni Rezende, investigadora de la Universidad de Bolonia. .

El sacrificio

El Reino Unido ha sido pionero en el uso de tecnologías de reconocimiento facial para identificar personas en tiempo real con cámaras callejeras. En unos pocos años, el país ha instalado aproximadamente 7,2 millones de cámaras, aproximadamente una cámara por cada nueve personas.

De 2017 a 2019, la policía federal belga utilizó cuatro cámaras de reconocimiento facial en el aeropuerto de Bruselas, escenario de un mortal ataque terrorista con bomba en 2016 que mató a 16 personas, pero el proyecto tuvo que detenerse porque no cumplía con las leyes de protección de datos.

Y recientemente, el gobierno francés ha acelerado la legislación para el uso de cámaras en tiempo real para detectar comportamientos sospechosos durante los Juegos Olímpicos de París 2024.

Estos son sólo algunos ejemplos de cómo esta tecnología está remodelando el concepto de seguridad.

Si bien el uso de esta tecnología se acepta en algunos casos, el verdadero desafío surge cuando su uso se extiende a espacios públicos más amplios donde no se espera que las personas sean identificadas, dijo el supervisor de protección de datos de la UE (SEPD), Wojciech Wiewiórowski, a EUobserver en una entrevista.

Esto “eliminaría de facto el anonimato de las calles”, afirmó. “No creo que nuestra cultura esté preparada para eso. No creo que Europa sea el lugar donde aceptemos este tipo de sacrificio”.

En 2021, Wiewiórowski pidió una moratoria sobre el uso de sistemas de identificación biométrica remota, incluido el reconocimiento facial, en espacios de acceso público.

También criticó a la comisión por no tener en cuenta sus recomendaciones cuando presentó por primera vez la propuesta de la Ley de IA.

“No me gustaría vivir en una sociedad en la que se elimine la privacidad”, dijo a EUobserver.

“Si observamos algunos países don de hay mucha más apertura a este tipo de tecnología, podemos ver que finalmente se utiliza para reconocer a la persona dondequiera que esté, y para localizarla y rastrearla”, advirtió Wiewiórowski, señalando a China como el mejor ejemplo.

“La explicación de que la tecnología se utiliza sólo contra la gente mala (…) es la misma que me dijeron los policías en 1982 en la Polonia totalitaria, donde las comunicaciones telefónicas también estaban bajo vigilancia”, afirmó también.

Reforzar los estereotipos

Si bien estas tecnologías pueden verse como una herramienta moderna y eficaz para hacer cumplir la ley, académicos y expertos han documentado cómo las tecnologías biométricas impulsadas por IA pueden reflejar estereotipos y discriminación contra ciertos grupos étnicos.

El funcionamiento de esta tecnología depende principalmente de la calidad de los datos utilizados para entrenar el software y de la calidad de los datos utilizados cuando se implementa.

Para Ella Jakubowska, activista de EDRi, existe una idea errónea sobre cuán efectiva puede ser esta tecnología. “Existe un malentendido estadístico básico por parte de los gobiernos”.

“Ya hemos visto en todo el mundo que los sistemas biométricos se utilizan de manera desproporcionada contra las comunidades negras y latinas, las personas en movimiento y otras personas minoritarias”, dijo, argumentando que los fabricantes están vendiendo “lucrativas y falsas promesas de seguridad”.

Un independiente estudiar sobre el uso del reconocimiento facial en vivo por parte de la policía de Londres reveló que la tasa de éxito real de estos sistemas estaba por debajo del 40 por ciento.

Y un informe de 2018 reveló que el sistema policial de Gales del Sur vio el 91 por ciento de las coincidencias etiquetadas como falso positivo, con 2.451 identificaciones incorrectas.

Las empresas tecnológicas han presionado contra cualquier posible prohibición del uso de estas tecnologías en lugares públicos (Foto: Tony González)

Las implicaciones de los errores algorítmicos en los derechos humanos a menudo se destacan como una de las principales preocupaciones para el desarrollo y uso de esta tecnología.

Y uno de los principales problemas para las víctimas potenciales de la discriminación por IA son los importantes obstáculos legales que enfrentan para demostrar (prima facie) dicha discriminación, dado el problema de la “caja negra” de estas tecnologías.

El riesgo de error ha llevado a varias empresas a retirarse de los mercados. Esto incluye a Axon, una conocida empresa estadounidense que proporciona cámaras corporales para policías, así como a Microsoft y Amazon.

Pero muchos todavía la defienden como una herramienta crucial para la aplicación de la ley en nuestros tiempos, presionando contra cualquier posible prohibición y a favor de excepciones para la aplicación de la ley en virtud de la Ley de IA.

Esfuerzos de lobby

Google pidió cautela a la hora de prohibir o restringir esta tecnología, argumentando que pondría en riesgo “una multitud de casos de uso beneficiosos, deseados y legalmente requeridos”, incluida la “seguridad infantil”.

“Debido a una cierta falta de comprensión, tecnologías tan innovadoras [such as facial recognition and biometric data] se presentan cada vez más erróneamente como un riesgo para los derechos fundamentales”, afirmó la empresa china de cámaras Hikvision, que está en la lista negra de Estados Unidos.

Asimismo, el lobby de la industria tecnológica DigitalEurope también elogió los beneficios. “Es crucial reconocer los importantes beneficios para la seguridad pública y la seguridad nacional”.

Además, las empresas de seguridad y defensa también han estado presionando a favor de excepciones.

Pero parece que la mayor presión a favor provino de los ministerios del interior y los organismos encargados de hacer cumplir la ley, según el Corporate Europe Observatory.

Mientras tanto, se estima que el mercado de reconocimiento facial en Europa crecerá de 1.200 millones de dólares [€1.09bn] en 2021 a 2.400 millones de dólares en 2028.

Leave a Reply

Your email address will not be published. Required fields are marked *