Por qué la UE tendrá dificultades para legislar sobre IA



La Inteligencia Artificial (IA), especialmente el aprendizaje automático, es una tecnología que se está extendiendo rápidamente por todo el mundo.

La IA se convertirá en una herramienta estándar para ayudar a conducir automóviles, mejorar la atención médica o automatizar la toma de decisiones dentro de las autoridades públicas. Aunque las tecnologías inteligentes son impulsoras de la innovación y el crecimiento, la proliferación mundial de ellas ya está causando graves daños a su paso.

El mes pasado, un documento blanco filtrado mostró que la Unión Europea está considerando poner un prohibición temporal de tecnologías de reconocimiento facial en espacios públicos hasta que los riesgos potenciales se entiendan mejor.

Pero muchas tecnologías de inteligencia artificial, además del reconocimiento facial, merecen más preocupación, especialmente de los responsables políticos europeos.

Cada vez más expertos han analizado la amenaza que las tecnologías 'Deep Fake' pueden representar para la democracia al permitir la desinformación artificial; o considere la tarjeta de crédito de Apple que otorga puntajes de crédito mucho más altos a los esposos en comparación con sus esposas, a pesar de que comparten activos.

Las compañías globales, los gobiernos y las organizaciones internacionales han reaccionado a estas tendencias preocupantes mediante la creación de juntas de ética, cartas, comités, directrices, etcétera, todo para abordar los problemas que presenta esta tecnología, y Europa no es una excepción.

La Comisión Europea estableció un Grupo de Expertos de Alto Nivel en IA para redactar directrices sobre IA ética.

Desafortunadamente, un debate ético por sí solo no ayudará a remediar la destrucción causada por la rápida propagación de la IA en diversas facetas de la vida.

El último ejemplo de esta deficiencia es Microsoft, uno de los mayores productores de servicios basados ​​en inteligencia artificial en el mundo.

Microsoft, que a menudo ha tratado de diferenciarse de sus contrapartes de Big Tech como un líder moral, recientemente ha recibido críticas por su importante inversión en software de reconocimiento facial que se utiliza con fines de vigilancia.

"AnyVision" es supuestamente utilizado por Israel para rastrear a los palestinos en Cisjordania. Si bien invertir en esta tecnología va directamente en contra de los principios éticos declarados de Microsoft sobre reconocimiento facial, no hay reparación.

Demuestra que gobernar la IA, especialmente las tecnologías exportadas o las implementadas a través de las fronteras, a través de principios éticos, no funciona.

El caso con Microsoft es solo una gota en el cubo.

Numerosos casos seguirán apareciendo o se descubrirán en los próximos años en todos los rincones del mundo, dada una prensa funcional y libre, por supuesto.

Este problema es especialmente importante con el software de reconocimiento facial, como lo refleja el debate europeo. Desarrollados en Big Tech, los productos de reconocimiento facial han sido adquiridos por agencias gubernamentales como funcionarios de aduanas y migración, policías, fuerzas de seguridad, militares y más.

Esto es cierto para muchas regiones del mundo: como en Estados Unidos, el Reino Unido, así como en varios estados de África, Asia y más.

Prometiendo métodos más efectivos y precisos para mantener la paz, los organismos encargados de hacer cumplir la ley han adoptado el uso de IA para sobrecargar sus capacidades.

Sin embargo, esto conlleva peligros específicos, que se muestran en numerosos informes de grupos de defensa y perros guardianes que dicen que las tecnologías son defectuosas y ofrecen más coincidencias falsas desproporcionadamente para las mujeres y los tonos de piel más oscuros.

Si las agencias de aplicación de la ley saben que estas tecnologías tienen el potencial de ser más dañinas para los sujetos que con mayor frecuencia son vulnerables y marginados, entonces debería haber estándares adecuados para implementar el reconocimiento facial en áreas tan sensibles.

Las pautas éticas, ni las que provienen de Big Tech ni las de partes interesadas internacionales, no son suficientes para proteger a los ciudadanos de las prácticas invasivas, parciales o perjudiciales de la policía o las fuerzas de seguridad.

Aunque estos problemas han rodeado las tecnologías de IA en años anteriores, esto aún no ha resultado en una regulación exitosa para hacer que la IA sea "buena" o "ética", términos que tienen buenas intenciones pero que son increíblemente difíciles de definir, especialmente a nivel internacional.

Es por eso que, aunque los actores del sector privado, el gobierno, la academia y la sociedad civil han estado pidiendo pautas éticas en el desarrollo de la IA, estas discusiones siguen siendo vagas, abiertas a la interpretación, no universales y, lo más importante, inaplicables.

Para detener el paradigma del desarrollo de IA más rápido es mejor y remediar algunos de los daños sociales ya causados, necesitamos establecer reglas para el uso de IA que sean confiables y ejecutables.

Y los argumentos fundados en la ética no son lo suficientemente fuertes como para hacerlo; Los principios éticos no abordan estos daños de manera concreta.

¿Derechos humanos internacionales para rescatar?

Mientras carezcamos de reglas que funcionen, al menos deberíamos usar pautas que ya existen para proteger a las sociedades vulnerables lo mejor que podamos. Aquí es donde el marco legal internacional de derechos humanos podría ser instrumental.

Deberíamos debatir estos daños indebidos como violaciones de los derechos humanos, utilizando marcos legales internacionales y un lenguaje que tiene un amplio consenso en diferentes países y contextos culturales, se basa en una retórica coherente y, en teoría, es exigible.

El desarrollo de la IA debe promover y respetar los derechos humanos de las personas en todas partes, no continuar perjudicando a la sociedad a un ritmo y escala crecientes.

Debería haber estándares básicos en las tecnologías de IA, que cumplan con los derechos humanos.

Documentos como el declaración Universal de los Derechos Humanos y el Principios rectores de la ONU que orientan el comportamiento del sector privado de manera que cumpla con los derechos humanos deben establecer el estándar internacional.

Aquí es donde la UE podría liderar con el ejemplo.

Al reenfocarse en estas convenciones y principios existentes, la inversión de Microsoft en AnyVision, por ejemplo, se consideraría no solo como una violación directa de sus principios internos, sino también como una violación de los Principios Rectores de la ONU, lo que obligaría a la comunidad internacional a examinar la empresa. Actividades comerciales más profundas y sistemáticas, idealmente conducentes a la reparación.

Más rápido no es mejor. El rápido desarrollo y la difusión de los sistemas de IA han provocado daños irreversibles e irreversibles a personas de todo el mundo. La IA, de hecho, ofrece un enorme potencial para revolucionar y mejorar los productos y servicios, y este potencial debe aprovecharse de una manera que beneficie a todos.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *