Se revela el intento de Big Tech de diluir la ley de IA de la UE

Se revela el intento de Big Tech de diluir la ley de IA de la UE

El lanzamiento de ChatGPT en noviembre del año pasado ha desatado un debate mundial sobre los sistemas de Inteligencia Artificial. En medio de las proclamaciones de Big Tech de que estos sistemas de inteligencia artificial revolucionarán nuestra vida diaria, las empresas están involucradas en una feroz batalla de cabildeo para suavizar las regulaciones.

En abril de 2021, los comisarios de la UE Margarethe Vestager y Thierry Breton presentó una propuesta para un marco legal europeo sobre IA. Se celebró como el primer intento mundial de regular la IA, una tecnología que, como comisión observada“tendría un enorme impacto en la forma en que la gente vive y trabaja en las próximas déc adas”.

Pero la IA también es un gran negocio. OpenAI, el creador de ChatGPT, duplicó su valor cuando Microsoft invirtió $ 10 mil millones [€9.44bn]. Google, en conversaciones con la UE, se presentó como una “primera empresa de IA” con “IA impulsando todos sus productos”.

Entonces, como era de esperar, el impulso de la Unión Europea para regular se ha enfrentado a intensos intentos de cabildeo corporativo en cada etapa del proceso de formulación de políticas.

A nuevo informe de Corporate Europe Observatory revela cómo Big Tech ha podido separar lentamente la Ley de IA.

A través de años de presión directa, grupos encubiertos, expertos financiados por la tecnología y un último esfuerzo del gobierno de los EE. UU., las empresas tecnológicas han reducido las obligaciones de seguridad, han dejado de lado los derechos humanos y las preocupaciones contra la discriminación, y han obtenido exenciones para algunos de sus productos clave de IA.

Desde las fuentes de las redes sociales que vemos en nuestras líneas de tiempo hasta los dispositivos médicos operados por IA, la IA se está convirtiendo cada vez más en parte de nuestra vida diaria.

Si bien algunos usos de la IA pueden ser beneficiosos, estos sistemas también conllevan riesgos graves. Los sistemas de IA a menudo no funcionan según lo previsto y pueden no rendir cuentas. Pueden discriminar por motivos de género, discapacidad o raza. De hecho, el potencial para exacerbar la desigualdad ha sido criticado por la Agencia de los Derechos Fundamentales de la UE

y el Alto Comisionado de las Naciones Unidas para los Derechos Humanos.

Quizás el ejemplo más conocido es el ahora infame sistema holandés SyRI que familias acusadas falsamente de fraude de beneficios socialesen violación del Convenio Europeo de Derechos Humanos.

Es esta posibilidad de abuso la que informó el enfoque europeo para regular la IA. Como el riesgo ha aumentado, los sistemas de IA deben ajustarse a reglas más estrictas. Esto significaba que los chatbots podrían tener un riesgo limitado, mientras que la puntuación social estaría prohibida por completo. Alrededor del 10-15 por ciento se consideraría de alto riesgo.

Pero cuando las instituciones de la UE estaban discutiendo la regulación, surgió una pregunta: ¿qué hacer con los sistemas que se pueden usar para una amplia variedad de aplicaciones, que son tanto de bajo como de alto riesgo?

Estos se conocen como “sistemas de IA de propósito general” que sirven como base para una IA más especializada y que pueden procesar audio, video, texto y datos físicos. Debido a la escala y la cantidad de memoria, datos y hardware requeridos, los sistemas de IA de propósito general son desarrollados principalmente por gigantes tecnológicos estadounidenses como Google

y microsoftque tiene anunció que integrará ChatGPT en todos sus productos de Office.

No es de extrañar que cuando las instituciones de la UE anunciaran que incluirían la IA de propósito general en la próxima Ley de IA, esto encendió varias alarmas en Las bien financiadas redes de lobby europeas de Big Tech.

Tácticas sombrías de cabildeo

Para dar una idea de la escala de estos esfuerzos de cabildeo en curso, nuestro nuevo informe documenta al menos 565 reuniones entre eurodiputados e intereses comerciales sobre la Ley de IA.

Los esfuerzos para eliminar el acto de la IA no siempre se llevan a cabo abiertamente, sino a través de la financiación de grupos de interés que afirman representar a pymes o empresas emergentes que en realidad repiten como un loro las líneas de las grandes tecnológicas.

Estas turbias tácticas de cabildeo se han vuelto cada vez más controvertidas.

En febrero, CEO y LobbyControl con el apoyo de una alianza interpartidaria de eurodiputados. lanzó lobbyleaks.euuna caja de fugas para exponer exactamente este tipo de interferencia de Big Tech.

Ayuda del tío Sam

En el Consejo, las cosas no están mucho mejor. Meta, en privado, admitió que estaba “en contacto” con los estados miembros sobre la Ley de IA, pero no hay datos disponibles sobre las reuniones de cabildeo del Consejo. en un carta abierta a la presidencia checa del ConsejoMicrosoft no vio “ninguna necesidad de que la Ley de IA tenga una sección específica sobre [general purpose AI].”

Crucialmente, Big Tech ha logrado que el gobierno de EE. UU. respalde su posición. Las empresas tecnológicas gastaron $ 70 millones en cabildeo en el Congreso de EE. UU. en 2021, y 2022 fue descrito como una “fiebre del oro” para el cabildeo de AI en los EE.UU.

En una muestra inusualmente abierta de interferencia en la elaboración de leyes europeas, en septiembre de 2022, el gobierno de EE. UU. compartió una “documento no oficial” con la presidencia checa presionando por la exclusión de la IA de propósito general y una definición más estrecha de IA. Todas eran demandas que se parecían mucho a las de los documentos de posición de Big Tech.

Tal como está, el bombardeo del lobby generó los resultados deseados. En sus últimas posiciones, el Consejo ha pospuesto el debate sobre la regulación de la IA de propósito general. Las instituciones también redujo la definición de sistemas de IAlimitando el número de sistemas a los que se aplicaría el control.

La Ley AI se acerca ahora a sus etapas finales, la negociaciones tripartitas secretas. Qué compromiso se alcanzará sigue siendo incierto. Pero la naturaleza opaca del proceso del diálogo tripartito es especialmente beneficiosa para los cabilderos bien conectados y bien financiados, lo que deja un amplio margen para que las grandes tecnológicas diluyan aún más el acto de la IA.

Ahora depende del Parlamento Europeo asegurarse de que los derechos fundamentales estén bien protegidos. No debemos permitir que Big Tech implemente otro modelo comercial tóxico esta vez.

Leave a Reply

Your email address will not be published. Required fields are marked *