¿Hasta dónde dejaremos llegar nosotros, y la UE, a la IA?

¿Hasta dónde dejaremos llegar nosotros, y la UE, a la IA?

En las últimas semanas, el mundo se ha visto afectado por una notable herramienta de inteligencia artificial. ChatGPT puede generar todo tipo de textos, como ensayos, artículos de prensa e incluso poemas. Es a la vez divertido y fascinante. Y, sin embargo, ChatGPT también está planteando preguntas difíciles, con su potencial de desinformación que les da dolor de cabeza a los legisladores.

Bruselas se encuentra actualmente en una encrucijada para abordar las cuestiones enormemente importantes sobre el papel que vemos para la IA en nuestra sociedad y, lo que es más importante, dónde debemos trazar líneas rojas.

  • Los consumidores generalmente tampoco confían en las autoridades que ejercen un control efectivo sobre los sistemas de IA (Foto: jonathan kemper)

Han pasado casi dos años desde que la Comisión Europea publicó un proyecto de ley para regular los sistemas de IA, y las discusiones en las instituciones de la UE ahora están llegando a una etapa crítica. El Parlamento Europeo finalmente establecerá en las próximas semanas lo que cree que debería hacer la Ley de IA.

Los eurodiputados deben hacerlo bien y proteger a las personas de los usos nocivos de los sistemas de inteligencia artificial que podrían afectar significativamente nuestras vidas como ciudadanos y consumidores, y nuestra sociedad en su conjunto. Hasta ahora, ni la comisión ni los gobiernos nacionales han hecho lo suficiente. Los eurodiputados deben pensar detenidamente cómo queremos usar la tecnología de IA en nuestra sociedad y cómo no.

¿Los consumidores en manos de la IA?

Esto se debe a que los sistemas de inteligencia artificial pronto harán mucho más que escribir textos divertidos o elegantes como lo hace ChatGPT.

En el mercado de viviendas de alquiler, Airbnb ya ha patentado un software de IA que supuestamente puede predecir los rasgos de una persona y sus acciones en función de los datos que tiene sobre ellos, por ejemplo, de las redes sociales.

Tal sistema de IA determinaría cuánto paga un consumidor, o incluso si podría acceder a un alojamiento en particular.

Plantea la pregunta de cómo el consumidor podría saber si estaba siendo discriminado y qué criterios se utilizaron para llegar a esta decisión. En particular, deberíamos preguntarnos si queremos que las empresas nos sometan a la puntuación social.

La IA se usa cada vez más en toda la industria de seguros para calcular cuánto costará la prima de un seguro de automóvil o de hogar, o si al cliente se le debe ofrecer una póliza.

Es probable que los vastos conjuntos de datos en los que estos sistemas podrán confiar y analizar a velocidades cada vez más rápidas conduzcan a precios cada vez más personalizados sin que podamos saber qué factores se tienen en cuenta para esta personalización o impugnar la decisión de la IA. .

La IA podría tener un impacto devastador en las finanzas personales de algunas personas si los datos son incorrectos o si hay sesgos negativos en el razonamiento del algoritmo.

En 2021, Frances Haugen reveló cómo los algoritmos de Facebook estaban causando daños físicos y psicológicos a los adolescentes formando adicciones y hábitos. TikTok está siendo investigado en EE. UU. por preocupaciones similares.

Estos algoritmos necesitan un mayor escrutinio público, y las autoridades públicas deben reafirmar el control sobre ellos si una empresa no toma medidas correctivas.

La solución: regular dónde es probable que ocurra un daño.

Nuestro encuesta propia de 2020 mostró que los consumidores, a pesar de ver los beneficios en la implementación de la IA, también tenían poca confianza en el uso de los sistemas de IA respetando sus datos personales y les preocupaba que pudiera manipular sus decisiones. Los consumidores tampoco suelen confiar en las autoridades que ejercen un control efectivo sobre los sistemas de IA.

Durante las próximas semanas, el Parlamento Europeo debe intensificar su ambición e impulsar una protección efectiva del consumidor en la era de la IA.

Primero, el parlamento debería prohibir los sistemas de inteligencia artificial que conllevan un riesgo inaceptable de daño para los consumidores.

La calificación social por parte de las empresas, donde los consumidores son mercantilizados tanto como el producto o servicio, seguramente no tiene cabida en una sociedad donde valoramos el derecho del individuo a la privacidad, la autonomía y la dignidad.

También debería prohibirse el reconocimiento facial por parte de las empresas en espacios de acceso público, donde se detectan y escudriñan nuestros rostros y todos nuestros movimientos. El valor comercial de que las empresas sepan lo que hacemos y adónde vamos puede ser alto, pero deberíamos ser libres de ir a donde queramos sin que nos sigan las cámaras y los sensores de una empresa. El respeto a los derechos fundamentales de privacidad y autonomía debe prevalecer sobre las llamadas ideas de negocio innovadoras.

En segundo lugar, el parlamento de la UE debe asegurarse de que el alcance de los sistemas de IA de alto riesgo bajo la ley sea más amplio.

Los sistemas que pueden causar daños a los consumidores deben incluirse en esa categoría para que tengan que cumplir obligaciones específicas. Los sistemas de recomendación de contenido, los asistentes domésticos, los medidores inteligentes, todos los seguros minoristas que utilizan sistemas de IA y cualquier IA que probablemente sea utilizada por niños deben considerarse de alto riesgo.

En tercer lugar, todos los demás tipos de sistemas de IA deben respetar ciertos principios generales, como la equidad, la transparencia y la responsabilidad, que son parte integral de nuestra sociedad. ChatGPT no debería ser una excepción. La Ley de IA de la UE debe ser una pieza de regulación flexible, preparada para el futuro, que también pueda abordar los riesgos a medida que surjan.

Finalmente, una tecnología de esta complejidad y alcance no se puede implementar sin otorgar fuertes derechos a las personas que se verán afectadas por ella. Dichos derechos deben incluir el derecho a oponerse a una decisión de un sistema de IA y a recibir una explicación, pero también a buscar una reparación de la empresa en caso de que su sistema de IA haya causado daños. Es importante destacar que los consumidores deben poder acudir a los tribunales como grupo para solicitar una reparación colectiva.

La pelota está ahora en el campo del Parlamento Europeo. Esta nueva ley de IA es una gran oportunidad para que la UE fomente y lidere la innovación socialmente valiosa. Debería prohibir la tecnología que puede causar daños graves. Debería poner a los consumidores, ciudadanos y democracias al frente y al centro en la era de la IA. ChatGPT no es la única aplicación de inteligencia artificial que se nos presenta.

Leave a Reply

Your email address will not be published. Required fields are marked *