La IA debe tener supervisión humana, recomiendan los eurodiputados



La evolución de la inteligencia artificial y la toma de decisiones automatizada mediante algoritmos informáticos siempre debe requerir la supervisión humana, según el comité del mercado interior (IMCO) del Parlamento Europeo el jueves (23 de enero), que aprobó un proyecto de resolución destinado a garantizar que los humanos mantengan el control de la tecnología.

Los sistemas automatizados de toma de decisiones (ADM), sistemas técnicos que reemplazan la toma de decisiones humanas, están siendo utilizados por entidades públicas y privadas para tareas de reclutamiento y vigilancia predictiva, y son los más utilizados en los EE. UU.

Sin embargo, de acuerdo con la resolución, "los humanos siempre deben ser en última instancia responsables y capaces de anular las decisiones" que toman las nuevas tecnologías, especialmente en las profesiones médicas, legales y contables.

Para el sector bancario, el comité pide un marco regulatorio que garantice la supervisión independiente de los sistemas automatizados de toma de decisiones por parte de profesionales calificados en los casos en que el interés público esté en juego.

Este marco también debería permitir que los consumidores busquen una revisión humana cuando aparecen errores como resultado del uso de este tipo de nuevas tecnologías.

Del mismo modo, los sistemas automatizados de toma de decisiones solo deben usar conjuntos de datos imparciales y de alta calidad y "algoritmos explicables e imparciales" para garantizar la confianza y la aceptación, según la resolución.

"Tenemos que asegurarnos de que se garantice la protección y la confianza del consumidor y que los conjuntos de datos utilizados en los sistemas automatizados de toma de decisiones sean de alta calidad e imparciales", dijo la eurodiputada belga Petra De Sutter (Greens / EFA), quien preside el Comité IMCO

Siguiendo las disposiciones del Reglamento General de Protección de Datos (GDPR) con respecto a la explicabilidad, los eurodiputados también enfatizaron que los consumidores deben estar "debidamente informados sobre cómo funciona (esta tecnología), cómo llegar a un ser humano con poderes de toma de decisiones y cómo funciona el sistema las decisiones se pueden verificar y corregir ".

Sin embargo, explicar en términos simples los resultados y funcionalidades de modelos técnicos grandes y complejos puede ser problemático.

Esta resolución, que fue iniciada por la eurodiputada verde Alexandra Geese, marca la primera posición oficial del parlamento sobre las salvaguardas necesarias para el despliegue y la implementación de ADM.

"Todos los sistemas algorítmicos deben ser verificados por su legalidad y neutralidad de acuerdo con un modelo de riesgo. Si no se puede remediar un sesgo discriminatorio, tales sistemas fundamentales que violan los derechos no deben usarse en Europa". Gansos escribieron para el periódico alemán Tagesspiegel.

Además, los eurodiputados pidieron a la Comisión Europea que se asegure de que las normas de la UE sobre seguridad y responsabilidad por productos y servicios sean adecuadas para su propósito en la era digital, lo que ya forma parte del libro blanco de la comisión sobre IA.

El texto aprobado por el comité será votado en la próxima sesión plenaria por todos los eurodiputados, antes del anuncio de la comisión sobre un enfoque europeo para la IA que se espera para el 19 de febrero.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *