Nuevas reglas de la UE para responsabilizar a las empresas por sus fallas de IA

Nuevas reglas de la UE para responsabilizar a las empresas por sus fallas de IA

La Comisión de la UE propuso el miércoles (28 de septiembre) reglas para facilitar que tanto los consumidores como las empresas demanden a los fabricantes u operadores de drones y robots que utilizan inteligencia artificial (IA) para obtener compensación por cualquier daño.

A medida que nos rodean más y más herramientas operadas por IA (piense en drones de entrega de paquetes, camiones autónomos, robots de limpieza), el ejecutivo de la UE presentó un proyecto de ley para aliviar la carga de la prueba para los clientes.

El borrador de la Directiva de responsabilidad de AI es complementario a la Ley de AI, una próxima legislación sobre inteligencia artificial a medida que se convierte en una parte más importante de la vida de la sociedad.

El borrador de las reglas, que aún debe ser aprobado por los gobiernos de la UE y el Parlamento Europeo, hace explícito que las personas lesionadas pueden reclamar una compensación si el software o los sistemas de inteligencia artificial causan daños, ya sea a la vida, la propiedad, la salud o la privacidad.

“Queremos el mismo nivel de protección para las víctimas de los daños causados ​​por la IA que para las víctimas de las viejas tecnologías”, dijo el comisionado de justicia Didier Reynders a periodistas en Bruselas.

Si bien las víctimas aún deberán probar que la culpa de alguien causó el daño, la comisión propuso dos formas de facilitar que los consumidores lo hagan.

Las nuevas reglas requerirían que las empresas divulguen información sobre sistemas de inteligencia artificial de alto riesgo para que las víctimas puedan identificar a la persona responsable y la falla real que causó el daño.

“Esto es para evitar que las víctimas se enfrenten a una caja negra de IA”, agregó Reynders.

Otra herramienta es una “presunción de causalidad”, lo que significa que las víctimas solo necesitan demostrar que el fabricante o usuario incumplió con ciertos requisitos y obligaciones que causaron el daño.

Si las empresas no proporcionan esa información, se presume que no han hecho lo que se suponía que debían hacer según estos requisitos y obligaciones.

Los productos bajo las reglas preliminares incluyen cualquier cosa, desde actualizaciones de software, que, por ejemplo, hacen que los productos domésticos inteligentes de las víctimas no sean seguros o cuando los fabricantes no solucionan los problemas de ciberseguridad, hasta aplicaciones de salud médica y automóviles autónomos.

El nuevo borrador de reglas aún no permite la compensación por violaciones de los derechos fundamentales, por ejemplo, si alguien no pasó una entrevista de trabajo debido a un software de contratación de inteligencia artificial discriminatorio. Eso se tratará en virtud de la Ley de IA que se está negociando actualmente.

Reynders descartó las preocupaciones de que las reglas de responsabilidad obstaculicen la innovación de las herramientas de IA.

Dijo que las herramientas de IA tenían que ser seguras y confiables para los consumidores para que realmente se pusieran de moda.

“Las nuevas tecnologías, como los drones, los servicios de entrega basados ​​en IA, pueden funcionar solo cuando los consumidores se sienten seguros y protegidos al usarlos”, dijo.

“Si queremos aprovechar al máximo el gran potencial de la IA, tenemos que atender sus riesgos”, agregó Reynders.

Aquellos con productos inseguros originarios de países no pertenecientes a la UE podrán demandar al representante de la UE del fabricante para obtener una compensación.

Leave a Reply

Your email address will not be published. Required fields are marked *