Una recompensa por sesgo para la IA ayudará a detectar algoritmos injustos más rápido

Una recompensa por sesgo para la IA ayudará a detectar algoritmos injustos más rápido

La nueva ley de moderación de contenidos de la UE, la Ley de Servicios Digitales, incluye requisitos de auditoría anuales para los datos y algoritmos utilizados por las grandes plataformas tecnológicas, y la próxima Ley de IA de la UE también podría permitir a las autoridades auditar los sistemas de IA. El Instituto Nacional de Estándares y Tecnología de EE. UU. también recomienda Auditorías de IA como estándar de oro. La idea es que estas auditorías actúen como el tipo de inspecciones que vemos en otros sectores de alto riesgo, como las plantas químicas, dice Alex Engler, quien estudia la gobernanza de IA en el grupo de expertos Brookings Institution.

El problema es que no hay suficientes contratistas independientes para satisfacer la próxima demanda de auditorías algorítmicas, y las empresas son reacias a darles acceso a sus sistemas, argumenta la investigadora Deborah Raji, que se especializa en responsabilidad de IA, y sus coautores en un papel

desde junio pasado.

Eso es lo que estas competiciones quieren cultivar. La esperanza en la comunidad de IA es que guiarán a más ingenieros, investigadores y expertos a desarrollar las habilidades y la experiencia para llevar a cabo estas auditorías.

Gran parte del escrutinio limitado en el mundo de la IA hasta ahora proviene de académicos o de las propias empresas tecnológicas. El objetivo de concursos como este es crear un nuevo sector de expertos que se especialicen en auditar la IA.

“Estamos tratando de crear un tercer espacio para las personas que están interesadas en este tipo de trabajo, que quieren comenzar o que son expertos que no trabajan en empresas de tecnología”, dice Rumman Chowdhury, director del equipo de ética de Twitter. transparencia y responsabilidad en el aprendizaje automático, el líder de Bias Buccaneers. Estas personas podrían incluir piratas informáticos y científicos de datos que desean aprender una nueva habilidad, dice.

El equipo detrás de la competencia de recompensas de los Bias Buccaneers espera que sea la primera de muchas.

Competencias como esta no solo crean incentivos para que la comunidad de aprendizaje automático realice auditorías, sino que también promueven una comprensión compartida de “cómo auditar mejor y en qué tipos de auditorías deberíamos invertir”, dice Sara Hooker, quien dirige Cohere para AI, un laboratorio de investigación de IA sin fines de lucro.

El esfuerzo es “fantástico y absolutamente muy necesario”, dice Abhishek Gupta, fundador del Instituto de Ética de IA de Montreal, quien fue juez en el desafío de auditoría de IA de Stanford.

“Cuantos más ojos tenga en un sistema, más probable es que encontremos lugares donde hay fallas”, dice Gupta.

Leave a Reply

Your email address will not be published. Required fields are marked *