¿Podría la IA ayudar a reducir el sesgo de género en Europa?



"Puedes tener tu IA tan pronto como tenga una sociedad con un equilibrio de género", Margrethe Vestager, Vicepresidenta Ejecutiva y Comisionada Designada para Competencia y Política Digital, proclamó recientemente ante el Parlamento Europeo.

Los comentarios de Vestager responden a las preocupaciones de que la inteligencia artificial perpetuará un mayor sesgo de género en la sociedad. Desde esta perspectiva, los algoritmos refuerzan la discriminación cuando producen resultados que difieren significativamente en precisión entre los diferentes grupos demográficos. Dado que los sistemas de aprendizaje automático a menudo entrenan sus modelos en datos que reflejan sesgos del mundo real, a muchos como Vestager les preocupa que la IA perpetúe los estereotipos.

Si bien el sesgo es una preocupación válida, ¿es esta la respuesta correcta? ¿Debería Europa posponer el uso de la IA durante décadas hasta que se elimine el sesgo, no solo de la tecnología, sino de la sociedad?

La respuesta es claramente no. De hecho, la IA puede ser una herramienta útil para mejorar la equidad social y la equidad de género en Europa.

En primer lugar, la IA puede ayudar a identificar y corregir los prejuicios humanos en la sociedad. Por ejemplo, Disney recientemente comenzó a usar una herramienta algorítmica para analizar guiones y rastrear el sesgo de género. Utilizando una herramienta de aprendizaje automático, la compañía podría comparar la cantidad de caracteres masculinos y femeninos en los guiones, así como otros indicadores de diversidad, como la cantidad de líneas de conversación atribuidas a mujeres, personas de color y personas con discapacidades.

En otro ejemplo, las empresas utilizan cada vez más la inteligencia artificial en el reclutamiento de empleados, no solo para acelerar los procesos mediante la selección y el filtrado de las aplicaciones más relevantes, sino también para garantizar que las decisiones no sean impulsadas por prejuicios inconscientes de los reclutadores humanos involucrados.

Los responsables políticos de la UE también deben entender que no siempre es un problema que los algoritmos funcionen de manera diferente en diferentes grupos demográficos. Por ejemplo, una tienda de zapatos para mujeres puede usar un algoritmo que favorezca mostrar anuncios en línea a mujeres sobre hombres para reducir sus costos publicitarios.

En segundo lugar, donde los algoritmos generan resultados sesgados, los encargados de formular políticas deberían alentar el desarrollo de herramientas de despojo que puedan hacer que la IA sea más imparcial. Por ejemplo, el sesgo de género puede aparecer en la inserción de palabras: la asociación entre dos palabras, como "mujer" con "enfermera" y "hombre" con "médico". Los investigadores han podido reducir efectivamente el sesgo de género en los sistemas de IA utilizando diferentes técnicas , como mediante el remuestreo de datos. Y muchas empresas han desarrollado herramientas de código abierto para comprender y reducir el sesgo algorítmico, como la API Face de Microsoft Azure, Fairness Flow de Facebook y What-If de Google.

La inclusión de más mujeres en la fuerza laboral de AI probablemente aceleraría los esfuerzos para abordar el sesgo de género y garantizaría que las mujeres compartan los beneficios de la IA. Idealmente, las empresas deberían emplear equipos más diversos de desarrolladores e ingenieros para evitar que el sesgo cultural ingrese a los sistemas sin darse cuenta, y para garantizar que los conjuntos de datos no incluyan elementos irrelevantes o sobrerrepresentados o insuficientemente representados. Desafortunadamente, las empresas que adoptan IA reconocen que obtener y retener el talento de IA es un gran desafío, y solo el 22% de los usuarios de LinkedIn con habilidades de IA son mujeres, actualmente la mayoría de los expertos en IA son hombres.

Los encargados de formular políticas de la UE deberían priorizar el avance de las habilidades digitales entre las estudiantes integrando cursos de ciencias de la información y ciencias de la computación en los planes de estudio escolares, particularmente en el nivel de la escuela secundaria, para inspirar a más mujeres a interesarse en estos campos. Los formuladores de políticas también deben fomentar una cultura amigable con la IA al iniciar campañas de sensibilización que articulen más claramente el valor que ofrecen la IA y las tecnologías digitales relacionadas, y al alentar a las instituciones educativas a organizar una mayor interacción entre las empresas de tecnología y los estudiantes. Hacer que la IA sea más atractiva para las mujeres puede expandir la base de talentos de la UE y acelerar el crecimiento de la industria.

Finalmente, los formuladores de políticas de la UE deberían actualizar las regulaciones que dificultan que las empresas recopilen suficientes datos para mejorar sus sistemas de IA e innovar con soluciones para abordar los prejuicios. Los conjuntos de datos incompletos pueden distorsionar el razonamiento de un sistema de IA. Recopilar datos útiles sin temor a infringir las reglas será fundamental para garantizar que la toma de decisiones algorítmicas fomente la equidad social. Además, abrir los datos del sector público y ampliar las autorizaciones para usarlos puede garantizar que las empresas tengan un acceso más amplio y seguro a conjuntos de datos de mayor calidad. Como una técnica prometedora para abordar el sesgo es el uso de datos sintéticos para entrenar algoritmos en conjuntos de datos más diversos y reflexivos, los encargados de formular políticas de la UE deberían alentar a las agencias estadísticas de los estados miembros a liberar más datos al tiempo que protegen la privacidad de los datos. También deberían alentar a los sectores público y privado a colaborar en el desarrollo de conjuntos de datos más inclusivos.

Ninguna tecnología es perfecta, especialmente en sus primeras etapas de desarrollo. El trabajo de los responsables políticos no es prohibir la tecnología hasta que se vuelva perfecta, ya que ese es el camino hacia el estancamiento tecnológico. Por el contrario, dado el potencial de la IA y otras tecnologías emergentes para la prosperidad social y económica, los responsables políticos deberían trabajar para reducir los daños y al mismo tiempo promulgar políticas para mejorar sus beneficios y promover su aceptación a largo plazo.

Construir una UE más justa no solo incluye, sino que depende de la IA. Esto significa trabajar para expandir la diversidad en equipos que crean algoritmos, facilitan el acceso de las empresas a datos más y más ricos, adaptan las regulaciones para acelerar la adopción de IA y, al aumentar la inversión en IA, alientan a las empresas a desarrollar métodos que mejoren la detección de sesgos. Europa no logrará una mayor equidad social y competitividad en la economía digital al presentar tecnologías como la IA como inherentemente discriminatorias. En cambio, alentar el desarrollo de IA respaldará los esfuerzos para reducir el sesgo.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *