¿Qué pasaría si pudiéramos pedirle a la IA que sea menos sesgada?

¿Qué pasaría si pudiéramos pedirle a la IA que sea menos sesgada?

La semana pasada, publiqué una historia sobre las nuevas herramientas desarrolladas por investigadores de la startup de IA Hugging Face y la Universidad de Leipzig que permiten a las personas ver por sí mismas qué tipos de sesgos inherentes tienen los modelos de IA sobre los diferentes géneros y etnias.

Aunque he escrito mucho sobre cómo nuestros sesgos se reflejan en los modelos de IA, aún me resultaba chocante ver exactamente cuán pálidos, masculinos y rancios son los humanos de la IA. Eso fue particularmente cierto para DALL-E 2, que genera hombres blancos el 97% de las veces cuando se le dan indicaciones como “CEO” o “director”.

Y el problema del sesgo es aún más profundo de lo que piensas. en el mundo más amplio creado por la IA. Estos modelos son construidos por empresas estadounidenses y entrenados con datos norteamericanos, y por lo tanto, cuando se les pide que generen incluso elementos cotidianos mundanos, desde puertas hasta casas, crean objetos que parecen estadounidenses, cuenta Federico Bianchi, investigador de la Universidad de Stanford. a mí.

A medida que el mundo se llene cada vez más de imágenes generadas por IA, en su mayoría veremos imágenes que reflejan los prejuicios, la cultura y los valores de Estados Unidos. ¿Quién sabía que la IA podría terminar siendo un instrumento importante del poder blando estadounidense?
Entonces, ¿cómo abordamos estos problemas? Se ha trabajado mucho para corregir los sesgos en los conjuntos de datos en los que se entrenan los modelos de IA. Pero dos trabajos de investigación recientes proponen nuevos e interesantes enfoques.

¿Qué pasaría si, en lugar de hacer que los datos de entrenamiento estén menos sesgados, simplemente pudieras pedirle al modelo que te dé respuestas menos sesgadas?

Un equipo de investigadores de la Universidad Técnica de Darmstadt, Alemania, y la startup de IA Hugging Face desarrolló una herramienta llamado Difusión justa eso hace que sea más fácil modificar los modelos de IA para generar los tipos de imágenes que desea. Por ejemplo, puede generar fotos de archivo de directores ejecutivos en diferentes entornos y luego usar Fair Diffusion para cambiar a los hombres blancos en las imágenes por mujeres o personas de diferentes etnias.

Como muestran las herramientas de Hugging Face, los modelos de IA que generan imágenes sobre la base de pares de imagen y texto en sus datos de entrenamiento tienen por defecto sesgos muy fuertes sobre profesiones, género y etnia. La herramienta Fair Diffusion de los investigadores alemanes se basa en una técnica que desarrollaron llamada orientación semánticaque permite a los usuarios guiar cómo el sistema de IA genera imágenes de personas y edita los resultados.

El sistema de inteligencia artificial se mantiene muy cerca de la imagen original, dice Kristian Kersting, profesor de informática en TU Darmstadt que participó en el trabajo.

Leave a Reply

Your email address will not be published. Required fields are marked *