Una IA vio una foto recortada de AOC. Se autocompletó con un bikini.

Una IA vio una foto recortada de AOC.  Se autocompletó con un bikini.

Se sabe que los algoritmos de generación de idiomas incorporan ideas racistas y sexistas. Están capacitados en el lenguaje de Internet, incluidos los rincones oscuros de Reddit y Twitter que pueden incluir discursos de odio y desinformación. Cualquier idea dañina que esté presente en esos foros se normaliza como parte de su aprendizaje.

Investigadores ahora han demostrado que lo mismo puede ocurrir con los algoritmos de generación de imágenes. Alimenta a uno con una foto de un hombre recortada justo debajo de su cuello, y el 43% de las veces, se autocompletará con un traje. Alimente a la misma con una foto recortada de una mujer, incluso una mujer famosa como la Representante de los Estados Unidos, Alexandria Ocasio-Cortez, y el 53% de las veces, la autocompletará con una blusa escotada o un bikini. Esto tiene implicaciones no solo para la generación de imágenes, sino para todas las aplicaciones de visión por computadora, incluidas algoritmos de evaluación de candidatos basados ​​en video, reconocimiento facial y vigilancia.

Ryan Steed, estudiante de doctorado en la Universidad Carnegie Mellon, y Aylin Caliskan, profesora asistente en la Universidad George Washington, analizaron dos algoritmos: iGPT de OpenAI (una versión de GPT-2 que se entrena en píxeles en lugar de palabras) y SimCLR de Google