Los algoritmos publicitarios de Facebook siguen excluyendo a las mujeres de ver trabajos

El estudio proporciona la evidencia más reciente de que Facebook no ha resuelto sus problemas de discriminación publicitaria desde que ProPublica primero sacó a la luz el tema en octubre de 2016. En ese momento, ProPublica reveló que la plataforma permitía a los anunciantes de oportunidades laborales y de vivienda excluir a ciertas audiencias caracterizadas por rasgos como el género y la raza. Dichos grupos reciben protección especial bajo la ley estadounidense, lo que hace que esta práctica sea ilegal. Tomó dos años y medio y varias escaramuzas legales para Facebook para finalmente eliminar esa característica

.

Pero unos meses después, el Departamento de Vivienda y Desarrollo Urbano (HUD) de EE. UU. Presentó una nueva demanda, alegando que los algoritmos de entrega de anuncios de Facebook seguían excluyendo audiencias para anuncios de viviendas sin que el anunciante especificara la exclusión. Un equipo de investigadores independientes, incluido Korolova, dirigido por Muhammad Ali y Piotr Sapieżyński de la Northeastern University, corroboró esas acusaciones una semana después. Descubrieron, por ejemplo, que las casas en venta se mostraban con más frecuencia a los usuarios blancos y las casas en alquiler se mostraban más a menudo a los usuarios minoritarios.

Korolova quería volver a examinar el tema con su última auditoría porque la carga de la prueba por discriminación en el trabajo es mayor que por la discriminación en la vivienda. Si bien cualquier sesgo en la visualización de anuncios basados ​​en características protegidas es ilegal en el caso de la vivienda, la legislación laboral de EE. UU. Lo considera justificable si el sesgo se debe a diferencias de calificación legítimas. La nueva metodología controla este factor.

“El diseño del experimento es muy limpio”, dice Sapieżyński, que no participó en el último estudio. Si bien algunos podrían argumentar que los asociados de ventas de automóviles y joyas de hecho tienen diferentes calificaciones, dice, las diferencias entre entregar pizza y entregar comestibles son insignificantes. “Estas diferencias de género no se pueden explicar por las diferencias de género en las calificaciones o la falta de calificaciones”, agrega. “Facebook ya no puede decir [this is] defendible por ley “.

La publicación de esta auditoría se produce en medio de un mayor escrutinio del trabajo de sesgo de inteligencia artificial de Facebook. En marzo, . publicó los resultados de una investigación de nueve meses sobre el equipo de IA responsable de la empresa, que descubrió que el equipo, formado por primera vez en 2018, se había olvidado de trabajar en cuestiones como la amplificación algorítmica de la desinformación y la polarización debido a su ceguera. centrarse en el sesgo de la IA. La empresa publicó una publicación de blog poco después, enfatizó la importancia de ese trabajo y dijo en particular que Facebook busca “comprender mejor los errores potenciales que pueden afectar nuestro sistema de anuncios, como parte de nuestro trabajo continuo y más amplio para estudiar la equidad algorítmica en los anuncios”.

“Hemos tomado medidas significativas para abordar los problemas de discriminación en los anuncios y hoy tenemos equipos que trabajan en la equidad de los anuncios”, dijo el portavoz de Facebook Joe Osborn en un comunicado. “Nuestro sistema tiene en cuenta muchas señales para tratar de mostrar a las personas los anuncios que más les interesarán, pero entendemos las preocupaciones planteadas en el informe … Seguimos trabajando en estrecha colaboración con la comunidad de derechos civiles, los reguladores y los académicos. sobre estos importantes asuntos “.

Sin embargo, a pesar de estas afirmaciones, Korolova dice que no encontró ningún cambio notable entre la auditoría de 2019 y esta en la forma en que funcionan los algoritmos de entrega de anuncios de Facebook. “Desde esa perspectiva, es realmente decepcionante, porque les informamos de esto hace dos años”, dice. También se le ofreció trabajar con Facebook para abordar estos problemas, dice. “No hemos recibido respuesta. Al menos para mí, no se han comunicado”.

En entrevistas anteriores, la compañía dijo que no podía discutir los detalles de cómo estaba trabajando para mitigar la discriminación algorítmica en su servicio de publicidad debido a un litigio en curso. El equipo de anuncios dijo que su progreso se ha visto limitado por desafíos técnicos.

Sapieżyński, que ahora ha realizado tres auditorías de la plataforma, dice que esto no tiene nada que ver con el problema. “Facebook todavía tiene que reconocer que hay un problema”, dice. Mientras el equipo resuelve los problemas técnicos, agrega, también hay una solución provisional fácil: podría desactivar la orientación algorítmica de anuncios específicamente para anuncios de vivienda, empleo y préstamos sin afectar el resto de su servicio. Realmente es solo una cuestión de voluntad política, dice.

Christo Wilson, otro investigador de Northeastern que estudia el sesgo algorítmico, pero que no participó en la investigación de Korolova o Sapieżyński, está de acuerdo: “¿Cuántas veces los investigadores y periodistas necesitan encontrar estos problemas antes de que simplemente aceptemos que todo el sistema de orientación de anuncios está en bancarrota? ? “

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.