La IA de búsqueda de empleo de LinkedIn estaba sesgada. ¿La solución de la empresa? Más IA.

Cada vez más empresas utilizan la inteligencia artificial para reclutar y contratar nuevos empleados, y la inteligencia artificial puede influir en casi cualquier etapa del proceso de contratación. Covid-19 impulsó una nueva demanda de estas tecnologías. Ambas cosas Cosa curiosa y HireVue, empresas especializadas en entrevistas impulsadas por IA, informaron de un aumento en el negocio durante la pandemia.

Sin embargo, la mayoría de las búsquedas de empleo comienzan con una búsqueda simple. Los solicitantes de empleo recurren a plataformas como LinkedIn, Monstruo, o ZipRecruiter, donde pueden cargar sus currículums, buscar ofertas de trabajo y postularse para vacantes.

El objetivo de estos sitios web es hacer coincidir a los candidatos calificados con los puestos disponibles. Para organizar todas estas vacantes y candidatos, muchas plataformas emplean algoritmos de recomendación basados ​​en inteligencia artificial. Los algoritmos, a veces denominados motores de búsqueda de coincidencias, procesan la información tanto del solicitante de empleo como del empleador para elaborar una lista de recomendaciones para cada uno.

“Normalmente escuchas la anécdota de que un reclutador pasa seis segundos mirando tu currículum, ¿verdad?” dice Derek Kan, vicepresidente de gestión de productos de Monster. “Cuando observamos el motor de recomendaciones que hemos construido, puede reducir ese tiempo a milisegundos”.

La mayoría de los motores de búsqueda están optimizados para generar aplicaciones, dice John Jersin

, ex vicepresidente de gestión de productos de LinkedIn. Estos sistemas basan sus recomendaciones en tres categorías de datos: información que el usuario proporciona directamente a la plataforma; datos asignados al usuario basados ​​en otros con habilidades, experiencias e intereses similares; y datos de comportamiento, como la frecuencia con la que un usuario responde a los mensajes o interactúa con las ofertas de empleo.

En el caso de LinkedIn, estos algoritmos excluyen el nombre, la edad, el género y la raza de una persona, porque la inclusión de estas características puede contribuir al sesgo en los procesos automatizados. Pero el equipo de Jersin descubrió que, aun así, los algoritmos del servicio aún podían detectar patrones de comportamiento exhibidos por grupos con identidades de género particulares.

Por ejemplo, mientras que los hombres tienen más probabilidades de postularse para trabajos que requieren experiencia laboral más allá de sus calificaciones, las mujeres tienden a buscar trabajos en los que sus calificaciones coinciden con los requisitos del puesto. El algoritmo interpreta esta variación en el comportamiento y ajusta sus recomendaciones de una manera que inadvertidamente pone en desventaja a las mujeres.

“Es posible que esté recomendando, por ejemplo, trabajos más senior a un grupo de personas que a otro, incluso si están calificados en el mismo nivel”, dice Jersin. “Es posible que esas personas no se expongan a las mismas oportunidades. Y ese es realmente el impacto del que estamos hablando aquí “.

Los hombres también incluyen más habilidades en sus currículums con un menor grado de competencia que las mujeres y, a menudo, se involucran de manera más agresiva con los reclutadores en la plataforma.

Para abordar estos problemas, Jersin y su equipo en LinkedIn construyó una nueva IA diseñado para producir resultados más representativos y lo implementó en 2018. Era esencialmente un algoritmo separado diseñado para contrarrestar las recomendaciones sesgadas hacia un grupo en particular. La nueva IA asegura que antes de referir las coincidencias seleccionadas por el motor original, el sistema de recomendación incluye una distribución uniforme de usuarios por género.

Kan dice que Monster, que enumera de 5 a 6 millones de trabajos en un momento dado, también incorpora datos de comportamiento en sus recomendaciones, pero no corrige el sesgo de la misma manera que lo hace LinkedIn. En cambio, el equipo de marketing se enfoca en lograr que los usuarios de diversos orígenes se inscriban en el servicio, y la compañía luego confía en los empleadores para informar y decirle a Monster si pasó o no a un grupo representativo de candidatos.

Irina Novoselsky, Directora ejecutiva de CareerBuilder, dice que se concentra en utilizar los datos que recopila el servicio para enseñar a los empleadores cómo eliminar el sesgo en sus ofertas de trabajo. Por ejemplo, “Cuando un candidato lee la descripción de un trabajo con la palabra ‘estrella de rock’, hay materialmente un porcentaje menor de mujeres que se postulan”, dice.

Leave a Reply

Your email address will not be published. Required fields are marked *