Luchando contra el sesgo algorítmico en TC Sessions: Justice – Heaven32

A Sesiones de CT: Justicia el 3 de marzo, nos sumergiremos de lleno en la discriminación de datos, el sesgo algorítmico y cómo garantizar un futuro más justo, ya que las empresas de tecnología dependen más de procesos automatizados para tomar decisiones.

Los algoritmos son conjuntos de reglas que siguen las computadoras para resolver problemas y tomar decisiones sobre un curso de acción en particular. Pero hay un problema inherente con los algoritmos que comienza en el nivel más básico y persiste durante su adaptación: el sesgo humano que se incrusta en estos tomadores de decisiones basados ​​en máquinas.

Los algoritmos impulsados ​​por datos erróneos son los que conducen a arrestos y encarcelamientos sesgados de personas negras. También son el mismo tipo de algoritmos que solía utilizar Google etiquetar fotos de personas negras como gorilas

y eso El robot Tay de Microsoft solía convertirse en un supremacista blanco.

A Sesiones de CT: Justicia, escucharemos a tres expertos en este campo. Vamos a conocerlos.

Dr. Safiya United Noble

Profesora asociada de la Universidad de California en Los Ángeles, profesora de la Universidad del Sur de California y autora de “Algoritmos de opresión: cómo los motores de búsqueda refuerzan el racismo”, Noble se ha hecho conocida por sus análisis sobre la intersección de la raza y la tecnología.

En su libro antes mencionado, Noble analiza las formas en que los algoritmos están sesgados y perpetúan el racismo. Ella llama a esto discriminación de datos.

“Creo que las formas en que se codifica o codifican a las personas, en particular en los motores de búsqueda, pueden causar un daño increíble”. Noble me lo dijo en 2018 en un episodio de TC Mixtape, anteriormente conocido como CTRL + T. “Y esto es parte de lo que quiero decir cuando digo discriminación de datos”.

Mutale Nkonde

Créditos de imagen: Vía Mutale Nkonde

Es importante llamar explícitamente a la raza para crear solo futuros tecnológicos, según Nkonde. En su artículo de investigación, “Anti-negrura automatizada: reconocimiento facial en Brooklyn, Nueva York, ”Nkonde examina el uso del reconocimiento facial, la historia de la vigilancia de los negros en Nueva York y presenta posibles formas de regular el reconocimiento facial en el futuro.

Nkonde también es asesor de las Naciones Unidas sobre raza e inteligencia artificial y actualmente trabaja con Amnistía Internacional para promover una prohibición mundial de la tecnología de reconocimiento facial.

Haben Girma

Mujer caminando con perro guía.

Créditos de imagen: Cortesía de Haben Girma

Autora de las memorias “Haben: la mujer sordociega que conquistó la ley de Harvard” y abogada de derechos humanos, Girma se enfoca en promover la justicia por discapacidad.

A Sight Tech Global El mes pasado, Girma habló sobre cómo las discusiones sobre el sesgo algorítmico en lo que respecta a la raza se han normalizado un poco, pero con demasiada frecuencia esas conversaciones excluyen los efectos de los algoritmos en las personas discapacitadas. Girma me dijo en eso que cuando se trata de robots, por ejemplo, el tema del sesgo algorítmico falta entre desarrolladores y diseñadores.

“No culpes a los robots”, dijo. “Son las personas que construyen los robots quienes están insertando sus prejuicios que están causando que el capacismo y el racismo continúen en nuestra sociedad. Si los diseñadores construyeran robots en colaboración con personas discapacitadas que usan nuestras aceras y personas ciegas que usarían estas aplicaciones de entrega, entonces los robots y las aplicaciones de entrega serían completamente accesibles. Por eso, necesitamos que las personas que diseñan los servicios tengan estas conversaciones y trabajen con nosotros “.

Si ha llegado tan lejos en la publicación, probablemente se esté preguntando cómo asistir. Bien tu puedes engancha tu boleto aquí mismo por solo $ 5.

Leave a Reply

Your email address will not be published. Required fields are marked *