Algoritmos de bienestar inexactos y entrenamiento de IA gratis

Algoritmos de bienestar inexactos y entrenamiento de IA gratis

Las noticias: Un algoritmo financiado por el Banco Mundial para determinar qué familias deberían recibir asistencia financiera en Jordania probablemente excluya a las personas que deberían calificar, según descubrió una investigación de Humans Rights Watch.

Por qué importa: La organización identificó varios problemas fundamentales con el sistema algorítmico que resultaron en sesgos e imprecisiones. Clasifica a las familias que solicitan ayuda de menos a más pobres utilizando un cálculo secreto que asigna pesos a 57 indicadores socioeconómicos. Los solicitantes dicen que el cálculo no refleja la realidad y simplifica demasiado la situación económica de las personas.

La fotografía más grande: Los investigadores de ética de la IA piden un mayor escrutinio en torno al uso cada vez mayor de algoritmos en los sistemas de bienestar. Uno de los autores del informe dice que sus hallazgos apuntan a la necesidad de una mayor transparencia en los programas gubernamentales que utilizan la toma de decisiones algorítmica. Lea la historia completa.

—Tate Ryan-Mosley

Todos somos trabajadores de datos gratuitos de AI

Los sofisticados modelos de IA que impulsan nuestros chatbots favoritos requieren mucho trabajo humano. Incluso los chatbots más impresionantes requieren miles de horas de trabajo humano para comportarse de la manera que sus creadores quieren, e incluso así lo hacen de manera poco confiable.

Los anotadores de datos humanos brindan a los modelos de IA un contexto importante que necesitan para tomar decisiones a escala y parecen sofisticados, a menudo trabajando a un ritmo increíblemente rápido para cumplir objetivos altos y plazos ajustados. Pero, según argumentan algunos investigadores, todos somos trabajadores de datos no remunerados para las grandes empresas de tecnología, seamos conscientes de ello o no. Lea la historia completa.

Leave a Reply

Your email address will not be published. Required fields are marked *