¿Tu startup usa IA de manera responsable? – TechCrunch


Desde que comenzaron Aprovechando la tecnología, las compañías tecnológicas han recibido numerosas acusaciones sobre el uso poco ético de la inteligencia artificial.

Uno ejemplo proviene de Google de Alphabet, que creó un algoritmo de detección de discurso de odio que asignó "puntajes de toxicidad" más altos al discurso de los afroamericanos que sus homólogos blancos. Investigadores de la Universidad de Washington analizaron bases de datos de miles de tuits considerados "ofensivos" u "odiosos" por el algoritmo y descubrieron que el inglés alineado en negro tenía más probabilidades de ser etiquetado como discurso de odio.

Esta es una de las innumerables instancias de sesgo que surgen de los algoritmos de IA. Es comprensible que estos problemas hayan generado mucha atención. Las conversaciones sobre ética y prejuicios han sido uno de los principales temas en IA en el pasado reciente.

Las organizaciones y actores de todas las industrias están participando en investigación para eliminar el sesgo a través de la equidad, la responsabilidad, la transparencia y la ética (FATE). Sin embargo, la investigación que se centra únicamente en la arquitectura e ingeniería de modelos está destinada a producir resultados limitados. Entonces, ¿cómo puedes abordar esto?

Resolver conceptos erróneos sobre la lucha contra el sesgo de AI

Arreglar el modelo es insuficiente, ya que no es allí donde se encuentra la causa raíz. Para averiguar qué medidas pueden arrojar mejores resultados, primero debemos comprender los motivos reales. Luego podemos buscar soluciones potenciales al estudiar lo que hacemos en el mundo real para abordar tales sesgos.

Los modelos de IA aprenden estudiando patrones e identificando ideas a partir de datos históricos. Pero la historia humana (y nuestro presente) está lejos de ser perfecta. Por lo tanto, no sorprende que estos modelos terminen imitando y amplificando los sesgos que se encuentran en los datos utilizados para entrenarlos.

Esto es bastante claro para todos nosotros. Pero, ¿cómo manejamos ese sesgo inherente en nuestro mundo?

Inyectamos prejuicios para luchar contra los prejuicios. Cuando sentimos que una comunidad o segmento de la población podría estar en desventaja, evitamos basar nuestra conclusión únicamente en casos pasados. En ocasiones, vamos un paso más allá y hacemos inclusiones para brindar oportunidades a dichos segmentos. Este es un pequeño paso para revertir la tendencia.

Este es el mismo paso que debemos dar al enseñar modelos. Entonces, ¿cómo inyectamos prejuicios humanos para combatir el sesgo inherente "aprendido" de los modelos? Aquí hay algunos pasos para lograrlo.

Agregue diversos roles a su equipo de ciencia de datos

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *