Cómo elaborar una política de IA eficaz

Cómo elaborar una política de IA eficaz

Así que a tu primera pregunta, creo que tienes razón. Que los formuladores de políticas deberían definir las medidas de seguridad, pero no creo que deban hacerlo para todo. Creo que debemos elegir aquellas áreas que son más sensibles. La UE los ha llamado de alto riesgo. Y tal vez podamos tomar de eso, algunos modelos que nos ayuden a pensar sobre lo que es de alto riesgo y dónde deberíamos pasar más tiempo y, potencialmente, los formuladores de políticas, ¿dónde deberíamos pasar tiempo juntos?

Soy un gran admirador de los entornos limitados regulatorios cuando se trata de codiseño y coevolución de la retroalimentación. Eh, tengo un artículo que saldrá en un libro de prensa de la Universidad de Oxford sobre un sistema de calificación basado en incentivos del que podría hablar en un momento. Pero también creo, por otro lado, que todos ustedes deben tener en cuenta el riesgo de su reputación.

A medida que avanzamos hacia una sociedad mucho más avanzada digitalmente, corresponde a los desarrolladores hacer su debida diligencia también. Como empresa, no puede darse el lujo de salir y poner un algoritmo que cree, o un sistema autónomo que cree que es la mejor idea, y luego aterrizar en la primera página del periódico. Porque lo que eso hace es degradar la confiabilidad de sus consumidores de su producto.

Entonces, lo que digo, ya sabes, ambos lados es que creo que vale la pena una conversación en la que tengamos ciertas medidas de seguridad en lo que respecta a la tecnología de reconocimiento facial, porque no tenemos la precisión técnica cuando se aplica a todas las poblaciones. Cuando se trata de impacto disparejo en productos y servicios financieros. Hay excelentes modelos que he encontrado en mi trabajo, en la industria bancaria, donde realmente tienen factores desencadenantes porque tienen organismos reguladores que los ayudan a comprender qué proxies realmente generan un impacto dispar. . Hay áreas en las que acabamos de ver este derecho en el mercado de la vivienda y la tasación, donde la IA se usa para reemplazar una toma de decisiones subjetiva, pero contribuye más al tipo de discriminación y tasaciones depredadoras que vemos. Hay ciertos casos en los que realmente necesitamos que los legisladores impongan barandillas, pero más aún, sean proactivos. Les digo a los formuladores de políticas todo el tiempo, no se puede culpar a los científicos de datos. Si los datos son horribles.

antonio verde: Derecha.

Nicol Turner Lee: Invierta más dinero en investigación y desarrollo. Ayúdenos a crear mejores conjuntos de datos que estén sobrerrepresentados en ciertas áreas o subrepresentados en términos de poblaciones minoritarias. La clave es que tiene que trabajar en conjunto. No creo que tengamos una buena solución ganadora si los responsables de la formulación de políticas lideran esto o los científicos de datos lo lideran solos en ciertas áreas. Creo que realmente necesitas personas que trabajen juntas y que colaboren en cuáles son esos principios. Creamos estos modelos. Las computadoras no. Sabemos lo que hacemos con estos modelos cuando creamos algoritmos o sistemas autónomos o segmentación de anuncios. ¡Sabemos! En esta sala, no podemos cruzarnos de brazos y decir que no entendemos por qué usamos estas tecnologías. Lo sabemos porque en realidad tienen un precedente de cómo se han expandido en nuestra sociedad, pero necesitamos algo de responsabilidad. Y eso es realmente a lo que estoy tratando de llegar. ¿Quién nos hace responsables de estos sistemas que estamos creando?

Es muy interesante, Anthony, estas últimas, uh, semanas, ya que muchos de nosotros hemos visto el, uh, conflicto en Ucrania. Mi hija, debido a que tengo una niña de 15 años, ha venido a mí con una variedad de TikToks y otras cosas que ha visto decir: “Oye mamá, ¿sabías que esto está pasando?” Y he tenido que retroceder porque me he involucrado mucho en la conversación, sin saberlo de alguna manera, una vez que sigo ese camino con ella. Voy más y más y más profundo en ese pozo.

antonio verde: Sí.

Leave a Reply

Your email address will not be published. Required fields are marked *