Deja de hablar de la ética de la IA. Es hora de hablar de poder.

En sus 20 años de carrera, Crawford ha enfrentado las consecuencias del mundo real de los sistemas de datos a gran escala, el aprendizaje automático y la inteligencia artificial. En 2017, con Meredith Whittaker, cofundó el instituto de investigación AI Now como la primera organización dedicada a estudiar las implicaciones sociales de estas tecnologías. Ahora también es profesora en USC Annenberg, en Los Ángeles, y la presidenta visitante inaugural en IA y justicia en la École Normale Supérieure en París, así como investigadora principal senior en Microsoft Research.

Hace cinco años, dice Crawford, todavía estaba trabajando para presentar la mera idea de que los datos y la inteligencia artificial no eran neutrales. Ahora la conversación ha evolucionado y la ética de la IA ha florecido en su propio campo. Ella espera que su libro lo ayude a madurar aún más.

Me senté con Crawford para hablar sobre su libro.

Lo siguiente ha sido editado para mayor claridad y extensión.

¿Por qué eligió hacer este proyecto de libro y qué significa para usted?

Crawford: Muchos de los libros que se han escrito sobre inteligencia artificial en realidad solo hablan de logros técnicos muy limitados. Y a veces escriben sobre los grandes hombres de la IA, pero eso es realmente todo lo que hemos tenido en términos de competir realmente con lo que es la inteligencia artificial.

Creo que ha producido esta comprensión muy sesgada de la inteligencia artificial como sistemas puramente técnicos que de alguna manera son objetivos y neutrales y, como dicen Stuart Russell y Peter Norvig en su libro de texto—Como agentes inteligentes que toman la mejor decisión de cualquier acción posible.

Quería hacer algo muy diferente: entender realmente cómo se hace la inteligencia artificial en el sentido más amplio. Esto significa observar los recursos naturales que lo impulsan, la energía que consume, el trabajo oculto a lo largo de la cadena de suministro y la gran cantidad de datos que se extraen de cada plataforma y dispositivo que usamos todos los días.

Al hacer eso, quería realmente abrir esta comprensión de la IA como ni artificial ni inteligente. Es el opuesto de artificial. Proviene de las partes más materiales de la corteza terrestre y del trabajo de los cuerpos humanos, y de todos los artefactos que producimos, decimos y fotografiamos todos los días. Tampoco es inteligente. Creo que existe este gran pecado original en el campo, donde la gente asumió que las computadoras son de alguna manera como cerebros humanos y si los entrenamos como niños, poco a poco se convertirán en seres sobrenaturales.

Eso es algo que creo que es realmente problemático: que hemos comprado esta idea de inteligencia cuando, en realidad, solo estamos viendo formas de análisis estadístico a escala que tienen tantos problemas como los datos que se proporcionan.

¿Le resultó inmediatamente obvio que así es como la gente debería pensar sobre la IA? ¿O fue un viaje?

Absolutamente ha sido un viaje. Yo diría que uno de los puntos de inflexión para mí fue en 2016, cuando comencé un proyecto llamado “Anatomía de un sistema de IA”Con Vladan Joler. Nos conocimos en una conferencia específicamente sobre inteligencia artificial habilitada por voz, y estábamos tratando de dibujar de manera efectiva lo que se necesita para que funcione un Amazon Echo. Cuales son los componentes? ¿Cómo extrae los datos? ¿Cuáles son las capas en la canalización de datos?

Nos dimos cuenta, bueno, en realidad, para entender eso, tienes que entender de dónde vienen los componentes. ¿Dónde se produjeron las patatas fritas? ¿Dónde están las minas? ¿Dónde se funde? ¿Dónde están los caminos logísticos y de la cadena de suministro?

Finalmente, ¿cómo rastreamos el final de la vida útil de estos dispositivos? ¿Cómo vemos dónde se encuentran los consejos sobre desechos electrónicos en lugares como Malasia, Ghana y Pakistán? Lo que terminamos con este proyecto de investigación de dos años que consume mucho tiempo para rastrear realmente esas cadenas de suministro de materiales desde la cuna hasta la tumba.

Cuando comienzas a mirar los sistemas de IA en esa escala mayor, y en ese horizonte de tiempo más largo, te alejas de estas cuentas muy estrechas de “justicia de IA” y “ética” para decir: estos son sistemas que producen cambios geomórficos profundos y duraderos para nuestro planeta, así como aumentar las formas de desigualdad laboral que ya tenemos en el mundo.

Eso me hizo darme cuenta de que tenía que pasar de un análisis de un solo dispositivo, el Amazon Echo, a aplicar este tipo de análisis a toda la industria. Esa fue para mí la gran tarea, y por eso Atlas de IA tardó cinco años en escribir. Existe una gran necesidad de ver realmente lo que realmente nos cuestan estos sistemas, porque rara vez hacemos el trabajo de comprender realmente sus verdaderas implicaciones planetarias.

La otra cosa que diría que ha sido una verdadera inspiración es el creciente campo de académicos que se hacen estas preguntas más importantes sobre el trabajo, los datos y la desigualdad. Aquí estoy pensando en Ruha Benjamin, Safiya Noble, Mar Hicks, Julie Cohen, Meredith Broussard, Simone Brown; la lista continúa. Veo esto como una contribución a ese cuerpo de conocimiento al incorporar perspectivas que conectan el medio ambiente, los derechos laborales y la protección de datos.

Viajas mucho a lo largo del libro. Casi todos los capítulos comienzan con usted realmente mirando a su alrededor. ¿Por qué fue esto importante para ti?

Fue una elección muy consciente fundamentar un análisis de la IA en lugares específicos, para alejarnos de estos abstractos “nichos” del espacio algorítmico, donde ocurren muchos de los debates sobre el aprendizaje automático. Y, con suerte, resalta el hecho de que cuando no hacemos eso, cuando solo hablamos de estos “espacios en ninguna parte” de objetividad algorítmica, también es una elección política y tiene ramificaciones.

En términos de unir las ubicaciones, esta es realmente la razón por la que comencé a pensar en esta metáfora de un atlas, porque los atlas son libros inusuales. Son libros que puedes abrir y mirar la escala de todo un continente, o puedes acercar y mirar una cadena montañosa o una ciudad. Te dan estos cambios de perspectiva y cambios de escala.

Hay una hermosa línea que utilizo en el libro de la física Ursula Franklin. Escribe sobre cómo los mapas unen lo conocido y lo desconocido en estos métodos de percepción colectiva. Entonces, para mí, realmente se basó en el conocimiento que tenía, pero también en las ubicaciones reales donde se está construyendo la IA de manera muy literal a partir de rocas, arena y petróleo.

¿Qué tipo de comentarios ha recibido el libro?

Una de las cosas que me sorprendieron en las primeras respuestas es que la gente realmente siente que este tipo de perspectiva estaba atrasada. Hay un momento de reconocimiento de que necesitamos tener un tipo de conversación diferente a las que hemos tenido en los últimos años.

Hemos pasado demasiado tiempo centrándonos en soluciones tecnológicas limitadas para los sistemas de inteligencia artificial y siempre centrando las respuestas técnicas y las respuestas técnicas. Ahora tenemos que lidiar con la huella medioambiental de los sistemas. Tenemos que lidiar con las formas muy reales de explotación laboral que se han venido produciendo en la construcción de estos sistemas.

Y ahora también estamos comenzando a ver el legado tóxico de lo que sucede cuando simplemente extrae tantos datos de Internet como puede, y simplemente lo llama verdad básica. Ese tipo de encuadre problemático del mundo ha producido tantos daños y, como siempre, esos daños los han sentido sobre todo las comunidades que ya estaban marginadas y que no experimentaban los beneficios de esos sistemas.

¿Qué esperas que la gente comience a hacer de manera diferente?

Espero que sea mucho más difícil tener estas conversaciones callejeras donde términos como “ética” e “IA para siempre” han sido tan completamente desnaturalizados de cualquier significado real. Espero que corra la cortina y diga, realmente veamos quién maneja las palancas de estos sistemas. Eso significa dejar de enfocarse simplemente en cosas como los principios éticos para hablar sobre el poder.

¿Cómo nos alejamos de este encuadre ético?

Si ha habido una trampa real en el sector tecnológico durante la última década, es que la teoría del cambio siempre se ha centrado en la ingeniería. Siempre ha sido, “Si hay un problema, hay una solución técnica para él”. Y solo recientemente comenzamos a ver que se amplía a “Oh, bueno, si hay un problema, entonces regulación puede arreglarlo. Los formuladores de políticas tienen un papel “.

Pero creo que debemos ampliarlo aún más. Tenemos que decir también: ¿Dónde están los grupos de la sociedad civil, dónde están los activistas, dónde están los defensores que están abordando temas de justicia climática, derechos laborales, protección de datos? ¿Cómo los incluimos en estas discusiones? ¿Cómo incluimos a las comunidades afectadas?

En otras palabras, ¿cómo podemos hacer que esto sea una conversación democrática mucho más profunda sobre cómo estos sistemas ya están influyendo en las vidas de miles de millones de personas de formas principalmente irresponsables que viven fuera de la regulación y la supervisión democrática?

En ese sentido, este libro está tratando de descentrar la tecnología y comenzar a hacer preguntas más importantes sobre: ​​¿En qué tipo de mundo queremos vivir?

Que clase de mundo hace usted quieres vivir? ¿Con qué tipo de futuro sueñas?

Quiero ver que los grupos que han estado haciendo el trabajo realmente duro de abordar cuestiones como la justicia climática y los derechos laborales se unan, y darme cuenta de que estos frentes anteriormente bastante separados para el cambio social y la justicia racial realmente han compartido preocupaciones y un terreno compartido coordinar y organizar.

Porque estamos viendo un horizonte de tiempo realmente corto aquí. Nos enfrentamos a un planeta que ya está sometido a una gran presión. Estamos ante una profunda concentración de poder en extraordinariamente pocas manos. Realmente tendría que volver a los primeros días de los ferrocarriles para ver otra industria que está tan concentrada, y ahora incluso podría decir que la tecnología ha superado eso.

Por tanto, tenemos que lidiar con formas en las que podamos pluralizar nuestras sociedades y tener mayores formas de responsabilidad democrática. Y ese es un problema de acción colectiva. No es un problema de elección individual. No es como si elegimos la marca de tecnología más ética del mercado. Es que tenemos que encontrar formas de trabajar juntos en estos desafíos a escala planetaria.

Leave a Reply

Your email address will not be published. Required fields are marked *