Dentro de la lucha para recuperar la IA del control de Big Tech

Entre las empresas más ricas y poderosas del mundo, Google, Facebook, Amazon, Microsoft y Apple han hecho de la IA una parte fundamental de su negocio. Los avances de la última década, particularmente en una técnica de inteligencia artificial llamada aprendizaje profundo, les han permitido monitorear el comportamiento de los usuarios; recomendarles noticias, información y productos; y, sobre todo, oriéntelos con anuncios. El año pasado, el aparato publicitario de Google generó más de $ 140 mil millones en ingresos. Facebook generó $ 84 mil millones.

Las empresas han invertido mucho en la tecnología que les ha aportado una riqueza tan enorme. La empresa matriz de Google, Alphabet, adquirió el laboratorio de inteligencia artificial con sede en Londres Mente profunda por $ 600 millones en 2014 y gasta cientos de millones al año para respaldar su investigación. Microsoft firmó un acuerdo de mil millones de dólares con OpenAI en 2019 por los derechos de comercialización de sus algoritmos.

Al mismo tiempo, los gigantes tecnológicos se han convertido en grandes inversores en la investigación de inteligencia artificial basada en universidades, lo que influye en gran medida en sus prioridades científicas. A lo largo de los años, los científicos cada vez más ambiciosos han pasado a trabajar para gigantes tecnológicos a tiempo completo o han adoptado una afiliación dual. De 2018 a 2019, el 58% de los artículos más citados en las dos principales conferencias de IA tenían al menos un autor afiliado a un gigante tecnológico, en comparación con solo el 11% una década antes, según un estudio realizado por investigadores en el Red de IA radical

, un grupo que busca desafiar las dinámicas de poder en IA.

El problema es que la agenda corporativa para la IA se ha centrado en técnicas con potencial comercial, ignorando en gran medida la investigación que podría ayudar a abordar desafíos como la desigualdad económica y el cambio climático. De hecho, ha empeorado estos desafíos. El impulso para automatizar tareas ha costado trabajos y ha provocado el aumento de trabajos tediosos como la limpieza de datos y la moderación de contenido. El impulso para crear modelos cada vez más grandes ha provocado que el consumo de energía de la IA se dispare. El aprendizaje profundo también ha creado una cultura en la que nuestros datos se extraen constantemente, a menudo sin consentimiento, para entrenar productos como los sistemas de reconocimiento facial. Y los algoritmos de recomendación han exacerbado la polarización política, mientras que los grandes modelos de lenguaje no han logrado eliminar la información errónea.

Es esta situación la que Gebru y un creciente movimiento de académicos de ideas afines quieren cambiar. Durante los últimos cinco años, han buscado cambiar las prioridades del campo lejos de simplemente enriquecer a las empresas de tecnología, expandiendo quién puede participar en el desarrollo de la tecnología. Su objetivo no es solo mitigar los daños causados ​​por los sistemas existentes, sino crear una IA nueva, más equitativa y democrática.

“Hola de Timnit”

En diciembre de 2015, Gebru se sentó a escribir una carta abierta. A mitad de su doctorado en Stanford, había asistido a la conferencia Neural Information Processing Systems, la mayor reunión anual de investigación de IA. De los más de 3.700 investigadores allí, Gebru contó solo cinco que eran negros.

Una vez que fue una pequeña reunión sobre un tema académico de nicho, NeurIPS (como se lo conoce ahora) se estaba convirtiendo rápidamente en la mayor bonanza laboral anual de IA. Las empresas más ricas del mundo venían a mostrar demostraciones, organizar fiestas extravagantes y emitir cheques considerables para las personas más raras de Silicon Valley: hábiles investigadores de inteligencia artificial.

Ese año llegó Elon Musk para anunciar la empresa sin fines de lucro OpenAI. Él, el entonces presidente de Y Combinator, Sam Altman, y el cofundador de PayPal, Peter Thiel, habían aportado mil millones de dólares para resolver lo que creían que era un problema existencial: la perspectiva de que una superinteligencia pudiera algún día apoderarse del mundo. Su solución: construir una superinteligencia aún mejor. De los 14 asesores o miembros del equipo técnico que ungió, 11 eran hombres blancos.

RICARDO SANTOS | FOTO DE CORTESÍA

Mientras se alababa a Musk, Gebru se enfrentaba a la humillación y el acoso. En una fiesta de la conferencia, un grupo de chicos borrachos con camisetas de Google Research la rodearon y la sometieron a abrazos no deseados, un beso en la mejilla y una foto.

Gebru escribió una crítica mordaz de lo que había observado: el espectáculo, la adoración de culto a las celebridades de la IA y, sobre todo, la abrumadora homogeneidad. La cultura de este club de chicos, escribió, ya había expulsado a las mujeres talentosas del campo. También estaba llevando a toda la comunidad hacia una concepción peligrosamente estrecha de la inteligencia artificial y su impacto en el mundo.

Google ya había implementado un algoritmo de visión por computadora que clasificaba a las personas negras como gorilas, señaló. Y la creciente sofisticación de los drones no tripulados estaba poniendo al ejército estadounidense en el camino hacia armas autónomas letales. Pero no se mencionaron estos problemas en el gran plan de Musk para evitar que la IA se apodere del mundo en algún escenario futuro teórico. “No tenemos que proyectarnos hacia el futuro para ver los posibles efectos adversos de la IA”, escribió Gebru. “Ya está sucediendo”.

Gebru nunca publicó su reflejo. Pero se dio cuenta de que algo tenía que cambiar. El 28 de enero de 2016, envió un correo electrónico con el asunto “Hola desde Timnit” a otros cinco investigadores de inteligencia artificial negra. “Siempre me ha entristecido la falta de color en la IA”, escribió. “Pero ahora he visto a 5 de ustedes 🙂 y pensé que sería genial si empezáramos un grupo negro en la IA o al menos nos conociéramos”.

El correo electrónico provocó una discusión. ¿Qué tuvo ser negro que informó su investigación? Para Gebru, su trabajo fue en gran medida un producto de su identidad; para otros, no lo fue. Pero después de reunirse estuvieron de acuerdo: si la IA iba a desempeñar un papel más importante en la sociedad, necesitaban más investigadores negros. De lo contrario, el campo produciría ciencia más débil y sus consecuencias adversas podrían empeorar mucho.

Una agenda impulsada por las ganancias

Como Negro en IA estaba comenzando a fusionarse, la IA estaba alcanzando su ritmo comercial. Ese año, 2016, los gigantes tecnológicos gastaron un estimado de $ 20 a $ 30 mil millones en el desarrollo de la tecnología, según el McKinsey Global Institute.

Calentado por la inversión corporativa, el campo se deformó. Miles de investigadores más comenzaron a estudiar la IA, pero en su mayoría querían trabajar en algoritmos de aprendizaje profundo, como los que se encuentran detrás de los grandes modelos de lenguaje. “Como un joven estudiante de doctorado que quiere conseguir un trabajo en una empresa de tecnología, te das cuenta de que las empresas de tecnología tienen que ver con el aprendizaje profundo”, dice Suresh Venkatasubramanian, profesora de ciencias de la computación que ahora trabaja en la Oficina de Política Científica y Tecnológica de la Casa Blanca. . “Así que cambias toda tu investigación al aprendizaje profundo. Luego, el próximo estudiante de doctorado que llega mira a su alrededor y dice: ‘Todos están haciendo un aprendizaje profundo. Probablemente yo también debería hacerlo ‘”.

Pero el aprendizaje profundo no es la única técnica en el campo. Antes de su auge, existía un enfoque de IA diferente conocido como razonamiento simbólico. Mientras que el aprendizaje profundo utiliza cantidades masivas de datos para enseñar algoritmos sobre relaciones significativas en la información, el razonamiento simbólico se enfoca en codificar explícitamente el conocimiento y la lógica basados ​​en la experiencia humana.

Algunos investigadores ahora creen que esas técnicas deberían combinarse. El enfoque híbrido haría que la IA sea más eficiente en el uso de datos y energía, y le daría el conocimiento y las habilidades de razonamiento de un experto, así como la capacidad de actualizarse con nueva información. Pero las empresas tienen pocos incentivos para explorar enfoques alternativos cuando la forma más segura de maximizar sus ganancias es construir modelos cada vez más grandes.

.

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.