Google se separa del principal investigador de inteligencia artificial después de bloquear papel, enfrenta retroceso

El ex científico investigador de IA de Google, Timnit Gebru, habla en el escenario durante el día 3 de Heaven32 Disrupt SF 2018 en el Moscone Center el 7 de septiembre de 2018 en San Francisco, California.
Agrandar / El ex científico investigador de IA de Google, Timnit Gebru, habla en el escenario durante el día 3 de Heaven32 Disrupt SF 2018 en el Moscone Center el 7 de septiembre de 2018 en San Francisco, California.

Kimberly White | imágenes falsas

Google luchó el jueves para limitar las consecuencias de la partida de un importante investigador de inteligencia artificial después de que el grupo de Internet bloqueó la publicación de un documento sobre un importante problema de ética de la inteligencia artificial.

Timnit Gebru, quien había sido codirectora de ética de IA en Google, dijo en Twitter que la habían despedido después de que el documento fuera rechazado.

Jeff Dean, jefe de inteligencia artificial de Google, defendió la decisión en un correo electrónico interno al personal el jueves, diciendo que el periódico “no cumplió con nuestro estándar de publicación”. También describió la partida de la Dra. Gebru como una renuncia en respuesta a la negativa de Google a ceder a las condiciones no especificadas que ella había establecido para permanecer en la empresa.

La disputa ha amenazado con arrojar una luz dura sobre el manejo de Google de la investigación interna de inteligencia artificial que podría dañar su negocio, así como las dificultades de larga data de la compañía para tratar de diversificar su fuerza laboral.

Antes de irse, Gebru se quejó en un correo electrónico a sus compañeros de trabajo de que no había “responsabilidad cero” dentro de Google sobre las afirmaciones de la compañía de que quiere aumentar la proporción de mujeres en sus filas. El correo electrónico, publicado por primera vez en Platformer, también describió la decisión de bloquear su artículo como parte de un proceso de “silenciar las voces marginadas”.

Una persona que trabajó en estrecha colaboración con Gebru dijo que había habido tensiones con la dirección de Google en el pasado por su activismo para impulsar una mayor diversidad. Pero la causa inmediata de su partida fue la decisión de la empresa de no permitir la publicación de un trabajo de investigación del que era coautora, agregó esta persona.

El documento analizó el sesgo potencial en los modelos de lenguaje a gran escala, uno de los campos nuevos más candentes de la investigación del lenguaje natural. Sistemas como el GPT-3 de OpenAI y el propio sistema de Google, Bert, intentan predecir la siguiente palabra en cualquier frase u oración, un método que se ha utilizado para producir una escritura automatizada sorprendentemente eficaz y que Google utiliza para comprender mejor las consultas de búsqueda complejas.

Los modelos de lenguaje se entrenan en una gran cantidad de texto, generalmente extraído de Internet, lo que ha generado advertencias de que podrían regurgitar los prejuicios raciales y de otro tipo que están contenidos en el material de capacitación subyacente.

“Desde fuera, parece que alguien en Google decidió que esto era perjudicial para sus intereses”, dijo Emily Bender, profesora de lingüística computacional en la Universidad de Washington, coautora del artículo.

“La libertad académica es muy importante; existen riesgos cuando [research] está teniendo lugar en lugares que [don’t] tienen esa libertad académica ”, dando a las empresas o gobiernos el poder de“ cerrar ”las investigaciones que no aprueban, agregó.

Bender dijo que los autores esperaban actualizar el artículo con investigaciones más recientes a tiempo para que fuera aceptado en la conferencia a la que ya se había presentado. Pero agregó que era común que ese trabajo fuera reemplazado por investigaciones más recientes, dada la rapidez con la que avanza el trabajo en campos como este. “En la literatura de investigación, ningún artículo es perfecto”.

Julien Cornebise, exinvestigador de inteligencia artificial en DeepMind, el grupo de inteligencia artificial con sede en Londres propiedad de la empresa matriz de Google, Alphabet, dijo que la disputa “muestra los riesgos de tener la investigación de inteligencia artificial y aprendizaje automático concentrada en las pocas manos de poderosos actores de la industria, ya que permite la censura del campo al decidir qué se publica o no ”.

Añadió que Gebru era “extremadamente talentosa; necesitamos investigadores de su calibre, sin filtros, en estos temas”. Gebru no respondió de inmediato a las solicitudes de comentarios.

Dean dijo que el documento, escrito con otros tres investigadores de Google, así como con colaboradores externos, “no tomó en cuenta investigaciones recientes para mitigar” el riesgo de sesgo. Agregó que el documento “hablaba del impacto ambiental de los modelos grandes, pero ignoraba las investigaciones posteriores que mostraban una eficiencia mucho mayor”.

© 2020 The Financial Times Ltd. Todos los derechos reservados No se debe redistribuir, copiar ni modificar de ninguna manera.

Leave a Reply

Your email address will not be published. Required fields are marked *