Según se informa, Google les dijo a los científicos de inteligencia artificial que ‘lograran un tono positivo’ en la investigación

Foto: Leon Neal / Personal (imágenes falsas)

Casi tres semanas después de la abrupta salida de Black ético en inteligencia artificial Timnit Gebru, están surgiendo más detalles sobre el nuevo y turbio conjunto de políticas que Google ha implementado para su equipo de investigación.

Después de revisar las comunicaciones internas y hablar con los investigadores afectados por el cambio de regla, Reuters informó el miércoles que el gigante tecnológico agregó recientemente un proceso de revisión de “temas sensibles” para los artículos de sus científicos, y en al menos tres ocasiones solicitó explícitamente que los científicos se abstuvieran de proyectar la tecnología de Google en una luz negativa.

Según el nuevo procedimiento, se requiere que los científicos se reúnan con equipos especiales de relaciones públicas, políticas y legales antes de realizar una investigación de IA relacionada con los llamados temas controvertidos que podrían incluir análisis facial y categorizaciones de raza, género o afiliación política.

En un ejemplo revisado por Reuters, los científicos que habían investigado la recomendación que usaba la IA para completar los feeds de los usuarios en plataformas como YouTube, una propiedad de Google, habían redactado un documento que detallaba las preocupaciones de que la tecnología podría usarse para promover “desinformación, discriminación o resultados injustos “y” diversidad insuficiente de contenido “, además de conducir a una” polarización política “. Después de una revisión por parte de un gerente senior que instruyó a los investigadores para que adoptaran un tono más positivo, la publicación final sugiere que los sistemas pueden promover “información precisa, imparcialidad y diversidad de contenido”.

“Los avances en la tecnología y la creciente complejidad de nuestro entorno externo están conduciendo cada vez más a situaciones en las que proyectos aparentemente inofensivos plantean problemas éticos, de reputación, regulatorios o legales”, afirma una página web interna que describe la política.

En las últimas semanas, y particularmente después de la salida de Gebru, una investigadora de gran renombre que, según los informes, perdió el favor de los altos mandos después de que dio la alarma sobre la censura que se infiltraba en el proceso de investigación: Google se ha enfrentado a un mayor escrutinio sobre los posibles sesgos en su división de investigación interna.

Cuatro investigadores del personal que hablaron con Reuters validaron las afirmaciones de Gebru, diciendo que ellos también creen que Google está comenzando a interferir con estudios críticos sobre el potencial de la tecnología para hacer daño.

“Si estamos investigando lo apropiado dada nuestra experiencia, y no se nos permite publicar eso por motivos que no están en línea con la revisión por pares de alta calidad, entonces nos estamos metiendo en un grave problema de censura”, Margaret Mitchell, un científico senior de la empresa, dijo.

A principios de diciembre, Gebru afirmó que Google la había despedido. después de que rechazó una orden de no publicar investigaciones que afirmaban que la inteligencia artificial capaz de imitar el habla podría poner a las poblaciones marginadas en desventaja.

.

Heaven32: