Este grupo de empresas tecnológicas acaba de registrarse en un metaverso más seguro

Pero gran parte del plan de Oasis sigue siendo, en el mejor de los casos, idealista. Un ejemplo es una propuesta para utilizar el aprendizaje automático para detectar el acoso y el discurso de odio. Como informó mi colega Karen Hao el año pasado, los modelos de IA dan al discurso de odio demasiadas posibilidades de propagarse o de sobrepasarse. Aún así, Wang defiende la promoción de la IA por parte de Oasis como una herramienta de moderación. “La IA es tan buena como los datos”, dice. “Las plataformas comparten diferentes prácticas de moderación, pero todas trabajan para obtener mejores precisiones, una reacción más rápida y seguridad mediante la prevención del diseño”.

El documento en sí tiene siete páginas y describe los objetivos futuros del consorcio. Gran parte se lee como una declaración de misión, y Wang dice que el trabajo de los primeros meses se ha centrado en la creación de grupos asesores para ayudar a crear los objetivos.

Otros elementos del plan, como su estrategia de moderación de contenido, son vagos. Wang dice que le gustaría que las empresas contrataran un conjunto diverso de moderadores de contenido para que puedan comprender y combatir el acoso de las personas de color y aquellas que se identifican como no hombres. Pero el plan no ofrece más pasos para lograr este objetivo.

El consorcio también esperará que las empresas miembro compartan datos sobre qué usuarios están cometiendo abusos, lo cual es importante para identificar a los infractores reincidentes. Las empresas de tecnología participantes se asociarán con organizaciones sin fines de lucro, agencias gubernamentales y fuerzas del orden para ayudar a crear políticas de seguridad, dice Wang. Ella también planea que Oasis tenga un equipo de respuesta policial, cuyo trabajo será notificar a la policía sobre acoso y abuso. Pero sigue sin estar claro cómo el trabajo del grupo de trabajo con las fuerzas del orden diferirá del statu quo.

Equilibrar la privacidad y la seguridad

A pesar de la falta de detalles concretos, los expertos con los que hablé piensan que el documento de estándares del consorcio es un buen primer paso, al menos. “Es bueno que Oasis busque la autorregulación, comenzando por las personas que conocen los sistemas y sus limitaciones”, dice Brittan Heller, abogado especializado en tecnología y derechos humanos.

No es la primera vez que las empresas tecnológicas trabajan juntas de esta manera. En 2017, algunos acordaron intercambiar información libremente con el Foro Global de Internet para Combatir el Terrorismo. Hoy en día, GIFCT sigue siendo independiente y las empresas que se adhieren a él se autorregulan.

Lucy Sparrow, investigadora de la Escuela de Computación y Sistemas de Información de la Universidad de Melbourne, dice que lo que está pasando con Oasis es que ofrece a las empresas algo con lo que trabajar, en lugar de esperar a que ellas mismas inventen el lenguaje o esperar a que un tercero para hacer ese trabajo.

Sparrow agrega que integrar la ética en el diseño desde el principio, como lo impulsa Oasis, es admirable y que su investigación en sistemas de juegos multijugador muestra que marca la diferencia. “La ética tiende a quedar relegada a un segundo plano, pero aquí, [Oasis] están alentando a pensar en la ética desde el principio”, dice.

Pero Heller dice que el diseño ético podría no ser suficiente. Ella sugiere que las empresas de tecnología modifiquen sus términos de servicio, que han sido fuertemente criticados por aprovecharse de los consumidores sin experiencia legal.

Sparrow está de acuerdo y dice que duda en creer que un grupo de empresas de tecnología actuará en el mejor interés de los consumidores. “Realmente plantea dos preguntas”, dice ella. “Uno, ¿cuánto confiamos en las corporaciones impulsadas por el capital para controlar la seguridad? Y dos, ¿cuánto control queremos que tengan las empresas de tecnología sobre nuestras vidas virtuales?

Es una situación complicada, especialmente porque los usuarios tienen derecho tanto a la seguridad como a la privacidad, pero esas necesidades pueden estar en tensión.

Leave a Reply

Your email address will not be published. Required fields are marked *