Cómo un moderador de contenido encubierto controla el metaverso

Cómo un moderador de contenido encubierto controla el metaverso

Meta no dirá cuántos moderadores de contenido emplea o contrata en Horizon Worlds, o si la compañía tiene la intención de aumentar ese número con la política de la nueva era. Pero el cambio pone de relieve a los encargados de hacer cumplir la ley en estos nuevos espacios en línea, personas como Yekkanti, y cómo realizan su trabajo.

Yekkanti ha trabajado como moderador y gerente de capacitación en realidad virtual desde 2020 y llegó al trabajo después de realizar un trabajo de moderación tradicional en texto e imágenes. Es empleado de WebPurify, una empresa que brinda servicios de moderación de contenido a empresas de Internet como Microsoft y Play Lab, y trabaja con un equipo con sede en India. Su trabajo se realiza principalmente en las principales plataformas, incluidas las que son propiedad de Meta, aunque WebPurify se negó a confirmar cuáles citando específicamente los acuerdos de confidencialidad del cliente.

Yekkanti, entusiasta de Internet desde hace mucho tiempo, dice que le encanta ponerse un visor de realidad virtual, conocer gente de todo el mundo y dar consejos a los creadores de metaversos sobre cómo mejorar sus juegos y “m undos”.

Él es parte de una nueva clase de trabajadores que protegen la seguridad en el metaverso como agentes de seguridad privados, interactuando con los avatares de personas muy reales para descubrir el mal comportamiento de la realidad virtual. No revela públicamente su condición de moderador. En cambio, trabaja más o menos encubierto, presentándose como un usuario promedio para presenciar mejor las violaciones.

Debido a que las herramientas de moderación tradicionales, como los filtros habilitados para IA en ciertas palabras, no se traducen bien en entornos inmersivos en tiempo real, las modificaciones como Yekkanti son la forma principal de garantizar la seguridad en el mundo digital, y el trabajo es cada vez más importante. día.

El problema de seguridad del metaverso

El problema de seguridad del metaverso es complejo y opaco. Los periodistas han informado de casos de comentarios abusivos, estafaagresiones sexuales, e incluso un secuestro orquestado a través de Meta’s óculo. Las plataformas inmersivas más grandes, como Roblox y Horizon Worlds de Meta, mantienen sus estadísticas sobre el mal comportamiento en secreto, pero Yekkanti dice que se encuentra con transgresiones denunciables todos los días.

Meta se negó a comentar sobre el registro, pero envió una lista de herramientas y políticas que tiene implementadas. Un portavoz de Roblox dice que la compañía tiene “un equipo de miles de moderadores que monitorean el contenido inapropiado las 24 horas del día, los 7 días de la semana e investigan los informes enviados por nuestra comunidad” y también utiliza el aprendizaje automático para revisar texto, imágenes y audio.

Para hacer frente a los problemas de seguridad, las empresas de tecnología han recurrido a voluntarios y empleados como los guías de la comunidad de Meta, moderadores encubiertos como Yekkanti y, cada vez más, funciones de plataforma que permiten a los usuarios gestionar su propia seguridad, como una línea de límite personal que evita que otros usuarios obtengan información. demasiado cerca.

Leave a Reply

Your email address will not be published. Required fields are marked *