
Encubierto en el metaverso | Revisión de tecnología del .

El segundo aspecto de la preparación está relacionado con la salud mental. No todos los jugadores se comportan como tú quieres que se comporten. A veces la gente viene sólo para ser desagradable. Nos preparamos repasando diferentes tipos de escenarios que puede encontrar y cómo manejarlos mejor.
También rastreamos todo. Realizamos un seguimiento de qué juego estamos jugando, qué jugadores se unieron al juego, a qué hora comenzamos el juego, a qué hora lo terminamos. ¿De qué se trató la conversación durante el juego? ¿El jugador está usando malas palabras? ¿El jugador está siendo abusivo?
A veces encontramos un comportamiento que está en el límite, como alguien que usa una mala palabra por frustración. Todavía lo rastreamos, porque podría haber niños en la plataforma. Y a veces el comportamiento excede un cierto límite, como si se estuviera volviendo demasiado personal, y tenemos más opciones para eso.
Si alguien dice algo realmente racista, por ejemplo, ¿para qué estás entrenado?
Bueno, creamos un informe semanal basado en nuestro seguimiento y lo enviamos al cliente. Dependiendo de la repetición del mal comportamiento de un jugador, el cliente puede decidir tomar alguna acción.
Y si el comportamiento es muy malo en tiempo real e infringe las pautas de la política, tenemos diferentes controles para usar. Podemos silenciar al jugador para que nadie pueda escuchar lo que está diciendo. Incluso podemos sacar al jugador del juego e informar al jugador. [to the client] con una grabación de lo sucedido.
¿Qué crees que es algo que la gente no sabe sobre este espacio que debería saber?
Es tan divertido. Todavía recuerdo esa sensación de la primera vez que me puse las gafas VR. No todos los trabajos te permiten jugar.
Y quiero que todos sepan que es importante. Una vez, estaba revisando un texto [not in the metaverse] y recibí esta reseña de un niño que decía: Fulano de tal me secuestró y me escondió en el sótano. Mi teléfono está a punto de morir. Alguien por favor llame al 911. Y él viene, por favor ayúdenme.
Yo era escéptico al respecto. ¿Que debo hacer con eso? Esta no es una plataforma para pedir ayuda. Se lo envié a nuestro equipo legal de todos modos, y la policía fue al lugar. Recibimos comentarios un par de meses después de que cuando la policía fue a ese lugar, encontraron al niño atado en el sótano con moretones en todo el cuerpo.
Ese fue un momento que me cambió la vida personalmente, porque siempre pensé que este trabajo era solo un amortiguador, algo que haces antes de descubrir lo que realmente quieres hacer. Y así es como la mayoría de la gente trata este trabajo. Pero ese incidente cambió mi vida y me hizo comprender que lo que hago aquí realmente impacta el mundo real. Quiero decir, literalmente salvé a un niño. Nuestro equipo literalmente salvó a un niño y todos estamos orgullosos. Ese día, decidí que debía quedarme en el campo y asegurarme de que todos se dieran cuenta de que esto es realmente importante.
Lo que estoy leyendo esta semana.
- Empresa de análisis Palantir ha construido una plataforma de IA destinada a ayudar a los militares tomar decisiones estratégicas a través de un chatbot similar a ChatGPT que puede analizar imágenes satelitales y generar planes de ataque. La compañía ha prometido que se hará de manera ética, aunque…
- El colapso de los cheques azules de Twitter está comenzando a tener implicaciones en el mundo real, lo que dificulta saber qué y a quién creer en la plataforma. La desinformación está floreciendo: dentro de las 24 horas posteriores a que Twitter eliminó los cheques azules previamente verificados, al menos 11 cuentas nuevas comenzaron a hacerse pasar por el Departamento de Policía de Los Ángeles. informa el New York Times.
- La guerra de Rusia contra Ucrania impulsó la caída de su industria tecnológica, escribió Masha Borak en este excelente artículo de . publicado hace unas semanas. El impulso del Kremlin para regular y controlar la información en Yandex sofocó el motor de búsqueda.
Lo que aprendí esta semana
Cuando los usuarios reportan información errónea en línea, puede ser más útil de lo que se pensaba anteriormente. A nuevo estudio publicado en el Journal of Online Trust and Safety de Stanford mostró que los informes de los usuarios sobre noticias falsas en Facebook e Instagram podrían ser bastante precisos para combatir la información errónea cuando se clasifican por ciertas características como el tipo de comentarios o contenido. El estudio, el primero de su tipo en evaluar cuantitativamente la veracidad de los informes de los usuarios sobre información errónea, muestra cierto optimismo de que la moderación de contenido colaborativo puede ser efectiva.