Bienvenido al ciclo interminable de censura y errores de TikTok

No es necesariamente una sorpresa que estos videos sean noticia. La gente hace sus videos porque funcionan. Obtener vistas ha sido una de las estrategias más efectivas para impulsar una gran plataforma a arreglar algo durante años. Tiktok, Twitter y Facebook han facilitado que los usuarios denuncien abusos y violaciones de reglas por parte de otros usuarios. Pero cuando estas empresas parecen estar infringiendo sus propias políticas, la gente a menudo descubre que la mejor ruta a seguir es simplemente intentar publicar sobre ello en la propia plataforma, con la esperanza de volverse viral y llamar la atención que lleve a algún tipo de resolución. Los dos videos de Tyler en la biografía de Marketplace, por ejemplo, tienen cada uno más de 1 millón de visitas.

“El contenido se marca porque es alguien de un grupo marginado que está hablando sobre sus experiencias con el racismo. El discurso de odio y hablar sobre el discurso de odio puede parecerse mucho a un algoritmo”.

Casey Fiesler, Universidad de Colorado, Boulder

“Probablemente me etiqueten en algo una vez a la semana”, dice Casey Fiesler, profesor asistente de la Universidad de Colorado, Boulder, que estudia la ética de la tecnología y las comunidades en línea. Está activa en TikTok, con más de 50.000 seguidores, pero aunque no todo lo que ve se siente como una preocupación legítima, dice que el desfile regular de problemas de la aplicación es real. ha tenido varios errores de este tipo en los últimos meses, todos los cuales han impactado de manera desproporcionada a los grupos marginados en la plataforma.

Revisión de tecnología del . ha preguntado a TikTok sobre cada uno de estos ejemplos recientes, y las respuestas son similares: después de investigar, TikTok encuentra que el problema se creó por error, enfatiza que el contenido bloqueado en cuestión no viola sus políticas y enlaces para apoyar a la empresa. da tales grupos.

La pregunta es si ese ciclo (algún error técnico o de política, una respuesta viral y una disculpa) se puede cambiar.

Resolver problemas antes de que surjan

“Hay dos tipos de daños de esta moderación de contenido probablemente algorítmica que la gente está observando”, dice Fiesler. “Uno son los falsos negativos. La gente dice, ‘¿por qué hay tanto discurso de odio en esta plataforma y por qué no se está eliminando?’ ”

El otro es un falso positivo. “Su contenido está siendo marcado porque es alguien de un grupo marginado que está hablando de sus experiencias con el racismo”, dice. “El discurso del odio y hablar sobre el discurso del odio puede parecerse mucho a un algoritmo”.

Ambas categorías, señaló, dañan a las mismas personas: aquellos que son objeto de abuso de manera desproporcionada terminan siendo censurados algorítmicamente por hablar al respecto.

Los misteriosos algoritmos de recomendación de TikTok son parte de su éxito, pero sus límites poco claros y en constante cambio ya están teniendo un efecto escalofriante en algunos usuarios. Fiesler señala que muchos creadores de TikTok autocensuran las palabras en la plataforma para evitar provocar una revisión. Y aunque no está segura de cuánto está logrando esta táctica, Fielser también ha comenzado a hacerlo ella misma, por si acaso. Las prohibiciones de cuentas, los misterios algorítmicos y las extrañas decisiones de moderación son una parte constante de la conversación en la aplicación.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.