Las estrellas de YouTube siguen ganando dinero incluso después de romper las reglas

Las estrellas de YouTube atraen millones de globos oculares y generan miles de millones de dólares en ingresos publicitarios para el gigante de los medios, que se compromete a administrar su negocio sin tolerar videos de odio y de otro modo dañinos.

Pero algunos de los trabajadores contratados para marcar contenido problemático acusan a YouTube de ser favoritos, repartiendo castigos más indulgentes para los mejores creadores de videos cuyo trabajo genera la mayor cantidad de dinero para la empresa. Once moderadores actuales y pasados, que han trabajado en la primera línea de las decisiones de contenido, creen que los creadores populares a menudo reciben un tratamiento especial en forma de interpretaciones más flexibles de las pautas de YouTube que prohíben el discurso degradante, la intimidación y otras formas de contenido gráfico.

Los moderadores dijeron que YouTube hizo excepciones para los creadores populares, incluidos Logan Paul, Steven Crowder y Pew Die Pie. YouTube, propiedad de Google, niega esas afirmaciones y dice que aplica las reglas por igual e intenta trazar la línea en los lugares correctos.

YouTube, la plataforma de video más grande del mundo con casi 2 mil millones de personas que inician sesión mensualmente, se ha enfrentado a una violenta reacción violenta de los críticos que dicen que está permitiendo que prolifere contenido odioso e inapropiado. Con cada crisis, YouTube ha corrido para actualizar sus pautas sobre qué tipos de contenido pueden beneficiarse de su poderoso motor de publicidad, privando a los creadores de esos dólares si rompen demasiadas reglas. Eso también penaliza a YouTube, que divide los ingresos publicitarios con sus estrellas.

Los creadores que infringen las reglas de YouTube se enfrentan a la consecuencia de que sus canales o videos sean eliminados de los anuncios, o que su contenido se elimine por completo. Pero a diferencia de rivales como Facebook y Twitter, muchos moderadores de YouTube no pueden eliminar el contenido ellos mismos. En cambio, se limitan a recomendar si un contenido es seguro para ejecutar anuncios, y lo marcan a los superiores que toman la decisión final.

Los moderadores entrevistados por The Washington Post dicen que sus recomendaciones para eliminar la publicidad de los videos que violan las reglas del sitio fueron frecuentemente anuladas por los superiores en YouTube cuando los videos involucraban a creadores de contenido de mayor perfil que dibujaban más publicidad. Además, dicen, muchas de las reglas son ineficaces y contradictorias para empezar. Los moderadores, que hablaron bajo condición de anonimato para proteger sus perspectivas de empleo, describen un ambiente laboral desmoralizador marcado por decisiones ad hoc, políticas constantemente cambiantes y una percepción generalizada de estándares arbitrarios cuando se trata de contenido ofensivo.

El portavoz de YouTube, Alex Joseph, dijo en un comunicado que la compañía realiza una “revisión sistemática de nuestras políticas para asegurarnos de que estamos trazando la línea en el lugar correcto. Aplicamos estas políticas de manera consistente, independientemente de quién sea el creador”. YouTube ha realizado casi tres docenas de cambios en sus políticas durante el último año. Rechazó las solicitudes de una entrevista con ejecutivos que supervisan las operaciones de moderación.

Los moderadores que hablaron con The Post dijeron que califican los videos internamente utilizando criterios que se centran en los anunciantes, no en los espectadores. Las calificaciones como G o PG ayudan a YouTube a decidir cómo comercializar los videos para usuarios y anunciantes, y los moderadores dicen que las pautas pueden ser confusas. Por ejemplo, las políticas de YouTube prohíben la publicidad en videos que tienen desnudos parciales, pero solo si la imagen parcialmente desnuda se considera el punto “focal” o foco principal del video. Si la imagen es simplemente “fugaz”, se puede permitir.

El software creado por Google utilizado para registrar contenido problemático con frecuencia se detiene o se descompone, y los moderadores dicen que las compañías de outsourcing generalmente les dan cuotas poco realistas de revisar 120 videos al día, lo que a menudo provocó omitir videos largos. YouTube dice que no tiene cuotas.

Como consecuencia, el material inapropiado y ofensivo a menudo permanece más tiempo de lo debido, dijeron.

La frustración expresada por los moderadores de base, que trabajan para empresas externas de outsourcing en oficinas en todo Estados Unidos, también se produce en un momento en que este tipo de contratistas de redes sociales están presionando por mejores salarios y beneficios, así como psicológicos. Apoyo para ayudar a lidiar con el TEPT causado por su trabajo.

“Cuando comencé este trabajo pensé que iba a ayudar a alejar el contenido malo de los niños”, dijo un ex moderador de YouTube en Austin. La conclusión de la moderadora cuando renunció a su trabajo el año pasado fue que la operación fue diseñada para proteger la fuente de ingresos de YouTube. “Nuestra responsabilidad nunca fue con los creadores ni con los usuarios; fue con los anunciantes”.

YouTube reconoce que tiene dos conjuntos de estándares de conducta en su sitio. En aparente contraste con la experiencia descrita por los moderadores, la compañía dice que tiene reglas más estrictas para los creadores que pueden beneficiarse de la publicidad en sus videos porque están efectivamente en el negocio con YouTube. Las pautas generales de la comunidad son algo más flexibles. Los moderadores están divididos para vigilar a esos dos grupos por separado, dijo Joseph, porque la división hace que su trabajo sea más especializado y eficiente.

Pero el modelo de negocio de YouTube de compartir ingresos publicitarios con creadores populares también crea desafíos operativos distintos. Obtener publicidad de un creador controvertido puede ayudar a proteger la reputación de una marca, mantener las relaciones con los anunciantes y preservar la confianza del público. Pero también cuesta los ingresos de YouTube, dijo Micah Schaffer, consultor de políticas tecnológicas y ex director de YouTube que se centró en la confianza y la seguridad.

“Es un gran problema tener un doble estándar para diferentes usuarios, particularmente si eres más indulgente con los usuarios de alto perfil, porque establecen el tono y el ejemplo para todos los demás”, dijo Schaffer.

Algunos creadores han sentido durante mucho tiempo que YouTube trata sus canales más lucrativos de manera diferente a los canales más pequeños e independientes.

“No tengo el mismo respeto que algunas compañías con un equipo de prensa”, dijo Stephen, un YouTuber de 25 años que usa su primer nombre y dirige “Coffee Break”, un canal con 340,000 suscriptores. “Los creadores se están hartando y exigen el mismo respeto, transparencia e incluso entrega de YouTube” que reciben los creadores más grandes.

Durante la mayor parte de sus 14 años de existencia, YouTube se ha visto a sí mismo como una plataforma de libre expresión, en lugar de una red social o comunidad en línea. Eso ha llevado a lo que algunos consideran un enfoque más sencillo para vigilar los videos y ha resultado en que la compañía sea más lenta en el desarrollo de herramientas y operaciones para abordar el daño.

A partir de mediados de 2017, marcas como PepsiCo y Walmart boicotearon YouTube luego de que sus anuncios aparecieran junto con contenido odioso y extremista, lo que provocó que endureciera la aplicación. La directora ejecutiva de YouTube, Susan Wojcicki, en diciembre de ese año prometió eliminar públicamente el contenido que estaba “explotando nuestra apertura”, comprometiéndose a cambiar su enfoque y llevar el número total de personas que monitorean en Google las violaciones de sus políticas a 10,000 en un año. Entre los 10.000 hay muchos contratistas externos, que también moderan la tienda de aplicaciones de Google y otros productos de Google. (Eso se compara con unos 30,000 profesionales de seguridad dedicados a revisar contenido en Facebook).

Los moderadores señalan un incidente a fines de 2017 como evidencia de estándares arbitrarios. La estrella de YouTube Logan Paul, cuyo canal actualmente tiene más de 19 millones de suscriptores, subió un video de sí mismo junto a un hombre japonés que recientemente se había colgado de un árbol en un bosque. (El bosque, en la base del monte Fuji, es conocido como un sitio sagrado y un destino para víctimas de suicidio).

“Oye, ¿estás vivo?” Paul le preguntó al cadáver.

YouTube lo castigó eliminando sus videos de un programa de publicidad premium, y Paul eliminó el video. Pero solo unas semanas después, Paul publicó un video de sí mismo disparando a dos ratas muertas con una pistola Taser. Tanto el video de ratas como el de suicidio violaron las pautas comunitarias contra el contenido violento o gráfico. Paul había tenido previamente otras infracciones.

Los moderadores entrevistados por The Post dijeron que esperaban que un creador de alto perfil con varias infracciones atroces hubiera recibido una prohibición permanente de los anuncios en todo el canal o que su canal pudiera ser eliminado. En cambio, los anuncios de Paul fueron suspendidos por dos semanas.

“Se sintió como una bofetada en la cara”, dijo un moderador. “Le dicen que tiene políticas específicas para la monetización que son extremadamente estrictas. Y luego Logan Paul rompió una de sus políticas más importantes y se convirtió en algo que nunca sucedió”.

Paul no respondió a una solicitud de comentarios. Joseph, el portavoz de YouTube, dijo que la compañía sintió que la suspensión de dos semanas era un castigo extra estricto diseñado para dar un ejemplo a la comunidad. Si bien Paul tuvo otras infracciones, nunca recibió tres ataques en un período de 90 días, lo que desencadena la terminación.

Los moderadores de YouTube dijeron que el rápido crecimiento de la contratación y los frecuentes cambios en las políticas crearon un ambiente desorganizado y estresante, que a veces hizo que el contenido policial fuera confuso, lo que obligó a los gerentes a tomar decisiones únicas para interpretarlos.

Los moderadores dicen que a principios de este año marcaron internamente un video viral del dúo de rap de Miami City Girls que presentaba un concurso para una forma de sacudir el trasero conocido como “twerking”. Dos de los moderadores dijeron que el video violaba las prohibiciones generales de publicidad junto con videos que representan las nalgas de una manera “sexualmente gratificante”. Lo informaron por principio a pesar de que YouTube hizo excepciones categóricas a sus reglas para videos musicales, algunos de los contenidos más vistos en el sitio. El video de City Girls ahora tiene 100 millones de visitas.

Aún así, un ex líder de equipo en Austin, Texas, que renunció el año pasado dijo que “las respuestas (que recibimos de YouTube) no estaban realmente enraizadas en las políticas que teníamos”. En cambio, el líder del equipo sospechaba que se trataba de si YouTube perdería ingresos o si los anunciantes estarían molestos si no podían anunciarse en ciertos videos. Esa persona agregó que las políticas cambiaron “al menos una vez al mes”, incluidos cambios frecuentes en la forma en que se modera el contenido de los niños, creando confusión.

Joseph dice que YouTube está en el proceso de endurecer las políticas en torno a los niños y otros temas y ha realizado muchos cambios.

Después de una protesta pública, los ejecutivos de YouTube en junio decidieron quitar la publicidad de un canal popular de radiodifusión de derecha por el abuso verbal repetido de un periodista gay. Pero algunos de los moderadores de contenido de la compañía ya habían estado presionando por eso durante semanas.

Un equipo con sede en Austin asignado para revisar videos por el locutor de derecha, Steven Crowder, descubrió que muchos de ellos violaron las políticas de YouTube al menos un mes antes de la decisión. El equipo celebró reuniones semanales para señalar las violaciones más atroces a sus gerentes, y decidieron señalar a Crowder por publicar videos degradantes, lo que va en contra de las reglas. Crowder tiene más de 4 millones de suscriptores.

Una semana después, el gerente informó al equipo: YouTube decidió no eliminar la publicidad de esos videos.

“El consenso en la sala fue que el contenido era degradante y no era seguro”, dijo uno de los moderadores. “La postura de YouTube es que nada es realmente un problema hasta que haya un titular al respecto”.

Un mes después, después de que el periodista atacado publicara sus comunicaciones con YouTube, la compañía dijo en ese momento que el video no violaba sus políticas a pesar del lenguaje hiriente. Al día siguiente, los ejecutivos cambiaron de rumbo y dijeron que la compañía había suspendido la capacidad de Crowder de ganar dinero en la plataforma a través de los servicios de publicidad de Google. Más tarde, YouTube agregó que podría volver a ganar dinero después de eliminar un enlace a una camiseta homofóbica que vende en línea. Finalmente, YouTube aclaró una vez más que la desmonetización de Crowder fue el resultado de un “patrón” de comportamiento y no solo de la camiseta.

Joseph de YouTube se negó a comentar sobre decisiones en videos individuales, pero dijo que la compañía había eliminado la publicidad en docenas de otros videos de Crowder antes de la prohibición general.

“YouTube tiene políticas bien escritas. Pero las políticas tal como están escritas son totalmente anatemas sobre cómo YouTube realmente funciona”, dijo Carlos Maza, el reportero de video de Vox que enfrentó los ataques de Crowder. “Todo lo que hacen es solo en reacción a las crisis”.

Un moderador actual agregó: “La imagen que obtenemos de YouTube es que la compañía tiene que ganar dinero, por lo que creemos que debería estar cruzando una línea, para ellos no está cruzando una”.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *