El algoritmo de recomendación de YouTube no responde a los comentarios de los usuarios, según Mozilla

El algoritmo de recomendación de YouTube no responde a los comentarios de los usuarios, según Mozilla

Los investigadores de Mozilla analizaron siete meses de actividad de YouTube de más de 20,000 participantes para evaluar cuatro formas en que YouTube dice que las personas pueden “ajustar sus recomendaciones”: golpear Disgusto, No interesado, Eliminar de la historiao No recomendar este canal. Querían ver qué tan efectivos son realmente estos controles.

Cada participante instaló una extensión del navegador que agregó un deja de recomendar en la parte superior de todos los videos de YouTube que vieron, además de los de su barra lateral. Golpearlo desencadenó una de las cuatro respuestas de ajuste de algoritmo cada vez.

Luego, docenas de asistentes de investigación observaron esos videos rechazados para ver cuánto se parecían a decenas de miles de recomendaciones posteriores de YouTube a los mismos usuarios. Descubrieron que los controles de YouTube tienen un efecto “insignificante” en las recomendaciones que recibieron los participantes. Durante los siete meses, un video rechazado generó, en promedio, alrededor de 115 malas recomendaciones, videos que se parecían mucho a los que los participantes ya le habían dicho a YouTube que no querían ver.

Investigaciones anteriores indican que la práctica de YouTube de recomendar videos con los que probablemente estará de acuerdo y recompensar el contenido controvertido puede endurecer las opiniones de las personas y llevarlas a la radicalización política. La plataforma también ha sido criticada repetidamente por promover videos sexualmente explícitos o sugerentes de niños

— empujando el contenido que violó sus propias políticas a la viralidad. Luego del escrutinio, YouTube se comprometió a tomar medidas enérgicas contra el discurso de odio, hacer cumplir mejor sus pautas y no usar su algoritmo de recomendación para promover contenido “límite”.

Sin embargo, el estudio encontró que el contenido que parecía violar las propias políticas de YouTube todavía se recomendaba activamente a los usuarios, incluso después de que enviaran comentarios negativos.

Golpear Disgustola forma más visible de proporcionar comentarios negativos, detiene solo el 12% de las malas recomendaciones; No interesado se detiene solo el 11%. YouTube anuncia ambas opciones como formas de ajustar su algoritmo.

Elena Hernandez, una portavoz de YouTube, dice: “Nuestros controles no filtran temas o puntos de vista completos, ya que esto podría tener efectos negativos para los espectadores, como crear cámaras de eco”. Hernández también dice que el informe de Mozilla no tiene en cuenta cómo funciona realmente el algoritmo de YouTube. Pero eso es algo que nadie fuera de YouTube realmente sabe, dados los miles de millones de entradas del algoritmo y la transparencia limitada de la empresa. El estudio de Mozilla intenta mirar dentro de esa caja negra para comprender mejor sus resultados.

Leave a Reply

Your email address will not be published. Required fields are marked *