Estudio: YouTube logra cierto éxito en las teorías de conspiración Hobbling | Redes sociales


Por John P. Mello Jr.

3 de marzo de 2020 10:14 AM PT

Los esfuerzos de YouTube para reducir la difusión de las teorías de conspiración en la plataforma parecen estar dando sus frutos.

"Nuestro análisis corrobora que YouTube actuó de acuerdo con su política y redujo significativamente el volumen general de contenido conspirativo recomendado", escribieron tres investigadores en un estudio que la Universidad de California, Berkeley, publicó el lunes.

Debido a que la información se difunde en YouTube en gran medida a través de recomendaciones, el 70 por ciento del contenido visto es contenido recomendado, los investigadores pasaron 15 meses estudiando 8 millones de recomendaciones del algoritmo de la próxima vista de la plataforma.

A partir de abril de 2019, tres meses después de que YouTube anunciara medidas para limitar el contenido en la plataforma que podría desinformar a los usuarios de manera nociva, el equipo de investigación encontró una disminución constante en las recomendaciones conspirativas.

La disminución continuó hasta principios de junio de 2019, cuando la frecuencia bruta alcanzó brevemente un punto bajo del 3 por ciento, señalaron los investigadores Marc Faddoula y Hany Farida de UC Berkeley y Guillaume Chaslotb de la Fundación Mozilla.

La frecuencia bruta es el producto de la cantidad de veces que se recomienda un video y la probabilidad de que cada video sea conspirador, dijeron los investigadores.

Sin embargo, parece que ha habido algún deslizamiento. Desde el punto más bajo del año pasado, las recomendaciones conspirativas se han recuperado constantemente, señala el estudio. Ahora son un 40 por ciento menos comunes que cuando YouTube anunció por primera vez sus medidas.

Además, "a pesar de esta tendencia a la baja durante el año pasado, el volumen general de contenido conspirativo recomendado por los canales de información sigue siendo relativamente alto", encontraron los investigadores.

Segmentación selectiva

"Debería pagarse tributo a YouTube por filtrar eficazmente algunos temas peligrosos, como las afirmaciones de que las vacunas causan autismo", escribieron los investigadores.

"No obstante, el FBI describió que otros temas que demostramos ser promovidos activamente por YouTube son muy propensos a motivar a algunos extremistas nacionales a cometer actividades criminales, en ocasiones violentas", señalaron.

Una mirada más cercana a los datos revela que YouTube es selectivo en la forma en que aplica sus políticas de "contenido dañino", señaló el científico de investigación Faddoul.

"Algunos contenidos conspiradores políticos y religiosos no han sido degradados, mientras que otros temas, como el coronavirus, no han tenido ninguna forma de desinformación conspirativa", dijo a TechNewsWorld.

Dada la información superior, el etiquetado y los recursos computacionales disponibles para YouTube, es técnicamente capaz de detectar temas conspiradores con alta precisión, señala el estudio.

"De hecho, para ciertos temas que parecen estar bajo un escrutinio particularmente minucioso, los videos recomendados son efectivamente despojados de la desinformación", afirma. "Es alentador ver que YouTube está dispuesto a abordar problemas específicos de manera efectiva y oportuna. Decidir qué degradar es, por lo tanto, una cuestión de política más que de tecnología".

Manteniendo la neutralidad

La selectividad de YouTube proviene del deseo de todas las redes sociales de tener la menor intervención de contenido posible, explicó Faddoul.

"Quieren permanecer lo más neutrales posible", dijo. "No quieren ser criticados por parcialidad, como a menudo lo hacen los conservadores que ven un sesgo liberal en Silicon Valley".

Hay razones legales para mantener la neutralidad. Según la ley federal, YouTube y otros medios sociales son tratados como plataformas. Como tal, su responsabilidad legal por su contenido es menor que la de una publicación con contenido editorial.

"Cuanto más comienzas a editar y elegir lo que se puede promocionar y no, más cerca estás de convertirte efectivamente en editor", observó Faddoul.

El estudio pide una mayor transparencia en cómo YouTube hace sus recomendaciones para los usuarios.

"Con dos mil millones de usuarios activos mensuales en YouTube, el diseño del algoritmo de recomendación tiene más impacto en el flujo de información que los consejos editoriales de los medios tradicionales", escribieron los investigadores.

El papel del motor es aún más crucial, sostuvieron, cuando se considera lo siguiente:

  • El uso cada vez mayor de YouTube como fuente principal de información, particularmente entre los jóvenes;
  • La posición casi monopolista de YouTube en su mercado; y
  • La creciente utilización de armas en YouTube para difundir desinformación y contenido partidista en todo el mundo.

"Y, sin embargo, las decisiones tomadas por el motor de recomendaciones son en gran medida sin supervisión y opacas para el público", señalaron.

Algoritmo Final Run

Agregar transparencia al proceso de recomendación agregaría responsabilidad al mismo, sostuvo Faddoul.

"Estas decisiones, lo que debe ser promovido por el motor de recomendaciones y lo que no, son importantes. Tener un proceso que sea público y que involucre a otros actores además de YouTube, mejoraría el proceso", dijo.

"Si tuviera más transparencia, tendría un espectador más informado", comentó Cayce Myers, profesor asistente en el departamento de comunicaciones de
Virginia Tech en Blacksburg

La eliminación de las protecciones de la plataforma para las redes sociales en virtud de la Ley Federal de Decencia de las Comunicaciones de 1996 podría promover políticas de vigilancia de contenido más estrictas por parte de las empresas de redes sociales, dijo a TechNewsWorld.

"Mucho tiempo, la política de la empresa está impulsada por la responsabilidad", explicó Myers, "por lo que si cambia la responsabilidad de un sitio de terceros como YouTube, puede ver una respuesta más agresiva a la limpieza del contenido".

Aunque la transparencia siempre es algo bueno y podría ayudar a reducir la propagación de contenido dañino, plantea algunos problemas.

"Hacer que sus algoritmos sean transparentes divulgará tecnología a la que no desea que sus competidores tengan acceso", dijo Vincent Raynauld, profesor asistente en el departamento de estudios de comunicación de
Emerson College en Boston.

Además, "cada vez que estas plataformas ajustan sus algoritmos, los productores de contenido siempre encuentran una forma de eludir los algoritmos o cambiar su contenido para evadir sus filtros", dijo a TechNewsWorld.

Herramienta de radicalización

Si bien la reducción de las recomendaciones conspirativas de YouTube es alentadora, el estudio señaló que no podría hacer que desapareciera el problema de la radicalización.

Según los informes, los videos de YouTube se han utilizado para preparar a los terroristas y hacer que algunos conservadores pasen de la derecha a la extrema derecha.

"En general, la radicalización es un problema más complejo de lo que puede abarcar un análisis de recomendaciones predeterminadas, ya que implica la mentalidad única y los patrones de visualización de un usuario que interactúa a lo largo del tiempo con una red neuronal de múltiples capas opaca encargada de elegir sugerencias personalizadas de un dinámico y prácticamente infinito conjunto de ideas ", observa el estudio.

"Estar expuesto al contenido de la conspiración es un aspecto del proceso de radicalización", dijo Raynauld. "Para ser radicalizado, necesitas acceso a este contenido para impulsar la radicalización, pero sospecho que hay otros factores externos al contenido de YouTube en juego".


John P. Mello Jr. ha sido reportero de ECT News Network
desde 2003. Sus áreas de enfoque incluyen seguridad cibernética, problemas de TI, privacidad, comercio electrónico, redes sociales, inteligencia artificial, big data y electrónica de consumo. Ha escrito y editado para numerosas publicaciones, incluyendo el Boston Business Journal, el
Boston Phoenix, Megapixel.Net y Gobierno
Noticias de seguridad
. Email John.



LO MÁS LEÍDO
Heaven32: