Informe de Stanford sugiere que Mastodon tiene un problema material de abuso infantil

Informe de Stanford sugiere que Mastodon tiene un problema material de abuso infantil

un nuevo informe sugiere que las políticas laxas de moderación de contenido de Mastodon y otras plataformas de redes sociales descentralizadas han llevado a una proliferación de material de abuso sexual infantil. Publicación del Observatorio de Internet de Stanford nueva investigación Lunes que muestra que tales sitios descentralizados tienen serias deficiencias en lo que respecta a la “infraestructura de seguridad infantil”. Desafortunadamente, eso no los hace tan diferentes de la mayoría de las plataformas en Internet normal.

Cuando hablamos de la web “descentralizada”, estamos de curso hablando de redes sociales “federadas” o “el Fediverso”: la constelación suelta de plataformas que evitan la propiedad y el gobierno centralizados por un modelo interactivo que prioriza la autonomía y la privacidad del usuario. Fediverse se ejecuta en una serie de protocolos web gratuitos y de código abierto que permiten que cualquier persona configure y aloje comunidades sociales a través de sus propios servidores, o “instancias. Entre el grupo limitado de plataformas que componen este reino descentralizado, Mastodon es una de las más populares y ampliamente utilizadas en la web. Aún así, al lado de Internet centralizado, decentraland es un territorio marcadamente menos transitado; en su apogeo, mastodonte contaba con unos 2,5 millones de usuarios

. Puede comparar eso con las cifras de usuarios activos diarios recientes de Twitter, que flotar en algún lugar alrededor de 250 millones.

A pesar de la emocionante promesa de Fediverse, hay problemas obvios con su modelo. Las amenazas a la seguridad, por un lado, son un problema. El facilidad de uso limitada del ecosistema también ha sido una fuente de controversia. Y, como señala el nuevo estudio de Stanford, la falta de supervisión centralizada significa que no hay suficientes barandas integradas en el ecosistema para defenderse contra la proliferación de contenido ilegal e inmoral. De hecho, los investigadores dicen que durante un período de dos días encontraron aproximadamente 600 piezas de contenido CSAM conocido o sospechoso en las principales instancias de Mastodon. Horriblemente, la primera pieza de CSAM que encontraron los investigadores se descubrió dentro de los primeros cinco minutos de investigación. En general, los investigadores dicen que el contenido era de fácil acceso y se podía buscar en los sitios con facilidad.

El informe desglosa aún más por qué el contenido era tan accesible…

…los malos actores tienden a ir a la plataforma con las políticas de moderación y cumplimiento más laxas. Esto significa que las redes descentralizadas, en las que algunas instancias tienen recursos limitados o eligen no actuar, pueden tener dificultades para detectar o mitigar el material de abuso sexual infantil (CSAM). La federación actualmente genera redundancias e ineficiencias que dificultan detener el MASI, las imágenes íntimas no consensuadas (NCII) y otros contenidos y comportamientos nocivos e ilegales.

Gizmodo contactó a Mastodon para comentar sobre la nueva investigación, pero no recibió respuesta. Actualizaremos esta historia si la plataforma responde.

La web “centralizada” también tiene un problema masivo de MASI

A pesar de los hallazgos del informe de Stanford, cabe considerar que el hecho de que un sitio esté “centralizado” o tenga “supervisión” no significa que tenga menos contenido ilegal. De hecho, investigaciones recientes han demostrado que la mayoría de las principales plataformas de redes sociales están nadando con material de abuso infantil

. Incluso si un sitio tiene un sistema avanzado de moderación de contenido, eso no significa que ese sistema sea particularmente bueno para identificar y eliminar contenido despreciable.

Caso en cuestión: en febrero, un informe del New York Times mostró que Twitter había purgado la asombrosa cantidad de 400.000 cuentas de usuarios por haber “creado, distribuido o interactuado con MASI”. A pesar de la eliminación proactiva de cuentas por parte de la aplicación de aves, el informe señaló que el equipo de seguridad de Twitter parecía estar “fracasando” en su misión de librar a la plataforma de cantidades alucinantes de material de abuso.

De manera similar, un reciente Wall Street Journal investigación mostró que no solo hay una cantidad asombrosa de material de abuso infantil flotando en Instagram, sino que los algoritmos de la plataforma habían “promocionado” activamente dicho contenido a los pedófilos. De hecho, según el artículo del Journal, Instagram se ha encargado de guiar a los pedófilos “a [CSAM] vendedores de contenido a través de sistemas de recomendación que se destacan en vincular a aquellos que comparten intereses de nicho”. Tras la publicación del informe del Journal, la empresa matriz de Instagram, Meta, dijo que había creado un equipo interno para tratar.

La necesidad de “nuevas herramientas para un nuevo entorno”

Si bien tanto las webs centralizadas como las descentralizadas luchan claramente contra la proliferación de CSAM, el investigador principal del nuevo informe de Stanford, David Thiel, dice que Fediverse es particularmente vulnerable a este problema. Claro, las plataformas “centralizadas” pueden no ser particularmente buenas para identificar contenido ilegal, pero si tienen que eliminarlo, tienen las herramientas para hacerlo. Mientras tanto, las plataformas como Mastodon carecen de la infraestructura distribuida para lidiar con el abuso sexual infantil a gran escala, dice Thiel.

“Casi no hay herramientas integradas de Fediverse para ayudar a manejar el problema, mientras que las grandes plataformas pueden rechazar el CSAM conocido de manera automatizada con mucha facilidad”, dijo Thiel a Gizmodo en un correo electrónico. “Las plataformas centrales tienen la máxima autoridad sobre el contenido y tienen la capacidad de detenerlo tanto como sea posible, pero en Fediverse simplemente cortas los servidores con malos actores y sigues adelante, lo que significa que el contenido aún se distribuye y aún daña a las víctimas”.

“El problema, en mi opinión, no es que la descentralización sea algo peor, sino que todas las herramientas técnicas disponibles para combatir el MASI se diseñaron teniendo en cuenta una pequeña cantidad de plataformas centralizadas. Necesitamos nuevas herramientas para un nuevo entorno, lo que requerirá recursos de ingeniería y financiación”.

En cuanto a qué ecosistema de redes sociales sufre de un problema MASI “más grande”—el centralizado o el descentralizado—Thiel dijo que no podía decirlo. “No creo que podamos cuantificar ‘más grande’ sin muestras representativas y ajustando la base de usuarios”, dijo.

Leave a Reply

Your email address will not be published. Required fields are marked *