La ‘corte suprema’ de Facebook dice que la compañía se equivocó al eliminar contenido – HEAVEN32

Un grupo independiente encargado de evaluar cómo Facebook maneja el contenido en línea el jueves revirtió la decisión del gigante de las redes sociales de eliminar contenido en cuatro de los cinco casos de prueba que había revisado.

Los casos se referían a discursos de odio, desinformación de COVID-19 y otros contenidos que pueden haber roto las reglas digitales del gigante tecnológico.

La llamada Junta de Supervisión de Facebook, una colección de expertos legales y de derechos humanos cuyas decisiones son vinculantes sobre cómo la compañía trata el contenido en línea potencialmente divisivo en su plataforma global, emitió sus fallos mientras continúan las tensiones sobre el papel que juegan las empresas de redes sociales en el fomento de los disturbios en línea. . La Junta de Supervisión también está revisando la decisión de Facebook de bloquear la cuenta de Donald Trump a raíz de los disturbios del Capitolio a principios de este mes. En ese caso, se hará un anuncio en abril.

“Pensamos, después de una cuidadosa consideración, que en primer lugar hubo casos difíciles, pero no creemos [Facebook] “Lo hizo bien”, dijo a HEAVEN32 Helle Thorning Schmidt, ex primera ministra danesa y copresidenta de la Junta de Supervisión. “Le decimos a Facebook que deben ser mejores para decirles a los usuarios por qué se eliminan sus contenidos”.

En su primera ronda de decisiones que se hicieron públicas el jueves, la Junta de Supervisión pasó casi dos meses revisando una serie de publicaciones de Facebook que la compañía había eliminado inicialmente por violar sus reglas de contenido.

El grupo tiene el poder de determinar si tales eliminaciones estaban justificadas o restringían injustamente la libertad de expresión de las personas, pero los expertos no pueden revisar las publicaciones de Facebook que permanecen en línea.

Eso cambiará en los próximos meses, agregó Thorning Schmidt, y el grupo tendrá el poder de adjudicar publicaciones que Facebook no haya eliminado.

La Junta se administra por separado de la empresa, pero su presupuesto de 130 millones de dólares lo proporciona el gigante tecnológico. Los usuarios en línea o la empresa pueden solicitar al organismo que revise los casos y se han enviado más de 20.000 refer encias desde octubre.

Myanmar, medicamentos COVID

En un fallo, el organismo dijo que una publicación de un usuario en Myanmar que parecía criticar a los musulmanes, que Facebook había eliminado porque decía que el contenido había violado los estándares de incitación al odio de la empresa, debería restablecerse porque el texto no representaba un ataque directo. sobre todos los musulmanes.

En otro, el grupo dijo que una publicación de Facebook eliminada de Francia que criticaba el hecho de que los funcionarios locales no usaran hidroxicloroquina, un medicamento contra la malaria, para tratar el COVID-19, una afirmación desacreditada que sigue siendo muy popular en todo el país, también debería devolverse a la plataformas de redes sociales porque no representaba un daño inminente para la vida de las personas.

Una tercera decisión ordenó a Facebook restablecer una publicación de Instagram de Brasil que incluía pezones femeninos como parte de una campaña de concientización sobre el cáncer de mama, que el sistema automatizado de moderación de contenido de la compañía había eliminado inicialmente por infringir la política de desnudez de la aplicación para compartir fotos. Facebook finalmente volvió a publicar la imagen en Instagram, pero expertos externos criticaron a la empresa por no tener suficiente supervisión humana de tales decisiones automatizadas.

“Todos pueden ver que estos no son casos fáciles y ha sido difícil llegar a una decisión final”, dijo Thorning Schmidt, y agregó que no todas las sentencias fueron respaldadas universalmente por los miembros del grupo.

El único caso en el que la Junta de Supervisión estuvo de acuerdo con la decisión de Facebook de eliminar una publicación relacionada con un ataque en ruso contra azerbaiyanos que, según los expertos, había violado los estándares de incitación al odio de la empresa.

A pesar de la voluntad del grupo externo de revertir la forma en que Facebook maneja las posibles publicaciones dudosas en su plataforma, no todos han recibido con agrado el aumento de la supervisión.

Damian Collins, un legislador británico y cofundador de The Real Oversight Board, un grupo de campaña que critica a su homónimo, dijo que la incapacidad del organismo para revisar las políticas de moderación de contenido más amplias de Facebook y la falta de dictamen sobre publicaciones potencialmente dañinas que permanecieron en la plataforma, hizo su trabajo en su mayor parte desdentado.

“Este tipo de decisiones no deben dejarse en manos de Facebook”, dijo. “La decisión de eliminar o no contenido debe estar en manos de un gobierno o de figuras elegidas políticamente”.

.

Noticia original: https://www.politico.eu/article/facebooks-supreme-court-overturns-content-decisions-oversight-board/?utm_source=RSS_Feed&utm_medium=RSS&utm_campaign=RSS_Syndication

Leave a Reply

Your email address will not be published. Required fields are marked *