Evidencia de crímenes de guerra que desaparecen de las redes sociales | Redes sociales


los Revisión del periodismo de Columbia la semana pasada publicó un artículo sobre la práctica de YouTube de Google de eliminar videos con contenido gráficamente violento, que también puede ser evidencia de crímenes de guerra recientes.

La política de YouTube, similar a otras plataformas de redes sociales, ha sido eliminar el contenido que contiene discursos de odio, desinformación o imágenes perturbadoras.

En el pasado, Facebook y otros servicios han sido llamados por no hacer lo suficiente para detener la transmisión en vivo de actos criminales y violentos. Como resultado, muchos servicios de contenido generados por los usuarios han intensificado los esfuerzos para eliminar videos problemáticos lo más rápido posible.

Sin embargo, el problema está lejos de ser sencillo, ya que CJR notas de papel Entre los videos eliminados de YouTube había algunos que mostraban ataques del gobierno sirio en la guerra civil del país. Algunos mostraron el uso de "bombas de barril", que Human Rights Watch y otros grupos consideran un crimen de guerra.

Eliminar ese video es similar a borrar la historia, según los críticos, y aún más importante, eliminar la evidencia de crímenes de guerra.

YouTube no es la única plataforma que ha eliminado dicho contenido. Según los informes, Facebook y Twitter se han involucrado en extraer ese tipo de videos por violar los estándares de la comunidad que prohíben la inclusión de contenido gráfico.

Un problema matemático

Una de las razones por las que estos videos se eliminan es que todas las plataformas de redes sociales utilizan algoritmos basados ​​en inteligencia artificial para detectar y eliminar contenido que se sospecha que viola los términos del acuerdo del usuario. Facebook y otros servicios han estado bajo presión para eliminar contenido gráficamente violento, incluidos videos publicados por grupos terroristas y organizaciones radicales.

Facebook ha mejorado su juego para eliminar contenido automáticamente, y los servicios rivales han estado trabajando duro para eliminar dicho contenido casi tan rápido como se publica. El problema es que los filtros no pueden diferenciar entre propaganda terrorista y evidencia potencial de crímenes de guerra.

Después de eliminar el contenido, los carteles tienen pocos recursos. Los usuarios deben apelar al servicio, argumentando que su contenido fue eliminado erróneamente, pero que el proceso puede ser lento y muchas veces no es efectivo. En la mayoría de los casos, el contenido permanece fuera de línea incluso después de la apelación.

Reacción social

En muchos casos, el contenido en cuestión viola los términos de YouTube, incluidos los estándares de su comunidad, a pesar de que puede tener un propósito serio e importante.

"La pregunta no es si YouTube y otros sitios de redes sociales deberían controlar el contenido, por supuesto que deberían", dijo
James R. Bailey, profesor de liderazgo en la Escuela de Negocios de la Universidad George Washington.

La pregunta es cómo lo hacen esas compañías.

"Lo que constituye 'inflamatorio' o 'emancipador' depende completamente de la perspectiva", dijo Bailey a TechNewsWorld.

"La Primera Enmienda incluye publicaciones en redes sociales, pero los derechos de libertad de expresión están limitados", agregó.

La Constitución no protege la calumnia, la obscenidad, las amenazas y las violaciones de la propiedad intelectual, por ejemplo.

"Los discursos que incitan a la violencia también están prohibidos", señaló Bailey. "Eso obliga a sitios como YouTube a examinar las publicaciones con contenido horrible que podría provocar resentimiento o venganza. Dado el tenue estado de las redes sociales, se requiere precaución, no controversia".

¿Es censura?

Podría darse el caso de que la eliminación de dicho contenido por parte de YouTube, incluso cuando viola los estándares de la comunidad, podría considerarse como censura de noticias por parte de una empresa de medios.

"Estos son los síntomas de historias no controladas, no verificadas y colaboradas; la enfermedad es consecuencia y censura", advirtió
Lon Safko, consultor de redes sociales y coautor de La Biblia de las redes sociales.

"Todo esto vuelve a 'no tener consecuencias para el periodismo deshonesto' y la censura", dijo a TechNewsWorld.

¿Quién es exactamente la audiencia para tal contenido? ¿Es este el tipo de video apropiado para que las masas lo vean sin el contexto o fondo adecuado? ¿Se vuelve semejante contenido a una "película de rapé"? ¿Podrían estos crímenes disminuir incluso por la forma en que se presentan estos videos?

"¿Todos queremos ver los crímenes de guerra a medida que ocurren, y este es el contenido apropiado para YouTube?" reflexionó Safko.

"Esto es difícil para los sitios de redes sociales como YouTube. Primero, no son organizaciones de noticias, son organizaciones de medios", dijo
Dustin York, director de Comunicación de pregrado y posgrado en la Universidad de Maryville.

"Informar sobre noticias no es su misión", dijo a TechNewsWorld.

"YouTube también se encuentra en una situación difícil, ya que deben usar la inteligencia artificial para apoyar su censura. Nadie diría que YouTube no debe censurar nada", agregó York. "Sería imposible para ellos contratar a suficientes humanos para censurar manualmente todo el contenido, por lo tanto, se usa AI. La IA puede cometer errores sobre qué censurar y qué no censurar. Aquí es donde algunos de estos videos de derechos humanos están viendo problemas ".

Noticias sociales

Otros servicios de redes sociales se han topado exactamente con los mismos problemas, pero Facebook ha adoptado un enfoque diferente para resolver el problema.

"Facebook está lanzando su nueva 'News Tab', que esperan ayudar con muchos problemas, este es uno", señaló York.

Si la pestaña de noticias de Facebook tiene éxito, YouTube podría hacer lo mismo y tratar tales videos como "noticias" reales en lugar de contenido generado por el usuario.

"Los videos de derechos humanos presentados por los medios investigados nunca serán censurados", dijo York.

"Una opción que otros han mencionado es que los videos eliminados sean marcados por el usuario como un video de derechos humanos", dijo.

El contenido marcado podría requerir que un humano revise el contexto del video y decida si eliminarlo o no.

"Sin embargo, esto puede causar el mismo problema que los sitios sociales ya enfrentan: no hay suficientes humanos", advirtió York. "Si la mayoría de los videos de propaganda también marcan sus videos, YouTube se encuentra en la misma situación que comenzó. Al final del día, se necesita IA, pero la IA no es perfecta".

¿Podemos confiar en ello?

Luego está la cuestión de si se puede confiar en dicho contenido, especialmente en la era de los llamados videos "profundos", que utilizan la tecnología informática para manipular y engañar. También está el tema de la autenticidad, y si los videos que vemos representan con precisión un evento.

A principios de este mes, ABC News fue llamado para transmitir videos que, según afirma, eran de Siria, pero que en realidad eran de un tiroteo anual de ametralladoras en Kentucky.

Más importante aún, hay muchos casos a lo largo de la historia de gobiernos que hacen fotos como parte de una campaña de desinformación o propaganda. ¿Deben los videos que pretenden documentar crímenes de guerra ser tomados al pie de la letra o ser revisados ​​por reporteros reales?

"Los videos que capturan crímenes de guerra son como cualquier otro video, y pueden fabricarse o fabricarse", advirtió Bailey, de la Universidad George Washington.

¿YouTube está calificado para verificar si un video es real?

"¿Son reales, o crímenes de guerra falsos como los que Rusia organizó para apoyar el ataque a Ucrania?" preguntó Safko.

"Si no, ¿cuáles son las consecuencias?" el se preguntó.

"De hecho, esta es una situación difícil, y las plataformas de redes sociales deben cumplir con los mismos estándares que los medios de transmisión cuando se trata de validar la autenticidad del video que se comparte en las plataformas respectivas", dijo Josh Crandall, analista principal de Netpop Research.

La respuesta puede recaer en tener organizaciones de noticias acreditadas que trabajen con YouTube en alguna capacidad para examinar los videos.

"Deje que la prensa, elevada por la Primera Enmienda, haga su trabajo", dijo Bailey.

Compartiendo la historia

Luego está la cuestión de la importancia que presenta dicho contenido, especialmente en partes del mundo donde la prensa libre ha sido silenciada.

Las redes sociales a menudo han sido el único medio de comunicación en las zonas de guerra, especialmente durante los levantamientos de la Primavera Árabe en Túnez, Libia y Egipto, así como en partes remotas de Siria, y podría ser la mejor manera de obtener información importante sobre crímenes de guerra.

Las redes sociales podrían ser una forma de transmitir información para que luego puedan ser examinadas por las organizaciones de noticias.

"Las plataformas de redes sociales se pueden usar para investigar crímenes de guerra al permitir que los usuarios carguen videos pero no permitir que otros usuarios vean el video hasta que se notifique a los canales apropiados – organizaciones no gubernamentales (ONG), Naciones Unidas y la policía – la atrocidad potencial ", dijo Crandall a TechNewsWorld.

"En otras palabras, las plataformas de redes sociales no deberían estar en el negocio de dar la noticia a través de las contribuciones de los usuarios", agregó. "Más bien, necesitan ser conscientes de cómo los malos actores pueden explotar las plataformas para sus propios fines".



Peter Suciu ha sido reportero de ECT News Network desde 2012. Sus áreas de enfoque incluyen seguridad cibernética, teléfonos móviles, pantallas, transmisión de medios, televisión de pago y vehículos autónomos. Ha escrito y editado para numerosas publicaciones y sitios web, incluidos Newsweek, Cableado y FoxNews.com.
Email Peter.



LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *