Los ejecutivos de Facebook, Google y Twitter dicen que están actuando más rápido en el contenido extremista


Los ejecutivos de Facebook, Google y Twitter le dijeron al Congreso el miércoles que han mejorado y más rápido al detectar y eliminar contenido extremista violento en sus plataformas de redes sociales ante los tiroteos masivos alimentados por el odio.

Cuestionados en una audiencia por el Comité de Comercio del Senado, los ejecutivos dijeron que están gastando dinero en tecnología para mejorar su capacidad de señalar contenido extremista y tomando la iniciativa de comunicarse con las autoridades policiales para tratar de evitar posibles incidentes violentos.

"Continuaremos invirtiendo en las personas y la tecnología para enfrentar el desafío", dijo Derek Slater, director de política de información de Google.

Los legisladores quieren saber qué están haciendo las compañías para eliminar el discurso de odio de sus plataformas y cómo se están coordinando con la policía.

"Estamos experimentando una oleada de odio … Las redes sociales se utilizan para amplificar ese odio", dijo la senadora Maria Cantwell, del estado de Washington, demócrata principal del panel.

Los ejecutivos de la compañía declararon que su tecnología está mejorando para identificar y eliminar el contenido sospechoso más rápido.

De los 9 millones de videos eliminados de YouTube de Google en el segundo trimestre del año, el 87 por ciento fueron señalados por una máquina que usaba inteligencia artificial, y muchos de ellos fueron eliminados antes de tener una sola vista, dijo Slater.

Después del tiroteo en la escuela secundaria en febrero de 2018 en Florida que mató a 17 personas, Google comenzó a comunicarse de manera proactiva con las autoridades policiales para ver cómo pueden coordinarse mejor, dijo Slater. Nikolas Cruz, el sospechoso del tiroteo, había publicado previamente en una página de YouTube: "Voy a ser un tirador escolar profesional", dijeron las autoridades.

Esta semana llegó la noticia de Facebook de que trabajará con las organizaciones policiales para capacitar a sus sistemas de inteligencia artificial para que reconozcan videos de eventos violentos como parte de un esfuerzo más amplio para combatir el extremismo. Los sistemas de inteligencia artificial de Facebook no pudieron detectar el video transmitido en vivo de los disparos a la mezquita en Nueva Zelanda en marzo que mataron a 50 personas. El autoproclamado supremacista blanco acusado de los disparos había transmitido en vivo el ataque.

El esfuerzo utilizará imágenes de la cámara corporal de capacitación en armas de fuego proporcionadas por el gobierno de EE. UU.

Facebook también está ampliando su definición de terrorismo para incluir no solo actos de violencia destinados a lograr un objetivo político o ideológico, sino también intentos de violencia, especialmente cuando se dirige a civiles con la intención de coaccionar e intimidar. La compañía ha tenido un éxito mixto en sus esfuerzos por limitar la propagación de material extremista a su servicio.

Facebook parece haber progresado poco, por ejemplo, en sus sistemas automatizados para eliminar contenido prohibido que glorifica a grupos como el Estado Islámico en los cuatro meses transcurridos desde que The Associated Press detalló cómo las páginas de Facebook autogeneradas para empresas están ayudando a extremistas de Medio Oriente y supremacistas blancos en los EE. UU. Los nuevos detalles provienen de una actualización de una queja a la Comisión de Bolsa y Valores que el Centro Nacional de Denunciantes planea presentar esta semana.

Facebook dijo en respuesta que elimina las páginas autogeneradas "que violan nuestras políticas. Si bien no podemos atrapar a todos, permanecemos atentos en este esfuerzo".

Monika Bickert, directora de gestión de políticas globales de Facebook, dijo en la audiencia del Senado que la compañía ha aumentado su capacidad de detectar el terror, la violencia y el discurso de odio mucho antes. "Sabemos que las personas necesitan estar seguras", dijo. Bickert señaló que Facebook elimina cualquier contenido que promueva la violencia, la supremacía blanca o el nacionalismo, así como también indica suicidio, y deshabilita las cuentas cuando se detectan amenazas.

El director de estrategia de políticas públicas de Twitter, Nick Pickles, dijo que el servicio suspendió más de 1,5 millones de cuentas para promover el terrorismo entre el 1 de agosto de 2015 y el 31 de diciembre de 2018. Más del 90 por ciento de las cuentas se suspenden a través de las medidas proactivas de Twitter, dijo. , sin esperar informes del gobierno y la policía.

El senador Rick Scott, republicano por Florida, le preguntó a Pickles por qué Twitter no había suspendido la cuenta del líder socialista venezolano Nicolás Maduro, quien presidió una crisis económica y política cada vez más profunda y amenazó a los políticos de la oposición con un proceso penal.

Si Twitter eliminara la cuenta de Maduro, "no cambiaría los hechos sobre el terreno", dijo Pickles.

Scott dijo que no estaba de acuerdo porque la cuenta de Maduro con unos 3,7 millones de seguidores le otorga legitimidad como líder mundial.

<! –

->

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *