La mejor forma de proteger la libertad de expresión en las redes sociales es promover la competencia.

Tras los informes de genocidio en Myanmar, Facebook prohibió al máximo general del país y otros líderes militares que usaban la plataforma para fomentar el odio. La empresa también prohíbe a Hezbollah de su plataforma debido a su condición de organización terrorista extranjera designada por Estados Unidos, a pesar de que el partido tiene escaños en el parlamento libanés. Y prohíbe a los líderes en países sometidos a sanciones estadounidenses.

Al mismo tiempo, tanto Facebook como Twitter se han apegado al principio de que el contenido publicado por funcionarios electos merece más protección que el material de personas comunes, por lo tanto dar más poder al discurso de los políticos que al del pueblo. Esta posición está en desacuerdo con muchas pruebas de que el discurso de odio de figuras públicas tiene un mayor impacto que el discurso similar de los usuarios comunes.

Sin embargo, es evidente que estas políticas no se aplican de manera uniforme en todo el mundo. Después de todo, Trump está lejos de ser el único líder mundial que utiliza estas plataformas para fomentar el malestar. Solo hay que mirar al BJP, el partido del primer ministro de India, Narendra Modi, para ver más ejemplos.

Aunque ciertamente hay beneficios a corto plazo, y mucha satisfacción, que se pueden obtener al prohibir a Trump, la decisión (y las que vinieron antes) plantean preguntas más fundamentales sobre el discurso. ¿Quién debería tener derecho a decidir lo que podemos y no podemos decir? ¿Qué significa cuando una corporación puede censurar a un funcionario del gobierno?

El personal de políticas de Facebook, y Mark Zuckerberg en particular, durante años han demostrado ser malos jueces de lo que es o no es una expresión apropiada. Desde la plataforma prohibición de los senos

a su tendencia a suspender usuarios por responder en contra del discurso de odio, o su total fracaso para eliminar los llamados a la violencia en Myanmar, India y otros lugares, simplemente no hay razón para confiar en Zuckerberg y otros líderes tecnológicos para tomar estas grandes decisiones correctamente.

Derogar 230 no es la respuesta

Para remediar estas preocupaciones, algunos piden más regu lación. En los últimos meses, han abundado las demandas de ambos lados del pasillo para derogar o enmendar la Sección 230, la ley que protege a las empresas de la responsabilidad por las decisiones que toman sobre el contenido que alojan, a pesar de algunas tergiversaciones graves de políticos que deberían conocer mejor

sobre cómo funciona realmente la ley.

La cuestión es que la derogación de la Sección 230 probablemente no habría obligado a Facebook o Twitter a eliminar los tweets de Trump, ni evitaría que las empresas eliminen el contenido que encuentran desagradable, ya sea que ese contenido sea pornografía o los desvaríos desquiciados de Trump. Son los derechos de la Primera Enmienda de las empresas los que les permiten seleccionar sus plataformas como mejor les parezca.

En cambio, la derogación de la Sección 230 obstaculizaría a los competidores de Facebook y otros gigantes tecnológicos, y supondría un mayor riesgo de responsabilidad para las plataformas por lo que eligen alojar. Por ejemplo, sin la Sección 230, los abogados de Facebook podrían decidir que alojar contenido antifascista es demasiado arriesgado a la luz de la administración Trump. ataques a antifa.

¿Qué significa cuando una corporación puede censurar a un funcionario del gobierno?

Este no es un escenario descabellado: las plataformas ya restringen la mayor parte del contenido que podría estar incluso débilmente conectado a organizaciones terroristas extranjeras, por temor a que los estatutos de apoyo material puedan hacerlas responsables. Evidencia de crímenes de guerra en Siria y como resultado, se ha eliminado el contra-discurso vital contra las organizaciones terroristas en el extranjero. Del mismo modo, las plataformas han sido criticadas por bloquear cualquier contenido aparentemente conectado a países bajo sanciones de EE. UU. En un ejemplo particularmente absurdo, Etsy prohibió una muñeca hecha a mano, fabricado en Estados Unidos, porque la lista contenía la palabra “persa”.

No es difícil ver cómo el aumento de la responsabilidad de la plataforma podría hacer que las corporaciones cuyo único interés no sea “conectar el mundo” sino sacar provecho de él eliminen un discurso aún más vital.

Las plataformas no necesitan ser neutrales, pero deben jugar limpio

A pesar de lo que sigue repitiendo el senador Ted Cruz, no hay nada que exija que estas plataformas sean neutrales, ni debería haberlo. Si Facebook quiere echar a Trump, o fotos de madres que amamantan, esa es la prerrogativa de la empresa. El problema no es que Facebook tenga el derecho de hacerlo, sino que, debido a sus adquisiciones y crecimiento sin obstáculos, sus usuarios no tienen prácticamente ningún otro lugar adonde ir y están atrapados lidiando con reglas cada vez más problemáticas y moderación automatizada de contenido.

La respuesta no es derogar la Sección 230 (que, de nuevo, obstaculizaría la competencia) sino crear las condiciones para una mayor competencia. Aquí es donde la administración Biden debería centrar su atención en los próximos meses. Y esos esfuerzos deben incluir llegar a expertos en moderación de contenido de la defensa y la academia para comprender la gama de problemas que enfrentan los usuarios en todo el mundo, en lugar de simplemente centrarse en el debate dentro de los EE. UU.

Leave a Reply

Your email address will not be published. Required fields are marked *