Cómo la Corte Suprema puede revisar la forma en que vive en línea

Cómo la Corte Suprema puede revisar la forma en que vive en línea

Ahora están en el centro de un caso legal histórico que, en última instancia, tiene el poder de cambiar por completo la forma en que vivimos en línea. El 21 de febrero, la Corte Suprema escuchará argumentos en Gonzalez v. Google, que se ocupa de las acusaciones de que Google violó la Ley Antiterrorista cuando las recomendaciones de YouTube promovieron el contenido de ISIS. Es la primera vez que la corte considerará una disposición legal llamada Sección 230.

La Sección 230 es la base legal sobre la que, durante décadas, todas las grandes compañías de Internet con cualquier material generado por el usuario (Google, Facebook, Wikimedia, AOL, incluso Craigslist) construyeron sus políticas y, a menudo, sus negocios. Como escribí la semana pasada, ha “protegido durante mucho tiempo las plataformas sociales de las demandas por contenido dañino generado por los usuarios, al tiempo que les da margen para eliminar las publicaciones a su discreción”. (Un recordatorio: los presidentes Trump y Biden han dicho que están a favor de deshacerse de la Sección 230, que, según argumentan, otorga a las plataformas demasiado poder con poca supervisión; las empresas de tecnología y muchos defensores de la libertad de expresión quieren mantenerla).

SCOTUS se ha concentrado en una pregunta muy específica: ¿Están recomendaciones de contenido igual que mostrar de contenido, el último de los cuales es ampliamente aceptado como cubierto por la Sección 230?

Lo que está en juego realmente no podría ser más alto. Como escribí: “[I]Si la Sección 230 se deroga o se reinterpreta ampliamente, estas empresas pueden verse obligadas a transformar su enfoque para moderar el contenido y revisar las arquitecturas de su plataforma en el proceso”.

Sin entrar en toda la jerga legal aquí, lo que es importante entender es que, si bien puede parecer plausible establecer una distinción entre los algoritmos de recomendación (especialmente aquellos que ayudan a los terroristas) y la visualización y el alojamiento de contenido, técnicamente hablando, es una distinción realmente turbia. . Los algoritmos que clasifican por cronología, geografía u otros criterios gestionan la visualización de la mayoría del contenido de alguna manera, y las empresas tecnológicas y algunos expertos dicen que no es fácil trazar una línea entre esto y los algoritmos. amplificaciónque potencia deliberadamente cierto contenido y puede tener consecuencias perjudiciales (y algunas beneficiosas también).

Si bien mi historia de la semana pasada se centró en los riesgos que plantea el fallo para los sistemas de moderación de la comunidad en línea, incluidas funciones como el voto a favor de Reddit, los expertos con los que hablé tenían muchas preocupaciones. Muchos de ellos compartieron la misma preocupación de que SCOTUS no entregará con claridad un fallo con matices técnicos y sociales.

“Esta Corte Suprema no me da mucha confianza”, me dijo Eric Goldman, profesor y decano de la Facultad de Derecho de la Universidad de Santa Clara. A Goldman le preocupa que el fallo tenga amplias consecuencias no intencionales y le preocupa el riesgo de una “opinión que es un asesino de Internet”.

Por otro lado, algunos expertos me dijeron que los daños infligidos a las personas y la sociedad por los algoritmos han alcanzado un nivel inaceptable, y aunque podría ser más ideal regular los algoritmos a través de la legislación, SCOTUS realmente debería aprovechar esta oportunidad para cambiar la ley de Internet.

Leave a Reply

Your email address will not be published. Required fields are marked *