Cómo el fallo de la Corte Suprema sobre la Sección 230 podría acabar con Reddit como lo conocemos

Cómo el fallo de la Corte Suprema sobre la Sección 230 podría acabar con Reddit como lo conocemos

Pero hay otro gran problema en juego que ha recibido mucha menos atención: según el resultado del caso, los usuarios individuales de los sitios pueden ser repentinamente responsables de la moderación de contenido común y corriente. Muchos sitios dependen de los usuarios para la moderación de la comunidad para editar, dar forma, eliminar y promocionar el contenido de otros usuarios en línea; piense en el voto a favor de Reddit o en los cambios en una página de Wikipedia. ¿Qué podría pasar si esos usuarios se vieran obligados a asumir riesgos legales cada vez que toman una decisión de contenido?

En resumen, la corte podría cambiar la Sección 230 de manera que no solo afecte a las grandes plataformas; Los sitios más pequeños como Reddit y Wikipedia que dependen de la moderación de la comunidad también se verán afectados, advierte Emma Llansó, directora del Proyecto de Libre Expresión del Centro para la Democracia y la Tecnología. “Sería una enorme pérdida para las comunidades de habla en línea si de repente se volviera realmente arriesgado para los moderadores hacer su trabajo”, dice ella.

En un escrito de amicus curiae presentado en enero, los abogados de Reddit argumentaron que su característica distintiva de voto positivo/negativo está en riesgo en Gonzalez v. Google

, el caso que volverá a examinar la aplicación de la Sección 230. Los usuarios “determinan directamente qué contenido se promociona o se vuelve menos visible mediante el uso de las funciones innovadoras de ‘voto positivo’ y ‘voto negativo’ de Reddit”, se lee en el escrito. “Todas esas actividades están protegidas por la Sección 230, que el Congreso elaboró ​​para inmunizar a los ‘usuarios’ de Internet, no solo a las plataformas”.

En el corazon de González es la cuestión de si la “recomendación” de contenido es diferente de la visualización de contenido; Se entiende ampliamente que esto tiene amplias implicaciones para los algoritmos de recomendación que impulsan plataformas como Facebook, YouTube y TikTok. Pero también podría tener un impacto en los derechos de los usuarios a que les guste y promocionen el contenido en los foros donde actúan como moderadores de la comunidad y efectivamente impulsan un contenido sobre otro contenido.

Reddit cuestiona dónde encajan las preferencias del usuario, ya sea directa o indirectamente, en la interpretación de “recomendación”. “El peligro es que tú y yo, cuando usamos Internet, hacemos muchas cosas que no llegan a crear el contenido”, dice Ben Lee, asesor general de Reddit. “Vemos el contenido de otras personas y luego interactuamos con él. ¿En qué momento estamos nosotros mismos, por lo que hicimos, recomendando ese contenido?”.

Reddit actualmente tiene 50 millones de usuarios diarios activos, según su informe amicus, y el sitio clasifica su contenido según si los usuarios votan a favor o en contra de las publicaciones y comentarios en un hilo de discusión. Aunque emplea algoritmos de recomendación para ayudar a los nuevos usuarios a encontrar discusiones en las que puedan estar interesados, gran parte de su sistema de recomendación de contenido se basa en estos votos impulsados ​​por la comunidad. Como resultado, un cambio en la moderación de la comunidad probablemente cambiaría drásticamente el funcionamiento del sitio.

“Podemos [users] ser arrastrado a una demanda, incluso una demanda bien intencionada, solo porque pusimos una reseña de dos estrellas para un restaurante, solo porque hicimos clic en votar a favor o en contra en esa publicación, solo porque decidimos ayudar como voluntarios para nuestra comunidad y ¿Empezar a eliminar publicaciones o agregar publicaciones?” Lee pregunta. “Son [these actions] suficiente para que de repente seamos responsables de algo?

Una “amenaza existencial” para las plataformas más pequeñas

Lee señala un caso en la historia reciente de Reddit. En 2019, en el subreddit r/Screenwriting, los usuarios comenzaron a hablar sobre concursos de escritura de guiones que pensaban que podían ser una estafa. El operador de esas supuestas estafas demandó al moderador de r/Screenwriting por marcar y comentar las publicaciones, priorizando así ese contenido. El Tribunal Superior de California en el condado de Los Ángeles excusó al moderador de la demanda, que según Reddit se debió a la protección de la Sección 230. A Lee le preocupa que una interpretación diferente de la Sección 230 podría dejar a los moderadores, como el de r/Screenwriting, significativamente más vulnerables a demandas similares en el futuro.

Leave a Reply

Your email address will not be published. Required fields are marked *