¿Debería la Sección 230 proteger a las empresas de IA de ser demandadas hasta dejarlas de existir?

¿Debería la Sección 230 proteger a las empresas de IA de ser demandadas hasta dejarlas de existir?

Bienvenido a AI This Week, el análisis profundo semanal de Gizmodo sobre lo que ha estado sucediendo en la inteligencia artificial.

Esta semana ha habido rumores de que un proyecto de ley bipartidista que prohibiría la protección de las plataformas de inteligencia artificial según la Sección 230 se está acelerando. La histórica ley de Internet protege a los sitios web de la responsabilidad legal por el contenido que alojan y sus implicaciones para el destino de la IA no están claras. La legislación, redactada por los senadores Josh Hawley (R-Mo.) y Richard Blumenthal (D-Conn.), quitaría “inmunidad a las empresas de IA” cuando se trata de demandas civiles o procesos penales. comunicado de prensa de las afirmaciones de la oficina de Hawley. Es otro recordatorio más de que la IA es un verdadero avispero de espinosos temas legales y regulatorios que aún deben resolverse.

En términos generales, la Sección 230 fue diseñada para proteger a las plataformas de Internet de ser demandadas por el contenido creado por terceros. Si bien los usuarios individuales de esas plataformas pueden ser responsables de lo que publican en línea, en la mayoría de los casos las plataformas mismas gozan de inmunidad legal. La ley fue desarrollada en la década de 1990 en gran medida como una forma de proteger la naciente Internetya que los reguladores parecen haberse dado cuenta de que la web no sobreviviría si todos sus motores de búsqueda y foros de mensajes desaparecieran.

Por supuesto, los tiempos han cambiado desde que se aprobó la ley en 1996 y ha habido llamados en curso para reformar la Sección 230 durante los últimos años. Cuando se trata de IA, parece haber todo tipo de argumentos sobre por qué (o por qué no) plataformas como ChatGPT no deberían estar cubiertas por esta legislación histórica.

Ya hemos visto al destacado profesor de derecho Jonathan Turley quejarse de que ChatGPT afirmó falsamente que había acosado sexualmente a alguien. La amenaza de demandas por difamación u otras responsabilidades legales se cierne sobre todas las empresas que desarrollan productos de inteligencia artificial en este momento, y probablemente sea hora de sentar nuevos precedentes.

Matt Perault, profesor de la Universidad de Carolina del Norte en Chapel Hill, escribió un ensayo en febrero argumentando que las empresas de IA no estarían cubiertas por la Sección 230, al menos no todo el tiempo. Según la visión de Perault, las plataformas de IA se han diferenciado de plataformas como Google o Facebook, donde el contenido se aloja pasivamente. En cambio, empresas como OpenAI comercializan abiertamente sus productos. como generadores de contenidoslo que parecería impedirles la protección de la ley.

“La distinción actual entre las plataformas que pueden obtener protección 230 y las que no es básicamente: ¿eres un anfitrión o un creador de contenido?” dijo Perault, en una llamada telefónica. “La forma en que la ley define ese término es si creas o desarrollas contenido ‘en su totalidad o en parte’. Eso significa que incluso si desarrolla contenido “en parte”, no podrá obtener 230 protecciones. Entonces, mi opinión es que una herramienta de IA generativa, en la que el nombre de la herramienta es literalmente ‘generativa’ (la idea general es que genera contenido), entonces probablemente, al menos en algunas circunstancias, no obtendrá 230 protecciones”.

Samir Jain, vicepresidente de políticas del Centro para la Democracia y la Tecnología, dijo que también sentía que habría circunstancias en las que una plataforma de IA podría ser considerada responsable de las cosas que genera. “Creo que probablemente dependerá de los hechos de cada situación particular”, añadió Jain. “En el caso de algo como una “alucinación” en el que el algoritmo generativo de IA parece haber creado algo de la nada, probablemente será difícil argumentar que no jugó al menos algún papel en su desarrollo”.

Al mismo tiempo, podría haber otras circunstancias en las que se podría argumentar que una herramienta de inteligencia artificial no actúa necesariamente como creadora de contenido. “Si, por otro lado, lo que produce la IA generativa se parece mucho más a los resultados de una consulta de búsqueda en respuesta a la entrada de un usuario o donde el usuario realmente ha sido quien está dando forma a la respuesta del sistema de IA generativa, entonces parece posible que la Sección 230 pueda aplicarse en ese contexto”, dijo Jain. “Mucho dependerá de los hechos particulares [of each case] y no estoy seguro de si habrá una respuesta simple y única de ‘sí’ o ‘no’ a esa pregunta”.

Otros han argumentado en contra de la idea de que las plataformas de IA no estarán protegidas por la Sección 230. En un ensayo sobre TechDirt, el abogado y tecnólogo Jess Miers sostiene que existe un precedente legal que considera que las plataformas de inteligencia artificial están fuera de la categoría de “proveedor de contenido de información” o creador de contenido. Cita varios casos legales que parecen proporcionar una hoja de ruta para la protección regulatoria de la IA, argumentando que productos como ChatGPT podrían considerarse “funcionalmente similares a los ‘motores de búsqueda comunes’ y a la tecnología predictiva como el autocompletado”.

Las fuentes con las que hablé parecían escépticas de que las nuevas regulaciones fueran el árbitro final de las protecciones de la Sección 230 para las plataformas de IA, al menos no al principio. En otras palabras: parece poco probable que la legislación de Hawley y Blumenthal consiga resolver el asunto. Con toda probabilidad, dijo Perault, estas cuestiones serán litigadas por el sistema judicial antes de que se lleve a cabo cualquier tipo de acción legislativa integral. “Necesitamos que el Congreso intervenga y esboce cómo deberían ser las reglas de tránsito en esta área”, dijo, al tiempo que agregó que, de manera problemática, “el Congreso no es actualmente capaz de legislar”.

Pregunta del día: ¿Cuál es el robot más memorable de la historia del cine?

Imagen del artículo titulado ¿Debería la Sección 230 proteger a las empresas de inteligencia artificial de ser demandadas hasta dejarlas de existir?

Foto: rozy ghaly (Shutterstock)

Esta es una pregunta vieja y ciertamente trillada, pero aún así vale la pena hacerla de vez en cuando. Por “robot” me refiero a cualquier personaje de una película de ciencia ficción que sea una máquina no humana. Podría ser un programa de software o podría ser un cyborg completo. Por supuesto, están los contendientes habituales: HAL de 2001: Una odisea en el espacio, Terminator y Roy Batty de Cazarecompensas—Pero también hay muchos otros potentados, en gran medida olvidados. El Extraterrestre La franquicia, por ejemplo, pasa desapercibida cuando se trata de este debate, pero casi todas las películas de la serie cuenta con un androide memorable interpretado por un muy buen actor. También está el de Alex Garland. ex machina, el favorito de A24 que presenta a Alicia Vikander como una seductora fembot. También tengo debilidad por M3GAN, la película de 2022 que es básicamente Juego de niños con robots. Exprese en los comentarios si tiene alguna idea sobre este tema tan importante.

Más titulares esta semana

  • Google parece haber hecho trampa durante su demostración de Gemini esta semana. En caso de que te lo hayas perdido, Google ha lanzado una nuevo modelo de IA multimodal: Gemini—que, según afirma, es su modelo de IA más potente hasta el momento. El programa ha sido anunciado como un competidor potencial de ChatGPT, y los espectadores notaron sus impresionantes capacidades. Sin embargo, ha salido a la luz que Google hizo trampa durante su demostración inicial de la plataforma. A video publicado por la compañía el miércoles parecía mostrar las habilidades de Gemini, pero resulta que el video fue editado y que el chatbot no funcionó tan perfectamente como parecía mostrar el video. esto obviamente No es la primera vez que una empresa de tecnología hace trampa durante una demostración de producto. pero ciertamente es un tropiezo para Google, considerando el revuelo en torno a este nuevo modelo.
  • Las regulaciones de IA propuestas por la UE están pasando por negociaciones críticas en este momento. Actualmente, la Unión Europea está tratando de ultimar los detalles de su histórica “Ley de IA”, que abordaría los daños potenciales de la inteligencia artificial. A diferencia de Estados Unidos, donde—aparte de una orden ejecutiva ligera de la administración Biden: como era de esperar, el gobierno ha decidido simplemente dejar que las empresas de tecnología hagan lo que quieran, la UE en realidad está tratando de gobernar la IA. Sin embargo, esos intentos están fallando un poco. Esta semana, negociaciones maratónicas sobre el contenido del proyecto de ley no hubo consenso sobre algunos de los elementos clave de la legislación.
  • La primera “fábrica de robots humanoides” del mundo está a punto de abrir sus puertas. ¿Qué significa eso? Está a punto de abrir una nueva fábrica en Salem, Oregón, cuyo único objetivo es fabricar “robots humanoides”. ¿Qué significa eso exactamente? Significa que, muy pronto, los trabajadores del almacén de Amazon podrían quedarse sin trabajo. De hecho, Axios informes eso los robots en cuestión han sido diseñados para “ayudar a Amazon y otras empresas gigantes con transporte, elevación y movimiento peligrosos”. La empresa detrás de los robots, Agility Robots, abrirá sus instalaciones en algún momento del próximo año y planea producir unos 10.000 robots al año.

Leave a Reply

Your email address will not be published. Required fields are marked *