Senadores quieren eximir a AI de las protecciones de la Sección 230

Senadores quieren eximir a AI de las protecciones de la Sección 230

Dos senadores estadounidenses unen sus manos al otro lado del pasillo para tratar de separar la inteligencia artificial del resto de Internet. Los senadores Josh Hawley y Richard Blumenthal han presentado nueva legislación que, si se aprueba, eximiría a AI de las protecciones de la Sección 230. El proyecto de ley propuesto dejaría a las empresas de IA potencialmente responsables de los errores a menudo incorrectos (TBD tal vez a veces difamatorio) contenido que producen grandes modelos de lenguaje y otras herramientas generativas de IA.

La medida, titulada directamente “Ley de No Inmunidad de la Sección 230 para la IA”, se produce cuando la cuestión de quién tiene la responsabilidad de las creaciones de la IA se está debatiendo acaloradamente, sin una respuesta legal clara todavía.

“Las empresas de inteligencia artificial deberían verse obligadas a asumir la responsabilidad de las decisiones comerciales a medida que desarrollan productos, sin ningún escudo legal de la Sección 230”, dijo el demócrata de Connecticut Blumenthal en un comunicado de prensa. El republicano de Missouri, Hawley, agregó: “No podemos cometer los mismos errores con la IA generativa que cometimos con Big Tech en la Sección 230… las empresas deben rendir cuentas”.

Blumenthal había insinuado su nueva legislación durante una reunión del Comité Judicial del Senado. audiencia

en el mundo real impactos de la IA en los derechos humanos a principios de esta semana. Durante su interrogatorio, Blumenthal afirmó que las empresas de redes sociales se habían beneficiado de una interpretación demasiado amplia de la Sección 230 y argumentó que era fundamental que el Congreso no repitiera ese escenario para la era emergente de la IA generativa.

“Necesitamos aclarar la Sección 230 para decir que no se aplica a la IA porque si no lo hacemos nos enfrentaremos a un mundo completamente nuevo de daño”, dijo Blumenthal.

La nueva legislación propuesta en sí misma enmendaría 230 con el siguiente texto:

Ningún efecto sobre los reclamos relacionados con la inteligencia artificial generativa: nada de lo contenido en esta sección… se interpretará en el sentido de menoscabar o limitar ningún reclamo en una acción civil o cargo en un proceso penal iniciado conforme a la ley federal o estatal contra el proveedor de un servicio informático interactivo. si la conducta objeto de la reclamación o cargo implica el uso o suministro de inteligencia artificial generativa por parte del servicio informático interactivo.

artículo 230 de la Ley de decencia en las comunicacioneses ampliamente considerado la ley fundacional de internet. Permite que existan sitios de redes sociales, motores de búsqueda, foros y secciones de comentarios sin que las plataformas o los proveedores de Internet sean cuestionados por el contenido que publican sus usuarios. En muchos sentidos, aunque defectuoso, es el política que permite cualquier grado de libertad de expresión en línea y es importante

Pero en los últimos años, se enfrentó al rechazo de los políticos de ambos partidos, en gran parte debido a cómo protege a las grandes empresas tecnológicas a medida que prolifera la información errónea en Internet. El presidente Biden ha dicho repetidamente quiere reformar el reglamento. Mientras tanto, los legisladores republicanos (y algunos demócratas) han hecho numerosos esfuerzos para desechar la regla por completo. El senador Hawley, en particular, ha venido por 230 antes. (En este último intento, podría estar aprovechando la cuestión abierta de la responsabilidad de la IA como una estrategia para debilitar el escudo protector de 230 en general).

Independientemente de todas las críticas que ha recibido la Sección 230, la Corte Suprema recientemente optó por mantener la disposición intacto. En mayo, SCOTUS desestimó un caso importante y se negó a opinar sobre el tema. Pero solo porque 230 sigue siendo la ley del país, eso no significa que necesariamente se aplica a la IA. Si le pregunta a la gente que escribió la política original de 1996, no es así.

El senador Ron Wyden junto con el expresidente de la SEC y congresista, Chris Cox, coautor de la Sección 230 han discutido la disposición no debería aplicarse al texto, video o imágenes que escupen programas como ChatGPT de OpenAI o DALL-E. “La Sección 230 se trata de proteger a los usuarios y sitios para alojar y organizar el discurso de los usuarios” y “no tiene nada que ver con proteger a las empresas de las consecuencias de sus propias acciones y productos”, dijo Wyden en un comunicado. a Reuters

sobre el tema en abril.

La legislación propuesta por Hawley y Blumenthal sería una forma de solidificar una excepción para la IA en la ley. Sin embargo, el acto podría resultar completamente superfluo, según jeff kosseffprofesor de derecho de ciberseguridad en la Academia Naval de EE. UU. y autor de un libro de 2019 sobre la Sección 230, Las veintiséis palabras que crearon Internet. “No sabemos si esto sería necesario”, dijo Kosseff sobre el proyecto de ley pendiente en una llamada telefónica con Gizmodo. Citó la posición de Wyden y Cox y señaló que no ha habido una prueba legal para mostrar qué postura podrían tomar los tribunales estadounidenses.

Por supuesto, la Sección 230 solo protege a los proveedores y plataformas en línea en el caso de contenido al que no contribuyen directamente, explicó Kosseff. Y se puede argumentar que las empresas de IA “contribuyen” de alguna manera a todo lo que producen estos programas.

Ya sea a través de la legislación u otra vía, si la Sección 230 no se aplica al contenido de IA, todo quedara sujeto a las leyes de difamación existentes, explicó Kosseff. A principios de este mes, un locutor de radio de Georgia presentó el primer caso de difamación contra OpenAI sobre ChatGPT supuestamente “alucinando” y produciendo un texto falso de que el locutor de radio había sido acusado de malversación de dinero. otros tienen amenazó con una acción similar. Ninguno de estos reclamos ha resultado aún en un veredicto.

Abrir oficialmente a los fabricantes de IA a la responsabilidad por todo lo que hacen sus modelos probablemente aplastaría a la industria en auge. Cuando Sam Altman y los cofundadores de OpenAI llamaron para regulación de inteligencia artificial, exención formalizada de 230 claramente no era lo que buscaban.

Sin embargo, en opinión de Kosseff, alguien debe asumir la responsabilidad de la inteligencia artificial. “Si es algo en lo que la gente suele confiar para obtener información y es una máquina de difamación, alguien debe rendir cuentas por eso”, dijo.

Sin embargo, al igual que las protecciones generales por debajo de 230 pueden no tener mucho sentido para la IA, las leyes de difamación pueden no ser la vía correcta para controlar la tecnología en rápido crecimiento. Para que un demandante gane un caso de difamación, generalmente tiene que probar que una declaración se hizo con conocimiento o desprecio imprudente por su falsedad. Pero, ¿puede una IA “saber” algo? “La malicia real tiene que ver con el estado de ánimo”, señaló Kosseff. “¿Cómo se muestra eso para un programa de IA?”

Luego está la interacción entre el usuario y la herramienta. Los programas de IA generan falsedades de forma rutinaria y se pueden usar fácilmente para crear contenido ofensivo o potencialmente dañino (por ejemplo, falsificaciones profundas sexuales). Sin duda, esos problemas recurrentes son, al menos en parte, el resultado de su código de back-end y capacitación, determinados por las empresas o desarrolladores que venden la tecnología. Pero los modelos de lenguaje grande y los generadores de imagen/video solo producen su salida a instancias de los humanos que escriben el aviso. Entonces, ¿quién debería cargar con la culpa cuando las cosas van mal?

Es un conjunto de problemas complicados y sin resolver que determinará mucho sobre el futuro de la IA e Internet. Si no hay respuestas en este momento, al menos, en opinión de Kosseff, es una “pregunta realmente fascinante”.

Leave a Reply

Your email address will not be published. Required fields are marked *