El laboratorio de IA libra una guerra de guerrillas contra la IA explotadora

El laboratorio de IA libra una guerra de guerrillas contra la IA explotadora

Sin embargo, es “simplista pensar que si tienes un problema de seguridad real y estás intentando diseñar una herramienta de protección, la respuesta debería ser que funcione perfectamente o no la implementes”, dice Zhao, citando el spam. filtros y cortafuegos como ejemplos. La defensa es un juego constante del gato y el ratón. Y cree que la mayoría de los artistas son lo suficientemente inteligentes como para comprender el riesgo.

Ofreciendo esperanza

La lucha entre los creadores y las empresas de IA es feroz. El paradigma actual en IA es construir modelos cada vez más grandes y, al menos actualmente, no se puede eludir el hecho de que requieren vastos conjuntos de datos extraídos de Internet para entrenar. Las empresas de tecnología argumentan que cualquier cosa en la Internet pública es un juego limpio y que es “imposible” construir herramientas avanzadas de IA

sin material protegido por derechos de autor; Muchos artistas argumentan que las empresas tecnológicas les han robado su propiedad intelectual. y violó la ley de derechos de autor, y que necesitan formas de mantener sus obras individuales fuera de los modelos, o al menos recibir el crédito y la compensación adecuados por su uso.

Hasta ahora, los creativos no están exactamente ganando. Una serie de empresas ya han reemplazado diseñadores, redactores e ilustradores con sistemas de inteligencia artificial. En un caso de alto perfil, Marvel Studios utilizó imágenes generadas por IA en lugar de arte creado por humanos en la secuencia del título de su serie de televisión de 2023 Invasión secreta

. En otro, una emisora ​​de radio despidió a sus presentadores humanos y los reemplazó con IA. La tecnología se ha convertido en una importante manzana de discordia entre los sindicatos y los estudios de cine, televisión y creativos, y más recientemente provocó una huelga por parte de artistas de videojuegos. Existen numerosas demandas en curso por parte de artistas, escritores, editores y sellos discográficos contra empresas de inteligencia artificial. Probablemente pasarán años hasta que haya una resolución legal clara. Pero ni siquiera un fallo judicial necesariamente desenredará las difíciles cuestiones éticas creadas por la IA generativa. Tampoco es probable que cualquier regulación gubernamental futura lo haga, si es que alguna vez se materializa.

Es por eso que Zhao y Zheng ven a Glaze y Nightshade como intervenciones necesarias: herramientas para defender el trabajo original, atacar a aquellos que se ayudarían a sí mismos y, como mínimo, ganar algo de tiempo para los artistas. Tener una solución perfecta no es realmente el punto. Los investigadores deben ofrecer algo

Ahora, como el sector de la IA avanza a una velocidad vertiginosa, dice Zheng, significa que las empresas están ignorando daños muy reales a los humanos. “Esta es probablemente la primera vez en todas nuestras carreras tecnológicas que realmente vemos tanto conflicto”, añade.

A una escala mucho mayor, ella y Zhao me dicen que esperan que Glaze y Nightshade eventualmente tengan el poder de revisar cómo las empresas de inteligencia artificial utilizan el arte y cómo lo producen sus productos. Es tremendamente caro entrenar modelos de IA y es extremadamente laborioso para los ingenieros encontrar y purgar muestras envenenadas en un conjunto de datos de miles de millones de imágenes. En teoría, si hay suficientes imágenes de Nightshaded en Internet y las empresas de tecnología ven que sus modelos se rompen como resultado, esto podría empujar a los desarrolladores a la mesa de negociaciones para negociar sobre licencias y una compensación justa.

Eso, por supuesto, sigue siendo un gran “si”. Revisión de tecnología del . Se comunicó con varias empresas de inteligencia artificial, como Midjourney y Stability AI, que no respondieron a las solicitudes de comentarios. Mientras tanto, un portavoz de OpenAI no confirmó ningún detalle sobre el envenenamiento de datos, pero dijo que la compañía se toma en serio la seguridad de sus productos y mejora continuamente sus medidas de seguridad: “Siempre estamos trabajando en cómo podemos hacer que nuestros sistemas sean más robustos contra este tipo de abuso”.

Mientras tanto, SAND Lab sigue adelante y busca financiación de fundaciones y organizaciones sin fines de lucro para mantener el proyecto en marcha. También dicen que ha habido interés por parte de grandes empresas que buscan proteger su propiedad intelectual (aunque se niegan a decir cuáles), y Zhao y Zheng están explorando cómo las herramientas podrían aplicarse en otras industrias, como los juegos, los vídeos o la música. . Mientras tanto, planean seguir actualizando Glaze y Nightshade para que sean lo más robustos posible, trabajando estrechamente con los estudiantes en el laboratorio de Chicago, donde, en otra pared, cuelga el libro de Toorenent. Belladona. El cuadro tiene una nota en forma de corazón pegada en la esquina inferior derecha: “¡Gracias! Nos has dado esperanza a los artistas”.