El laboratorio de IA libra una guerra de guerrillas contra la IA explotadora
Sin embargo, es “simplista pensar que si tienes un problema de seguridad real y estás intentando diseñar una herramienta de protección, la respuesta debería ser que funcione perfectamente o no la implementes”, dice Zhao, citando el spam. filtros y cortafuegos como ejemplos. La defensa es un juego constante del gato y el ratón. Y cree que la mayoría de los artistas son lo suficientemente inteligentes como para comprender el riesgo.
Ofreciendo esperanza
La lucha entre los creadores y las empresas de IA es feroz. El paradigma actual en IA es construir modelos cada vez más grandes y, al menos actualmente, no se puede eludir el hecho de que requieren vastos conjuntos de datos extraídos de Internet para entrenar. Las empresas de tecnología argumentan que cualquier cosa en la Internet pública es un juego limpio y que es “imposible” construir herramientas avanzadas de IA
Hasta ahora, los creativos no están exactamente ganando. Una serie de empresas ya han reemplazado diseñadores, redactores e ilustradores con sistemas de inteligencia artificial. En un caso de alto perfil, Marvel Studios utilizó imágenes generadas por IA en lugar de arte creado por humanos en la secuencia del título de su serie de televisión de 2023 Invasión secreta
Es por eso que Zhao y Zheng ven a Glaze y Nightshade como intervenciones necesarias: herramientas para defender el trabajo original, atacar a aquellos que se ayudarían a sí mismos y, como mínimo, ganar algo de tiempo para los artistas. Tener una solución perfecta no es realmente el punto. Los investigadores deben ofrecer algo
A una escala mucho mayor, ella y Zhao me dicen que esperan que Glaze y Nightshade eventualmente tengan el poder de revisar cómo las empresas de inteligencia artificial utilizan el arte y cómo lo producen sus productos. Es tremendamente caro entrenar modelos de IA y es extremadamente laborioso para los ingenieros encontrar y purgar muestras envenenadas en un conjunto de datos de miles de millones de imágenes. En teoría, si hay suficientes imágenes de Nightshaded en Internet y las empresas de tecnología ven que sus modelos se rompen como resultado, esto podría empujar a los desarrolladores a la mesa de negociaciones para negociar sobre licencias y una compensación justa.
Eso, por supuesto, sigue siendo un gran “si”. Revisión de tecnología del . Se comunicó con varias empresas de inteligencia artificial, como Midjourney y Stability AI, que no respondieron a las solicitudes de comentarios. Mientras tanto, un portavoz de OpenAI no confirmó ningún detalle sobre el envenenamiento de datos, pero dijo que la compañía se toma en serio la seguridad de sus productos y mejora continuamente sus medidas de seguridad: “Siempre estamos trabajando en cómo podemos hacer que nuestros sistemas sean más robustos contra este tipo de abuso”.
Mientras tanto, SAND Lab sigue adelante y busca financiación de fundaciones y organizaciones sin fines de lucro para mantener el proyecto en marcha. También dicen que ha habido interés por parte de grandes empresas que buscan proteger su propiedad intelectual (aunque se niegan a decir cuáles), y Zhao y Zheng están explorando cómo las herramientas podrían aplicarse en otras industrias, como los juegos, los vídeos o la música. . Mientras tanto, planean seguir actualizando Glaze y Nightshade para que sean lo más robustos posible, trabajando estrechamente con los estudiantes en el laboratorio de Chicago, donde, en otra pared, cuelga el libro de Toorenent. Belladona. El cuadro tiene una nota en forma de corazón pegada en la esquina inferior derecha: “¡Gracias! Nos has dado esperanza a los artistas”.