El algoritmo: el arte generado por IA plantea preguntas difíciles sobre ética, derechos de autor y seguridad

El algoritmo: el arte generado por IA plantea preguntas difíciles sobre ética, derechos de autor y seguridad

Gracias a su estilo distintivo, Rutkowski es ahora una de las indicaciones más utilizadas en el nuevo generador de arte de IA de código abierto. Difusión estable, que se lanzó a fines del mes pasado, mucho más popular que algunos de los artistas más famosos del mundo, como Picasso. Su nombre se ha utilizado como mensaje unas 93.000 veces.

Pero él no está contento con eso. Cree que podría poner en peligro su sustento, y nunca se le dio la opción de aceptar o no que su trabajo se usara de esa manera.

La historia es otro ejemplo más de cómo los desarrolladores de IA se apresuran a lanzar algo genial sin pensar en los humanos que se verán afectados por ello.

Stable Diffusion es gratuito para que cualquiera lo use, lo que proporciona un gran recurso para los desarrolladores de IA que desean usar un modelo poderoso para crear productos. Pero debido a que estos programas de código abierto se crean extrayendo imágenes de Internet, a menudo sin el permiso y la atribución adecuada a los artistas, plantean preguntas difíciles sobre ética, derechos de autor y seguridad.

Artistas como Rutkowski han tenido suficiente. Todavía es pronto, pero una creciente coalición de artistas está descubriendo cómo abordar el problema. En el futuro, es posible que veamos que el sector del arte se desplaza hacia modelos de pago por reproducción o de suscripción como el que se usa en las industrias del cine y la música. Si tienes curiosidad y quieres aprender más, lee mi historia.

Y no son solo los artistas: Todos deberíamos preocuparnos por lo que se incluye en los conjuntos de datos de entrenamiento de los modelos de IA, especialmente porque estas tecnologías se vuelven una parte más crucial de la infraestructura de Internet.

en un papel que salió el año pasado, los investigadores de IA Abeba Birhane, Vinay Uday Prabhu y Emmanuel Kahembwe analizaron un conjunto de datos más pequeño similar al que se usó para construir Stable Diffusion. Sus hallazgos son angustiantes. Debido a que los datos se extraen de Internet, e Internet es un lugar horrible, el conjunto de datos está lleno de imágenes explícitas de violaciones, pornografía, estereotipos malignos e insultos racistas y étnicos.

Un sitio web llamado ¿He sido entrenado? permite a las personas buscar imágenes utilizadas para entrenar el último lote de modelos de arte de IA populares. Incluso los términos de búsqueda inocentes obtienen muchos resultados perturbadores. Intenté buscar en la base de datos mi origen étnico y todo lo que obtuve fue pornografía. Mucho porno. Es un pensamiento deprimente que lo único que la IA parece asociar con la palabra “asiático” son las mujeres desnudas de Asia oriental.

No todo el mundo ve esto como un problema que debe solucionar el sector de la IA. Emad Mostaque, el fundador de Stability.AI, que creó Stable Diffusion, dijo en Twitter consideró que el debate ético en torno a estos modelos es una “tontería paternalista que no confía en las personas ni en la sociedad”.

Pero hay una gran pregunta de seguridad. Los modelos gratuitos de código abierto como Stable Diffusion y el modelo de lenguaje grande BLOOM brindan a los actores malintencionados herramientas para generar contenido dañino a escala con recursos mínimos, argumenta Abhishek Gupta, fundador del Instituto de Ética de IA de Montreal y experto responsable en IA de Boston Consulting Group. .

La gran escala de los estragos que permiten estos sistemas limitará la eficacia de los controles tradicionales, como limitar la cantidad de imágenes que las personas pueden generar y restringir la generación de contenido dudoso, dice Gupta. Piensa en deepfakes o desinformación con esteroides. Cuando un poderoso sistema de IA “se vuelve salvaje”, dice Gupta, “eso puede causar un trauma real… por ejemplo, al crear contenido objetable en [someone’s] semejanza.”

No podemos volver a meter al gato en la bolsa., por lo que realmente deberíamos estar pensando en cómo lidiar con estos modelos de IA en la naturaleza, dice Gupta. Esto incluye monitorear cómo se usan los sistemas de IA después de su lanzamiento y pensar en controles que “puedan minimizar los daños incluso en los peores escenarios”.

Aprendizaje más profundo

No hay plaza de Tiananmen en la nueva IA de creación de imágenes china

Leave a Reply

Your email address will not be published. Required fields are marked *