Compartir imágenes generadas por IA en Facebook podría volverse más difícil… con el tiempo

Compartir imágenes generadas por IA en Facebook podría volverse más difícil… con el tiempo

Que una tía tuya (ya sabes cuál) finalmente lo piense dos veces antes de reenviar publicaciones en Facebook de fotos “perdidas” de einstein inconformista y un Papa Francisco vanguardista. El martes, Meta anunció que “en los próximos meses” intentará comenzar a marcar todas las imágenes generadas por IA creadas con programas de grandes empresas como Microsoft, OpenAI, Midjourney y Google que están inundando Facebook, Instagram y Threads.

Pero para abordar el abuso desenfrenado de la IA generativa, los expertos piden “La mayor amenaza a corto plazo del mundo.”, Meta requiere la cooperación de todas las principales empresas de inteligencia artificial, los informes propios de sus aproximadamente 5.400 millones de usuarios, así como tecnologías inéditas actualmente.

Nick Clegg, presidente de Asuntos Globales de Meta, explicó en su publicación del 6 de febrero que se espera que los lanzamientos de políticas y tecnología debuten antes de las temporadas electorales cruciales en todo el mundo.

“Durante este tiempo, esperamos aprender mucho más sobre cómo las personas crean y comparten contenido de IA, qué tipo de transparencia consideran más valiosa y cómo evolucionan estas tecnologías”, dice Clegg.

[Related: Why an AI image of Pope Francis in a fly jacket stirred up the internet.]

La meta nebulosa hoja de ruta se centra en trabajar con “otras empresas en [its] industria” para desarrollar e implementar estándares técnicos de identificación comunes para imágenes de IA. Los ejemplos podrían incluir algoritmos de firma digital y “manifiestos” de información criptográfica, como lo sugiere el Coalición para la procedencia y autenticidad del contenido

(C2PA) y el Consejo Internacional de Telecomunicaciones de Prensa (IPTC). Una vez que las empresas de IA comiencen a utilizar estas marcas de agua, Meta comenzará a etiquetar el contenido en consecuencia utilizando “clasificadores” para ayudar a detectar automáticamente el contenido generado por IA.

Si Las empresas de IA empiezan a utilizar marcas de agua” podría ser más exacto. Mientras que la propia empresa Meta IA La función ya etiqueta su contenido con una marca de agua “Imaginado con IA”, identificadores tan sencillos actualmente no son uniformes en los programas de IA de Google, OpenAI, Microsoft, Adobe, Midjourney, Shutterstock y otros.

Esto, por supuesto, hará poco para disuadir a los malos actores del uso de programas de terceros, a menudo con efectos extremadamente desagradables. El mes pasado, por ejemplo, imágenes pornográficas generadas por IA que involucraban a Taylor Swift se compartieron decenas de millones de veces en las redes sociales.

Meta dejó claro en publicación del martes estas salvaguardas se limitarán a imágenes estáticas. Pero según Clegg, cualquiera que esté preocupado por esto antes de una elección presidencial estadounidense de alto riesgo debería hablar con otras compañías de inteligencia artificial, no con Meta. Aunque algunas empresas están empezando a incluir identificadores en sus generadores de imágenes, “no han empezado a incluirlos en herramientas de IA que generan audio y vídeo a la misma escala, por lo que todavía no podemos detectar esas señales y etiquetar este contenido de otras empresas”. ,” el escribe.

Si bien “la industria trabaja para lograr esta capacidad”, Meta parece trasladar la responsabilidad a sus usuarios. Otra característica próxima pronto permitirá a las personas revelar sus cargas de audio y video generadas por IA, algo que Clegg podría eventualmente ser un requisito castigado con “sanciones”.

Por si sirve de algo, Meta también al menos admitió que actualmente es imposible marcar todo Contenido generado por IA, y todavía quedan “formas en que las personas pueden eliminar marcadores invisibles”. Sin embargo, para abordar potencialmente estos problemas, Meta espera luchar contra la IA con IA. Aunque la tecnología de IA ha ayudado durante mucho tiempo a la aplicación de políticas de Meta, su uso de IA generativa para esto “ha sido limitado”, dice Clegg, “pero somos optimistas de que la IA generativa podría ayudarnos a eliminar contenido dañino de manera más rápida y precisa”.

“Si bien esta no es una respuesta perfecta, no queríamos que lo perfecto fuera enemigo de lo bueno”, continuó Clegg.

Leave a Reply

Your email address will not be published. Required fields are marked *