Por qué los planes de marcas de agua de las grandes empresas tecnológicas son una buena noticia

El 6 de febrero, Meta dijo que iba a etiquetar imágenes generadas por IA en Facebook, Instagram e hilos. Cuando alguien utiliza las herramientas de inteligencia artificial de Meta para crear imágenes, la empresa agregará marcadores visibles a la imagen, así como marcas de agua invisibles y metadatos en el archivo de imagen. La compañía dice que sus estándares están en línea con las mejores prácticas establecidas por Partnership on AI, una organización sin fines de lucro de investigación de IA.

Las grandes empresas tecnológicas también están apoyando un estándar técnico prometedor que podría agregar una “etiqueta nutricional” a imágenes, videos y audio. Llamado C2PA, es un protocolo de Internet de código abierto que se basa en la criptografía para codificar detalles sobre los orígenes de un contenido, o lo que los tecnólogos llaman información de “procedencia”. Los desarrolladores de C2PA a menudo comparan el protocolo con una etiqueta nutricional, pero que dice de dónde proviene el contenido y quién (o qué) lo creó. Lea más sobre esto aquí.

El 8 de febrero, Google Anunciado se unirá a otros gigantes tecnológicos como Microsoft y Adobe en el comité directivo de C2PA e incluirá su marca de agua SynthID en todas las imágenes generadas por IA en sus nuevas herramientas Gemini. Meta dice que también participa en C2PA. Tener un estándar para toda la industria facilita que las empresas detecten contenido generado por IA, sin importar con qué sistema se haya creado.

OpenAI también anunciado nuevas medidas de procedencia de contenido la semana pasada. Dice que agregará marcas de agua a los metadatos de las imágenes generadas con ChatGPT y DALL-E 3, su IA de creación de imágenes. OpenAI dice que ahora incluirá una etiqueta visible en las imágenes para indicar que han sido creadas con IA.

Estos métodos son un comienzo prometedor, pero no son infalibles. Las marcas de agua en los metadatos son fáciles de eludir tomando una captura de pantalla de las imágenes y simplemente usándola, mientras que las etiquetas visuales se pueden recortar o editar. Quizás haya más esperanzas para las marcas de agua invisibles como SynthID de Google, que cambia sutilmente los píxeles de una imagen para que los programas de computadora puedan detectar la marca de agua pero el ojo humano no. Estos son más difíciles de manipular. Es más, no existen formas confiables de etiquetar y detectar videos, audio o incluso texto generados por IA.

Pero todavía hay valor en la creación de estas herramientas de procedencia. Como me dijo Henry Ajder, un experto en inteligencia artificial generativa, hace un par de semanas cuando lo entrevisté sobre cómo prevenir la pornografía deepfake, el objetivo es crear un “recorrido perverso del cliente”. En otras palabras, agregar barreras y fricciones al proceso de deepfake para frenar la creación y el intercambio de contenido dañino tanto como sea posible. Una persona decidida probablemente aún podrá anular estas protecciones, pero todo ayuda.

También hay muchas soluciones no técnicas que las empresas de tecnología podrían introducir para evitar problemas como la pornografía deepfake. Los principales proveedores de servicios en la nube y tiendas de aplicaciones, como Google, Amazon, Microsoft y Apple, podrían prohibir los servicios que pueden usarse para crear desnudos ultrafalsos no consensuados. Y las marcas de agua deberían incluirse en todo el contenido generado por IA en todos los ámbitos, incluso en las empresas emergentes más pequeñas que desarrollan la tecnología.

Lo que me da esperanza es que junto con estas medidas voluntarias estamos empezando a ver regulaciones vinculantes, como la Ley de IA y la Ley de Servicios Digitales de la UE, que exigen que las empresas de tecnología revelen contenido generado por IA y eliminen el contenido dañino más rápidamente. También hay un interés renovado entre los legisladores estadounidenses en aprobar algunas reglas vinculantes sobre deepfakes. Y luego de las llamadas automáticas generadas por IA en las que el presidente Biden les decía a los votantes que no votaran, la Comisión Federal de Comunicaciones de EE. UU. Anunciado la semana pasada que prohibía el uso de IA en estas llamadas.

Heaven32: