Mi deepfake muestra lo valiosos que son nuestros datos en la era de la IA

Mi deepfake muestra lo valiosos que son nuestros datos en la era de la IA

Synthesia ha logrado crear avatares de IA que se parecen notablemente a los humanos después de solo un año de experimentar con la última generación de IA generativa. Es igualmente emocionante y desalentador pensar hacia dónde se dirige esta tecnología. Pronto será muy difícil diferenciar entre lo que es real y lo que no lo es, y esta es una amenaza particularmente grave dado el número récord de elecciones que se celebrarán en todo el mundo este año.

No estamos preparados para lo que viene. Si las personas se vuelven demasiado escépticas sobre el contenido que ven, podrían dejar de creer en cualquier cosa, lo que podría permitir a los malos actores aprovechar este vacío de confianza y mentir sobre la autenticidad del contenido real. Los investigadores han llamado a esto el “dividendo del mentiroso”. Advierten que los políticos, por ejemplo, podrían afirmar que la información genuinamente incriminatoria es falsa o se creó mediante inteligencia artificial.

Acabo de publicar una historia sobre mi experiencia de creación de deepfakes y sobre las grandes preg untas sobre un mundo en el que cada vez más no podemos decir qué es real. Léelo aquí.

Pero hay otra gran pregunta: ¿qué sucede con nuestros datos una vez que los enviamos a empresas de inteligencia artificial? Synthesia dice que no vende los datos que recopila de actores y clientes, aunque sí divulga algunos de ellos con fines de investigación académica. La empresa utiliza avatares durante tres años, momento en el que se pregunta a los actores si quieren renovar sus contratos. Si es así, entran al estudio para crear un nuevo avatar. En caso contrario, la empresa elimina sus datos.

Pero otras empresas no son tan transparentes acerca de sus intenciones. Como informó mi colega Eileen Guo el año pasado, empresas como Meta otorgan licencias a los datos de los actores (incluidos sus rostros y expresiones) de una manera que les permite hacer lo que quieran con ellos. A los actores se les paga una pequeña tarifa inicial, pero su imagen puede usarse para entrenar modelos de IA a perpetuidad sin su conocimiento.

Incluso si los contratos de datos son transparentes, no se aplican si usted muere, dice Carl Öhman, profesor asistente en la Universidad de Uppsala que ha estudiado los datos en línea que dejan las personas fallecidas y es autor de un nuevo libro, El más allá de los datos. Los datos que ingresamos en las plataformas de redes sociales o en los modelos de inteligencia artificial podrían terminar beneficiando a las empresas y perdurar mucho tiempo después de que nos hayamos ido.

“Se prevé que Facebook albergará, en las próximas dos décadas, un par de miles de millones de perfiles muertos”, afirma Öhman. “No son realmente viables comercialmente. Los muertos no hacen clic en ningún anuncio, pero aun así ocupan espacio en el servidor”, añade. Estos datos podrían usarse para entrenar nuevos modelos de IA o para hacer inferencias sobre los descendientes de esos usuarios fallecidos. Todo el modelo de datos y consentimiento con IA supone que tanto el interesado como la empresa vivirán para siempre, afirma Öhman.

Nuestros datos son un bien candente. Los modelos de lenguaje de IA se entrenan raspando indiscriminadamente la web, y eso también incluye nuestros datos personales. Hace un par de años hice una prueba para ver si GPT-3, el predecesor del modelo de lenguaje que impulsa ChatGPT, tenía algo contra mí. Tuve problemas, pero descubrí que podía recuperar información personal sobre el editor en jefe de ., Mat Honan.

Leave a Reply

Your email address will not be published. Required fields are marked *