El año en que los deepfakes se generalizaron

En 2018, Sam Cole, reportero de Motherboard, descubierto un nuevo e inquietante rincón de Internet. Un usuario de Reddit con el nombre de “deepfakes” estaba publicando videos porno falsos no consensuales utilizando un algoritmo de inteligencia artificial para intercambiar las caras de las celebridades en porno real. Cole hizo sonar la alarma sobre el fenómeno, justo cuando la tecnología estaba a punto de explotar. Un año después, la pornografía deepfake se había extendido mucho más allá de Reddit, con aplicaciones de fácil acceso que podían “desnudar” la ropa de cualquier mujer fotografiada.

Desde entonces, los deepfakes han tenido una mala reputación, y con razón. los La gran mayoría de ellos todavía se utilizan para pornografía falsa.. Una periodista de investigación fue severamente acosado y temporalmente silenciado por

tal actividad, y más recientemente, una poeta y novelista estaba asustado y avergonzado. También existe el riesgo de que los deepfakes políticos generen fake news convincentes que podrían causar estragos en entornos políticos inestables.

Pero a medida que los algoritmos para manipular y sintetizar medios se han vuelto más poderosos, también han dado lugar a aplicaciones positivas, así como algunas que son humorísticas o mundanas. Aquí hay un resumen de algunos de nuestros favoritos en un orden cronológico aproximado, y por qué creemos que son una señal de lo que está por venir.

Protección de denunciantes

Izquierda:  una cuadrícula de fotos de Maxim tomadas desde muchos ángulos.  Derecha: una cuadrícula de fotos de su portada deepfake tomada desde muchos ángulos.

SUS MEDIOS

En junio, Bienvenidos a Chechyna, una película de investigación sobre la persecución de personas LGBTQ en la república rusa, se convirtió en el primer documental en utilizar deepfakes para proteger las identidades de sus sujetos. Los activistas que luchan contra la persecución, que fueron los protagonistas principales de la historia, vivieron escondidos para evitar ser torturados o asesinados. Después de explorar muchos métodos para ocultar sus identidades, el director David France decidió darles “versiones” falsas. Pidió a otros activistas LGBTQ de todo el mundo que prestaran sus rostros, que luego fueron injertados en los rostros de las personas en su película. La técnica permitió a Francia preservar la integridad de las expresiones faciales de sus sujetos y, por lo tanto, su dolor, miedo y humanidad. En total, la película protegió a 23 personas y fue pionera en una nueva forma de protección de los denunciantes.

Historia revisionista

Una pantalla dividida del actor Lewis D. Wheeler a la izquierda y Nixon deepfake a la derecha.

PANETTA Y BURGO

En julio, dos investigadores del ., Francesca Panetta y Halsey Burgund, lanzaron un proyecto para crear una historia alternativa del aterrizaje lunar del Apolo de 1969. Llamado En caso de desastre lunar, utiliza el discurso que el presidente Richard Nixon habría pronunciado si la trascendental ocasión no hubiera salido según lo planeado. Los investigadores se asociaron con dos compañías separadas para audio y video deepfake, y contrataron a un actor para que proporcionara la actuación “base”. Luego pasaron su voz y su rostro a través de los dos tipos de software, y los unieron en un Nixon final deepfake.

Si bien este proyecto demuestra cómo los deepfakes podrían crear poderosas historias alternativas, otro insinúa cómo los deepfakes podrían dar vida a la historia real. En febrero, la revista Time recreado La marcha de Martin Luther King Jr. en Washington por la realidad virtual para sumergir a los espectadores en la escena. El proyecto no utilizó tecnología deepfake, pero el gigante tecnológico chino Tencent lo citó más tarde en un documento técnico sobre sus planes para la inteligencia artificial, diciendo que los deepfakes podrían usarse para propósitos similares en el futuro.

Memes

A finales del verano, la memersfera puso sus manos en deepfakes fáciles de hacer y desató los resultados en el universo digital. Un meme viral en particular, llamado “Baka Mitai” (en la foto de arriba), surgió rápidamente cuando la gente aprendió a usar la tecnología para crear sus propias versiones. El algoritmo específico que impulsa la locura provino de un trabajo de investigación de 2019 que permite a un usuario animar una foto del rostro de una persona con un video del de otra persona. El efecto no es de alta calidad por ningún tramo de la imaginación, pero seguro que produce diversión de calidad. El fenómeno no es del todo sorprendente; juego y parodia han sido una fuerza impulsora en la popularización de deepfakes y otras herramientas de manipulación de medios. Es por eso que algunos expertos enfatizan la necesidad de barandillas para evitar que la sátira se convierta en abuso.

Anuncios deportivos

Leave a Reply

Your email address will not be published. Required fields are marked *