Bienvenido a la era de la incertidumbre – POLITICO


La tecnología "Deepfake" puede que ya haya desestabilizado la política nacional por primera vez.< /p>

Cuando Ali Bongo, el presidente de Gabón, apareció en video

para dar su tradicional discurso de Año Nuevo el año pasado, se veía saludable, pero algo sobre él estaba mal. Su brazo derecho estaba extrañamente inmóvil, y murmuró partes de su discurso. Algunas de sus expresiones faciales parecían extrañas.

Pudo haber sido enfermedad. Bongo, cuya familia ha gobernado la nación africana rica en petróleo durante 50 años, había sufrido un derrame cerebral en un viaje a Arabia Saudita tres meses antes y no se le había visto desde entonces. Había pasado por "un período difícil", dijo a los espectadores, pero se había recuperado gracias a "la gracia de Dios".

O podría haber sido otra cosa. Los periódicos nacionales aparecieron en los titulares sugiriendo que la aparición del presidente en el video podría haber sido producto de la tecnología deepfake, que utiliza inteligencia artificial para producir videos falsos convincentes que hacen que las personas parezcan hacer o decir cosas que nunca hicieron.

Especulación montado febrilmente, culminando una semana después en un intento de golpe de estado por parte de los militares. Los conspiradores se apoderaron de la emisora ​​estatal y se desplegaron a través de la capital, solo para ser sofocados en cuestión de horas por unidades leales de los militares.

"No se trata solo de hacer que la gente crea que algo falso es real. Pero para que les hagas creer que algo real es falso " – Lilian Edwards, profesora

Mucho se ha escrito sobre la posibilidad de que algún día las falsificaciones profundas se usen para agitar la política con desinformación. El ejemplo de Gabón indica que no es necesario tomar un video producido con habilidad para causar interrupciones. La existencia misma de la tecnología puede ser suficiente para inyectar incertidumbre en una situación ya volátil.

"No se trata solo de hacer que la gente crea que algo falso es real", dijo Lillian Edwards, profesora de derecho, innovación y sociedad de la Universidad de Newcastle. "Pero para que les hagas creer que algo real es falso".

Un año después, el debate sobre si ese fue el verdadero Bongo en el video sigue sin resolverse. "Es un desorden de información total", dijo Julie Owono, directora ejecutiva de la organización de derechos digitales con sede en París, Internet sin fronteras, que se asoció con la publicación estadounidense Mother Jones para analizar el metraje.

Los investigadores no encontraron evidencia de que el clip de la dirección de Bongo estuviera alterado, pero tampoco pudieron descartar definitivamente la posibilidad de que lo fuera. Y así, la especulación sobre la salud de Bongo ha continuado sin cesar.

El presidente de Gabón, Ali Bongo, en una ceremonia en Libreville, agosto de 2019 | Steve Jordan / AFP a través de Getty Images

"La gente incluso está considerando que alguien más podría hacerse pasar por el presidente, y podría estar ejerciendo el cargo más alto del país, lo que es francamente, muy aterrador", dijo Owono.

* * *

La tecnología Deepfake, como muchas innovaciones, comenzó con la pornografía.. A finales de 2017, un usuario llamado "u / deepfakes", una referencia a la técnica de aprendizaje automático en el centro de la mayoría de las IA de vanguardia de hoy, publicó un video en Reddit. El clip, tomado de una película porno, había sido alterado con software libre para superponer los rostros de celebridades femeninas en los cuerpos de actrices porno.

Informes de la "Porno falso asistido por IA"Se extendió rápidamente. Nuevo software, plataformas en línea e incluso mercados, donde creadores profesionales de deepfake ofrecieron sus servicios, aparecieron en todas partes de la web.

La tecnología todavía se utiliza de forma abrumadora para crear "pornografía falsa profunda no consensuada", según un estudio de octubre de 2019

por la empresa holandesa de ciberseguridad Deeptrace.

Pero a medida que proliferan las falsificaciones profundas, los expertos advierten que es probable que la tecnología se traspase a la corriente principal, donde podría usarse para manipular elecciones, desencadenar disturbios sociales o alimentar tensiones diplomáticas.

Nancy Pelosi fue víctima de un video falso en mayo de este año | Brendan Smialowski / AFP a través de Getty Images

En mayo, un video de la presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi, una de las opositoras más francas del presidente Donald Trump, se volvió viral. Se había ralentizado para hacer que el hombre de 79 años pareciera borracho. En noviembre de 2018, un ex portavoz de Trump publicó un video que se había acelerado para que pareciera que un reportero de CNN había presionado a un miembro de la Casa Blanca. El clip también tomó las redes sociales por asalto.

Ambos videos fueron ejemplos de las llamadas falsificaciones baratas, creadas con herramientas básicas de edición de video. Rápidamente desacreditados, sin embargo dominaron el ciclo mundial de noticias durante varios días.

A medida que la tecnología se vuelve más sofisticada, será más difícil exponer los deepfakes por lo que son. Uno de los mayores desafíos de luchar contra videos falsos es la dificultad de probar de manera concluyente si las imágenes han sido manipuladas.

Grupos de investigación desde California hasta Baviera, muchos de ellos con el apoyo de gobiernos o compañías tecnológicas, están tratando de vencer a los deepfakes en su propio juego, implementando la misma tecnología de aprendizaje automático utilizada para generarlos para entrenar sistemas de IA para detectarlos.

Pero ninguna de estas herramientas podrá detectar cada video falso o etiquetarlo como tal con total certeza, admiten los investigadores. Es probable que el concurso entre falsificadores y desacreditadores siga siendo un juego de gato y ratón, con creadores que trabajan para evadir la detección por parte de herramientas forenses, especialmente si se lanzan al público.

"Mientras más personas estén educadas sobre el advenimiento de las falsificaciones profundas, más podrán no creer en las grabaciones reales" – Danielle Citron, profesora

Detectar falsificaciones es solo la mitad de la batalla. La investigación sugiere que la cobertura de noticias de deepfakes, incluso si es para desacreditarlos, genera sospechas entre los espectadores. Muchos asumen que debe haber algo de verdad en el contenido.

Deepfakes también ha creado lo que la profesora de derecho estadounidense Danielle Citron describe como un "dividendo mentiroso": la dificultad para autenticar videos permite a los capturados por la cámara afirmar que el material fue fabricado.

Cuando apareció un video durante la campaña presidencial de 2016 en Estados Unidos, el entonces candidato Trump presumía sobre las mujeres que podía "agarrar … por el coño", admitió haber hecho los comentarios y se disculpó. Poco más de un año después, después de que la tecnología deepfake se hubiera vuelto más conocida, el New York Times informó Trump había cambiado de táctica para sugerir que el video no era auténtico.

"Mientras más personas estén educadas sobre el advenimiento de las falsificaciones profundas, más podrán no creer en las grabaciones reales", dijo Citron a los miembros del comité de inteligencia de la Cámara de Representantes de Estados Unidos. durante una audiencia de junio. "Lamentablemente y perversamente, el dividendo del mentiroso se fortalece a medida que las personas aprenden más sobre los peligros de las falsificaciones".

* * *

Más allá de la política, la incertidumbre introducida por deepfakes También se está preparando para ser un gran dolor de cabeza para los abogados.

En 2017, el fiscal jefe de la Corte Penal Internacional en La Haya fue elogiado por establecer un nuevo hito legal: el primero orden de arresto basado en videos publicados en las redes sociales.

Los investigadores habían encontrado varios videos que mostraban a un hombre, a quien identificaron como el comandante de las fuerzas especiales Mahmoud Mustafa Busayf Al-Werfalli, vestido con camuflaje y una camiseta negra con el logotipo de una unidad militar de élite libia, llevando a cabo una serie de ejecuciones horribles en o cerca de Benghazi, devastado por la guerra.

La orden de arresto, que acusó a Al-Werfalli de 33 asesinatos, fue anunciada como una señal de que la CPI había captado las realidades de una edad en la que 500 horas de video se suben a YouTube cada minuto.

Sin embargo, dos años más adelante, y los avances en tecnología de deepfake han hecho que la minería de código abierto y plataformas como Facebook, Twitter y YouTube recopilen evidencia y desarrollen casos mucho más riesgosos.

El presidente de los Estados Unidos, Donald Trump, rechazó la veracidad de un video real en el que hizo comentarios lascivos sobre las mujeres | Brendan Smialowski / AFP a través de Getty Images

"A todos nos ha sorprendido lo rápido que avanza la tecnología", dijo Alexa Koenig, directora ejecutiva del centro de derechos humanos de la Facultad de Derecho de la Universidad de California en Berkeley. "De repente, existe esta sensación entre las personas que han estado prestando atención al uso del video como evidencia de que necesitamos descubrir qué vamos a hacer para asegurarnos de que lo que presentamos en los tribunales es realmente lo que pretende ser."

Los expertos legales entrevistados por POLITICO dijeron que no están al tanto de ninguna instancia en la que un video falso haya aparecido como evidencia en un tribunal. "Es una curiosidad para la mayoría de los abogados en este momento, si es que han oído hablar de eso", dijo Edwards, un experto en gobernanza de internet de la Universidad de Newcastle.

Pero solo podría ser cuestión de tiempo, dijeron, antes de que los jueces del tribunal de familia, por ejemplo, tengan que decidir si confiar en las imágenes de una madre que bebe mientras cuida a su hijo.

Los expertos forenses digitales argumentan que, en general, los videos solo deben usarse en el tribunal si pueden coincidir con evidencia corroborante, como el testimonio de testigos o imágenes adicionales tomadas desde otros ángulos.

“Porque (Occidente) no es donde las cosas suceden primero. Solo suceden allí cuando es demasiado tarde, una vez que las cosas se han vuelto demasiado grandes para resolverlas " – Julie Owono, directora ejecutiva de Internet sin fronteras

"Si encontramos un video y muestra un incidente, falso o real, entonces buscaremos información adicional sobre ese incidente", dijo Eliot Higgins, fundador del grupo de periodismo de investigación Bellingcat, que ha capacitado a investigadores de la Internacional. Tribunal Penal en investigación de código abierto.

Para casos importantes, como los que se encuentran frente a la CPI, "no creo que ningún abogado en el mundo vaya a un caso en la corte con solo un video", dijo Higgins.

La incertidumbre que rodea al video de Ali Bongo podría ser el primer ejemplo de tecnología falsa, ya sea que se haya utilizado en Gabón o no, inyectando niveles peligrosos de incertidumbre en la política. Es poco probable que sea el último.

"Una gran lección que deberíamos sacar de lo que sucedió en Gabón es, realmente, prestar más atención a lo que está sucediendo fuera de las fronteras de Europa, o de los Estados Unidos, o del mundo occidental en general", dijo Owono de Internet sin fronteras.

“Porque (Occidente) no es donde las cosas suceden primero. Solo suceden allí cuando es demasiado tarde, una vez que las cosas se han vuelto demasiado grandes para resolverlas ".

Este artículo es parte de POLITICOCobertura de la política de tecnología premium: Tecnología Pro. Nuestro periodismo experto y nuestro conjunto de herramientas de inteligencia de políticas le permiten buscar, rastrear y comprender sin problemas los desarrollos y las partes interesadas que configuran la política tecnológica de la UE e impulsan las decisiones que afectan su industria. Email [email protected] con el código "TECH" para una prueba gratuita.



LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *