Distopía deepfake: la desinformación de Rusia en España e Italia

Distopía deepfake: la desinformación de Rusia en España e Italia

“No hay necesidad de morir en esta guerra. Les aconsejo que vivan”, entonó la voz solemne del presidente ucraniano Volodymyr Zelensky en una de las vídeos que se volvió viral en marzo de 2022, después de la invasión total de Ucrania por parte de Rusia.

Al vídeo de Zelensky le siguió otro en el que su homólogo ruso Vladimir Putin habló de una rendición pacífica. Aunque eran de baja calidad, se difundieron rápidamente, creando confusión y transmitiendo una narrativa distorsionada.

En el universo digital, donde los límites entre realidad y ficción son cada vez más borrosos, los deepfakes siguen desafiando nuestras pantallas. Desde el comienzo de la guerra entre Rusia y Ucrania, los deepfakes se han convertido en armas y se han infiltrado en todos los rincones de las redes sociales.

A pesar de las reacciones casi inmediatas y el descrédito que siguieron, su circulación ha sido más pronunciada en los países de habla no inglesa. Estas regiones están más expuestas a la desinformación debido a la falta de herramientas de desmentido, más avanzadas para el idioma inglés.

“Somos criaturas muy visuales; lo que vemos influye en lo que pensamos, percibimos y creemos”, argumenta Victor Madeira, periodista y experto en contrainteligencia y desinformación rusas. “Los deepfakes representan sólo la última arma diseñada para confundir, abrumar y, en última instancia, paralizar la toma de decisiones occidental y nuestra voluntad de reaccionar”.

Si bien el objetivo es socavar la confianza en la información, los medios y la democracia, faltan políticas proactivas para priorizar la protección de los usuarios. Sin embargo, el poder derivado de esta manipulación atrae a plataformas en línea, que no están legalmente obligadas a monitorear, detectar y eliminar deepfakes maliciosos.

“Como empresas, participan en una competencia masiva para expandirse a nuevos mercados, incluso cuando no cuentan con la infraestructura necesaria para proteger a los usuarios”, afirma Luca Nicotra, director de campaña de la ONG. avaazque se especializa en investigar la desinformación en línea.

“Existen varias redes de control de calidad que revisan anualmente a estos verificadores de datos, asegurando que sean terceros independientes que cumplan con estándares profesionales. Otra alternativa es monitorear las principales fuentes de información y desinformación en varios países con bases de datos como NewsGuard y el Índice Global de Desinformación. Puede resultar costoso”, afirma Nicotra. Las plataformas prefieren abaratar sus costes si disponer de estas herramientas no es fundamental.

Creación profunda

Los avances en la inteligencia artificial generativa han generado preocupación sobre la capacidad de la tecnología para crear y difundir desinformación a una escala sin precedentes.

“Se está llegando a un punto en el que a las personas les resulta difícil saber si la imagen que reciben en su teléfono es auténtica o no”, argumenta Cristian Vaccari, profesor de comunicación política en la Universidad de Loughborough y experto en desinformación.

El contenido producido inicialmente por unos pocos medios simples puede parecer de baja calidad pero, mediante las modificaciones necesarias, puede volverse creíble. Un ejemplo reciente involucra El presidente estadounidense La voz deepfake de Joe Biden instando a los ciudadanos a no votar.

De manera similar, el gobernador del banco central con más años de servicio en el mundo, Mugur Isarescu, fue el objetivo de un video ultrafake que mostraba al formulador de políticas promoviendo inversiones fraudulentas.

“Ya existen herramientas para producir deepfakes incluso con sólo un mensaje de texto”, advierte Jutta Jahnel, investigadora y experta en inteligencia artificial del Instituto Tecnológico de Karlsruhe. “Cualquiera puede crearlos; este es un fenómeno reciente. Es un riesgo sistémico complejo para la sociedad en su conjunto”. Un riesgo sistémico cuyos límites ya se han vuelto difíciles de delinear.

Según el último informe de la ONG Freedom House, al menos 47 gobiernos de todo el mundo (incluidos Francia, Brasil, Angola, Myanmar y Kirguistán) han utilizado a comentaristas progubernamentales para manipular debates en línea a su favor, el doble que hace una década. En cuanto al uso de la IA, “durante el año pasado, se ha utilizado en al menos 16 países para sembrar dudas, denigrar a los oponentes o influir en el debate público”.

(Foto: Casa de la libertad)

Según los expertos, la situación está empeorando y no es fácil identificar a los responsables en un ambiente saturado de desinformación provocada por la guerra.

“El conflicto entre Rusia y Ucrania está provocando una mayor polarización y motivación para contaminar el entorno informativo”, afirma Erika Magonara, experta de la agencia de ciberseguridad de la UE (ENISA).

A través del análisis de varios canales de Telegram, surgió que los perfiles involucrados en dicha difusión de contenidos tienen características específicas. “Existe una especie de círculo vicioso”, explica Vaccari, “las personas que tienen menos confianza en las noticias, las organizaciones informativas y las instituciones políticas se desilusionan y recurren a las redes sociales o a determinados círculos, siguiendo un enfoque de ‘haz tu propia investigación’ para contrarrestar la información. “. El problema no afecta sólo a los creadores sino también a los divulgadores.

Propaganda pro-Kremlin

“La desinformación en línea, especialmente durante los períodos electorales y vinculada a narrativas pro-Kremlin, sigue siendo una preocupación constante”, informa Freedom House en su sección dedicado a Italia. La misma tendencia se aplica a las últimas relacionado con España.

Desde el inicio de la guerra, Rusia ha trabajado en Facebook para difundir su propaganda a través de grupos y cuentas creadas al efecto. Un análisis de los distintos canales de Telegram que operan en Italia y España confirmó esta tendencia, revelando inclinaciones hacia ideologías de extrema derecha y sentimientos antisistema. Estos elementos han proporcionado un terreno fértil para la propaganda pro-Kremlin. Entre las narrativas más difundidas se encuentran las teorías que niegan la masacre de Bucha, afirman la existencia de biolaboratorios estadounidenses en Ucrania y promueven la desnazificación de Ucrania.

Una tendencia generalizada ha sido la creación de deepfakes para parodiar a los protagonistas políticos de la guerra, teniendo como principal consecuencia un daño personal difamatorio. Un estudio reciente realizado en Twitter por el Centro de Investigación Lero de la University College Cork confirmó este efecto. Afirmó que “los individuos tendían a pasar por alto o incluso alentar el daño causado por los deepfakes difamatorios cuando se dirigían contra rivales políticos”.

Abordar la realidad como si fuera un deepfake tiene consecuencias negativas en la percepción de la verdad. Refleja otro resultado de los deepfakes en un entorno de información ya manipulador: lo que los académicos llaman el ‘el dividendo del mentiroso’.

Otra tendencia identificada es la ausencia de desacreditación en Telegram. En la mañana del 16 de marzo de 2022, el primer deepfake político difundió desinformación en un contexto de conflicto, subrayando el impacto potencial de los deepfakes. Ese contenido alimentó creencias conspirativas y generó un escepticismo dañino. Este fenómeno ocurre con mayor frecuencia en ciertos países.

Desinformación en Italia y España

La falta de contramedidas adecuadas pone en peligro aún más un entorno digital asediado por los deepfakes. Es el caso de España e Italia, donde “hay el doble de situaciones de desinformación, pero los recursos son limitados para controlar este fenómeno”, sostiene Nicotra.

Un informe de 2020 destacó esta tendencia e indicó que los usuarios de habla italiana y española pueden estar más expuestos a la desinformación. “Las redes sociales detectan sólo la mitad de las publicaciones falsas porque tienen pocos incentivos para invertir en otros idiomas”. La mayor parte de la desacreditación es para el idioma inglés.

“En este momento, para cualquier empresa supone una desventaja competitiva dejar de ofrecer a los usuarios información errónea y contenidos polarizados”, argumenta Nicotra.

Telegram es una de las plataformas en este contexto. Además, de los 27 países de la UE, Italia y España son los que más lo utilizan para obtener información: 27 por ciento y 23 por ciento, respectivamente.

Los datos de desinformación rusos muestran una realidad preocupante que fomenta aún más la difusión de ciertas narrativas dentro de estas burbujas de información. Como explica Madeira, los Estados mediterráneos están siendo “blandos” con Rusia y son aún más indulgentes en cuestiones de seguridad. Ante esta falta de transparencia y control sobre la desinformación, la Unión Europea ha intentado intervenir impulsando diversas leyes sobre regulación de contenidos.

Lo que aún le queda por hacer a la UE

La Ley de IA, que fue ultimada recientemente por los colegisladores, es la primera ley de la UE que se centra en la inteligencia artificial.

Una de las medidas que incluye es el etiquetado de la desinformación para contrarrestar la efectividad y dificultar la generación de contenidos ilícitos. “Introduce obligaciones y requisitos graduados según el nivel de riesgo para limitar los impactos negativos sobre la salud, la seguridad y los derechos fundamentales”, explica el eurodiputado socialista Brando Benifei, que dirige los trabajos del Parlamento en este expediente.

Puede ser necesario persuadir a las redes sociales y otras plataformas para que prohíban contenidos específicos generados por inteligencia artificial antes de crearlos, en lugar de aplicar el etiquetado después, cree Benifei.

“Lo que está cambiando es el nivel de responsabilidad que las instituciones de la UE asignan cada vez más (y con razón) a las plataformas que amplifican este contenido, especialmente cuando el contenido es político”, dijo Benifei.

“Si aceptas deepfakes en tu plataforma, eres responsable de ese contenido. También eres responsable de los riesgos estructurales porque actúas como amplificador de esta desinformación”, argumenta Dragos Tudorache, eurodiputado liberal y coponente del expediente.

A pesar de la publicación de la Ley Europea de Servicios Digitales, que establece las bases para controlar la desinformación en las redes sociales, y la aprobación de la Ley de IA, “la IA ha convertido la desinformación en tendencia, facilitando la creación de contenidos falsos”, afirma Magonara de ENISA.

El deepfake representa una técnica de guerra diseñada para alimentar tipos de discurso y estereotipos compartidos. En un conflicto que no muestra signos de terminar, como sostiene Magonara, “el verdadero objetivo es la sociedad civil”.

La producción de esta investigación cuenta con el apoyo de una subvención del fondo IJ4EU

Leave a Reply

Your email address will not be published. Required fields are marked *