A medida que se difunden los videos de Deepfake, Blockchain se puede usar para detenerlos



En un momento en que el término "noticias falsas" se ha convertido en un nombre familiar gracias al uso repetido por el presidente Donald Trump, las falsificaciones profundas, es decir, videos aparentemente realistas que de hecho son manipulados, pueden agravar aún más el problema asociado con la desconfianza de los medios. Los tecnólogos están mirando la naturaleza inherente de blockchain como agregadores de confianza para devolver más confianza pública al sistema.

La verdad se está convirtiendo cada vez más en un término relativo. Cuando todos tienen su propia versión de la verdad, la democracia deja de tener sentido. El advenimiento de los deepfakes seguramente está empujando a la sociedad a un punto en el que los hechos se pueden fabricar de acuerdo con las opiniones y objetivos de uno, porque en solo unos años, a simple vista o al oído ya no será suficiente para decir si un video o clip de audio es genuino. La humanidad tiene un gran problema que resolver.

Reúna "aprendizaje profundo" y "falso" y obtendrá "deepfake", un trabajo de Photoshop sobre esteroides que utiliza la inteligencia artificial. Si el algoritmo de un deepfake tiene suficientes datos (o imágenes) de un sujeto existente, otra persona puede usar la tecnología para manipular el video y hacer que parezca que el sujeto está diciendo o haciendo casi cualquier cosa.

Implicaciones sociales de los deepfakes

Las falsificaciones profundas tienen el potencial de cambiar las opiniones públicas, sesgar los resultados electorales, desencadenar la violencia étnica o intensificar las situaciones que pueden conducir a la guerra. La propaganda y los ataques personales falsos no son nada nuevo, pero con las falsificaciones profundas, la contorsión estratégica de la información adquiere una dimensión diferente. Impulsados ​​por los rápidos avances en inteligencia artificial y la naturaleza viral de las redes sociales, las falsificaciones profundas podrían convertirse en una de las tecnologías más desestabilizadoras para perseguir a la humanidad.

Deepfakes puede cambiar el juego por dos razones. El primero es que representan el nivel de sofisticación que ahora se puede lograr a través de la IA. Pero la segunda razón más importante es que también representan una democratización del acceso a la tecnología.

Relacionado: Blockchain y AI Bond, explicados

Las implicaciones de los deepfakes ni siquiera tienen que ser sociales; Pueden ser personales también. Hay una cuenta anónima de Reddit que se hizo infame por crear videos falsos de celebridades asistidos por IA, que a menudo son pornográficos. Aunque el subreddit del creador era prohibido En febrero de 2018, sus videos permanecen en el dominio público.

Sin embargo, la popularidad de deepfakes ha generado varias otras personas en el mismo negocio. Las celebridades no son las únicas a las que se dirige. La disponibilidad generalizada y la facilidad de uso del software han hecho posible que cualquiera pueda generar un video de "porno de venganza".

Software dirigido

Desde entonces, han surgido varias startups que trabajan para resolver el problema de la falsificación profunda, siendo Ambervideo.co una de las firmas más destacadas. En medio de la amenaza de videos falsos que deslegitiman las grabaciones genuinas, Amber está construyendo una capa intermedia para detectar alteraciones maliciosas y ha desarrollado tecnología de detección y autenticación.

Para la detección, Amber tiene un software que analiza las pistas de video y audio, así como los aspectos dentro de ellas en busca de signos de posibles modificaciones. Amber está entrenando a su IA para detectar los patrones específicos que inevitablemente se dejan atrás mientras se modifica un video.

El problema con este método es que es estrictamente reactivo, ya que la IA solo aprende de patrones pasados. Los nuevos algoritmos de deepfake pasarán prácticamente desapercibidos por este enfoque retroactivo, por lo que se considera que los métodos de detección van a la zaga de los métodos de creación más avanzados.

Aquí es donde entra en juego la tecnología de autenticación de Amber: las huellas digitales criptográficas se imprimen en el video tan pronto como se graba. Amber Authenticate utiliza la infraestructura de blockchain para almacenar hashes cada 30 segundos, y por lo tanto, cualquier alteración de estos hash puede indicar una posible manipulación.

Además de las soluciones de software como Amber, también hay una necesidad de soluciones basadas en hardware, y las compañías como Signed at Source lo están brindando a los interesados ​​la capacidad de integración con cámaras para firmar automáticamente los datos capturados. Es muy poco probable un video falso con la misma firma que la cámara de la víctima, lo que significa que uno puede probar qué video fue grabado por la cámara y cuál no.

Usos de la vida real

El 3 de octubre de 2019, Axon Enterprise Inc., un fabricante de tecnología para la aplicación de la ley de los EE. UU., Anunció que está explorando una nueva tecnología de seguimiento de datos para sus cámaras corporales y confiará en la tecnología blockchain para verificar la autenticidad de los videos de cámaras policiales.

Axon no es la única organización que ha estado trabajando en temas asociados con deepfakes. los Forense de medios El programa de la Agencia de Proyectos de Investigación Avanzada de Defensa, comúnmente conocido como DARPA, está desarrollando "tecnologías para la evaluación automatizada de la integridad de una imagen o video". Para ayudar a probar las alteraciones del video, Factom Protocol ha presentado una solución llamada Off-Blocks . En un correo electrónico a Cointelegraph, Greg Forst, director de marketing de Factom Protocol, dijo:

“En un momento de mayor escrutinio en torno a la veracidad de las noticias, el contenido y la documentación, el auge de la tecnología deepfake representa una amenaza significativa para nuestra sociedad. A medida que este fenómeno se vuelve más pronunciado y accesible, podríamos llegar a una situación en la que la autenticidad de una amplia gama de contenido de video será desafiada. Este es un desarrollo peligroso que desdibuja la línea en torno a la identidad digital, algo que debe mantenerse con las medidas de seguridad más rigurosas ".

Forst cree que también depende de los desarrolladores, los evangelistas de blockchain y los expertos en seguridad cibernética explorar diferentes vías para mitigar los riesgos derivados de las falsificaciones profundas. La prueba de autenticidad de los medios digitales es crucial para eliminar el contenido falsificado, aunque las soluciones actualmente son ineptas para proporcionar el seguimiento del historial y la procedencia de los medios digitales.

¿Blockchain es la solución?

Tomando el ejemplo de la cámara del cuerpo policial de Axiom, se graban los videos en la grabadora fuente. Estas huellas digitales están escritas en una cadena de bloques inmutable que puede descargarse del dispositivo y cargarse en la nube. Cada uno de estos eventos está escrito en un contrato inteligente que deja un rastro de auditoría.

La tecnología utilizada por Axiom se llama un "sistema de captura controlada" y tiene aplicaciones mucho más amplias que las cámaras de la policía. Extrae una firma de la fuente de contenido y la firma criptográficamente; a partir de entonces, la grabación es verificable.

Sin embargo, debido a la codificación de video, es poco probable que tenga los datos originales incluso en circunstancias ideales. Incluso si se realizó un cambio menor en el video, la firma ya no es válida. La codificación no es el único problema: si alguien vuelve a capturar el video usando otro dispositivo que no sea la cámara original, los datos originales del video serán inaccesibles.

La identificación de contenido de Google podría ser la solución a esto. Es un servicio que se desarrolló originalmente para descubrir violaciones de derechos de autor, pero que potencialmente se puede utilizar para detectar falsificaciones profundas. Después de gastar más $ 100 millones Al desarrollar sus sistemas, Google pudo crear un algoritmo que hace coincidir un video subido por el usuario con un conjunto de videos de referencia registrados, incluso si es solo una coincidencia parcial o algo modificada.

Esto solo funcionará si el deepfake es lo suficientemente similar al original. Además, mantener suficientes huellas digitales y ajustar el algoritmo para detectar dichos cambios tiene un impacto dramático en los requisitos de datos y cálculo. Hablando sobre cómo blockchain puede ser la solución para los deepfakes, Frost of Factom agregó:

“Cuando se trata de deepfakes, blockchain tiene el potencial de ofrecer una solución única. Con el contenido de video en la cadena de bloques desde la creación, junto con una etiqueta o gráfico de verificación, pone una barrera frente a los esfuerzos de deepfake. (…) Las identidades digitales deben subrayar los orígenes y el creador del contenido. Pudimos ver importantes industrias de noticias y cine que potencialmente buscan este tipo de solución, pero se vuelve muy complicado ya que los posibles manipuladores pueden registrarse como usuarios verificados e insertar un archivo falso en el sistema. Los datos incorrectos siguen siendo datos incorrectos, incluso si están en la cadena de bloques. Tiendo a pensar que se necesita una combinación de soluciones ".

A menudo, estas técnicas de detección no tendrán la oportunidad de funcionar, dada la capacidad de los clips virales de causar daños sin haber sido verificados. La reputación de una figura pública puede ser dañada sin posibilidad de reparación, las tensiones étnicas o raciales se intensifican o una relación personal se arruina antes de la verificación de los medios. Estos son algunos de los principales inconvenientes de la difusión rápida e incontrolada de información.

Todas las fuerzas se unen para luchar contra las falsificaciones

En una conversación con Cointelegrpah, Roopa Kumar, directora de operaciones de la firma de búsqueda de ejecutivos de tecnología Purple Quarter, cree que la tecnología no puede ser buena o mala:

“Tomemos un ejemplo de la energía nuclear. Se puede usar para alimentar los hogares de millones de personas. Cuando está en las manos equivocadas, incluso podría usarse para matar a millones. La tecnología por sí misma no tiene ningún código moral, pero los humanos sí. Deepfakes se puede utilizar para crear aplicaciones entretenidas que pronto podrán estar en sus teléfonos móviles. Pero las mismas aplicaciones pueden arruinar vidas y la estructura de la sociedad si son utilizadas por actores maliciosos ”.

La confianza en instituciones centralizadas establecidas como gobiernos y bancos es posiblemente bajo. La minimización de confianza es una propiedad clave de blockchain. Sin embargo, blockchain, o la tecnología en su conjunto, no puede asumir la responsabilidad exclusiva de luchar contra las falsificaciones profundas.

Muchas fuerzas tienen que unirse en este esfuerzo. Los creadores y desarrolladores que trabajan en tecnología deepfake tendrán que publicar sus códigos en línea de forma gratuita para que terceros puedan verificarlos. Los reguladores también deberían analizar cómo pueden supervisar este espacio. Lo que es más importante, depende de las masas estar bien informadas sobre dicha tecnología y recordar que toda la información consumida debe tomarse con un grano de sal.



LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *