Amnistía Internacional utiliza imágenes de IA de abusos contra los derechos humanos en Colombia

Amnistía Internacional, la principal organización mundial de derechos humanos, defiende su decisión de utilizar un Generador de imágenes de IA para representar las protestas y la brutalidad policial en Colombia. Amnistía le dijo a Gizmodo que usó un generador de inteligencia artificial para representar abusos contra los derechos humanos a fin de preservar el anonimato de los manifestantes vulnerables. Expertos miedo, sin embargo, que el uso de la tecnología podría socavar la credibilidad de los grupos de defensa que ya asediado por gobiernos autoritarios que elenco Duda sobre la autenticidad de lo real. imágenes.

Publicación de la cuenta regional de Noruega de Amnistía Internacional tres imágenes en un hilo de tweet durante el fin de semana reconociendo el segundo aniversario de una gran protesta en Colombia donde policia manifestantes brutalizados y cometió “graves violaciones a los derechos humanos,”, escribió la organización. Una imagen muestra una multitud de policías vestidos con armaduras, otras caracteristicas un oficial con una mancha roja en la cara. Otra imagen muestra un Manifestante siendo arrastrado violentamente por la policía. Las imágenes, cada una de las cuales presenta su propia elimine los artefactos reveladores de las imágenes generadas por IA

también tiene una pequeña nota en la esquina inferior izquierda que dice: “Ilustraciones producidas por inteligencia artificial.”

Los comentaristas reaccionaron negativamente a las imágenes, y muchos expresaron su inquietud por el uso de una tecnología por parte de Amensty con mayor frecuencia. asociado con arte extraño y memes representar abusos contra los derechos humanos. Amnistía respondió y le dijo a Gizmodo que optó por usar IA para representar los eventos “sin poner en peligro a nadie que estuviera presente”. Amnistía afirma que consultó con organizaciones asociadas en Colombia y finalmente decidió usar la tecnología como una alternativa para preservar la privacidad y no mostrar las caras reales de los manifestantes.

“Muchas personas que participaron en el Paro Nacional se cubrieron el rostro por temor a ser objeto de represión y estigmatización por parte de las fuerzas de seguridad del Estado”, un dijo el portavoz de Amnistía en un correo electrónico. “Aquellos que dieron la cara todavía están en riesgo y algunos están siendo criminalizados por las autoridades colombianas”.

Amnistía continuó diciendo que las imágenes generadas por IA eran un sustituto necesario para ilustrar el evento, ya que muchos de los abusos de los derechos de las personas supuestamente ocurrieron bajo la portada de la oscuridad despues de coloLas fuerzas de seguridad de mbian cortaron el acceso a la electricidad. El vocero dijo que la organización agregó el descargo de responsabilidad en la parte inferior de la imagen que señala que se crearon con IA en un intento de evitar engañar a alguien.

“Creemos que si Amnistía Internacional hubiera utilizado los rostros reales de quienes participaron en las protestas, los habría puesto en riesgo de represalias”, agregó el portavoz.

Los críticos dicen que los abusadores de derechos podrían usar imágenes de IA para desacreditar afirmaciones auténticas

Los expertos críticos en derechos humanos que hablaron con Gizmodo respondieron a Amnistía, alegando que el uso de la IA generativa podría sentar un precedente preocupante y socavar aún más la credibilidad de los defensores de los derechos humanos.. Sam Gregory, quien dirige TESTIGOuna red mundial de derechos humanos centrada en el uso de videos, dijo que las imágenes de AI de Amnistía hicieron más daño que bien.

“Hemos pasado los últimos cinco años hablando con cientos de activistas y periodistas y otros en todo el mundo que ya enfrentan la deslegitimación de sus imágenes y videos bajo afirmaciones de que son falsos”, dijo Gregory a Gizmodo. Cada vez más, dijo Gregory, los líderes autoritarios intentan enterrar una pieza de audio o video que representa una violación de los derechos humanos alegando de inmediato que es una falsificación profunda.

“Esto pone toda la presión sobre los periodistas y defensores de derechos humanos para que ‘demuestren la realidad’”, Greirrdijiste “Esto puede ocurrir antesvacía también, con gobiernos preparándolo para que si sale una pieza de material comprometedor, pueden afirmar que dijeron que iba a haber ‘imágenes falsas’.

Gregory reconoció la importancia de anonimizar a las personas representadas en los medios de derechos humanos, pero dijo que hay muchas otras formas de presentar los abusos de manera efectiva sin recurrir a generadores de imágenes de IA o “aprovechar los ciclos de exageración de los medios”. Estudioso de los medios y autor Roland Meyer estuvo de acuerdo y dijo que el uso de la IA por parte de Amnistía podría en realidad “devaluar” el trabajo realizado por reporteros y fotógrafos que han abusos documentados en Colombia.

Un precedente potencialmente peligroso

Amnistía le dijo a Gizmodo que no actualmente tienen políticas a favor o en contra del uso de imágenes generadas por IA, aunque un portavoz dijo que los líderes de la organización están consciente de la posibilidad de un mal uso y trate de usar la tecnología con moderación.

“Actualmente solo lo usamos cuando es en interés de proteger a los defensores de los derechos humanos”, dijo el vocero. “Amnistía Internacional es consciente del riesgo de desinformación si esta herramienta se utiliza de manera incorrecta”.

Gregory dijo que cualquier regla o política Amnesty implementa con respecto al uso de AI podría resultar significativo porque rápidamente podría sentar un precedente que otros seguirán.

“Es importante pensar en el papel de las grandes organizaciones mundiales de derechos humanos en términos de establecer estándares y usar herramientas de esta manera que no tengan daños colaterales para grupos locales más pequeños que enfrentan presiones mucho más extremas y son blanco repetido de sus gobiernos. para desacreditarlos, dijo Gregory.

Leave a Reply

Your email address will not be published. Required fields are marked *