Apple retrasa los planes para implementar la detección de CSAM en iOS 15 después de una reacción violenta de privacidad – Heaven32

Apple ha retrasado los planes para implementar su tecnología de detección de abuso sexual infantil (CSAM) que caóticamente anunciado el mes pasado, citando comentarios de clientes y grupos de políticas.

Esa retroalimentación, si recuerda, ha ha sido en gran medida negativo. La Electronic Frontier Foundation dijo esta semana que había acumulado más de 25.000 firmas de consumidores. Además de eso, cerca de 100 grupos de políticas y derechos, incluida la Unión Estadounidense por las Libertades Civiles, también llamado

en Apple para abandonar los planes de implementar la tecnología.

En un comunicado el viernes por la mañana, Apple le dijo a Heaven32:

“El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material sobre abuso sexual infantil. Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica “.

La llamada tecnología NeuralHash de Apple está diseñada para identificar CSAM conocido en el dispositivo de un usuario sin tener que poseer la imagen o conocer el contenido de la imagen. Debido a que las fotos de un usuario almacenadas en iCloud están encriptadas para que incluso Apple no pueda acceder a los datos, NeuralHash en su lugar busca CSAM conocido en el dispositivo de un usuario, que Apple afirma que es más amigable con la privacidad

que el escaneo general actual que utilizan los proveedores de la nube.

Pero los expertos en seguridad y defensores de la privacidad han expresado su preocupación de que el sistema podría ser abusado por parte de actores con muchos recursos, como los gobiernos, para implicar a víctimas inocentes o para manipular el sistema para detectar otros materiales que los estados nacionales autoritarios encuentran objetables.

A las pocas semanas de anunciar la tecnología, los investigadores dijeron que podían crear “colisiones hash” utilizando NeuralHash, de manera efectiva. engañando al sistema en pensar que dos imágenes completamente diferentes eran iguales.

Se espera que iOS 15 salga más adelante en las próximas semanas.

Este informe se ha actualizado con más detalles sobre NeuralHash y, para aclarar, las fotos de iCloud están encriptadas pero no encriptadas de un extremo a otro.

Lee mas:

Leave a Reply

Your email address will not be published. Required fields are marked *