WhatsApp dice que no escaneará sus fotos en busca de abuso infantil

Imagen del artículo titulado WhatsApp dice que no escaneará sus fotos en busca de abuso infantil

Foto: Carl Court / Personal (imágenes falsas)

La nueva herramienta de Apple para descubrir potencial abuso infantil en fotos de iPhone ya está provocando controversia. El viernes, solo un día después de su anuncio, Will Cathcart, director de la aplicación de mensajería de Facebook, WhatsApp, dijo que la compañía se negaría a adoptar el software con el argumento de que presentaba una serie de preocupaciones legales y de privacidad.

“Leí la información que Apple publicó ayer y estoy preocupado. Creo que este es el enfoque equivocado y un revés para la privacidad de las personas en todo el mundo ”, tuiteó Cathcart. “La gente ha preguntado si adoptaremos este sistema para WhatsApp. La respuesta es no.”

En una serie de tuits, Cathcart se refirió a esas preocupaciones, citando la capacidad de los gobiernos de las empresas de software espía para apropiarse del software y el potencial del software no autorizado para violar la privacidad.

“¿Puede este software de escaneo que se ejecuta en su teléfono ser a prueba de errores? A los investigadores no se les ha permitido averiguarlo ”, escribió. “¿Por que no? ¿Cómo sabremos con qué frecuencia los errores violan la privacidad de las personas? “

En su anuncio del software el jueves, Apple dijo que había programado la actualización para un lanzamiento a fines de 2021 como parte de una serie de cambios que la compañía planeaba implementar para proteger a los niños de los depredadores sexuales. Como Gizmodo previamente reportado, la herramienta propuesta, que utilizaría un “función de coincidencia neuronal”Llamado NeuralHash para determinar si las imágenes en el dispositivo de un usuario coinciden con las huellas dactilares de material conocido de abuso sexual infantil (CSAM), ya ha causado cierta consternación entre los expertos en seguridad.

En el Ago. 4 hilo de tweets, Matthew Green, profesor asociado en Instituto de Seguridad de la Información Johns Hopkins, advirtió que la herramienta eventualmente podría convertirse en un precursor de “agregar vigilancia a los sistemas de mensajería cifrada”.

“Varias personas me han confirmado de forma independiente que Apple lanzará mañana una herramienta del lado del cliente para el escaneo CSAM. Esta es una muy mala idea “, dijo Green. tuiteó. “Estas herramientas permitirán a Apple escanear las fotos de tu iPhone en busca de fotos que coincidan con un hash perceptual específico, e informarlas a los servidores de Apple si aparecen demasiadas”.

Pero según Apple, La caracterización de Cathcart del software como utilizado para “escanear” dispositivos no es exactamente exacta. Si bien el escaneo implica un resultado, dijo la compañía, el nuevo software simplemente estaría ejecutando una comparación de cualquier imagen que un usuario determinado elija cargar en iCloud usando la herramienta NeuralHash. Los resultados de ese escaneo estarían contenidos en un comprobante de seguridad criptográfico, esencialmente una bolsa de bits de datos interpretables en el dispositivo, y el contenido de ese comprobante tendría que enviarse para poder leerse. En otras palabras, Apple no recopilaría ningún dato de las bibliotecas de fotos de los usuarios individuales como resultado de tal escaneo, a menos que estuvieran acumulando tesoros de Material de Abuso Sexual Infantil (CSAM).

Según Apple, si bien existe la posibilidad de una lectura errónea, la tasa de usuarios enviados falsamente para una revisión manual sería menos de uno en 1 billones por año.

.

Leave a Reply

Your email address will not be published. Required fields are marked *