Apple trabaja en una herramienta para buscar fotos de abuso infantil

Foto: Victoria Song / Gizmodo

Apple supuestamente está preparada para anunciar una nueva herramienta que ayudará a identificar el abuso infantil en las fotos del iPhone de un usuario. La herramienta supuestamente usaría un “función de coincidencia neuronal”Para detectar si las imágenes en el dispositivo de un usuario coinciden con las huellas dactilares de material conocido de abuso sexual infantil (CSAM). Si bien parece que Apple ha tomado en consideración la privacidad del usuario, también existe la preocupación de que la tecnología pueda abrir la puerta a un uso indebido no intencionado, particularmente cuando se trata de vigilancia.

La noticia llega a través del conocido experto en seguridad Matthew Green, profesor asociado de Instituto de Seguridad de la Información Johns Hopkins. Sin embargo, Apple aún no ha confirmado la noticia. Dicho esto, Green es una fuente creíble que escrito extensamente sobre los métodos de privacidad de Apple a lo largo de los años. En particular, ha trabajado con Apple en el pasado para parchear una falla de seguridad en iMessage.

“Varias personas me han confirmado de forma independiente que Apple lanzará mañana una herramienta del lado del cliente para el escaneo CSAM. Esta es una muy mala idea “, dijo Green. tuiteó en un hilo anoche. “Estas herramientas permitirán a Apple escanear las fotos de tu iPhone en busca de fotos que coincidan con un hash perceptual específico, e informarlas a los servidores de Apple si aparecen demasiadas”.

El quid del problema es que, si bien varias empresas de tecnología, incluida Apple, han agregado cifrado de extremo a extremo a sus servicios y productos, se ha opuesto por varios gobiernos. Si bien el cifrado de extremo a extremo es una ventaja para la privacidad del consumidor, el argumento es que también dificulta la aplicación de la ley en sus intentos de tomar medidas enérgicas contra contenido ilegal como la pornografía infantil. Según Green, un “compromiso” es utilizar estas tecnologías de escaneo en el “lado del cliente” o, en su teléfono, antes de que se envíen y cifren en la nube. Green también afirma que la versión de Apple no se usaría inicialmente en imágenes encriptadas, solo en la biblioteca de fotos de su iPhone Si y solo si tiene la copia de seguridad de iCloud habilitada. En otras palabras, solo escanearía fotos que ya están en los servidores de Apple. Sin embargo, Green también cuestiona por qué Apple haría el esfuerzo de diseñar este tipo de sistema si no tuviera planes eventuales para usarlo para contenido cifrado de extremo a extremo.

Nadie quiere ir al bate por la pornografía infantil, pero Green señala que esta tecnología, aunque tiene una intención noble, tiene consecuencias de gran alcance y puede ser potencialmente mal utilizada. Por ejemplo, las huellas digitales de CSAM son deliberadamente un poco vagas. Eso es porque si fueran demasiado exigentes, podría simplemente recortar, cambiar el tamaño o editar una imagen para evadir la detección. Sin embargo, también significa que los malos actores pueden hacer que las imágenes inofensivas “coincidan” con las problemáticas. Un ejemplo son los carteles de campañas políticas que los gobiernos autoritarios podrían etiquetar para reprimir a los activistas, etc.

La otra preocupación es que Apple está sentando un precedente, y una vez que esa puerta está abierta, es mucho más difícil cerrarla.

“Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), es seguro construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido ”, Green escribe. “Ese es el mensaje que están enviando a los gobiernos, a los servicios que compiten, a China, a ti”.

.

Heaven32: