Apple explica cómo los iPhones escanean fotos en busca de imágenes de abuso sexual infantil

Toma de primer plano de desplazamiento de dedo femenino en la pantalla del teléfono inteligente en un entorno oscuro.

Poco después de los informes de hoy de que Apple comenzará a escanear iPhones en busca de imágenes de abuso infantil, la compañía confirmó su plan y proporcionó detalles en un comunicado de prensa y un resumen técnico.

“El método de Apple para detectar CSAM (material de abuso sexual infantil) conocido está diseñado teniendo en cuenta la privacidad del usuario”, dijo Apple anuncio

dicho. “En lugar de escanear imágenes en la nube, el sistema realiza una comparación en el dispositivo utilizando una base de datos de hashes de imágenes CSAM conocidas proporcionadas por el NCMEC (Centro Nacional para Niños Desaparecidos y Explotados) y otras organizaciones de seguridad infantil. Apple transforma aún más esta base de datos en un archivo ilegible conjunto de hash que se almacena de forma segura en los dispositivos de los usuarios “.

Apple proporcionó más detalles sobre el sistema de detección de CSAM en un resumen técnico y dijo que su sistema utiliza un umbral “establecido para proporcionar un nivel extremadamente alto de precisión y asegura menos de uno en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”.

Los cambios se implementarán “a finales de este año en actualizaciones para iOS 15, iPadOS 15, watchOS 8 y macOS Monterey”, dijo Apple. Apple también implementará un software que puede analizar imágenes en la aplicación Mensajes para un nuevo sistema que “advertirá a los niños y sus padres cuando reciban o envíen fotos sexualmente explícitas”.

Apple acusado de construir “infraestructura para la vigilancia”

A pesar de las garantías de Apple, los expertos en seguridad y defensores de la privacidad criticaron el plan.

“Apple está reemplazando su sistema de mensajería cifrada de extremo a extremo estándar de la industria con una infraestructura de vigilancia y censura, que será vulnerable al abuso y al alcance no solo en los EE. UU., Sino en todo el mundo”. dicho Greg Nojeim, codirector del Proyecto de Vigilancia y Seguridad del Centro para la Democracia y la Tecnología. “Apple debería abandonar estos cambios y restaurar la fe de sus usuarios en la seguridad e integridad de sus datos en los dispositivos y servicios de Apple”.

Durante años, Apple ha resistido la presión del gobierno de Estados Unidos para instalar una “puerta trasera” en sus sistemas de cifrado, diciendo que hacerlo socavaría la seguridad de todos los usuarios. Apple ha sido elogiada por los expertos en seguridad por esta postura. Pero con su plan para implementar software que realiza escaneos en el dispositivo y compartir resultados seleccionados con las autoridades, Apple está peligrosamente cerca de actuar como una herramienta para la vigilancia gubernamental, sugirió el profesor de criptografía de la Universidad Johns Hopkins, Matthew Green, en Twitter.

El escaneo del lado del cliente que Apple anunció hoy podría eventualmente “ser un ingrediente clave para agregar vigilancia a los sistemas de mensajería encriptada”, dijo. escribió. “La capacidad de agregar sistemas de escaneo como este a E2E [end-to-end encrypted] Los sistemas de mensajería han sido una de las principales preguntas de las fuerzas del orden en todo el mundo “.

Escaneo de mensajes e “intervención” de Siri

Además de escanear dispositivos en busca de imágenes que coincidan con la base de datos CSAM, Apple dijo que actualizará la aplicación Mensajes para “agregar nuevas herramientas para advertir a los niños y sus padres cuando reciban o envíen fotos sexualmente explícitas”.

“Messages utiliza el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita. La función está diseñada para que Apple no tenga acceso a los mensajes”, dijo Apple.

Cuando se marca una imagen en Mensajes, “la foto se verá borrosa y se advertirá al niño, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver esta foto”. El sistema permitirá a los padres recibir un mensaje si los niños ven una foto marcada, y “hay protecciones similares disponibles si un niño intenta enviar fotos sexualmente explícitas. Se advertirá al niño antes de que se envíe la foto y los padres pueden recibir un mensaje”. si el niño elige enviarlo “, dijo Apple.

Apple dijo que también actualizará Siri y Search para “brindar a padres e hijos información ampliada y ayuda si se encuentran en situaciones inseguras”. Los sistemas Siri y Search “intervendrán cuando los usuarios realicen búsquedas de consultas relacionadas con CSAM” y “explicarán a los usuarios que el interés en este tema es dañino y problemático, y proporcionarán recursos de socios para obtener ayuda con este problema”.

El Centro para la Democracia y la Tecnología calificó el escaneo de fotos en Mensajes como una “puerta trasera”, escribiendo:

El mecanismo que permitirá a Apple escanear imágenes en Mensajes no es una alternativa a una puerta trasera, es una puerta trasera. El escaneo del lado del cliente en un “extremo” de la comunicación rompe la seguridad de la transmisión e informar a un tercero (el padre) sobre el contenido de la comunicación socava su privacidad. Organizaciones alrededor la mundo han advertido contra el escaneo del lado del cliente porque podría usarse como una forma para que los gobiernos y las empresas controlen el contenido de las comunicaciones privadas.

Tecnología de Apple para analizar imágenes

El documento técnico de Apple sobre detección de CSAM incluye algunas promesas de privacidad en la introducción. “Apple no aprende nada sobre las imágenes que no coinciden con la base de datos CSAM conocida”, dice. “Apple no puede acceder a metadatos o derivados visuales para imágenes CSAM coincidentes hasta que se exceda un umbral de coincidencias para una cuenta de iCloud Photos”.

La tecnología hash de Apple se llama NeuralHash y “analiza una imagen y la convierte en un número único específico para esa imagen. Solo otra imagen que parezca casi idéntica puede producir el mismo número; por ejemplo, las imágenes que difieren en tamaño o calidad transcodificada seguirán tienen el mismo valor de NeuralHash “, escribió Apple.

Antes de que un iPhone u otro dispositivo Apple cargue una imagen en iCloud, el dispositivo crea un vale de seguridad criptográfico que codifica el resultado de la coincidencia. También encripta el NeuralHash de la imagen y un derivado visual. Este vale se carga en iCloud Photos junto con la imagen. ”

Utilizando el “umbral para compartir secretos”, el sistema de Apple asegura que el contenido de los vales de seguridad no pueda ser interpretado por Apple a menos que la cuenta de iCloud Photos cruce un umbral de contenido CSAM conocido “, dice el documento. “Sólo cuando se excede el umbral, la tecnología criptográfica permite a Apple interpretar el contenido de los vales de seguridad asociados con las imágenes CSAM coincidentes”.

Si bien notó la probabilidad 1 en 1 billón de un falso positivo, Apple dijo que también “revisa manualmente todos los informes hechos al NCMEC para garantizar la precisión de los informes”. Los usuarios pueden “presentar una apelación para que se restablezca su cuenta” si creen que su cuenta se marcó por error.

Dispositivos de usuario para almacenar la base de datos CSAM cegada

Los dispositivos de usuario almacenarán una “base de datos cegada” que le permite al dispositivo determinar cuándo una foto coincide con una imagen en la base de datos CSAM, explicó Apple:

Primero, Apple recibe los NeuralHashes correspondientes a CSAM conocido de las organizaciones de seguridad infantil mencionadas anteriormente. A continuación, estos NeuralHashes pasan por una serie de transformaciones que incluyen un paso de cegamiento final, impulsado por criptografía de curva elíptica. El cegamiento se realiza utilizando un secreto cegador del lado del servidor, conocido solo por Apple. Los hash CSAM ciegos se colocan en una tabla hash, donde la posición en la tabla hash es puramente una función del NeuralHash de la imagen CSAM. Esta base de datos cegada se almacena de forma segura en los dispositivos de los usuarios. Las propiedades de la criptografía de curva elíptica garantizan que ningún dispositivo pueda inferir nada sobre los hashes de la imagen CSAM subyacente a partir de la base de datos cegada.

Un iPhone u otro dispositivo analizará las fotos de los usuarios, calculará un NeuralHash y buscará “la entrada en la tabla de hash cegada”. El dispositivo “también utiliza el hash ciego que el sistema buscó para obtener una clave de cifrado derivada” y utiliza esa clave de cifrado “para cifrar los datos de carga útil asociados”.

Combinado con otros pasos, esto asegura que solo se descifren las imágenes que coincidan con la base de datos CSAM, Apple escribió:

Si el hash de la imagen del usuario coincide con la entrada en la lista de hash CSAM conocida, entonces el NeuralHash de la imagen del usuario se transforma exactamente en el hash cegado si pasó por la serie de transformaciones realizadas en el momento de la configuración de la base de datos. Según esta propiedad, el servidor podrá utilizar el encabezado criptográfico (derivado del NeuralHash) y, utilizando el secreto del lado del servidor, podrá calcular la clave de cifrado derivada y descifrar con éxito los datos de carga útil asociados.

Si la imagen del usuario no coincide, el paso anterior no conducirá a la clave de cifrado derivada correcta y el servidor no podrá descifrar los datos de carga útil asociados. Por tanto, el servidor no aprende nada sobre las imágenes que no coinciden.

El dispositivo no aprende sobre el resultado de la coincidencia porque eso requiere conocimiento del secreto cegador del lado del servidor.

Finalmente, el cliente carga la imagen en el servidor junto con el comprobante que contiene los datos de carga útil encriptados y el encabezado criptográfico.

Como se señaló anteriormente, puede leer el resumen técnico aquí. Apple también publicó un explicación más larga y detallada de la tecnología criptográfica de “intersección de conjuntos privados” que determina si una foto coincide con la base de datos CSAM sin revelar el resultado.

Leave a Reply

Your email address will not be published. Required fields are marked *