Apple planea escanear iPhones estadounidenses en busca de imágenes de abuso infantil

Cinco iPhones en una mesa
Agrandar / La línea de iPhone 2020. De izquierda a derecha: iPhone 12 Pro Max, iPhone 12 Pro, iPhone 12, iPhone SE y iPhone 12 mini.

Apple tiene la intención de instalar software en los iPhones estadounidenses para buscar imágenes de abuso infantil, según personas informadas sobre sus planes, lo que genera alarma entre los investigadores de seguridad que advierten que podría abrir la puerta a la vigilancia de los dispositivos personales de millones de personas.

Apple detalló su sistema propuesto, conocido como “neuralMatch”, a algunos académicos estadounidenses a principios de esta semana, según dos investigadores de seguridad informados sobre la reunión virtual. Los planes podrían publicitarse más ampliamente esta semana, dijeron.

El sistema automatizado alertaría de manera proactiva a un equipo de revisores humanos si cree que se detectan imágenes ilegales, quienes luego se pondrán en contacto con las autoridades si se puede verificar el material. El esquema se implementará inicialmente solo en los EE. UU.

Apple se negó a comentar.

Las propuestas son el intento de Apple de encontrar un compromiso entre su propia promesa de proteger la privacidad de los clientes y las demandas continuas de los gobiernos, las agencias de aplicación de la ley y los defensores de la seguridad infantil para obtener más ayuda en las investigaciones penales, incluido el terrorismo y la pornografía infantil.

La tensión entre empresas de tecnología como Apple y Facebook, que han defendido su creciente uso del cifrado en sus productos y servicios, y la aplicación de la ley solo se ha intensificado desde que el fabricante del iPhone acudió a los tribunales con el FBI en 2016 por el acceso al iPhone de un sospechoso de terrorismo. tras un tiroteo en San Bernardino, California.

Los investigadores de seguridad, aunque apoyan los esfuerzos para combatir el abuso infantil, están preocupados porque Apple corre el riesgo de permitir que los gobiernos de todo el mundo busquen acceso a los datos personales de sus ciudadanos, potencialmente mucho más allá de su intención original.

“Es una idea absolutamente espantosa, porque conducirá a una vigilancia masiva distribuida de. . . nuestros teléfonos y computadoras portátiles ”, dijo Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge.

Aunque el sistema actualmente está capacitado para detectar el abuso sexual infantil, podría adaptarse para buscar cualquier otra imagen y texto específicos, por ejemplo, decapitaciones terroristas o carteles antigubernamentales en protestas, dicen los investigadores. El precedente de Apple también podría aumentar la presión sobre otras empresas tecnológicas para que utilicen técnicas similares.

“Esto romperá la presa; los gobiernos se lo exigirán a todos”, dijo Matthew Green, profesor de seguridad en la Universidad Johns Hopkins, quien se cree que es el primer investigador en publicar un tweet sobre el tema.

Alec Muffett, un investigador de seguridad y activista de privacidad que anteriormente trabajó en Facebook y Deliveroo, dijo que el movimiento de Apple fue “tectónico” y un “paso enorme y regresivo para la privacidad individual”.

“Apple está retrocediendo la privacidad para permitir 1984,” él dijo.

Los sistemas de almacenamiento de fotos basados ​​en la nube y los sitios de redes sociales ya escanean imágenes de abuso infantil, pero ese proceso se vuelve más complejo cuando se intenta acceder a los datos almacenados en un dispositivo personal.

El sistema de Apple es menos invasivo en el sentido de que la detección se realiza en el teléfono, y “solo si hay una coincidencia se envía una notificación a quienes realizan la búsqueda”, dijo Alan Woodward, profesor de seguridad informática en la Universidad de Surrey. “Este enfoque descentralizado es el mejor enfoque que podría adoptar si toma esta ruta”.

El algoritmo neuralMatch de Apple escaneará continuamente las fotos que están almacenadas en el iPhone de un usuario de EE. UU. Y que también se han subido a su sistema de respaldo iCloud. Las fotos de los usuarios, convertidas en una serie de números mediante un proceso conocido como “hash”, se compararán con las de una base de datos de imágenes conocidas de abuso sexual infantil.

El sistema ha sido capacitado en 200.000 imágenes de abuso sexual recopiladas por el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro de EE. UU.

Según personas informadas sobre los planes, cada foto cargada en iCloud en los EE. UU. Recibirá un “vale de seguridad” que indique si es sospechosa o no. Una vez que un cierto número de fotos se marcan como sospechosas, Apple permitirá que todas las fotos sospechosas sean descifradas y, si aparentemente son ilegales, transmitidas a las autoridades pertinentes.

© 2021 The Financial Times Ltd. Reservados todos los derechos No se debe redistribuir, copiar ni modificar de ninguna manera.

Leave a Reply

Your email address will not be published. Required fields are marked *