Apple defiende su nueva tecnología contra el abuso infantil contra las preocupaciones de privacidad

Tras el anuncio de esta semana, algunos expertos creen que Apple pronto anunciará que iCloud estará encriptado. Si iCloud está encriptado, pero la compañía aún puede identificar material de abuso infantil, pasar pruebas a las fuerzas del orden y suspender al delincuente, eso puede aliviar parte de la presión política sobre los ejecutivos de Apple.

No aliviaría todos la presión: la mayoría de los mismos gobiernos que quieren que Apple haga más con el abuso infantil también quieren más acciones sobre el contenido relacionado con el terrorismo y otros delitos. Pero el abuso infantil es un problema real y considerable en el que las grandes empresas tecnológicas han fracasado en su mayoría hasta la fecha.

“El enfoque de Apple preserva la privacidad mejor que cualquier otro que yo conozca”, dice David Forsyth, presidente de ciencias de la computación en la Universidad de Illinois Urbana-Champaign, quien revisó el sistema de Apple. “En mi opinión, este sistema probablemente aumentará significativamente la probabilidad de que las personas que poseen o trafican en [CSAM] se encuentran; esto debería ayudar a proteger a los niños. Los usuarios inofensivos deben experimentar una pérdida mínima o nula de privacidad, porque los derivados visuales se revelan solo si hay suficientes coincidencias con imágenes CSAM, y solo para las imágenes que coinciden con imágenes CSAM conocidas. La precisión del sistema de coincidencia, combinada con el umbral, hace que sea muy poco probable que se revelen imágenes que no son imágenes CSAM conocidas “.

¿Qué pasa con WhatsApp?

Todas las grandes empresas de tecnología se enfrentan a la horrible realidad del material de abuso infantil en su plataforma. Ninguno lo ha abordado como Apple.

Al igual que iMessage, WhatsApp es una plataforma de mensajería cifrada de extremo a extremo con miles de millones de usuarios. Como cualquier plataforma de ese tamaño, enfrentan un gran problema de abuso.

“Leí la información que Apple publicó ayer y estoy preocupado”, dijo Will Cathcart, jefe de WhatsApp. tuiteó el viernes. “Creo que este es un enfoque equivocado y un revés para la privacidad de las personas en todo el mundo. La gente ha preguntado si adoptaremos este sistema para WhatsApp. La respuesta es no.”

WhatsApp incluye capacidades de reporte para que cualquier usuario pueda reportar contenido abusivo a WhatsApp. Si bien las capacidades están lejos de ser perfectas, WhatsApp reportó más de 400,000 casos al NCMEC el año pasado.

“Este es un sistema de vigilancia construido y operado por Apple que podría usarse muy fácilmente para escanear contenido privado en busca de cualquier cosa que ellos o un gobierno decidan que quieren controlar”, dijo Cathcart en sus tweets. “Los países donde se venden iPhones tendrán diferentes definiciones sobre lo que es aceptable. ¿Se utilizará este sistema en China? ¿Qué contenido considerarán ilegal allí y cómo lo sabremos? ¿Cómo gestionarán las solicitudes de los gobiernos de todo el mundo para agregar otros tipos de contenido a la lista para escanear? “

En su reunión informativa con los periodistas, Apple enfatizó que esta nueva tecnología de escaneo se estaba lanzando solo en los Estados Unidos hasta ahora. Pero la compañía continuó argumentando que tiene un historial de lucha por la privacidad y espera continuar haciéndolo. De esa manera, gran parte de esto se reduce a la confianza en Apple.

La compañía argumentó que los nuevos sistemas no se pueden apropiar indebidamente fácilmente por acción del gobierno, y enfatizó repetidamente que optar por no participar era tan fácil como desactivar la copia de seguridad de iCloud.

A pesar de ser una de las plataformas de mensajería más populares del mundo, iMessage ha sido criticado durante mucho tiempo por carecer del tipo de capacidades de informes que ahora son comunes en las redes sociales. Como resultado, Apple ha informado históricamente una pequeña fracción de los casos al NCMEC que hacen empresas como Facebook.

En lugar de adoptar esa solución, Apple ha creado algo completamente diferente, y los resultados finales son una pregunta abierta y preocupante para los halcones de la privacidad. Para otros, es un cambio radical bienvenido.

“La protección ampliada de Apple para los niños es un cambio de juego”, dijo John Clark, presidente del NCMEC, en un comunicado. “La realidad es que la privacidad y la protección infantil pueden coexistir”.

Altas estacas

Un optimista diría que habilitar el cifrado completo de las cuentas de iCloud sin dejar de detectar material de abuso infantil es tanto una victoria contra el abuso como la privacidad, y quizás incluso un movimiento político hábil que embota la retórica contra el cifrado de los funcionarios estadounidenses, europeos, indios y chinos.

Un realista se preocuparía por lo que vendrá después de los países más poderosos del mundo. Es una garantía virtual de que Apple recibirá, y probablemente ya haya recibido, llamadas de las capitales a medida que los funcionarios del gobierno comiencen a imaginar las posibilidades de vigilancia de esta tecnología de escaneo. La presión política es una cosa, la regulación y el control autoritario son otra. Pero esa amenaza no es nueva ni específica de este sistema. Como empresa con un historial de compromiso silencioso pero rentable con ChinaApple tiene mucho trabajo por hacer para persuadir a los usuarios de su capacidad para resistir a los gobiernos draconianos.

Todo lo anterior puede ser cierto. Lo que viene a continuación definirá en última instancia la nueva tecnología de Apple. Si los gobiernos utilizan esta función para ampliar la vigilancia, es evidente que la empresa no está cumpliendo sus promesas de privacidad.

.

Leave a Reply

Your email address will not be published. Required fields are marked *