Apple dice que no permitirá que los gobiernos coopten las herramientas de detección de CSAM

Imagen de artículo titulado Apple dice que no permitirá que el gobierno convierta sus herramientas de detección de abuso infantil en un arma de vigilancia

Foto: GIUSEPPE CACACE / AFP (imágenes falsas)

Después de enfrentar muchas críticas, Apple se ha redoblado y ha defendido sus planes de lanzar nuevas herramientas controvertidas destinado a identificar y denunciar material de abuso sexual infantil (o MASI) en sus plataformas.

La semana pasada, la compañía anunció varias actualizaciones pendientes, destacándolas en una publicación de blog titulada “Protecciones ampliadas para niños. ” Estas nuevas funciones, que se implementarán a finales de este año con el lanzamiento de iOS 15 y iPadOS 15, están diseñadas para usar escaneo algorítmico. para buscar e identificar material de abuso infantil en los dispositivos de los usuarios. Una herramienta escaneará las fotos en el dispositivo que se han compartido con iCloud en busca de signos de CSAM, mientras que la otra función escaneará los iMessages enviados desde y hacia las cuentas de los niños en un esfuerzo por evitar que los menores compartan o reciban mensajes que incluyan imágenes sexualmente explícitas. Hicimos un análisis más detallado de ambas características y las preocupaciones sobre ellas. aquí.

La empresa apenas tuvo tiempo de anunciar sus planes antes de que se reuniera con un grito vociferante

de las organizaciones de libertades civiles, que han caracterizado los cambios propuestos como bien intencionados pero, en última instancia, como una pendiente deslizante hacia una peligrosa erosión de la privacidad personal.

El lunes, Apple publicó una respuesta a muchas de las preocupaciones que se han planteado. La compañía negó específicamente que sus herramientas de escaneo algún día puedan ser reutilizadas para buscar otros tipos de material en los teléfonos y computadoras de los usuarios que no sean CSAM. A los críticos les ha preocupado que un gobierno (el nuestro o el de otra persona) pueda presionar a Apple para que agregue o cambie las nuevas funciones, para convertirlas, por ejemplo, en una herramienta más amplia de aplicación de la ley.

Sin embargo, en el raro caso de que una corporación prometa en firme no hacer algo, Apple dijo definitivamente que no ampliaría el alcance de sus capacidades de escaneo. Según la empresa:

Apple rechazará tales demandas [from a government]. La capacidad de detección de CSAM de Apple está diseñada únicamente para detectar imágenes de CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil. Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro.

Durante una sesión de seguimiento de preguntas y respuestas con los periodistas el lunes, Apple aclaró además que las funciones solo se lanzarán en los EE. UU., A partir de ahora. Si bien se han planteado algunas preocupaciones sobre si un gobierno extranjero podría corromper o subvertir estas nuevas herramientas para emplearlas como una forma de vigilancia, Apple dijo el lunes que estaría realizando evaluaciones legales cuidadosamente país por país antes de publicar el herramientas en el extranjero, para garantizar que no haya posibilidad de abuso.

Es comprensible que todo esto haya confundido a mucha gente, y todavía hay dudas sobre cómo funcionarán realmente estas funciones y qué significa eso para la privacidad y la autonomía del dispositivo. Aquí hay un par de puntos que Apple ha aclarado recientemente:

  • Extrañamente, iCloud tiene que estar activado para que su función de detección de CSAM funcione realmente
    . Ha habido cierta confusión sobre este punto, pero esencialmente Apple solo está buscando contenido que se comparte con su sistema en la nube. Los críticos han señalado que esto parecería facilitar enormemente a los abusadores eludir la red informal que Apple ha creado, ya que todo lo que tendrían que hacer para ocultar el contenido de CSAM en su teléfono sería optar por salir de iCloud. Apple dijo el lunes que todavía cree que el sistema será efectivo.
  • Apple no está cargando una base de datos de pornografía infantil en su teléfono. Otro punto que la compañía se vio obligada a aclarar el lunes es que, de hecho, no descargará CSAM real en su dispositivo. En su lugar, utiliza una base de datos de “hashes”: huellas digitales de imágenes específicas y conocidas de abuso infantil, que se representan como código numérico. Ese código se cargará en el sistema operativo del teléfono, lo que permite que las imágenes cargadas en la nube se comparen automáticamente con los hash de la base de datos. Sin embargo, si no son iguales, Apple no se preocupa por ellos.
  • iCloud no solo escaneará nuevas fotos, sino que planea escanear todas las fotos que se encuentran actualmente en su sistema en la nube.. Además de escanear fotos que se cargarán en iCloud en el futuro, Apple también planea escanear todas las fotos almacenadas actualmente en sus servidores en la nube. Durante la llamada del lunes con los reporteros, Apple reiteró que ese era el caso.
  • Apple afirma que la actualización de iMessage no comparte ninguna información con Apple o con las fuerzas del orden. Según Apple, la función actualizada de iMessage no comparte su información personal con la empresa, ni alerta a las autoridades. En cambio, simplemente alerta a los padres si su hijo ha enviado o recibido una imagen por mensaje de texto que el algoritmo de Apple ha considerado de naturaleza sexual. “Apple nunca obtiene acceso a las comunicaciones como resultado de esta función en Mensajes. Esta función no comparte ninguna información con Apple, NCMEC o las fuerzas del orden ”, dijo la compañía. La función solo está disponible para cuentas que se han configurado como familias en iCloud, dice la compañía.

A pesar de las garantías, los defensores de la privacidad y los expertos en seguridad todavía no están muy impresionados, y algunos están más que un poco alarmados. En particular, el lunes, el conocido experto en seguridad Matthew Green planteó el siguiente escenario hipotético, que era lo suficientemente polémico como para inspirar un argumento menor de Twitter entre Edward Snowden y el exjefe de seguridad de Facebook Alex Stamos en la sección de respuesta:

Por lo tanto, basta con decir que mucha gente todavía tiene preguntas. Todos estamos en un territorio bastante desconocido y desordenado aquí. Si bien es imposible criticar el objetivo de la misión de Apple, el poder de la tecnología que está implementando ha causado alarma, por decir lo menos.

.

Leave a Reply

Your email address will not be published. Required fields are marked *