Las herramientas de detección de abuso infantil de Apple amenazan la privacidad

Imagen del artículo titulado Los críticos dicen que Apple construyó una 'puerta trasera'  En su iPhone con sus nuevas herramientas de detección de abuso infantil

Foto: STR / AFP (imágenes falsas)

Los planes de Apple para implementar nuevas funciones dirigido a combatir el material de abuso sexual infantil (MASI) en sus plataformas ha causado una gran controversia.

Básicamente, la compañía está tratando de ser pionera en una solución a un problema que, en los últimos años, ha obstaculizado tanto a los funcionarios encargados de hacer cumplir la ley como a las empresas de tecnología: la gran crisis continua de la proliferación de CSAM en las principales plataformas de Internet. Tan recientemente como 2018, empresas de tecnología informaron la existencia de hasta 45 millones de fotos y videos que constituían material de abuso sexual infantil, un número terriblemente alto.

Sin embargo, si bien esta crisis es muy real, los críticos temen que las nuevas funciones de Apple, que implican el escaneo algorítmico de los dispositivos y mensajes de los usuarios, constituyan una violación de la privacidad y, lo que es más preocupante, algún día podrían reutilizarse para buscar diferentes tipos de material además del CSAM. . Tal cambio podría abrir la puerta a nuevas formas de vigilancia generalizada y servir como un potencial solución alternativa para comunicaciones cifradas

—Una de las últimas y mejores esperanzas de la privacidad.

Para comprender estas preocupaciones, debemos echar un vistazo rápido a los detalles de los cambios propuestos. Primero, la compañía lanzará una nueva herramienta para escanear fotos cargadas a iCloud desde dispositivos Apple en un esfuerzo por buscar señales de material de abuso sexual infantil. De acuerdo a un documento técnico publicado por Apple, la nueva función utiliza un “función de coincidencia neuronal, ”Llamado NeuralHash, para evaluar si las imágenes en el iPhone de un usuario coinciden con“ hashes ”conocidos o huellas digitales únicas de CSAM. Lo hace comparando las imágenes compartidas con iCloud con una gran base de datos de imágenes de CSAM que ha sido compilada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Si se descubren suficientes imágenes, los operadores humanos las marcan para su revisión, quienes luego alertan al NCMEC (quien presumiblemente avisar al FBI).

Algunas personas han expresado su preocupación de que sus teléfonos puedan contener imágenes de sus propios hijos en una bañera o corriendo desnudos por un rociador o algo así. Pero, según Apple, no tienes que preocuparte por eso. La empresa ha enfatizado que no “aprende nada sobre imágenes que no coinciden [those in] la base de datos conocida de CSAM ”, por lo que no se trata simplemente de hojear sus álbumes de fotos, mirar lo que quiera.

Mientras tanto, Apple también se lanzará una nueva función de iMessage diseñado para “advertir a los niños y a sus padres cuando [a child is] recibir o enviar fotos sexualmente explícitas “. Específicamente, la función está diseñada para advertir a los niños cuando están a punto de enviar o recibir una imagen que el algoritmo de la compañía ha considerado sexualmente explícito. El niño recibe una notificación, explicándole que está a punto de mirar una imagen sexual y asegurándole que está bien. no

para mirar la foto (la imagen entrante permanece borrosa hasta que el usuario da su consentimiento para verla). Si un niño menor de 13 años pasa rápidamente esa notificación para enviar o recibir la imagen, posteriormente se enviará una notificación a los padres del niño para alertarlos sobre el incidente.

Basta decir que las noticias de estas dos actualizaciones, que comenzarán a finales de este año con el lanzamiento de iOS 15 y iPadOS 15, no han sido recibidas con amabilidad por los defensores de las libertades civiles. Las preocupaciones pueden variar, pero en esencia, a los críticos les preocupa que el despliegue de una nueva tecnología tan poderosa presente una serie de peligros para la privacidad.

En términos de la actualización de iMessage, las preocupaciones se basan en cómo funciona el cifrado, la protección que se supone que debe proporcionar.rovide, y lo que el update hace básicamente para eludir esa protección. El cifrado protege el contenido del mensaje de un usuario codificándolo en firmas criptográficas ilegibles antes de que se envíe, esencialmente anulando el punto de interceptar el mensaje porque es ilegible. Sin embargo, debido a la forma en que está configurada la nueva función de Apple, las comunicaciones con las cuentas de los niños se escanearán para buscar material sexualmente explícito. antes de un mensaje está encriptado. Una vez más, esto no significa que Apple tenga rienda suelta para leer los mensajes de texto de un niño; solo está buscando lo que su algoritmo considera imágenes inapropiadas.

Sin embargo, el precedente establecido por tal cambio es potencialmente preocupante. En una oracion publicado el jueves, el Centro para la Democracia y la Tecnología apuntó a la actualización de iMessage, calificándola de erosión de la privacidad proporcionada por el cifrado de extremo a extremo de Apple: “El mecanismo que permitirá a Apple escanear imágenes en iMessages no es una alternativa a una puerta trasera, es una puerta trasera ”, dijo el Centro. “El escaneo del lado del cliente en un ‘extremo’ de la comunicación rompe la seguridad de la transmisión, e informar a un tercero (el padre) sobre el contenido de la comunicación socava su privacidad”.

El plan para escanear las cargas de iCloud también ha irritado a los defensores de la privacidad. Jennifer Granick, asesora de vigilancia y ciberseguridad del Proyecto de Discurso, Privacidad y Tecnología de la ACLU, le dijo a Gizmodo por correo electrónico que está preocupada por las posibles implicaciones de los escaneos de fotografías: “Por altruistas que sean sus motivos, Apple ha construido una infraestructura que podría subvertirse para una vigilancia generalizada de las conversaciones y la información que guardamos en nuestros teléfonos ”, dijo. “La capacidad de escaneo de CSAM podría reutilizarse para la censura o para la identificación y reporte de contenido que no es ilegal dependiendo de los hashes que la empresa decida o se vea obligada a incluir en la base de datos de coincidencias. Por esta y otras razones, también es susceptible de abuso por parte de autócratas en el extranjero, por funcionarios gubernamentales demasiado entusiastas en el país o incluso por la propia empresa “.

Incluso Edward Snowden intervino:

La preocupación aquí, obviamente, no es la misión de Apple de luchar contra el CSAM, son las herramientas que está utilizando para hacerlo, que los críticos temen que representen una pendiente resbaladiza. En un artículo publicado el jueves, Electronic Frontier Foundation, centrada en la privacidad, señaló que las capacidades de escaneo similares a las herramientas de Apple podrían eventualmente reutilizarse para hacer que sus algoritmos busquen otros tipos de imágenes o texto, lo que básicamente significaría una solución para las comunicaciones cifradas, una diseñada para controlar las interacciones privadas y contenido personal. Según la EFF:

Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido, o un ajuste de los indicadores de configuración para escanear, no solo las cuentas de los niños, sino de cualquier persona. Esa no es una pendiente resbaladiza; ese es un sistema completamente construido que solo espera que la presión externa haga el más mínimo cambio.

Tales preocupaciones se vuelven especialmente relevantes cuando se trata de la implementación de las funciones en otros países, con algunos críticos advirtiendo que las herramientas de Apple podrían ser abusadas y subvertidas por gobiernos extranjeros corruptos. En respuesta a estas preocupaciones, Apple confirmado a MacRumors el viernes que planea expandir las funciones país por país. Cuando considere la distribución en un país determinado, hará una evaluación legal de antemano, informó el medio.

En una llamada telefónica con Gizmodo El viernes, India McKinney, director de asuntos federales de EFF, planteó otra preocupación: el hecho de que ambas herramientas no sean auditables significa que es imposible verificar de forma independiente que estén funcionando de la manera en que se supone que deben hacerlo.

“No hay forma de que grupos externos como el nuestro o cualquier otra persona, investigadores, miren bajo el capó para ver qué tan bien está funcionando, si es exacto, si esto hace lo que se supone que debe hacer, cuántos falsos positivos hay, ” ella dijo. “Una vez que implementen este sistema y comiencen a usarlo en los teléfonos, ¿quién puede decir que no responderán a la presión del gobierno para comenzar a incluir otras cosas? cosas.” Relevantemente, en su artículo el jueves, EFF señaló que una de las tecnologías “originalmente desarrollada para escanear y codificar imágenes de abuso sexual infantil” fue rediseñada recientemente para crear una base de datos administrada por el Foro Global de Internet para Contrarrestar el Terrorismo (GIFCT), como la que ahora ayuda a las plataformas en línea a buscar a favor y moderar / prohibir el contenido “terrorista”, centrado en la violencia y el extremismo.

Debido a todas estas preocupaciones, un grupo de defensores de la privacidad y expertos en seguridad ha escrito una carta abierta a Apple, pidiéndole que reconsidere sus nuevas funciones. Hasta el domingo, la carta tenía más de 5,000 firmas.

Sin embargo, no está claro si algo de esto tendrá un impacto en los planes del gigante tecnológico. En un memorando interno de la empresa viernes filtrado, El vicepresidente de software de Apple, Sebastien Marineau-Mes, reconoció que “algunas personas tienen malentendidos y muchos están preocupados por las implicaciones” del nuevo lanzamiento, pero que la empresa “continuará explicando y detallando las funciones para que la gente entienda lo que” que hemos construido “. Mientras tanto, NMCEC envió una carta al personal de Apple internamente en el que se refirieron a los críticos del programa como “las voces chillonas de la minoría” y defendieron a Apple por sus esfuerzos.

.

Leave a Reply

Your email address will not be published. Required fields are marked *