Apple seguirá aclarando este lío de CSAM hasta que mejore la moral

Imagen del artículo titulado Apple seguirá aclarando este lío de CSAM hasta que mejore la moral

Foto: Mladen Antonov / AFP (imágenes falsas)

La semana pasada, Apple anunció nuevas herramientas para detectar y denunciar la pornografía infantil y materiales sexualmente explícitos. Es una misión noble y nadie va a oponerse a la captura de depredadores de niños. Dicho esto, el lanzamiento se ha convertido en una debacle de proporciones épicas.

La controversia se centra en dos funciones que Apple dice que implementará a finales de este año en iOS 15 y iPadOS 15. La primera implica el escaneo de fotos que se han compartido en iCloud en busca de materiales de abuso sexual infantil (CSAM). El segundo consiste en escanear los mensajes enviados desde y hacia las cuentas de los niños para evitar que compartan imágenes explícitas. (Si desea una inmersión más detallada sobre cómo funcionan estas funciones, puede leer más aquí.)

Tan pronto como se anunciaron estas dos funciones, los expertos en privacidad y seguridad dieron la alarma de que, por muy bien intencionadas que fueran, Apple estaba construyendo unapuerta ”que podría ser mal utilizada por la policía o los gobiernos y crear nuevos riesgos. Apple respondió con un extenso FAQ

. Miles de personas han firmado desde entonces una carta abierta pidiendo a Apple que detenga su trabajo en las funciones y reafirme su compromiso con el cifrado de extremo a extremo y la privacidad del usuario. Ayer, un Informe de Reuters afirmó que internamente, los empleados de Apple también están expresando su preocupación. En un intento por calmar los temores, la empresa también prometió que no permitiría a los gobiernos abusar de sus herramientas CSAM como arma de vigilancia. Hoy, Apple ha lanzado una vez más otro PDF titulado “Revisión del modelo de amenazas a la seguridad de las funciones de seguridad infantil de Apple”Con la esperanza de que una mayor aclaración pueda aclarar“ malentendidos ”sobre cómo funciona todo esto. (Spoiler: no lo hará).

Esta ha sido una pesadilla de relaciones públicas que no es característica de Apple. La compañía tiene lanzamientos de dispositivos hasta la ciencia, y sus eventos son siempre asuntos ingeniosos y bien producidos. Después de la reacción violenta, Apple ha admitido en silencio que tal vez no había pensado completamente en su estrategia de comunicación para dos herramientas complejas ytque tal vez todos estén confundidos porque anunció estas dos características simultáneamente, a pesar de que no funcionan de la misma forma. Desde entonces, lanzó una campaña agresiva para explicar por qué sus herramientas no representan una amenaza para la privacidad y la seguridad. Y todavía periodistas, expertos y grupos de defensa siguen confundidos. Demonios, incluso el jefe de software de Apple, Craig Federighi, parecía nervioso mientras intentaba desglosarlo todo por el periodico de Wall Street. (Y Federighi normalmente es un pepino genial cuando se trata de decirnos cómo todo “simplemente funciona”).

Parte de la confusión gira en torno a si Apple está escaneando su iPhone real para CSAM. Según Federighi, la respuesta es tanto si y no. El escaneo ocurre durante el proceso de carga de iCloud. Algo de eso sucede en su teléfono, algo de eso sucede en la nube. También ha habido preguntas sobre cómo Apple descubrió que las herramientas tienen una tasa de error de “uno en 1 billones “. Parece que la respuesta se reduce a matemáticas avanzadas. Con toda seriedad, Apple dice que hizo sus cálculos utilizando los parámetros más conservadores posibles, pero no responde a la pregunta original: ¿Por qué deberíamos confiar en ese número? Apple también fijó su umbral de informes en 30 imágenes coincidentes con CSAM, que se siente como un número arbitrario, y la empresa no tenía una respuesta de por qué es más allá del hecho de que los depredadores de niños supuestamente tienen un número mucho mayor de imágenes CSAM.

En una sesión informativa con periodistas hoy, Apple trató de dar más garantías de que sus herramientas simplemente han sido caracterizadas erróneamente. Por ejemplo, dijo que su base de datos de hash CSAM se crearía a partir de una intersección de hash proporcionados por dos o más organizaciones de seguridad infantil que operan en jurisdicciones soberanas separadas. O, básicamente, ningún gobierno proporcionará los valores hash. También dijo que no habría informes automatizados y que sabía que tendría que ampliar la cantidad de empleados en su equipo de revisión humana. Apple también dijo que mantendría una lista pública de hashes de raíz de todas las bases de datos CSAM cifradas que se envían en todos los sistemas operativos que admiten la función. Los auditores externos para cada versión de la base de datos son más que bienvenidos. Apple también declaró repetidamente que estas herramientas no están grabadas en piedra. Las cosas todavía están en proceso, aunque Apple objetó si se han realizado cambios desde que comenzó el alboroto.

Este es el epítome de perderse entre la maleza. Si da un paso atrás, todo este conflicto no se trata necesariamente de los aspectos prácticos de estas herramientas (aunque, sin duda, deberían examinarse enérgicamente en busca de debilidades). El conflicto es si estas herramientas deberían existir y si Apple debería ser tomado en serio cuando tantos expertos parecen alarmados. Lo sorprendente es cómo Apple pareció tropezar al asegurarles a todos que se les puede confiar esto.

Es demasiado pronto para decir qué lado prevalecerá, pero así es como va a caer todo: Los críticos no dejarán de señalar cómo Apple está creando una infraestructura de la que se puede abusar, y Apple no dejará de intentar convencernos a todos de que estas herramientas son seguras, privadas y precisas. Un lado martillará al otro para que se someta, o al menos hasta que estén demasiado cansados ​​para protestar más. El resto de nosotros permaneceremos completamente confundidos.

.

Leave a Reply

Your email address will not be published. Required fields are marked *