Apple abandona oficialmente el plan para escanear iCloud en busca de imágenes de abuso infantil

Apple abandona oficialmente el plan para escanear iCloud en busca de imágenes de abuso infantil

Imagen para el artículo titulado Apple cancela oficialmente sus planes para escanear fotos de iCloud en busca de material de abuso infantil

Foto: anton_ivanov (Shutterstock)

Apple ha matado oficialmente una de sus propuestas más controvertidas: un plan para escanear imágenes de iCloud en busca de signos de material de abuso sexual infantil (o MASI).

Sí, el verano pasado, Apple Anunciado que implementaría el escaneo en el dispositivo, una nueva función en iOS que usaba tecnología avanzada para filtrar silenciosamente las fotos de los usuarios individuales en busca de señales de material defectuoso. La nueva característica fue diseñado

de modo que, si el escáner encuentra evidencia de CSAM, alertaría a los técnicos humanos, quienes presumiblemente alertarían a la policía.

El plan inmediatamente inspiró una torrencial reacción de expertos en privacidad y seguridad, y los críticos argumentan que la función de escaneo podría en última instancia reutilizarse para buscar otros tipos de contenido. miIncluso tener tales capacidades de escaneo en iOS fue una pendiente resbaladiza hacia abusos de vigilancia más amplios, los críticos alegaron, y tEl consenso general fue que la herramienta CPodría convertirse rápidamente en una puerta trasera para la policía.

En ese momento, Apple luchó duramente contra estos criticaspero la compañía finalmente cedió y, no mucho después de que anunció inicialmente la nueva función, dijo que “posponer” implementación hasta una fecha posterior.

Ahora, parece que esa fecha nunca llegará. El miércoles, en medio de anuncios de un grupo de nuevas medidas de seguridad de iCloud caracteristicas, la compañía también reveló que no avanzaría con sus planes de escaneo en el dispositivo. En una oracion compartido con la revista Wired, Apple dejó claro que había decidido tomar un camino diferente:

Después de una extensa consulta con expertos para recopilar comentarios sobre las iniciativas de protección infantil que propusimos el año pasado, estamos profundizando nuestra inversión en la función Seguridad de la comunicación que pusimos a disposición por primera vez en diciembre de 2021. Además, hemos decidido no seguir adelante con nuestra detección de MASI propuesta anteriormente. herramienta para Fotos de iCloud. Los niños pueden estar protegidos sin que las empresas revisen los datos personales, y continuaremos trabajando con los gobiernos, los defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer de Internet un lugar más seguro para los niños y para todos nosotros. .

Los planes de Apple parecían bien intencionados. La proliferación digital de CSAM es un problema importante—y los expertos dicen que solo ha empeorado en los últimos años. Obviamente, un esfuerzo para resolver este problema fue algo bueno Dicho esto, la tecnología subyacente Apple sugirió usar, y los peligros de vigilancia que planteaba, parece que simplemente no era la herramienta adecuada para el trabajo.

Leave a Reply

Your email address will not be published. Required fields are marked *