Los probadores de Roomba se sienten engañados después de que imágenes íntimas terminaron en Facebook

“Mucho de este lenguaje parece estar diseñado para eximir a la empresa de las leyes de privacidad aplicables, pero nada refleja la realidad de cómo funciona el producto”.

Y lo que es más, todas Los participantes de la prueba tuvieron que aceptar que sus datos podrían usarse para el aprendizaje automático y el entrenamiento de detección de objetos. Específicamente, la sección del acuerdo de prueba global sobre “uso de información de investigación” requería un reconocimiento de que “iRobot puede usar texto, video, imágenes o audio… para analizar estadísticas y datos de uso, diagnosticar problemas tecnológicos, mejorar el rendimiento del producto, el producto y presentan innovación, investigación de mercado, presentaciones comerciales y capacitación interna, incluido el aprendizaje automático y la detección de objetos”.

Lo que no se detalla aquí es que iRobot lleva a cabo el entrenamiento de aprendizaje automático a través de etiquetadores de datos humanos que enseñan los algoritmos, clic a clic, para reconocer los elementos individuales capturados en los datos sin procesar. En otras palabras, los acuerdos compartidos con nosotros nunca mencionan explícitamente que las imágenes personales serán vistas y analizadas por otros humanos.

Baussmann, portavoz de iRobot, dijo que el lenguaje que destacamos “cubre una variedad de escenarios de prueba” y no es específico de las imágenes enviadas para la anotación de datos. “Por ejemplo, a veces se les pide a los evaluadores que tomen fotos o videos del comportamiento de un robot, como cuando se atasca en un objeto determinado o no se acopla completamente, y envían esas fotos o videos a iRobot”, escribió, y agregó. que “para las pruebas en las que se capturarán imágenes con fines de anotación, existen términos específicos que se describen en el acuerdo correspondiente a esa prueba”.

También escribió que “no podemos estar seguros de que las personas con las que habló fueran parte del trabajo de desarrollo relacionado con su artículo”, aunque en particular no cuestionó la veracidad del acuerdo de prueba global, que en última instancia permite todas

probar los datos de los usuarios que se recopilarán y utilizarán para el aprendizaje automático.

Lo que los usuarios realmente entienden

Cuando les pedimos a los abogados y académicos de privacidad que revisaran los acuerdos de consentimiento y compartimos con ellos las preocupaciones de los usuarios de prueba, vieron los documentos y las violaciones de privacidad que siguieron como un emblema de un marco de consentimiento roto que nos afecta a todos, ya sea que seamos probadores beta o consumidores habituales.

Los expertos dicen que las empresas son muy conscientes de que las personas rara vez leen las políticas de privacidad con atención, si es que las leemos. Pero lo que atestigua el acuerdo de prueba global de iRobot, dice Ben Winters, un abogado del Centro de Información de Privacidad Electrónica que se enfoca en IA y derechos humanos, es que “incluso si lo lee, todavía no obtiene claridad”.

Más bien, “mucho de este lenguaje parece estar diseñado para eximir a la empresa de las leyes de privacidad aplicables, pero nada refleja la realidad de cómo funciona el producto”, dice Cahn, señalando la movilidad de las aspiradoras robóticas y la imposibilidad de controlar donde las personas u objetos potencialmente sensibles, en particular los niños, estén en todo momento en su propia casa.

En definitiva, ese “lugar[s] gran parte de la responsabilidad… recae sobre el usuario final”, señala Jessica Vitak, científica de la información de la Facultad de Estudios de la Información de la Universidad de Maryland, que estudia las mejores prácticas en políticas de investigación y consentimiento. Sin embargo, no les da una explicación real de “cómo podrían salir mal las cosas”, dice, “lo que sería información muy valiosa al decidir si participar”.

Leave a Reply

Your email address will not be published. Required fields are marked *