Se suponía que la IA mejoraría las cámaras corporales de la policía. ¿Qué pasó?

Se suponía que la IA mejoraría las cámaras corporales de la policía.  ¿Qué pasó?

Tassone afirma que Truleo, que llegará al mercado en 2021, puede identificar eventos como un oficial cacheando a alguien o leyendo los derechos Miranda a un sospechoso, y calcular una puntuación de profesionalismo. El software no elimina la revisión humana, afirma; lo aumenta. Los jefes o supervisores de policía configuran listas de palabras clave o eventos, reciben correos electrónicos y notificaciones cuando el sistema detecta estos factores desencadenantes y luego revisan las imágenes. La tecnología de Truleo está instalada en los servidores del departamento, por lo que los datos permanecen secuestrados.

En los propios estudios de la empresa, afirma Tassone, los agentes supervisados ​​por Truleo siempre obtienen mejores puntuaciones que el grupo de control; un estudio de un cliente, el departamento de policía de Alameda, California, encontró una reducción del 36% en el uso de la fuerza

. Aún no se han completado análisis de Truleo por parte de terceros; investigadores en la organización sin fines de lucro RTI Actualmente están estudiando su análisis de las imágenes de las cámaras corporales de los oficiales de libertad condicional y libertad condicional del estado de Georgia, pero no se esperan resultados pronto. Secure Justice, una organización sin fines de lucro con sede en Oakland, California, que se enfoca en tecnología policial y abusos de poder, consideró brevemente impulsar un proyecto de ley para exigir el uso de Truleo en todo el estado, pero el director ejecutivo Brian Hofer dice que el grupo no había “hecho lo suficiente”. La debida diligencia en esta etapa para sentirse cómodo haciendo un movimiento agresivo como ese” y puede revisar la idea en 2025.

“Simplemente abre el marco de vigilancia de las fuerzas del orden de una manera con la que nunca antes habíamos tenido que lidiar”.

Beryl Lipton, investigadora de investigación, Electronic Frontier Foundation

Aún así, Hofer sospecha que la tecnología funciona. De hecho, esa misma eficacia puede ser una de las razones por las que no ha sido bienvenida universalmente: ha estallado el drama dentro de dos departamentos de policía que utilizaron y luego abandonaron Truleo. En Vallejo, California, Oficiales y dirigentes sindicales de la policía se opusieron a la introducción de la tecnología., con su potencial para revelar comportamientos desagradables, y lo culpó de imprecisiones y violaciones laborales. La controversia ayudó a acelerar la salida del jefe reformista del departamento, Shawny Williams, en julio pasado. En Seattle, donde el departamento de policía también canceló su contrato con Truleo en medio de objeciones sindicales, un oficial fue captado en imágenes de una cámara corporal el otoño pasado. burlándose de la muerte de una mujer

; Truleo había señalado el incidente.

Sin embargo, los agentes de policía no son los únicos con motivos para cuestionar esta tecnología. El uso cada vez mayor de programas de conversión de cámaras corporales a texto, junto con el mayor uso de cámaras y drones, normaliza aún más la vigilancia por parte de las fuerzas del orden, agregando más interacciones cotidianas a una base de datos indexable y con capacidad de búsqueda. Jennifer Lee, exgerente del proyecto de tecnología y libertad de la ACLU de Washington, dijo en un comunicado que “el potencial de utilizar la tecnología de IA para fines distintos de la rendición de cuentas plantea cuestiones importantes que deben abordarse”.

“Simplemente abre el marco de vigilancia de las fuerzas del orden de una manera con la que antes no habíamos tenido que lidiar tanto pero que cada vez más tenemos que lidiar constantemente”, dice Beryl Lipton, investigadora de la Electronic Frontier Foundation, una organización sin fines de lucro. grupo de derechos digitales. La grabación, transcripción y catalogación de lo que alguien dice en la calle en público durante las interacciones con la policía levanta una señal de alerta, dice. También señala preocupaciones sobre el sesgo y la inexactitud en la tecnología misma que surgió. cuando las llamadas telefónicas de los prisioneros se grabaron, analizaron y luego se pudieron buscar a través de IA.

Es difícil abordar completamente estas preocupaciones porque, como ocurre con muchos sistemas de inteligencia artificial, la forma exacta en que funcionan estos sistemas de cámara corporal a texto sigue siendo opaca, y lo es aún más cuando los externos no pueden saber qué términos están buscando los departamentos de policía. Además, la importancia de sus hallazgos depende del contexto, dice Rob Voigt, investigador y experto en lingüística de la Universidad Northwestern, coautor de un estudio de 2017. papel que utilizó imágenes de cámaras corporales para medir las disparidades raciales en las actitudes de la policía hacia las minorías.

Leave a Reply

Your email address will not be published. Required fields are marked *