Tassone afirma que Truleo, que llegará al mercado en 2021, puede identificar eventos como un oficial cacheando a alguien o leyendo los derechos Miranda a un sospechoso, y calcular una puntuación de profesionalismo. El software no elimina la revisión humana, afirma; lo aumenta. Los jefes o supervisores de policía configuran listas de palabras clave o eventos, reciben correos electrónicos y notificaciones cuando el sistema detecta estos factores desencadenantes y luego revisan las imágenes. La tecnología de Truleo está instalada en los servidores del departamento, por lo que los datos permanecen secuestrados.
En los propios estudios de la empresa, afirma Tassone, los agentes supervisados por Truleo siempre obtienen mejores puntuaciones que el grupo de control; un estudio de un cliente, el departamento de policía de Alameda, California, encontró una reducción del 36% en el uso de la fuerza
“Simplemente abre el marco de vigilancia de las fuerzas del orden de una manera con la que nunca antes habíamos tenido que lidiar”.
Beryl Lipton, investigadora de investigación, Electronic Frontier Foundation
Aún así, Hofer sospecha que la tecnología funciona. De hecho, esa misma eficacia puede ser una de las razones por las que no ha sido bienvenida universalmente: ha estallado el drama dentro de dos departamentos de policía que utilizaron y luego abandonaron Truleo. En Vallejo, California, Oficiales y dirigentes sindicales de la policía se opusieron a la introducción de la tecnología., con su potencial para revelar comportamientos desagradables, y lo culpó de imprecisiones y violaciones laborales. La controversia ayudó a acelerar la salida del jefe reformista del departamento, Shawny Williams, en julio pasado. En Seattle, donde el departamento de policía también canceló su contrato con Truleo en medio de objeciones sindicales, un oficial fue captado en imágenes de una cámara corporal el otoño pasado. burlándose de la muerte de una mujer ; Truleo había señalado el incidente.
Sin embargo, los agentes de policía no son los únicos con motivos para cuestionar esta tecnología. El uso cada vez mayor de programas de conversión de cámaras corporales a texto, junto con el mayor uso de cámaras y drones, normaliza aún más la vigilancia por parte de las fuerzas del orden, agregando más interacciones cotidianas a una base de datos indexable y con capacidad de búsqueda. Jennifer Lee, exgerente del proyecto de tecnología y libertad de la ACLU de Washington, dijo en un comunicado que “el potencial de utilizar la tecnología de IA para fines distintos de la rendición de cuentas plantea cuestiones importantes que deben abordarse”.
“Simplemente abre el marco de vigilancia de las fuerzas del orden de una manera con la que antes no habíamos tenido que lidiar tanto pero que cada vez más tenemos que lidiar constantemente”, dice Beryl Lipton, investigadora de la Electronic Frontier Foundation, una organización sin fines de lucro. grupo de derechos digitales. La grabación, transcripción y catalogación de lo que alguien dice en la calle en público durante las interacciones con la policía levanta una señal de alerta, dice. También señala preocupaciones sobre el sesgo y la inexactitud en la tecnología misma que surgió. cuando las llamadas telefónicas de los prisioneros se grabaron, analizaron y luego se pudieron buscar a través de IA.
Es difícil abordar completamente estas preocupaciones porque, como ocurre con muchos sistemas de inteligencia artificial, la forma exacta en que funcionan estos sistemas de cámara corporal a texto sigue siendo opaca, y lo es aún más cuando los externos no pueden saber qué términos están buscando los departamentos de policía. Además, la importancia de sus hallazgos depende del contexto, dice Rob Voigt, investigador y experto en lingüística de la Universidad Northwestern, coautor de un estudio de 2017. papel que utilizó imágenes de cámaras corporales para medir las disparidades raciales en las actitudes de la policía hacia las minorías.