La policía utiliza software de inteligencia artificial para redactar informes policiales
Los departamentos de policía suelen ser algunos de los primeros en adoptar nuevos productos de la industria tecnológica, como drones, reconocimiento facial, software predictivo y, ahora, inteligencia artificial. Después de haber adoptado programas de transcripción de audio con IA, algunos departamentos ahora están probando una herramienta nueva y más completa: un software que aprovecha una tecnología similar a ChatGPT para generar automáticamente informes policiales. Según un informe del 26 de agosto de Prensa AsociadaMuchos oficiales ya están “entusiasmados” con la herramienta de inteligencia artificial generativa que pretende ahorrar entre 30 y 45 minutos del trabajo rutinario de oficina.
Anunciado inicialmente En abril, Axon anunció que Draft One sería el “último gran salto hacia [the] El objetivo de Moonshot es reducir las muertes relacionadas con armas de fuego entre la policía y el público”. La compañía, más conocida por sus pistolas Taser y las líneas de cámaras corporales más populares para las fuerzas del orden, afirma que sus pruebas iniciales redujeron una hora de papeleo por día para los usuarios.
“Cuando los oficiales pueden pasar más tiempo conectándose con la comunidad y cuidándose a sí mismos tanto física como mentalmente, pueden tomar mejores decisiones que conducen a resultados de desescalada más exitosos”, dijo Axon en su presentación.
La empresa declaró en ese momento que Draft One está construido con Plataforma Azure OpenAI de Microsofty transcribe automáticamente el audio de la cámara corporal de la policía antes de “aprovechar la IA para crear un borrador de narrativa rápidamente”. Los informes se “redactan estrictamente a partir de la transcripción de audio” siguiendo el “modelo subyacente de Draft One… para evitar especulaciones o adornos”. Después de agregar información clave adicional, los oficiales deben aprobar la precisión de un informe antes de que se someta a otra ronda de revisión humana. Cada informe también se marca si la IA participó en su redacción.
[Related: ChatGPT has been generating bizarre nonsense (more than usual).]
Hablando con AP El lunes, el gerente de productos de IA de Axon, Noah Spitzer-Williams, afirmó que Draft One utiliza la “misma tecnología subyacente que ChatGPT”. Diseñado por OpenAI, el modelo de lenguaje generativo de base de ChatGPT ha sido criticado con frecuencia por su tendencia a proporcionar información engañosa o falsa en sus respuestas. Sin embargo, Spitzer-Williams compara las capacidades de Axon con tener “acceso a más perillas y diales” de los que están disponibles para los usuarios ocasionales de ChatGPT. Ajustar su “dial de creatividad” supuestamente ayuda a Draft One a mantener sus informes policiales veraces y evitar los problemas de alucinaciones constantes de la IA generativa.
El alcance del Draft One actualmente parece variar según el departamento. El capitán de policía de Oklahoma City, Jason Bussert, afirmó que su departamento de 1.170 oficiales actualmente solo utiliza el Draft One para “informes de incidentes menores” que no involucran arrestos. Pero en Lafayette, Indiana, AP Según los informes, la policía que atiende a los casi 71.000 residentes de la ciudad tiene vía libre para utilizar Draft One “en cualquier tipo de caso”. Mientras tanto, los profesores de la Universidad Purdue, vecina de Lafayette, sostienen que la IA generativa simplemente no es lo suficientemente fiable como para gestionar situaciones que pueden alterar la vida, como los enfrentamientos con la policía.
“Los grandes modelos de lenguaje que sustentan herramientas como ChatGPT no están diseñados para generar verdades, sino que encadenan oraciones que suenan plausibles basándose en algoritmos de predicción”, afirma Lindsay Weinberg, profesora clínica asociada de Purdue especializada en ética digital y tecnológica, en una declaración a Ciencia popular.
[Related: ChatGPT’s accuracy has gotten worse, study shows.]
Weinberg, quien se desempeña como director de la Laboratorio de justicia tecnológicatambién sostiene que “casi todas las herramientas algorítmicas que se puedan imaginar han demostrado una y otra vez que reproducen y amplifican formas existentes de injusticia racial”. Los expertos han documentado Muchos ejemplos de sesgos basados en la raza y el género en grandes modelos lingüísticos a lo largo de los años.
“El uso de herramientas que hagan más ‘fácil’ la generación de informes policiales en el contexto de un sistema legal que actualmente apoya y sanciona el encarcelamiento masivo de [marginalized populations] “Esto debería ser profundamente preocupante para quienes se preocupan por la privacidad, los derechos civiles y la justicia”, dice Weinberg.
En un correo electrónico a Ciencia popularUn representante de OpenAI sugirió que las consultas se dirigieran a Microsoft. Axon, Microsoft y el Departamento de Policía de Lafayette no respondieron a las solicitudes de comentarios al momento de escribir este artículo.