Deepfakes en la sala del tribunal: un panel judicial de EE. UU. debate nuevas reglas sobre evidencia de IA

Deepfakes en la sala del tribunal: un panel judicial de EE. UU. debate nuevas reglas sobre evidencia de IA
Una ilustración de un hombre con una nariz muy larga sosteniendo la balanza de la justicia.

El viernes, un panel judicial federal se reunió en Washington, DC, para discutir los desafíos de controlar las pruebas generadas por IA en los juicios judiciales, según un informe de reuters. La Conferencia Judicial de EE.UU. Comité Asesor sobre Normas de Pruebaun panel de ocho miembros responsable de redactar enmiendas relacionadas con la evidencia al Reglas federales de evidenciaescuchó a científicos informáticos y académicos hablar sobre los riesgos potenciales de que se utilice la IA para manipular imágenes y videos o crear deepfakes que podrían interrumpir un ensayo.

La reunión se desarrolló en medio esfuerzos más amplios por tribunales federales y estatales de todo el país para abordar el auge de los modelos de IA generativa (como los que impulsan ChatGPT de OpenAI o Stable Diffusion de Stability AI), que pueden entrenarse en grandes conjuntos de datos con el objetivo de producir texto, imágenes, audio o videos realistas. .

en lo publicado agenda de 358 páginas Para la reunión, el comité ofrece esta definición de deepfake y los problemas que los medios generados por IA pueden plantear en los juicios legales:

Un deepfake es una presentación audiovisual no auténtica preparada por programas de software que utilizan inteligencia artificial. Por supuesto, las fotos y los vídeos siempre han estado sujetos a falsificación, pero los avances en la IA hacen que los deepfakes sean mucho más difíciles de detectar. El software para crear deepfakes ya está disponible gratuitamente en línea y es bastante fácil de usar para cualquiera. A medida que la usabilidad del software y la aparente autenticidad de los videos sigan mejorando con el tiempo, será más difícil para los sistemas informáticos, y mucho menos para los jurados legos, distinguir lo real de lo falso.

Durante la audiencia de tres horas del viernes, el panel debatió la cuestión de si las reglas existentes, anteriores al surgimiento de la IA generativa, son suficientes para garantizar la confiabilidad y autenticidad de las pruebas presentadas ante el tribunal.

Algunos jueces del panel, como el juez de circuito estadounidense Richard Sullivan y la jueza de distrito estadounidense Valerie Caproni, habrían expresado escepticismo sobre la urgencia de la cuestión, señalando que hasta ahora ha habido pocos casos en los que se haya pedido a los jueces que excluyan pruebas generadas por IA.

“No estoy seguro de que esta sea la crisis que se ha descrito, y no estoy seguro de que los jueces no tengan ya las herramientas para abordarla”, dijo el juez Sullivan, citado por Reuters.

El año pasado, el presidente del Tribunal Supremo de los Estados Unidos, John Roberts admitido los beneficios potenciales de la IA para litigantes y jueces, al tiempo que enfatiza la necesidad de que el poder judicial considere sus usos adecuados en los litigios. El juez de distrito estadounidense Patrick Schiltz, presidente del comité de pruebas, dijo que determinar cómo puede reaccionar mejor el poder judicial ante la IA es una de las prioridades de Roberts.

En la reunión del viernes, el comité consideró varios cambios de reglas relacionados con los deepfakes. En el agenda Para la reunión, el juez de distrito estadounidense Paul Grimm y la abogada Maura Grossman propusieron modificar la regla federal. 901(b)(9) (ver página 5), ​​que implica autenticar o identificar evidencia. También recomendaron la adición de una nueva regla, 901(c), que podría decir:

901(c): Evidencia electrónica potencialmente fabricada o alterada. Si una parte que impugna la autenticidad de una prueba generada por computadora u otra prueba electrónica demuestra al tribunal que es más probable que sea fabricada o alterada total o parcialmente, la prueba es admisible sólo si el proponente demuestra que su valor probatorio supera su efecto perjudicial para la parte que impugna la prueba.

El panel acordó durante la reunión que esta propuesta para abordar las preocupaciones sobre los litigantes que cuestionan las pruebas como deepfakes no funcionó como está escrita y que será reelaborada antes de ser reconsiderada más adelante.

Otra propuesta de Andrea Roth, profesor de derecho de la Universidad de California, Berkeley, sugirió someter las pruebas generadas por máquinas a los mismos requisitos de confiabilidad que los testigos expertos. Sin embargo, el juez Schiltz advirtió que tal regla podría obstaculizar los procesamientos al permitir que los abogados defensores cuestionen cualquier evidencia digital sin establecer una razón para cuestionarla.

Por ahora, no se han realizado cambios definitivos en las reglas y el proceso continúa. Pero estamos siendo testigos de los primeros pasos de cómo el sistema de justicia estadounidense se adaptará a una clase completamente nueva de tecnología de generación de medios.

Dejando de lado los riesgos de las pruebas generadas por IA, la IA generativa ha provocado momentos embarazosos para los abogados en los tribunales durante los últimos dos años. En mayo de 2023, el abogado estadounidense Steven Schwartz, de la firma Levidow, Levidow, & Oberman, se disculpó ante un juez por utilizar ChatGPT para ayudar a redactar documentos judiciales que citaban de manera inexacta seis casos inexistentes, lo que generó serias dudas sobre la confiabilidad de la IA en la investigación legal. Además, en noviembre, un abogado de Michael Cohen citó tres casos falsos que fueron potencialmente influenciados por un asistente de IA fabulador.

Leave a Reply

Your email address will not be published. Required fields are marked *