Las nuevas directrices del Reino Unido para jueces que utilizan chatbots de IA son un desastre

Las nuevas directrices del Reino Unido para jueces que utilizan chatbots de IA son un desastre

De manera lenta pero segura, el texto generado por modelos de lenguaje grande (LLM) de IA se está abriendo camino en nuestra vida cotidiana, incluyendo ahora decisiones legales. Nuevo guía publicada esta semana elaborado por la Oficina Judicial del Reino Unido proporciona a los jueces cierta claridad adicional sobre cuándo exactamente es aceptable o inaceptable confiar en estas herramientas. La guía del Reino Unido desaconseja a los jueces utilizar las herramientas para generar nuevos análisis. Sin embargo, permite resumir textos. Mientras tanto, un número cada vez mayor de abogados y acusados ​​en Estados Unidos se encuentran multado y sancionado por introducir descuidadamente la IA en sus prácticas legales.

[ Related: “Radio host sues ChatGPT developer over allegedly libelous claims” ]

La guía de IA de la Oficina Judicial es un conjunto de sugerencias y recomendaciones destinadas a ayudar a los jueces y sus secretarios a comprender la IA y sus límites a medida que la tecnología se vuelve más común. Estas directrices no son normas de derecho punibles sino más bien un “primer paso” en una serie de esfuerzos de la Oficina Judicial para aclarar cómo los jueces pueden interactuar con la tecnología.

En general, la nueva guía dice que los jueces pueden encontrar útiles las herramientas de inteligencia artificial como ChatGPT de OpenAI como herramienta de investigación que resume grandes cuerpos de texto o para tareas administrativas como ayudar a redactar correos electrónicos o memorandos. Al mismo tiempo, advirtió a los jueces contra el uso de herramientas para realizar investigaciones jurídicas que se basen en nueva información que no pueda verificarse de forma independiente. En cuanto a la formación de argumentos legales, la guía advierte que los chatbots públicos de IA simplemente “no producen análisis o razonamientos convincentes”. Los jueces pueden encontrar algunos beneficios al usar un chatbot de IA para desenterrar material que ya saben que es exacto (las notas orientativas), pero deben abstenerse de usar las herramientas para realizar nuevas investigaciones sobre temas que no pueden verificar por sí mismos. Parece que la guía asigna al usuario la responsabilidad de distinguir la realidad de la ficción en los resultados del LLM.

“Ellos [AI tools] “Puede verse mejor como una forma de obtener una confirmación no definitiva de algo, en lugar de proporcionar hechos inmediatamente correctos”, dice la guía.

La guía continúa advirtiendo a los jueces que las herramientas de inteligencia artificial pueden generar información inexacta, incompleta o sesgada, incluso si reciben indicaciones muy detalladas o escrupulosas. Estas extrañas fabricaciones de IA generalmente se denominan “alucinaciones.” De manera similar, se desaconseja a los jueces ingresar cualquier “información privada o confidencial” en el servicio porque varias de ellas son “de naturaleza abierta”.

“Cualquier información que ingrese en un chatbot público de IA debe considerarse publicada en todo el mundo”, dice la guía.

Dado que la información que se genera a partir de una solicitud es “no definitiva” y potencialmente inexacta, mientras que la información ingresada en el LLM no debe incluir información “privada” que sea potencialmente clave para una revisión completa de, digamos, el texto de una demanda, no es queda bastante claro cuál sería su uso real en el contexto jurídico.

Los datos que dependen del contexto también son un área de preocupación para la Oficina Judicial. Los chatbots de IA más populares del mercado actual, como ChatGPT de OpenAI y Bard de Google, se desarrollaron en EE. UU. y con un gran corpus de datos centrados en ese país. La guía advierte que el énfasis en los datos de entrenamiento de EE. UU. podría dar a los modelos de IA una “visión” de la ley sesgada hacia los contextos legales y la teoría estadounidenses. Aun así, al final del día, según las notas orientativas, los jueces siguen siendo los responsables del material producido en su nombre, incluso si lo hicieron con la ayuda de una herramienta de inteligencia artificial.

Geoffrey Vos, director de Justicia Civil de Inglaterra y Gales, según se informa dijo a Reuters antes de la revelación de la guía que cree que la IA “brinda grandes oportunidades para el sistema judicial”. Continuó diciendo que creía que los jueces eran capaces de detectar argumentos legales elaborados con inteligencia artificial.

“Los jueces están capacitados para decidir qué es verdad y qué es falso y tendrán que hacerlo en el mundo moderno de la IA tanto como antes”, dijo Vos según Reuters.

Algunos jueces ya consideran que la IA es “muy útil” a pesar de las preocupaciones sobre su precisión

La nueva guía llega tres meses después de que un juez del tribunal de apelaciones del Reino Unido, Lord Justice Birss, utilizara ChatGPT para proporcionar un resumen de un área del derecho y luego utilizara parte de ese resumen para escribir un veredicto. El juez según se informa aclamó el ChatGPT como “muy útil”, en ese momento según El guardián. En una conferencia de prensa a principios de este año, Birss dijo que, en última instancia, debería ser considerado responsable del contenido de la sentencia, incluso si fue creada con la ayuda de una herramienta de inteligencia artificial.

“Estoy asumiendo plena responsabilidad personal por lo que considero, no estoy tratando de darle la responsabilidad a nadie más”, dijo Birss. de acuerdo a La Gaceta Jurídica. “Todo lo que hizo fue una tarea que estaba a punto de realizar y cuya respuesta conocía y podía reconocer como aceptable”.

La falta de reglas claras que aclaren cuándo y cómo se pueden utilizar las herramientas de inteligencia artificial en los expedientes legales ya ha metido a algunos abogados y acusados ​​en problemas. A principios de este año, un par de abogados estadounidenses fueron multada con $5,000 después de presentar una presentación judicial que contenía citas falsas generadas por ChatGPT. Más recientemente, una mujer del Reino Unido también fue según se informa sorprendida usando un chatbot de inteligencia artificial para defenderse en un caso fiscal. Terminó perdiendo su caso en apelación después de que se descubrió que la jurisprudencia que había presentado incluía detalles fabricados alucinados por el modelo de IA. OpenAI fue incluso objeto de una demanda por difamación a principios de este año después de que ChatGPT supuestamente nombrara con autoridad a un presentador de un programa de radio como acusado en un caso de malversación de fondos en el que no tenía nada que ver.

[ Related: “EU’s powerful AI Act is here. But is it too late?” ]

La oscuridad de la IA en los procedimientos legales podría empeorar antes de mejorar. Aunque la Administración Biden ha ofrecido propuestas que rigen el despliegue de la IA en los entornos legales como parte de su reciente Orden Ejecutiva sobre IA, el Congreso aún no ha logrado aprobar ninguna legislación integral que establezca reglas claras. Al otro lado del Atlántico, la Unión Europea acordó recientemente su propia Ley de IA que introduce normas de seguridad y transparencia más estrictas para una amplia gama de herramientas y aplicaciones de IA que se consideran de “alto riesgo”. Pero las sanciones reales por violar esas reglas probablemente no verán la luz hasta 2025 como muy pronto. Entonces, por ahora, los jueces y abogados están en gran medida volando por el asiento de sus pantalones cuando se trata de descubrir los límites éticos del uso de la IA.

Leave a Reply

Your email address will not be published. Required fields are marked *