OpenAI demandado por ‘difamación’ ChatGPT alucinación sobre el dinero

OpenAI demandado por ‘difamación’ ChatGPT alucinación sobre el dinero

Cuando un periodista de un sitio web de armas en línea preguntó ChatGPT de OpenAI para proporcionarle un resumen del caso La Fundación de la Segunda Enmienda v. Estados Unidos. Roberto Ferguson a principios de este año, dijo que el chatbot de IA rápidamente dio una respuesta. Con confianza, supuestamente afirmó que el caso involucraba a un locutor de radio de Georgia llamado Mark Walters, quien fue acusado de malversar dinero de la Fundación de la Segunda Enmienda (SAF). El único problema: nada de eso era cierto. En realidad, Walters no tuvo nada que ver con el traje. En cambio, Walters afirma que estaba en el extremo receptor de lo que los investigadores llaman una “alucinación” de IA. Ahora, ha presentado una demanda por difamación, la primera de su tipo, contra ChatGPT por supuestamente dañar su reputación.

“Todas las declaraciones de hecho en el resumen relacionado con Walters son falsas”, se lee en la demanda, presentada en el Tribunal Superior del Condado de Gwinnett el 5 de junio. El abogado de Walters afirma que OpenAI actuó de manera negligente y “publicó material difamatorio sobre Walters” cuando mostró la información falsa al periodista.

Un experto legal que habló con Gizmodo dijo que la queja de Walters probablemente representa la primera de lo que podría ser una letanía de demandas que intentan llevar a las empresas de inteligencia artificial a los tribunales por las fabricaciones bien documentadas de sus productos. Y aunque los méritos de este caso en particular parecen inestables en el mejor de los casos, el experto señaló que podría sentar las bases para una ola de juicios complicados que pongan a prueba los límites de la ley de difamación.

“Los principios legales existentes hacen que al menos algunas de estas demandas sean potencialmente viables”, dijo a Gizmodo Eugene Volokh, profesor de la Facultad de Derecho de la Universidad de California en Los Ángeles.

¿Por qué Mark Walters está demandando a OpenAI por las alucinaciones de ChatGPT?

Cuando el periodista de armas de fuego, Fred Riehl, le pidió a ChatGPT que proporcionara un resumen de la demanda en cuestión el 4 de mayo, la modelo de lenguaje grande supuestamente dijo que era una demanda legal presentada por el fundador y vicepresidente ejecutivo de la Fundación de la Segunda Enmienda (SAF). presentado contra Walters, presentador de Armed American Radio, a quien ChatGPT identificó como tesorero y director financiero de SAF. Walters, en el relato de ChatGPT, “malversó fondos para gastos personales sin autorización o reembolso, manipuló registros financieros y extractos bancarios para ocultar sus actividades y no proporcionó informes financieros precisos y oportunos”, según la denuncia.

Pero Walters afirma que no pudo haber malversado esos fondos porque no es y nunca ha sido tesorero o director financiero de SAF. De hecho, no trabaja para la fundación en absoluto, según su traje. Una lectura de la actual SAF v. Ferguson queja no muestra signos del nombre de Walters en ninguna parte de sus 30 páginas. Esa queja no tiene nada que ver con reclamos de contabilidad financiera en absoluto. ChatGPT alucinó el nombre de Walters y la historia falsa en su recuento de un documento legal real, alega Walters.

“La denuncia no alega que Walters malversó fondos para gastos personales, manipuló registros financieros o extractos bancarios, o no proporcionó informes financieros a los líderes de SAF, ni habría estado en condiciones de hacerlo porque no tiene empleo o relación oficial. ”, dice el traje de Walters.

Cuando el periodista escéptico le pidió a ChatGPT que le proporcionara un pasaje exacto de la demanda que mencionara a Walters, el chatbot supuestamente duplicó su afirmación.

“Ciertamente”, respondió la IA, según el traje de Walters. “Aquí está el párrafo de la denuncia que se refiere a Walters”. El fragmento de texto devuelto por ChatGPT, que se incluye a continuación, no existe en la denuncia real. La IA incluso se equivocó en el número de caso.

“El acusado Mark Walters (‘Walters’) es un individuo que reside en Georgia. Walters se ha desempeñado como Tesorero y Jefe de la Oficina Financiera de SAF desde al menos 2012. Walters tiene acceso a las cuentas bancarias y registros financieros de SAF y es responsable de mantener esos registros y proporcionar informes financieros a la junta directiva de SAF. Walters le debe a SAF un deber fiduciario de lealtad y cuidado, y debe actuar de buena fe y teniendo en cuenta los mejores intereses de SAF. Walters ha incumplido estos deberes y responsabilidades, entre otras cosas, malversando y apropiando indebidamente de los fondos y activos de SAF para su propio beneficio, y manipulando los registros financieros y extractos bancarios de SAF para ocultar sus actividades”.

Riehl se puso en contacto con los abogados que participaron en SAF v. Ferguson para saber qué sucedió realmente, y no incluyó la información falsa sobre Walters en una historia, según la denuncia de Walters. Riehl no respondió de inmediato a una solicitud de comentarios.

OpenAI y su fundador Sam Altman han aceptado estas alucinaciones son un problema que necesita ser abordado. La empresa publicó una publicación de blog la semana pasada dijo que su equipo está trabajando en nuevos modelos supuestamente capaces de reducir estas falsedades.

“Incluso los modelos más avanzados todavía producen errores lógicos, a menudo llamados alucinaciones”, escribió Karl Cobbe, científico investigador de OpenAI. “Mitigar las alucinaciones es un paso crítico hacia la construcción de AGI alineado [artificial general intelligence].” OpenAI no respondió a la solicitud de comentarios de Gizmodo.

¿Ganará Walters su caso contra OpenAI?

Un abogado del presentador de radio de Georgia afirma que las acusaciones de ChatGPT con respecto a su cliente eran “falsas y maliciosas” y podrían dañar la reputación de Walters al “exponerlo al odio público, el desprecio o el ridículo”. El abogado de Walters no respondió de inmediato a una solicitud de comentarios.

Volokh, el profesor de la UCLA y autor de un próximo artículo en una revista de derecho sobre la responsabilidad legal por los resultados de los modelos de IA, tiene menos confianza que los abogados de Walters en la solidez del caso. Volokh le dijo a Gizmodo que creía que había situaciones en las que los demandantes podían demandar a los creadores de IA por difamación y salir airosos, pero que Walters, en este caso, no había demostrado el daño real que se había hecho a su reputación. En este ejemplo, Walters parece estar demandando a OpenAI por daños punitivos o presuntos. Para ganar esos daños, Walters tendría que demostrar que OpenAI actuó con “conocimiento de la falsedad o desprecio imprudente de la posibilidad de falsedad”, un nivel de prueba al que a menudo se hace referencia como el estándar de “malicia real” en casos de difamación, dijo Volokh.

“Puede haber una imprudencia en cuanto al diseño del software en general, pero espero que lo que los tribunales requieran es evidencia de que OpenAI estaba consciente subjetivamente de que se estaban creando estas declaraciones falsas en particular”, dijo Volokh.

Aún así, Volokh enfatizó que las limitaciones específicas de este caso no significan necesariamente que otros casos de difamación no puedan tener éxito contra las empresas tecnológicas en el futuro. Los modelos como ChatGPT transmiten información a las personas y, lo que es más importante, pueden transmitir esa información como una afirmación fáctica. incluso cuando es descaradamente falso. Esos puntos, señaló, satisfacen muchas condiciones necesarias bajo la ley de difamación. Y aunque muchas empresas de Internet han evitado juicios por difamación en el pasado gracias al escudo legal de Sección 230 de la Ley de Decencia en las Comunicacioneses probable que esas protecciones no se apliquen a los chatbots porque generan sus propias cadenas de información nuevas en lugar de reaparecer en los comentarios de otro usuario humano.

“Si todo lo que hace una empresa es configurar un programa que cita material de un sitio web en respuesta a una consulta, eso le otorga inmunidad de la Sección 230”, dijo Volokh. “Pero si el programa compone algo palabra por palabra, entonces esa composición es responsabilidad de la propia empresa”.

Volokh continuó diciendo que la defensa hecha por OpenAI y compañías similares de que los chatbots son fuentes de información claramente poco confiables no pasa su examen, ya que simultáneamente promueven el éxito de la tecnología.

“OpenAI reconoce que puede haber errores, pero [ChatGPT] no se factura como una broma; no se anuncia como ficción; no se anuncia como monos escribiendo en una máquina de escribir”, dijo. “Se anuncia como algo que a menudo es muy confiable y preciso”.

En el futuro, si un demandante puede convencer con éxito a un juez de que perdió un trabajo o algún otro ingreso medible basado en las declaraciones falsas difundidas por un chabtot, Volokh dijo que es posible que salga victorioso.

Esta no es la primera vez que los chatbots de IA difunden falsedades sobre personas reales

Volokh le dijo a Gizmodo que este era el primer caso que había visto de un demandante que intentaba demandar a una empresa de inteligencia artificial por material supuestamente difamatorio producido por sus productos. Sin embargo, ha habido otros ejemplos de personas que afirman que los modelos de IA los han tergiversado. A principios de este año, Brian Hood, alcalde regional de Hepburn Shire en Australia, amenazó con demandar a OpenAI luego de que su modelo supuestamente lo nombrara como un criminal convicto involucrado en un escándalo de soborno. Hood no solo no estaba involucrado en el crimen, sino que en realidad estaba El Denunciante quien reveló el incidente.

Casi al mismo tiempo, un profesor de derecho de la Universidad George Washington llamado Jonathan Turley dijo que él y varios otros profesores estaban acusado falsamente de acoso sexual por ChatGPT. La modelo, según Turley, inventó una historia del Washington Post, así como citas alucinadas para respaldar las afirmaciones. Las citas y citas falsas se están convirtiendo rápidamente en un problema importante para los modelos generativos de IA.

Y aunque OpenAI reconoce la falta de precisión de ChatGPT en un divulgación en su sitio web, eso no ha impedido que los abogados citen el programa en contextos profesionales. La semana pasada, un abogado que representaba a un hombre que demandaba a una aerolínea presentó un escrito legal lleno de lo que un juez consideró “decisiones judiciales falsas” fabricadas por el modelo. Ahora el abogado se enfrenta a posibles sanciones. Aunque este fue el ejemplo más obvio de tal supervisión explícita hasta la fecha, un abogado defensor penal de Texas le dijo previamente a Gizmodo que no se sorprendería si hubiera más ejemplos a seguir. Otro juez, también en Texas, emitió un mandato la semana pasada para que AI no escriba ningún material presentado a su tribunal.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.

Leave a Reply

Your email address will not be published. Required fields are marked *