Jennifer DeStefano relata estafa de secuestro ultrafalso en el Congreso

Jennifer DeStefano relata estafa de secuestro ultrafalso en el Congreso

El 20 de enero comenzó como los típicos viernes por la tarde para Jennifer DeStefano, residente de Scottsdale, Arizona. La madre de dos recién había recogido a su hija menor de la práctica de baile cuando recibió una llamada de un número desconocido. Casi deja que el número vaya al buzón de voz, pero decidió responder al último timbre. DeStefano dice que lo que sucedió en los próximos momentos probablemente la perseguirá por el resto de su vida. Ella aún no lo sabía, pero la residente de Arizona estaba a punto de convertirse en una figura clave en la tendencia emergente de Estafas de secuestros deepfake de IA.

DeStefano contó su experiencia con detalles apasionantes durante una reunión del Comité Judicial del Senado. audiencia Martes discutiendo los impactos en el mundo real de la inteligencia artificial generativa en los derechos humanos. Ella recuerda la voz de llanto al otro lado de la llamada que sonaba casi idéntica a la de su hija Brie, de 15 años, que estaba de viaje de esquí con su padre.

“Mamá, me equivoqué”, dijo la voz entre llantos. “Mamá estos malos me tienen, ayúdame, ayúdame”.

La voz de un hombre apareció de repente en la llamada y exigió un rescate de $ 1 millón de dólares entregados en mano para el regreso seguro de Brie. El hombre amenazó a DeStefano para que no pidiera ayuda y dijo que drogaría a su hija adolescente, “se saldría con la suya” y la asesinaría si llamaba a la policía. La hermana menor de Brie escuchó todo esto por el altavoz. Nada de eso, resulta que era cierto. La voz de “Brie” era en realidad una Deepfake generado por IA. El secuestrador era un estafador que buscaba hacer dinero fácil.

“Nunca podré quitarme esa voz y los gritos desesperados de ayuda de mi mente”, dijo DeStefano, luchando por contener las lágrimas. “Es la peor pesadilla de todos los padres escuchar a sus hijos suplicar con miedo y dolor, sabiendo que están siendo dañados y están indefensos”.

La historia de la madre apunta tanto a nuevas áreas preocupantes de abuso de la IA como a una enorme deficiencia de las leyes necesarias para responsabilizar a los malos actores. Cuando DeStefano se puso en contacto con la policía sobre la estafa deepfake, se sorprendió al saber que las fuerzas del orden ya estaban al tanto del problema emergente. A pesar del trauma y el horror que causó la experiencia, la policía dijo que no fue más que una “llamada de broma” porque no se había cometido ningún delito real y nunca se había intercambiado dinero.

DeStefano, quien dice que se quedó despierta por las noches “paralizada por el miedo” después del incidente, descubrió rápidamente que otros en su comunidad habían sufrido tipos similares de estafas. Su propia madre, testificó DeStefano, dijo que recibió una llamada telefónica de lo que sonaba como la voz de su hermano diciendo que había tenido un accidente y necesitaba dinero para una factura del hospital. DeStefano dijo a los legisladores que viajó a DC esta semana, en parte, porque teme que el aumento de estafas como estas amenace la idea compartida o la realidad misma.

“Ya no podemos confiar en ver para creer o ‘lo escuché con mis propios oídos’”, dijo DeStefano. “No hay límite para la profundidad del mal que la IA puede habilitar”.

Los expertos advierten que la IA está confundiendo la verdad colectiva

Un panel de testigos expertos que hablaron ante el subcomité de derechos humanos y leyes del Comité Judicial compartieron las preocupaciones de DeStefano y señalaron a los legisladores las áreas que creen que se beneficiarían de la nueva legislación de IA. Aleksander Madry, un distinguido profesor de ciencias de la computación y director del MIT Center for Deployable Machine Learning, dijo que la reciente ola de avances en IA encabezada por OpenAI’s ChatGPT

y DARLE están “preparados para transformar fundamentalmente nuestro sentido colectivo”. Los estafadores ahora pueden crear contenido realista, convincente, personalizado y desplegable a escala, incluso si es completamente falso. Eso crea enormes áreas de abuso para las estafas, dijo Madry, pero también amenaza la confianza general en la propia realidad compartida.

La directora ejecutiva del Centro para la Democracia y la Tecnología, Alexandra Reeve Givens, compartió esas preocupaciones y les dijo a los legisladores que los deepfakes como el que se usó contra DeStefano ya presentan peligros claros y presentes para las próximas elecciones estadounidenses. Los usuarios de Twitter experimentaron un breve microcosmos de esa posibilidad a principios de este mes cuando una imagen generada por IA de un supuesta bomba detonando fuera del Pentágono ganó tracción. Geoffrey Cain, autor y miembro sénior de la Fundación para la Innovación Estadounidense, dijo que su trabajo cubriendo el uso de China de sistemas avanzados de IA para vigilar a su minoría musulmana uigur ofreció un vistazo a los peligros totalitarios que plantean estos sistemas en el extremo. Los testigos acordaron colectivamente que el reloj estaba corriendo para promulgar “estándares de seguridad sólidos” para evitar que EE. UU. siguiera un camino similar.

“¿Es esta nuestra nueva normalidad?” DeStefano le preguntó al comité.

Los legisladores pueden reforzar las leyes existentes e incentivar la detección de falsificaciones profundas

Hablando durante la audiencia, la senadora de Tennessee Marsha Blackburn dijo que la historia de DeStefano demostró la necesidad de ampliar las leyes existentes que rigen el acecho y el acoso para que se apliquen también a los espacios digitales en línea. Reeve Givens aconsejó de manera similar al Congreso que investigue formas en que puede reforzar las leyes existentes sobre temas como la discriminación y el fraude para dar cuenta de los algoritmos de IA. La Comisión Federal de Comercio, que lidera las acciones de aplicación de la seguridad del consumidor contra las empresas de tecnología, dijo recientemente que también está analizando formas de responsabilizar a los estafadores de IA usando las leyes existentes que ya están en el libro.

Fuera de las reformas legales, Reeve Givens y Madry dijeron que el Congreso podría y debería tomar medidas para incentivar a las empresas privadas a desarrollar mejores capacidades de detección de falsificación profunda. Si bien no faltan empresas que ya ofrecen servicios que afirman detectar contenido generado por IAMadry describió esto como un juego del “gato y el ratón” donde los atacantes siempre van unos pasos por delante. Los desarrolladores de IA, dijo, podrían desempeñar un papel en la mitigación del riesgo mediante el desarrollo de sistemas de marcas de agua para revelar cada vez que sus modelos de IA generan contenido. Las agencias de aplicación de la ley, señaló Reeve Givens, deben estar bien equipadas con capacidades de detección de IA para que puedan responder a casos como el de DeStefano.

Incluso después de experimentar un “trauma aterrador y duradero” a manos de las herramientas de IA, DeStefanos expresó su optimismo sobre las ventajas potenciales de los modelos de IA generativos bien administrados.

“Lo que nos pasó a mí ya mi hija fue el lado trágico de la IA, pero también hay avances esperanzadores en la forma en que la IA también puede mejorar la vida”, dijo DeStefano’s.

Leave a Reply

Your email address will not be published. Required fields are marked *