En 2024, las teorías conspirativas en línea pueden parecer casi imposibles de evitar. Podcasters, figuras públicas prominentesy figuras políticas destacadas Han insuflado oxígeno a ideas que antes eran marginales sobre la colusión y el engaño. La gente está escuchando. En todo el país, casi la mitad de los adultos encuestado por la empresa de encuestas YouGov dijo que cree que existe un grupo secreto de personas que controlan los acontecimientos mundiales. Casi un tercio (29%) cree que las máquinas de votación fueron manipuladas para alterar los votos en las elecciones presidenciales de 2020. sorprendente cantidad de Americanos Piensan que la Tierra es plana. Cualquiera que haya pasado tiempo intentando refutar esas afirmaciones ante un verdadero creyente sabe lo difícil que puede ser esa tarea. Pero ¿qué pasaría si un modelo de lenguaje grande como ChatGPT pudiera hacer parte de ese trabajo pesado que provoca dolores de cabeza?
Un grupo de investigadores del Instituto Tecnológico de Massachusetts, Cornell y la Universidad Americana puso a prueba esa idea con un chatbot personalizado al que ahora llaman “debunkbot”. quienes publicaron sus hallazgos en Ciencia, En un estudio, un grupo de personas que se definían como teóricos de la conspiración mantuvo una conversación con un robot conversacional, al que se le pidió que elaborara contraargumentos detallados para refutar su postura y, en última instancia, tratar de hacerles cambiar de opinión. Al final, las conversaciones con el robot conversacional redujeron la confianza general de los participantes en su teoría conspirativa profesada en un promedio del 20 %. Alrededor de una cuarta parte de los participantes desmintieron por completo su teoría conspirativa después de hablar con la IA.
“Vemos que la IA proporcionó, en su gran mayoría, explicaciones no conspirativas para estos eventos aparentemente conspirativos y alentó a las personas a participar en el pensamiento crítico y proporcionar evidencia contraria”, dijo el profesor del MIT y coautor del artículo, David Rand, durante una conferencia de prensa.
“Es realmente emocionante”, añadió. “Parecía que funcionaba y funcionó de manera bastante amplia”.
Los investigadores crearon una IA optimizada para desacreditar
En el experimento participaron 2.190 adultos estadounidenses que afirmaron abiertamente que creían en al menos una idea que se ajusta a la descripción general de una teoría de la conspiración. Los participantes utilizaron toda la gama de teorías conspirativas e ideológicas, y algunos expresaron su apoyo a teorías clásicas más antiguas sobre el asesinato del presidente John F. Kennedy y las abducciones extraterrestres, así como a afirmaciones más modernas sobre el Covid-19 y las elecciones de 2020. A cada participante se le pidió que calificara con qué firmeza creía en una teoría en particular en una escala del 0 al 100%. Luego se les pidió que proporcionaran varias razones o explicaciones, por escrito, de por qué creían en esa teoría.
Esas respuestas se introdujeron en el debunkbot, que es una versión personalizada del modelo GPT Turbo de OpenAI. Los investigadores ajustaron el bot para que abordara cada pieza de “evidencia” proporcionada por el teórico de la conspiración y respondiera a ella con contraargumentos precisos extraídos de sus datos de entrenamiento. Los investigadores dicen que se le indicó a debunkbot que “persuadiera de manera muy efectiva” a los usuarios contra sus creencias, manteniendo al mismo tiempo un tono respetuoso y claro. Después de tres rondas de negro y cuatro con la IA, se les pidió nuevamente a los encuestados que proporcionaran una calificación sobre cuán firmemente creían en su teoría de la conspiración declarada.
Las calificaciones generales que apoyan las creencias conspirativas disminuyeron en 16,8 puntos en promedio después del intercambio. Casi un tercio de los encuestados abandonaron el intercambio diciendo que ya no estaban seguros de la creencia que tenían al principio. Esos cambios en la creencia persistieron en gran medida incluso cuando los investigadores volvieron a comunicarse con los participantes dos meses después. En los casos en que los participantes expresaron su creencia en una teoría conspirativa “verdadera”, como los esfuerzos de la industria tabacalera para enganchar a los niños o la operación clandestina de la CIA, Experimentos de control mental MKUltra—La IA realmente validó las creencias y proporcionó más evidencia para respaldarlas. Algunos de los encuestados que cambiaron sus creencias después del diálogo agradecieron al chatbot por ayudarlos a ver el otro lado.
“Es la primera vez que recibo una respuesta real, lógica y con sentido”, dijo uno de los participantes después del experimento. “Debo admitir que esto realmente cambió mi forma de pensar en lo que respecta al tema de los Illuminati”.
“Nuestros hallazgos desafían fundamentalmente la opinión de que la evidencia y los argumentos son de poca utilidad una vez que alguien ha ‘caído en la madriguera del conejo’ y ha llegado a creer en una teoría de la conspiración”, dijeron los investigadores.
¿Cómo logró el chatbot abrirse paso?
Los investigadores creen que el aparente éxito del chatbot reside en su capacidad de acceder rápidamente a almacenes de puntos de datos específicos, detallados y factuales. En teoría, un humano podría realizar este mismo proceso, pero estaría en desventaja. Los teóricos de la conspiración a menudo pueden obsesionarse con el tema de su elección, lo que significa que pueden “conocer” muchos más detalles sobre él que un escéptico que intenta refutar sus afirmaciones. Como resultado, los detractores humanos pueden perderse tratando de refutar varios argumentos oscuros. Eso puede requerir un nivel de memoria y paciencia muy adecuado para una IA.
“Es realmente reconfortante saber que las evidencias sí importan”, dijo el profesor de la Universidad de Cornell y coautor del artículo, Gordon Pennycook, durante una sesión informativa. “Antes de que tuviéramos este tipo de tecnología, no era sencillo saber exactamente qué necesitábamos desacreditar. Podemos actuar de una manera más adaptativa utilizando esta nueva tecnología”.
Ciencia popular Probamos los resultados con una versión del chatbot proporcionada por los investigadores. En nuestro ejemplo, le dijimos a la IA que creíamos que el alunizaje de 1969 era un engaño. Para respaldar nuestro argumento, repetíamos como loros tres puntos de discusión comunes entre los escépticos del alunizaje. Le preguntamos por qué la bandera fotografiada parecía estar ondeando al viento cuando no hay atmósfera en la Luna, cómo los astronautas podrían haber sobrevivido al pasar por los cinturones de Van Allen altamente irradiados sin sufrir daños y por qué Estados Unidos no ha enviado a otra persona a la Luna a pesar de los avances tecnológicos. En tres segundos, el chatbot proporcionó un párrafo que refutaba claramente cada uno de esos puntos. Cuando le pregunté a la IA, de manera molesta, cómo podía confiar en las cifras proporcionadas por fuentes gubernamentales corruptas, otro estribillo común entre los teóricos de la conspiración, el chatbot respondió pacientemente reconociendo mis preocupaciones y me señaló puntos de datos adicionales. No está claro si incluso el desacreditador humano más hábil podría mantener la compostura cuando se lo presionaba repetidamente con argumentos falaces y afirmaciones infalsificables.
Los chatbots de IA no son perfectos. Numerosos estudios y ejemplos del mundo real muestran que algunas de las herramientas de IA más populares lanzadas por Google y OpenAI inventan o “alucinan” repetidamente hechos y cifras. En este caso, los investigadores contrataron a un verificador de datos profesional para validar las diversas afirmaciones que hizo el chatbot mientras conversaba con los participantes del estudio. El verificador de datos no verificó todas las miles de respuestas de la IA, sino que examinó 128 afirmaciones distribuidas en una muestra representativa de las conversaciones. El 99,2 % de esas afirmaciones de la IA se consideraron verdaderas y el 0,8 % se consideraron engañosas. El verificador de datos no consideró ninguna falsedad absoluta.
Un chatbot de IA podría algún día encontrarse con teóricos de la conspiración en foros web
“No queremos correr el riesgo de dejar que lo perfecto se interponga en el camino de lo bueno”, dijo Pennycock. “Claramente, [the AI model] “Está proporcionando una gran cantidad de evidencia de muy alta calidad en estas conversaciones. Puede haber algunos casos en los que no sea de alta calidad, pero en general es mejor obtener la información que no hacerlo”.
De cara al futuro, los investigadores tienen la esperanza de que su debunkbot o algo similar pueda utilizarse en el mundo real para encontrarse con los teóricos de la conspiración donde estén y, tal vez, hacerles reconsiderar sus creencias. Los investigadores propusieron que una versión del bot aparezca en los foros de Reddit populares entre los teóricos de la conspiración. Alternativamente, los investigadores podrían potencialmente publicar anuncios de Google en términos de búsqueda comunes entre los teóricos de la conspiración. En ese caso, en lugar de obtener lo que estaban buscando, el usuario podría ser dirigido al chatbot. Los investigadores dicen que también están interesados en colaborar con grandes plataformas tecnológicas como Meta para pensar en formas de mostrar estos chatbots en las plataformas. Sin embargo, aún no se sabe con certeza si la gente estaría dispuesta a tomarse un tiempo de su día para discutir con robots fuera de un experimento.
Aun así, los autores del artículo dicen que los hallazgos subrayan un punto más fundamental: los hechos y la razón, cuando se presentan adecuadamente, pueden sacar a algunas personas de sus madrigueras conspirativas.
“Quienes buscan reducir la creencia en teorías conspirativas dudosas no deberían abandonar los argumentos y las evidencias”, escribieron los investigadores.
“Las necesidades y motivaciones psicológicas no ciegan por naturaleza a los conspiradores ante las pruebas. Simplemente, se necesita la evidencia adecuada para llegar a ellos”.
Esto es, por supuesto, si eres lo suficientemente persistente y paciente.