Es más probable que los humanos crean en la desinformación generada por la IA

Es más probable que los humanos crean en la desinformación generada por la IA

Esa brecha de credibilidad, aunque pequeña, es preocupante dado que el problema de la desinformación generada por IA parece estar a punto de crecer significativamente, dice Giovanni Spitale, el investigador de la Universidad de Zúrich que dirigió el estudio, que apareció en Avances de la ciencia hoy.

“El hecho de que la desinformación generada por IA no solo sea más barata y rápida, sino también más efectiva, me da pesadillas”, dice. Él cree que si el equipo repitiera el estudio con el último modelo de lenguaje grande de OpenAI, GPT-4, la diferencia sería aún mayor, dado que GPT-4 es mucho más poderoso.

Para probar nuestra susceptibilidad a diferentes tipos de texto, los investigadores eligieron temas comunes de desinformación, incluidos el cambio climático y el covid. Luego le pidieron al modelo de lenguaje grande GPT-3 de OpenAI que generara 10 tweets verdaderos y 10 falsos, y recolectaron una muestra aleatoria de tweets verdaderos y falsos de Twitter.

A continuación, reclutaron a 697 personas para que completaran un cuestionario en línea y juzgaran si los tuits fueron generados por IA o recopilados de Twitter, y si eran precisos o contenían desinformación. Descubrieron que los participantes tenían un 3% menos de probabilidades de creer en los tuits falsos escritos por humanos que en los escritos por IA.

Los investigadores no están seguros de por qué es más probable que las personas crean en los tuits escritos por IA. Pero la forma en que GPT-3 ordena la información podría tener algo que ver, según Spitale.

“El texto de GPT-3 tiende a ser un poco más estructurado en comparación con el orgánico [human-written] texto”, dice. “Pero también está condensado, por lo que es más fácil de procesar”.

El auge de la IA generativa pone herramientas de IA poderosas y accesibles en manos de todos, incluidos los malos actores. Los modelos como GPT-3 pueden generar texto incorrecto que parece convincente, que podría usarse para generar narrativas falsas de manera rápida y económica para los teóricos de la conspiración y las campañas de desinformación. Las armas para combatir el problema, las herramientas de detección de texto de IA, aún se encuentran en las primeras etapas de desarrollo y muchas no son del todo precisas.

OpenAI es consciente de que sus herramientas de IA podrían convertirse en armas para producir campañas de desinformación a gran escala. Aunque esto viola sus políticas, lanzó un informe en enero advirtiendo que es “casi imposible garantizar que los grandes modelos de lenguaje nunca se utilicen para generar desinformación”. OpenAI no respondió de inmediato a una solicitud de comentarios.

Leave a Reply

Your email address will not be published. Required fields are marked *