Cómo la IA podría hacerse cargo de las elecciones y socavar la democracia

Cómo la IA podría hacerse cargo de las elecciones y socavar la democracia

Imagen del artículo titulado Cómo la IA podría hacerse cargo de las elecciones y socavar la democracia

Imagen: Andrey_Popov (Shutterstock)

¿Podrían las organizaciones usar modelos de lenguaje de inteligencia artificial como ChatGPT para inducir a los votantes a comportarse de maneras específicas?

El senador Josh Hawley le hizo esta pregunta al director ejecutivo de OpenAI, Sam Altman, en un 16 de mayo de 2023, audiencia en el Senado de EE. UU. sobre inteligencia artificial. Altman respondió que, de hecho, le preocupaba que algunas personas pudieran usar modelos de lenguaje para manipular, persuadir y participar en interacciones uno a uno con los votantes.

Altman no dio más detalles, pero podría haber tenido algo como este escenario en mente. Imagine que pronto, los tecnólogos políticos desarrollan una máquina llamada Clogger: una campaña política en una caja negra. Clogger persigue incansablemente un solo objetivo: maximizar las posibilidades de que su candidato, la campaña que compra los servicios de Clogger Inc., prevalezca en una elección.

Mientras que plataformas como Facebook, Twitter y YouTube usan formas de IA para que los usuarios toma más tiempo en sus sitios, la IA de Clogger tendría un objetivo diferente: cambiar el comportamiento de votación de las personas.

Cómo funcionaría Clogger

Como un científico político y un erudito legal que estudian la intersección de la tecnología y la democracia, creemos que algo como Clogger podría usar la automatización para aumentar drásticamente la escala y potencialmente la efectividad de manipulación del comportamiento y técnicas de microfocalización que las campañas políticas han utilizado desde principios de la década de 2000. Tal como los anunciantes utilizan su historial de navegación y redes sociales Para orientar individualmente los anuncios comerciales y políticos ahora, Clogger le prestaría atención a usted, y a cientos de millones de otros votantes, individualmente.

Ofrecería tres avances sobre la manipulación algorítmica de comportamiento de última generación. Primero, su modelo de lenguaje generaría mensajes (textos, redes sociales y correo electrónico, quizás incluyendo imágenes y videos) adaptados a usted personalmente. Mientras que los anunciantes colocan estratégicamente una cantidad relativamente pequeña de anuncios, los modelos de lenguaje como ChatGPT pueden generar innumerables mensajes únicos para usted personalmente, y millones para otros, en el transcurso de una campaña.

En segundo lugar, Clogger usaría una técnica llamada aprendizaje reforzado para generar una sucesión de mensajes que cada vez son más propensos a cambiar su voto. El aprendizaje por refuerzo es un enfoque de prueba y error de aprendizaje automático en el que la computadora realiza acciones y recibe comentarios sobre qué funciona mejor para aprender cómo lograr un objetivo. Máquinas que pueden jugar Go, Ajedrez y muchos videojuegos mejor que cualquier humano han utilizado el aprendizaje por refuerzo.

Cómo funciona el aprendizaje por refuerzo.

En tercer lugar, en el transcurso de una campaña, los mensajes de Clogger podrían evolucionar para tener en cuenta sus respuestas a los despachos anteriores de la máquina y lo que ha aprendido acerca de cambiar la opinión de los demás. Clogger podría mantener “conversaciones” dinámicas contigo, y con millones de otras personas, a lo largo del tiempo. Los mensajes de Clogger serían similares a anuncios que te siguen a través de diferentes sitios web y redes sociales.

La naturaleza de la IA

Vale la pena señalar tres características más, o errores.

En primer lugar, los mensajes que envía Clogger pueden o no tener un contenido político. El único objetivo de la máquina es maximizar el porcentaje de votos, y probablemente diseñaría estrategias para lograr este objetivo en las que ningún activista humano habría pensado.

Una posibilidad es enviar a los probables votantes oponentes información sobre las pasiones no políticas que tienen en los deportes o el entretenimiento para enterrar los mensajes políticos que reciben. Otra posibilidad es enviar mensajes desagradables, por ejemplo, anuncios de incontinencia, sincronizados para que coincidan con los mensajes de los oponentes. Y otra es manipular los grupos de amigos de los votantes en las redes sociales para dar la sensación de que sus círculos sociales apoyan a su candidato.

En segundo lugar, Clogger no tiene respeto por la verdad. De hecho, no tiene manera de saber lo que es verdadero o falso. Modelo de lenguaje “alucinaciones” no son un problema para esta máquina porque su objetivo es cambiar su voto, no proporcionar información precisa.

En tercer lugar, porque es un caja negra tipo de inteligencia artificialla gente no tendría forma de saber qué estrategias utiliza.

El campo de la IA explicable tiene como objetivo abrir la caja negra de muchos modelos de aprendizaje automático para que las personas puedan entender cómo funcionan.

Clogocracia

Si la campaña presidencial republicana desplegara Clogger en 2024, la campaña demócrata probablemente se vería obligada a responder de la misma manera, tal vez con una máquina similar. Llámalo Dogger. Si los directores de campaña pensaran que estas máquinas eran eficaces, la contienda presidencial bien podría acabar en Clogger vs. Dogger, y el ganador sería el cliente de la máquina más eficaz.

Los politólogos y los expertos tendrían mucho que decir sobre por qué prevaleció una u otra IA, pero probablemente nadie lo sepa realmente. El presidente habrá sido elegido no porque sus propuestas políticas o sus ideas políticas persuadieran a más estadounidenses, sino porque tenía la IA más eficaz. El contenido que ganó el día habría venido de una IA enfocada únicamente en la victoria, sin ideas políticas propias, en lugar de candidatos o partidos.

En este sentido tan importante, una máquina habría ganado la elección en lugar de una persona. La elección ya no sería democrática, aunque todas las actividades ordinarias de la democracia –los discursos, los anuncios, los mensajes, la votación y el conteo de votos– hayan ocurrido.

El presidente electo por AI podría entonces optar por uno de dos caminos. Él o ella podría usar el manto de la elección para seguir las políticas del partido Republicano o Demócrata. Pero debido a que las ideas del partido pueden haber tenido poco que ver con por qué la gente votó de la forma en que lo hizo (a Clogger y Dogger no les importan las opiniones políticas), las acciones del presidente no reflejarían necesariamente la voluntad de los votantes. Los votantes habrían sido manipulados por la IA en lugar de elegir libremente sus políticas y líderes políticos.

Otro camino es que el presidente siga los mensajes, comportamientos y políticas que la máquina predice que maximizarán las posibilidades de reelección. En este camino, el presidente no tendría una plataforma o agenda particular más allá de mantener el poder. Las acciones del presidente, guiadas por Clogger, serían las que probablemente manipularían a los votantes en lugar de servir a sus intereses genuinos o incluso a la propia ideología del presidente.

Evitando la Clogocracia

Sería posible evitar la manipulación electoral de la IA si los candidatos, las campañas y los consultores renunciaran al uso de dicha IA política. Creemos que eso es poco probable. Si se desarrollaran cajas negras políticamente efectivas, la tentación de usarlas sería casi irresistible. De hecho, los consultores políticos bien podrían ver el uso de estas herramientas como requerido por su responsabilidad profesional para ayudar a sus candidatos a ganar. Y una vez que un candidato utiliza una herramienta tan eficaz, difícilmente se puede esperar que los oponentes se resistan desarmándose unilateralmente.

Protección de privacidad mejorada ayudaría. Clogger dependería del acceso a grandes cantidades de datos personales para dirigirse a las personas, crear mensajes personalizados para persuadirlas o manipularlas, y rastrearlas y redirigirlas en el transcurso de una campaña. Cada parte de esa información que las empresas o los formuladores de políticas niegan a la máquina la haría menos efectiva.

Las leyes estrictas de privacidad de datos podrían ayudar a evitar que la IA sea manipuladora.

Otra solución está en las comisiones electorales. Podrían intentar prohibir o regular severamente estas máquinas. Hay una debate feroz sobre si tal discurso “replicante”, incluso si es de naturaleza política, puede regularse. La extrema tradición de libertad de expresión de EE. UU. lleva a muchos académicos destacados a decir que no puede.

Pero no hay razón para extender automáticamente la protección de la Primera Enmienda al producto de estas máquinas. La nación bien podría optar por otorgar derechos a las máquinas, pero esa debería ser una decisión basada en los desafíos de hoy, no la suposición fuera de lugar que las opiniones de James Madison en 1789 estaban destinadas a aplicarse a la IA.

Los reguladores de la Unión Europea se están moviendo en esta dirección. Los legisladores revisaron el borrador de la Ley de Inteligencia Artificial del Parlamento Europeo para designar “sistemas de IA para influir en los votantes en las campañas” como “alto riesgo” y sujeto a escrutinio regulatorio.

Un paso constitucionalmente más seguro, aunque más pequeño, ya adoptado en parte por reguladores europeos de internet y en California, es prohibir que los bots se hagan pasar por personas. Por ejemplo, la regulación podría exigir que los mensajes de campaña vengan con descargos de responsabilidad cuando el contenido que contienen es generado por máquinas en lugar de humanos.

Esto sería como los requisitos del descargo de responsabilidad de la publicidad: “Pagado por el Comité de Sam Jones para el Congreso”, pero modificado para reflejar su origen de IA: “Este anuncio generado por IA fue pagado por el Comité de Sam Jones para el Congreso”. Una versión más fuerte podría requerir: “Este mensaje generado por IA lo envía el Comité de Sam Jones para el Congreso porque Clogger ha predicho que hacerlo aumentará sus posibilidades de votar por Sam Jones en un 0.0002%”. Como mínimo, creemos que los votantes merecen saber cuándo les habla un bot, y también deberían saber por qué.

La posibilidad de un sistema como Clogger muestra que el camino hacia desempoderamiento colectivo humano puede que no requiera algo sobrehumano inteligencia general artificial. Es posible que solo requiera activistas y consultores demasiado entusiastas que tengan herramientas nuevas y poderosas que puedan presionar de manera efectiva los muchos botones de millones de personas.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.

Arconte FungProfesor de Ciudadanía y Autogobierno, Escuela Kennedy de Harvard y Lorenzo LessigProfesor de Derecho y Liderazgo, Universidad Harvard

Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Leave a Reply

Your email address will not be published. Required fields are marked *