
La IA ahora puede crear una réplica de tu personalidad

Dirigido por Joon Sung Park, un estudiante de doctorado en informática de Stanford, el equipo reclutó a 1.000 personas que variaban según la edad, el género, la raza, la región, la educación y la ideología política. Se les pagó hasta $100 por su participación. A partir de entrevistas con ellos, el equipo creó réplicas de agentes de esos individuos. Como prueba de qué tan bien los agentes imitaban a sus homólogos humanos, los participantes realizaron una serie de pruebas de personalidad, encuestas sociales y juegos de lógica, dos veces cada uno, con dos semanas de diferencia; luego los agentes completaron los mismos ejercicios. Los resultados fueron 85% similares.
“Si puedes tener un grupo de pequeños ‘tú’ corriendo por ahí y tomando las decisiones que tú habrías tomado, creo que eso es, en última instancia, el futuro”, dice Joon.
En el artículo, las réplicas se denominan agentes de simulación, y el ímpetu para crearlas es facilitar a los investigadores en ciencias sociales y otros campos la realización de estudios que serían costosos, poco prácticos o poco éticos si se hicieran con sujetos humanos reales. Se piensa que si se pueden crear modelos de IA que se comporten como personas reales, se pueden utilizar para probar todo, desde qué tan bien las intervenciones en las redes sociales combaten la desinformación hasta qué comportamientos causan atascos de tráfico.
Estos agentes de simulación son ligeramente diferentes de los agentes que dominan el trabajo de las principales empresas de IA en la actualidad. Llamados agentes basados en herramientas, son modelos creados para hacer cosas por usted, no para conversar con usted. Por ejemplo, podrían ingresar datos, recuperar información que haya almacenado en algún lugar o, algún día, reservar viajes para usted y programar citas. fuerza de ventas anunciado sus propios agentes basados en herramientas en septiembre, seguido
Los dos tipos de agentes son diferentes pero comparten puntos en común. Es probable que la investigación sobre agentes de simulación, como los de este artículo, conduzca a agentes de IA más fuertes en general, dice John Horton, profesor asociado de tecnologías de la información en la Sloan School of Management del ., quien fundó una compañía para realizar investigaciones utilizando participantes simulados por IA.
“Este artículo muestra cómo se puede hacer una especie de híbrido: usar humanos reales para generar personas que luego pueden usarse programáticamente o en simulación de maneras que no podrían usarse con humanos reales”, dijo. Revisión de tecnología del . en un correo electrónico.
La investigación viene con salvedades, una de las cuales es el peligro que señala. Así como la tecnología de generación de imágenes ha facilitado la creación de deepfakes dañinos de personas sin su consentimiento, cualquier tecnología de generación de agentes plantea dudas sobre la facilidad con la que las personas pueden crear herramientas para personificar a otros en línea, diciendo o autorizando cosas que no tenían intención de decir. .
Los métodos de evaluación que utilizó el equipo para probar qué tan bien los agentes de IA replicaban a sus humanos correspondientes también fueron bastante básicos. Estos incluyeron la Encuesta Social General, que recopila información sobre la demografía, la felicidad, los comportamientos y más, y evaluaciones de los cinco grandes rasgos de personalidad: apertura a la experiencia, escrupulosidad, extroversión, amabilidad y neuroticismo. Este tipo de pruebas se utilizan habitualmente en la investigación de las ciencias sociales, pero no pretenden capturar todos los detalles únicos que nos hacen nosotros mismos. Los agentes de IA también fueron peores a la hora de replicar a los humanos en pruebas de comportamiento como el “juego del dictador”, cuyo objetivo es iluminar cómo los participantes consideran valores como la justicia.