La IA ‘consciente’ del lenguaje de Google puede engañar a los humanos

La IA ‘consciente’ del lenguaje de Google puede engañar a los humanos

Este artículo apareció originalmente en La conversación.

Kyle Mahowald es profesor asistente de Lingüística, Facultad de Artes Liberales de la Universidad de Texas en Austin; Anna A. Ivanova es candidato a doctorado en Ciencias del Cerebro y Cognitivas, Instituto Tecnológico de Massachusetts (MIT).

Cuando lees una oración como esta, tu experiencia pasada te dice que está escrita por un ser humano que piensa y siente. Y, en este caso, sí hay un humano escribiendo estas palabras: [Hi, there!] Pero en estos días, algunas oraciones que parecen notablemente humanas en realidad son generadas por sistemas de inteligencia artificial entrenados en cantidades masivas de texto humano.

La gente está tan acostumbrada a suponer que el lenguaje fluido proviene de un pensamiento y sentimiento humano que la evidencia de lo contrario puede ser difícil de entender. ¿Cómo es probable que las personas naveguen por este territorio relativamente desconocido? Debido a una tendencia persistente a asociar la expresión fluida con el pensamiento fluido, es natural, pero potencialmente engañoso, pensar que si un modelo de IA puede expresarse con fluidez, eso significa que piensa y siente como los humanos.

Por lo tanto, quizás no sea sorprendente que un ex ingeniero de Google haya afirmado recientemente que el sistema de inteligencia artificial de Google, LaMDA, tiene un sentido de sí mismo porque puede generar texto de manera elocuente sobre sus supuestos sentimientos. este evento y la posterior cobertura mediática

condujo a un número de escéptico con razón artículos y publicaciones
sobre la afirmación de que los modelos computacionales del lenguaje humano son sensibles, lo que significa que son capaces de pensar, sentir y experimentar.

La cuestión de qué significaría que un modelo de IA sea consciente es complicada (ver, por ejemplo, la toma de nuestro colega), y nuestro objetivo aquí no es resolverlo. Pero como idioma investigadorespodemos usar nuestro trabajo en ciencia cognitiva y lingüística para explicar por qué es demasiado fácil para los humanos caer en la trampa cognitiva de pensar que una entidad que puede usar el lenguaje con fluidez es sensible, consciente o inteligente.

Uso de IA para generar un lenguaje similar al humano

El texto generado por modelos como LaMDA de Google puede ser difícil de distinguir del texto escrito por humanos. Este logro impresionante es el resultado de un programa de décadas para construir modelos que generen lenguaje gramatical y significativo.

Las primeras versiones que se remontan al menos a la década de 1950, conocidas como modelos de n-gramas, simplemente contaban las ocurrencias de frases específicas y las usaban para adivinar qué palabras era probable que ocurrieran en contextos particulares. Por ejemplo, es fácil saber que “mantequilla de maní y mermelada” es una frase más probable que “mantequilla de maní y piñas”. Si tiene suficiente texto en inglés, verá la frase “mantequilla de maní y mermelada” una y otra vez, pero es posible que nunca vea la frase “mantequilla de maní y piña”.

Los modelos, conjuntos de datos y reglas actuales que se aproximan al lenguaje humano difieren de estos primeros intentos en varios aspectos importantes. Primero, están capacitados en prácticamente todo el Internet. En segundo lugar, pueden aprender relaciones entre palabras que están muy alejadas, no solo palabras que son vecinas. En tercer lugar, están sintonizados por una gran cantidad de “perillas” internas, tantas que incluso para los ingenieros que las diseñan es difícil entender por qué generan una secuencia de palabras en lugar de otra.

La tarea de los modelos, sin embargo, sigue siendo la misma que en la década de 1950: determinar qué palabra es probable que venga a continuación. Hoy, son tan buenos en esta tarea que casi todas las oraciones que generan parecen fluidas y gramaticales.

¿Mantequilla de maní y piña?

Le preguntamos a un modelo de lenguaje grande, GPT-3, para completar la oración “Crema de maní y piñas___”. Decía: “La mantequilla de maní y las piñas son una gran combinación. Los sabores dulces y salados de la mantequilla de maní y la piña se complementan a la perfección”. Si una persona dijera esto, se podría inferir que probó la mantequilla de maní y la piña juntas, se formó una opinión y la compartió con el lector.

Pero, ¿cómo se le ocurrió a GPT-3 este párrafo? Al generar una palabra que se ajuste al contexto que proporcionamos. Y luego otro. Y luego otro. La modelo nunca vio, tocó ni probó piñas, solo procesó todos los textos en Internet que las mencionan. Y, sin embargo, leer este párrafo puede llevar a la mente humana, incluso a la de un ingeniero de Google, a imaginar a GPT-3 como un ser inteligente que puede razonar sobre platos de mantequilla de maní y piña.

El cerebro humano está programado para inferir intenciones detrás de las palabras. Cada vez que participa en una conversación, su mente construye automáticamente un modelo mental de su compañero de conversación. Luego usa las palabras que dicen para completar el modelo con las metas, sentimientos y creencias de esa persona.

El proceso de pasar de las palabras al modelo mental es continuo y se activa cada vez que recibe una oración completa. Este proceso cognitivo te ahorra mucho tiempo y esfuerzo en la vida cotidiana, facilitando enormemente tus interacciones sociales.

Sin embargo, en el caso de los sistemas de IA, falla: construye un modelo mental de la nada.

Un poco más de sondeo puede revelar la gravedad de este fallo de encendido. Considere el siguiente mensaje: “La mantequilla de maní y las plumas saben muy bien juntas porque___”. GPT-3 continuó: “La mantequilla de maní y las plumas saben muy bien juntas porque ambas tienen un sabor a nuez. La mantequilla de maní también es suave y cremosa, lo que ayuda a compensar la textura de la pluma”.

El texto en este caso es tan fluido como nuestro ejemplo con piñas, pero esta vez el modelo está diciendo algo decididamente menos sensato. Uno comienza a sospechar que GPT-3 nunca ha probado la mantequilla de maní y las plumas.

Atribuir inteligencia a las máquinas, negársela a los humanos

Una triste ironía es que el mismo sesgo cognitivo que hace que las personas atribuyan humanidad a GPT-3 puede hacer que traten a los humanos reales de manera inhumana. La lingüística sociocultural, el estudio del lenguaje en su contexto social y cultural, muestra que asumir un vínculo demasiado estrecho entre la expresión fluida y el pensamiento fluido puede generar prejuicios contra las personas que hablan de manera diferente.

Por ejemplo, las personas con acento extranjero a menudo son percibido como menos inteligente y es menos probable que obtengan los trabajos para los que están calificados. Existen prejuicios similares contra hablantes de dialectos que no son considerados prestigiosos, como el inglés del sur en los Estados Unidos, contra personas sordas que usan lenguaje de señas y contra las personas con impedimentos del habla como tartamudear.

Estos sesgos son profundamente dañinos, a menudo conducen a suposiciones racistas y sexistas, y se ha demostrado una y otra vez que son infundados.

El lenguaje fluido por sí solo no implica humanidad

¿Alguna vez la IA se volverá consciente? Esta pregunta requiere una profunda consideración, y de hecho los filósofos han ponderado eso por décadas. Sin embargo, lo que los investigadores han determinado es que no puedes simplemente confiar en un modelo de lenguaje cuando te dice cómo se siente. Las palabras pueden ser engañosas, y es demasiado fácil confundir el habla fluida con el pensamiento fluido.

La conversación

Leave a Reply

Your email address will not be published. Required fields are marked *