“Para que una máquina pueda interactuar de forma inteligente con las personas, debe estar dotada de un entendimiento de la vida humana”.
—Dreyfus y Dreyfus
Las predicciones tecnológicas audaces abren el camino a la humildad. Incluso titanes como Albert Einstein tienen uno o dos carteles publicitarios a lo largo de esa autopista que nos hace sentir humildes. En un ejemplo clásico, John von Neumann, pionero de la arquitectura informática moderna, escribió en 1949: “Parece que hemos llegado a los límites de lo que es posible lograr con la tecnología informática”. Entre las innumerables manifestaciones de superación de límites computacionales que han desafiado la predicción de von Neumann se encuentra el modelo de 1958 del psicólogo social Frank Rosenblatt de la red neuronal del cerebro humano. A su dispositivo, basado en la computadora central IBM 704, lo llamó “Perceptrón” y lo entrenó para que reconociera patrones simples. Los perceptrones finalmente condujeron al aprendizaje profundo y a la inteligencia artificial moderna.
En una predicción igualmente audaz pero errónea, los hermanos Hubert y Stuart Dreyfus, profesores de la Universidad de California en Berkeley con especialidades muy diferentes, Hubert en filosofía y Stuart en ingeniería, escribieron en un artículo de enero de 1986: Revisión de tecnología que “es casi imposible que los científicos puedan desarrollar máquinas capaces de tomar decisiones inteligentes”. El artículo se basaba en el libro de los Dreyfuse, que se publicará próximamente. La mente sobre la máquina
(Macmillan, febrero de 1986), que describía su modelo de cinco etapas para el “saber hacer” humano, o la adquisición de habilidades. Hubert (que murió en 2017) había sido durante mucho tiempo un crítico de la IA, escribiendo artículos y libros escépticos desde la década de 1960.
Stuart Dreyfus, que sigue siendo profesor en Berkeley, está impresionado por los avances logrados en IA. “Supongo que no me sorprende el aprendizaje por refuerzo”, dice, y añade que sigue siendo escéptico y preocupado por ciertas aplicaciones de IA, especialmente los grandes modelos de l enguaje, o LLM, como ChatGPT. “Las máquinas no tienen cuerpo”, señala. Y cree que no tener cuerpo es limitante y crea riesgos: “Me parece que en cualquier área que implique posibilidades de vida o muerte, la IA es peligrosa, porque no sabe lo que significa la muerte”.
Según el modelo de adquisición de habilidades de Dreyfus, se produce un cambio intrínseco a medida que el conocimiento humano avanza a través de cinco etapas de desarrollo: principiante, principiante avanzado, competente, competente y experto. “Una diferencia crucial entre principiantes y ejecutantes más competentes es su nivel de participación”, explicaron los investigadores. “Los novatos y principiantes sienten poca responsabilidad por lo que hacen porque solo están aplicando las reglas aprendidas”. Si fallan, culpan a las reglas. Los ejecutantes expertos, en cambio, sienten responsabilidad por sus decisiones porque a medida que su conocimiento se arraiga profundamente en sus cerebros, sistemas nerviosos y músculos (una habilidad incorporada), aprenden a manipular las reglas para lograr sus objetivos. Son dueños del resultado.
Esa relación inextricable entre la toma de decisiones inteligente y la responsabilidad es un ingrediente esencial para el buen funcionamiento de una sociedad civilizada, y algunos dicen que falta en los sistemas expertos actuales. También falta la capacidad de preocuparse, de compartir preocupaciones, de asumir compromisos, de tener y leer emociones: todos los aspectos de la inteligencia humana que provienen de tener un cuerpo y moverse por el mundo.
A medida que la IA sigue infiltrándose en tantos aspectos de nuestras vidas, ¿podemos enseñar a las futuras generaciones de sistemas expertos a sentirse responsables de sus decisiones? ¿Es la responsabilidad (o el cuidado, el compromiso o la emoción) algo que se pueda derivar de inferencias estadísticas o de los datos problemáticos utilizados para entrenar a la IA? Tal vez, pero incluso entonces la inteligencia de las máquinas no sería equivalente a la inteligencia humana; seguiría siendo algo diferente, como también predijeron los hermanos Dreyfus hace casi cuatro décadas.
Bill Gourgey es un escritor científico radicado en Washington, DC.