¿Cómo debería una IA explorar la Luna?

¿Cómo debería una IA explorar la Luna?

Imagen para el artículo titulado ¿Cómo debería una IA explorar la Luna?

Foto: universidad de alberta

El rápido progreso en inteligencia artificial (IA) ha estimulado a algunas voces líderes en el campo a llamar a una pausa de investigaciónplantear la posibilidad de Extinción humana impulsada por IAe incluso solicitar la regulación del gobierno. En el centro de su preocupación está la idea de que la IA podría volverse tan poderosa que perdamos el control sobre ella.

Pero, ¿nos hemos perdido un problema más fundamental?

En última instancia, los sistemas de IA deberían ayudar a los humanos a tomar decisiones mejores y más precisas. Sin embargo, incluso las herramientas de inteligencia artificial más impresionantes y flexibles de la actualidad, como los grandes modelos de lenguaje detrás de ChatGPT, pueden tener el efecto contrario.

¿Por qué? Tienen dos debilidades cruciales. No ayudan a los tomadores de decisiones a comprender la causalidad o la incertidumbre. Y crean incentivos para recopilar grandes cantidades de datos y pueden fomentar una actitud relajada con respecto a la privacidad, las cuestiones y los riesgos legales y éticos.

Causa, efecto y confianza

ChatGPT y otros “modelos básicos” utilizan un enfoque llamado aprendizaje profundo para rastrear enormes conjuntos de datos e identificar asociaciones entre factores contenidos en esos datos, como los patrones de lenguaje o enlaces entre imágenes y descripciones. En consecuencia, son excelentes para interpolar, es decir, predecir o llenar los espacios entre valores conocidos.

Interpolación no es lo mismo que creación. No genera conocimiento, ni las percepciones necesarias para los tomadores de decisiones que operan en entornos complejos.

Sin embargo, estos enfoques requieren grandes cantidades de datos. Como resultado, alientan a las organizaciones a reunir enormes depósitos de datos, o rastrear conjuntos de datos existentes recopilados para otros fines. Tratar con “big data” conlleva riesgos considerables en torno a la seguridad, la privacidad, la legalidad y la ética.

En situaciones de bajo riesgo, las predicciones basadas en “lo que los datos sugieren que sucederá” pueden ser increíblemente útiles. Pero cuando hay más en juego, hay dos preguntas más que debemos responder.

El primero es sobre cómo funciona el mundo: “¿qué está impulsando este resultado?” El segundo es sobre nuestro conocimiento del mundo: “¿qué tan seguros estamos de esto?”

Del big data a la información útil

Quizás sorprendentemente, los sistemas de IA diseñados para inferir relaciones causales no necesitan “grandes datos”. En cambio, necesitan información útil. La utilidad de la información depende de la pregunta en cuestión, las decisiones que enfrentamos y el valor que le damos a las consecuencias de esas decisiones.

Parafraseando al estadístico y escritor estadounidense Nate Silver, la cantidad de verdad es aproximadamente constante independientemente del volumen de datos que recopilamos.

¿Entonces, cuál es la solución? El proceso comienza con el desarrollo de técnicas de IA que nos dicen lo que realmente no sabemos, en lugar de producir variaciones del conocimiento existente.

¿Por qué? Porque esto nos ayuda a identificar y adquirir la mínima cantidad de información valiosa, en una secuencia que nos permitirá desentrañar causas y efectos.

Un robot en la Luna

Estos sistemas de inteligencia artificial para la creación de conocimientos ya existen.

Como ejemplo simple, considere un robot enviado a la Luna para responder a la pregunta: “¿Cómo es la superficie de la Luna?”

Los diseñadores del robot pueden darle una “creencia” previa sobre lo que encontrará, junto con una indicación de cuánta “confianza” debe tener en esa creencia. El grado de confianza es tan importante como la creencia, porque es una medida de lo que el robot no sabe.

El robot aterriza y se enfrenta a una decisión: ¿hacia dónde debe ir?

Dado que el objetivo del robot es aprender lo más rápido posible sobre la superficie de la Luna, debe ir en la dirección que maximice su aprendizaje. Esto se puede medir por qué nuevo conocimiento reducirá la incertidumbre del robot sobre el paisaje, o cuánto aumentará la confianza del robot en su conocimiento.

El robot va a su nueva ubicación, registra las observaciones usando sus sensores y actualiza su creencia y la confianza asociada. Al hacerlo, aprende sobre la superficie de la Luna de la manera más eficiente posible.

Los sistemas robóticos como este, conocidos como “SLAM activo” (localización y mapeo simultáneos activos), se propusieron por primera vez. hace más de 20 añosy siguen siendo un área activa de investigación. Este enfoque de recopilación constante de conocimientos y actualización de la comprensión se basa en una técnica estadística llamada optimización bayesiana.

Mapeando paisajes desconocidos

Un tomador de decisiones en el gobierno o la industria enfrenta más complejidad que el robot en la Luna, pero el pensamiento es el mismo. Sus trabajos implican explorar y mapear paisajes sociales o económicos desconocidos.

Supongamos que deseamos desarrollar políticas para alentar a todos los niños a prosperar en la escuela y terminar la escuela secundaria. Necesitamos un mapa conceptual de qué acciones, en qué momento y bajo qué condiciones ayudarán a lograr estos objetivos.

Usando los principios del robot, formulamos una pregunta inicial: “¿Qué intervención(es) ayudará(n) más a los niños?”

A continuación, construimos un borrador de mapa conceptual utilizando el conocimiento existente. También necesitamos una medida de nuestra confianza en ese conocimiento.

Luego desarrollamos un modelo que incorpora diferentes fuentes de información. Estos no serán de sensores robóticos, sino de comunidades, experiencias vividas y cualquier información útil de los datos registrados.

Después de esto, con base en el análisis que informa a la comunidad y las preferencias de las partes interesadas, tomamos una decisión: “¿Qué acciones deben implementarse y bajo qué condiciones?”

Finalmente, discutimos, aprendemos, actualizamos creencias y repetimos el proceso.

Aprendiendo sobre la marcha

Este es un enfoque de “aprendizaje sobre la marcha”. A medida que se dispone de nueva información, se eligen nuevas acciones para maximizar algunos criterios preespecificados.

Donde la IA puede ser útil es para identificar qué información es más valiosa, a través de algoritmos que cuantifican lo que no sabemos. Los sistemas automatizados también pueden recopilar y almacenar esa información a un ritmo y en lugares donde puede ser difícil para los humanos.

Los sistemas de IA como este aplican lo que se llama un Marco teórico de la decisión bayesiano. Sus modelos son explicables y transparentes, construidos sobre supuestos explícitos. Son matemáticamente rigurosos y pueden ofrecer garantías.

Están diseñados para estimar vías causales, para ayudar a realizar la mejor intervención en el mejor momento. E incorporan valores humanos al ser codiseñados e implementados conjuntamente por las comunidades que se ven afectadas.

Necesitamos reformar nuestras leyes y crear nuevas reglas para guiar el uso de sistemas de IA potencialmente peligrosos. Pero es igual de importante elegir la herramienta adecuada para el trabajo en primer lugar.


¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.

Sally CrippsDirector de Tecnología del Instituto de Tecnología Humana de la UTS, Profesor de Matemáticas y Estadística, Universidad de Tecnología de Sídney; alex fischerMiembro Honorario, Universidad Nacional de Australia; eduardo santowProfesor y Codirector, Instituto de Tecnología Humana, Universidad de Tecnología de Sídney; Hadi Mohasel Afsharcientífico investigador principal, Universidad de Tecnología de Sídneyy Nicolás DavisProfesor de Industria de Tecnología Emergente y Codirector, Instituto de Tecnología Humana, Universidad de Tecnología de Sídney

Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Leave a Reply

Your email address will not be published. Required fields are marked *