¿Qué es la IA? Una simple definición de inteligencia artificial.

Cuando desafías a una computadora a jugar un juego de ajedrez, interactúas con un asistente inteligente, escribes una pregunta en ChatGPT o creas una obra de arte en DALL-E, estás interactuando con un programa que los informáticos clasificarían como inteligencia artificial.

Pero definir la inteligencia artificial puede ser complicado, especialmente cuando se mezclan otros términos como “robótica” y “aprendizaje automático”. Para ayudarlo a comprender cómo se relacionan entre sí estos diferentes campos y términos, hemos elaborado una guía rápida.

¿Cuál es una buena definición de inteligencia artificial?

La inteligencia artificial es un campo de estudio, al igual que la química o la física, que comenzó en 1956.

“La inteligencia artificial se trata de la ciencia y la ingeniería de hacer máquinas con características similares a las humanas en la forma en que ven el mundo, cómo se mueven, cómo juegan, incluso cómo aprenden”, dice Daniela Rus, directora de informática y tecnología artificial. laboratorio de inteligencia (CSAIL) en el MIT. “La inteligencia artificial se compone de muchos subcomponentes, y hay todo tipo de algoritmos que resuelven varios problemas en la inteligencia artificial”.

Las personas tienden a combinar la inteligencia artificial con la robótica y el aprendizaje automático, pero estos son campos separados y relacionados, cada uno con un enfoque distinto. En general, verá el aprendizaje automático clasificado bajo el paraguas de la inteligencia artificial, pero eso no siempre es cierto.

“La inteligencia artificial se trata de la toma de decisiones para las máquinas. La robótica se trata de poner la computación en movimiento. Y el aprendizaje automático se trata de usar datos para hacer predicciones sobre lo que podría suceder en el futuro o lo que debería hacer el sistema”, agrega Rus. “La IA es un campo amplio. Se trata de tomar decisiones. Puedes tomar decisiones usando el aprendizaje, o puedes tomar decisiones usando modelos”.

Los generadores de IA, como ChatGPT y DALL-E, son programas de aprendizaje automático, pero el campo de la IA cubre mucho más que solo el aprendizaje automático, y el aprendizaje automático no está completamente contenido en la IA. “El aprendizaje automático es un subcampo de la IA. Se extiende a ambos lados de las estadísticas y el campo más amplio de la inteligencia artificial”, dice Rus.

Para complicar el campo de juego, los algoritmos que no son de aprendizaje automático se pueden usar para resolver problemas en IA. Por ejemplo, una computadora puede jugar el juego Tic-Tac-Toe con un algoritmo de aprendizaje no automático llamado optimización minimax. “Es un algoritmo directo. Construyes un árbol de decisiones y empiezas a navegar. No hay aprendizaje, no hay datos en este algoritmo”, dice Rus. Pero sigue siendo una forma de IA.

En 1997, el algoritmo Deep Blue que utilizó IBM para vencer a Gary Kasparov era IA, pero no aprendizaje automático, ya que no usaba datos de juego. “El razonamiento del programa fue elaborado a mano”, dice Rus. “Mientras que AlphaGo [a new chess-playing program] usó el aprendizaje automático para elaborar sus reglas y sus decisiones sobre cómo moverse”.

Cuando los robots tienen que moverse por el mundo, tienen que dar sentido a su entorno. Aquí es donde entra la IA: tienen que ver dónde están los obstáculos y elaborar un plan para ir del punto A al punto B.

“Hay formas en que los robots usan modelos como la mecánica newtoniana, por ejemplo, para descubrir cómo moverse, cómo no caerse, cómo agarrar un objeto sin dejarlo caer”, dice Rus. “Si el robot tiene que planificar un camino desde el punto A hasta el punto B, el robot puede mirar la geometría del espacio y luego puede descubrir cómo dibujar una línea que no chocará con ningún obstáculo y seguir esa línea. .” Ese es un ejemplo de una computadora que toma decisiones que no utiliza el aprendizaje automático, porque no está basado en datos.

[Related: How a new AI mastered the tricky game of Stratego]

O tomemos, por ejemplo, enseñar a un robot a conducir un automóvil. En una solución basada en el aprendizaje automático para enseñarle a un robot cómo hacer esa tarea, por ejemplo, el robot podría observar cómo los humanos conducen o toman la curva. Aprenderá a girar la rueda un poco o mucho según la profundidad de la curva. A modo de comparación, en la solución de aprendizaje sin máquina para aprender a conducir, el robot simplemente miraría la geometría de la carretera, consideraría la dinámica del automóvil y la usaría para calcular el ángulo que se aplicaría en la rueda para mantener el automóvil. en el camino sin desviarse. Sin embargo, ambos son ejemplos de inteligencia artificial en el trabajo.

“En el caso basado en modelos, observa la geometría, piensa en la física y calcula cuál debería ser la actuación. En el basado en datos [machine learning] caso, miras lo que hizo el humano y lo recuerdas, y en el futuro, cuando te encuentres con situaciones similares, puedes hacer lo que hizo el humano”, dice Rus. “Pero ambas son soluciones que hacen que los robots tomen decisiones y se muevan en el mundo”.

¿Puede decirme más sobre cómo funciona el aprendizaje automático?

“Cuando haces aprendizaje automático basado en datos que las personas equiparan con IA, la situación es muy diferente”, dice Rus. “El aprendizaje automático utiliza datos para determinar los pesos y los parámetros de una gran red, llamada red neuronal artificial”.

El aprendizaje automático, como su nombre lo indica, es la idea de que el software aprenda de los datos, a diferencia del software que simplemente sigue las reglas escritas por humanos.

“La mayoría de los algoritmos de aprendizaje automático en algún nivel solo calculan un montón de estadísticas”, dice Rayid Ghani, profesor del departamento de aprendizaje automático de la Universidad Carnegie Mellon. Antes del aprendizaje automático, si quería que una computadora detectara un objeto, tendría que describirlo con tediosos detalles. Por ejemplo, si desea que la visión artificial identifique una señal de alto, debe escribir un código que describa el color, la forma y las características específicas de la parte frontal de la señal.

“Lo que la gente pensó es que sería exhaustivo para las personas que lo describen. El principal cambio que ocurrió en el aprendizaje automático es [that] en lo que la gente era mejor era en dar ejemplos de cosas”, dice Ghani. “El código que la gente estaba escribiendo no era para describir una señal de alto, era para distinguir cosas en la categoría A versus la categoría B [a stop sign versus a yield sign, for example]. Y luego la computadora descubrió las distinciones, lo cual fue más eficiente”.

¿Deberíamos preocuparnos de que la inteligencia artificial supere a la inteligencia humana?

La respuesta corta, ahora mismo: No.

Hoy en día, la IA es muy limitada en sus habilidades y puede hacer cosas específicas. “La IA diseñada para jugar juegos muy específicos o reconocer ciertas cosas solo puede hacer eso. No puede hacer otra cosa realmente bien”, dice Ghani. “Así que tienes que desarrollar un nuevo sistema para cada tarea”.

En cierto sentido, Rus dice que la investigación con IA se utiliza para desarrollar herramientas, pero no herramientas que se puedan utilizar de forma autónoma en el mundo. ChatGPT, señala, es impresionante, pero no siempre es correcto. “Son el tipo de herramientas que brindan conocimientos, sugerencias e ideas para que las personas actúen”, dice. “Y estas percepciones, sugerencias e ideas no son la respuesta definitiva”.

Además, Ghani dice que si bien estos sistemas “parecen ser inteligentes”, todo lo que realmente están haciendo es observar patrones. “Simplemente se codificaron para juntar cosas que sucedieron juntas en el pasado, y juntarlas de nuevas maneras”. Una computadora no aprenderá por sí sola que caerse es malo. Necesita recibir retroalimentación de un programador humano que le diga que es malo.

[Related: Why artificial intelligence is everywhere now]

Y también, los algoritmos de aprendizaje automático pueden ser perezosos. Por ejemplo, imagine dar a un sistema imágenes de hombres, mujeres e individuos no binarios y decirle que distinga entre los tres. Encontrará patrones que son diferentes, pero no necesariamente significativos o importantes. Si todos los hombres usan un color de ropa, o si todas las fotos de las mujeres se tomaron con el mismo color de fondo, los colores serán las características que estos sistemas captarán.

“No es inteligente, básicamente dice ‘me pediste que distinguiera entre tres conjuntos’. La forma más perezosa de distinguir fue esta característica’”, dice Ghani. Además, algunos sistemas están “diseñados para dar la mayoría de las respuestas de Internet para muchas de estas cosas. Eso no es lo que queremos en el mundo, para aceptar la respuesta mayoritaria que suele ser racista y sexista”.

En su opinión, todavía se necesita mucho trabajo para personalizar los algoritmos para casos de uso específicos, hacer que los humanos comprendan cómo el modelo alcanza ciertos resultados en función de las entradas que se le han dado, y trabajar para garantizar que los datos de entrada es justo y preciso.

¿Cuál es la próxima década para la IA?

Los algoritmos informáticos son buenos para tomar grandes cantidades de información y sintetizarla, mientras que las personas son buenas para revisar algunas cosas a la vez. Debido a esto, las computadoras tienden a ser, comprensiblemente, mucho mejores para revisar mil millones de documentos y descubrir hechos o patrones que se repiten. Pero los humanos pueden entrar en un documento, recoger pequeños detalles y razonar a través de ellos.

“Creo que una de las cosas que se exagera es la autonomía de la IA que opera por sí misma en entornos no controlados donde también se encuentran humanos”, dice Ghani. En entornos muy controlados, como averiguar el precio que se cobrará por los productos alimenticios dentro de un cierto rango en función del objetivo final de optimizar las ganancias, la IA funciona muy bien. Sin embargo, la cooperación con los humanos sigue siendo importante y, en las próximas décadas, predice que el campo verá muchos avances en los sistemas que están diseñados para ser colaborativos.

Investigación de descubrimiento de fármacos es un buen ejemplo, dice. Los seres humanos todavía están haciendo gran parte del trabajo con las pruebas de laboratorio y la computadora simplemente está usando el aprendizaje automático para ayudarlos a priorizar qué experimentos hacer y qué interacciones observar.

“[AI algorithms] puede hacer cosas realmente extraordinarias mucho más rápido que nosotros. Pero la forma de verlo es que son herramientas que se supone que aumentan y mejoran la forma en que operamos”, dice Rus. “Y como cualquier otra herramienta, estas soluciones no son inherentemente buenas o malas. Son lo que elegimos hacer con ellos”.

Heaven32: