Nadie sabe cómo funciona la IA

Nadie sabe cómo funciona la IA

Recientemente hemos visto algunos fallos de la IA a una escala mucho mayor. En el último (divertidísimo) error, Gemini de Google se negó a generar imágenes de personas blancas, especialmente de hombres blancos. En cambio, los usuarios pudieron generar imágenes de papas negros y mujeres soldados nazis. Google había estado tratando de lograr que los resultados de su modelo fueran menos sesgados, pero esto resultó contraproducente, y la compañía de tecnología pronto se encontró en medio de las guerras culturales de Estados Unidos, con críticos conservadores y Elon Musk acusándola de haber “despertado”. sesgo y no representar la historia con precisión. Google se disculpó y pausa la función

.

En otro incidente ahora famoso, el chat Bing de Microsoft le dijo a un New York Times periodista a dejar a su esposa. Y chatbots de atención al cliente siguen metiendo a sus empresas en todo tipo de problemas. Por ejemplo, Air Canada se vio obligada recientemente a ofrecer un reembolso a un cliente de conformidad con una política que había elaborado su chatbot de servicio al cliente. La lista continua.

Las empresas de tecnología se están apresurando a lanzar productos impulsados ​​por IA, a pesar de la amplia evidencia de que son difíciles de controlar y a menudo se comportan de manera impredecible. Este comportamiento extraño ocurre porque nadie sabe exactamente cómo (o por qué) funciona el aprendizaje profundo, la tecnología fundamental detrás del auge actual de la IA. Es uno de los mayores acertijos de la IA. Mi colega Will Douglas Heaven acaba de publicar un artículo en el que profundiza en ello.

El mayor misterio es cómo los grandes modelos de lenguaje como Gemini y GPT-4 de OpenAI pueden aprender a hacer algo que no les enseñaron a hacer. Puede entrenar un modelo de lenguaje sobre problemas matemáticos en inglés y luego mostrarle literatura francesa y, a partir de ahí, puede aprender a resolver problemas matemáticos en francés. Estas capacidades van en contra de las estadísticas clásicas, que proporcionan nuestro mejor conjunto de explicaciones sobre cómo deberían comportarse los modelos predictivos, escribe Will. Leer más aquí.

Es fácil confundir las percepciones derivadas de nuestra ignorancia con la magia. Incluso el nombre de la tecnología, inteligencia artificial, es trágicamente engañoso. Los modelos de lenguaje parecen inteligentes porque generan prosa humana al predecir la siguiente palabra en una oración. La tecnología no es verdaderamente inteligente, y llamarla así cambia sutilmente nuestras expectativas, por lo que tratamos la tecnología como más capaz de lo que realmente es.

No caiga en la trampa del marketing del sector tecnológico creyendo que estos modelos son omniscientes o factuales, o incluso que están casi listos para las tareas que esperamos que hagan. Debido a su imprevisibilidad, sesgos fuera de control, vulnerabilidades de seguridad y propensión a inventar cosas, su utilidad es extremadamente limitada. Pueden ayudar a los humanos a generar ideas y pueden entretenernos. Pero, sabiendo cuán defectuosos y propensos a fallar son estos modelos, probablemente no sea una buena idea confiarles los detalles de su tarjeta de crédito, su información confidencial o cualquier caso de uso crítico.

Como dicen los científicos en el artículo de Will, aún es temprano en el campo de la investigación de la IA. Según Boaz Barak, un científico informático de la Universidad de Harvard que actualmente se encuentra adscrito al equipo de superalineación de OpenAI, muchas personas en el campo lo comparan con la física de principios del siglo XX, cuando a Einstein se le ocurrió la teoría de la relatividad.

El foco del campo hoy es cómo los modelos producen las cosas que hacen, pero se necesita más investigación sobre por qué lo hacen. Hasta que comprendamos mejor el interior de la IA, se esperan más errores extraños y muchas exageraciones que la tecnología inevitablemente no estará a la altura.

Leave a Reply

Your email address will not be published. Required fields are marked *