La IA falla en las cosas que nos proponemos hacer y tiene éxito en las cosas que no hicimos

La IA falla en las cosas que nos proponemos hacer y tiene éxito en las cosas que no hicimos

Descargo de responsabilidad: Las opiniones expresadas a continuación pertenecen únicamente al autor.

La inteligencia artificial (IA) está de moda en estos días, unos meses después del lanzamiento de ChatGPT al público en general que dejó a millones de nosotros atónitos por lo bien informado y humano que puede ser un bot digital.

¡Las máquinas inteligentes están aquí y están a punto de hacerse cargo de nuestros trabajos!

Excepto que no lo son, ni siquiera cerca en la mayoría de los casos, y tienen fallas bastante fundamentales que podrían hacer que la adopción masiva de la IA sea otra moda pasajera que desaparecerá en aproximadamente un año si no se aborda.

De IA a BS

El tema de la IA es extraordinariamente amplio y creo que debemos hacer ciertas distinciones entre las diferentes aplicaciones.

El uso estricto del aprendizaje automático ha demostrado ser muy útil hasta ahora, brindándonos respuestas simples a problemas derivados de un conjunto de datos completo y bien definido.

Por ejemplo, los robots pueden detectar malezas que brotan en los campos y destruirlas con láseres incorporados, eliminando la necesidad de herbicidas potencialmente dañinos. Esta es una victoria tanto para los agricultores como para los consumidores.

En un ejemplo relacionado, los algoritmos de aprendizaje automático se utilizan en astronomía para filtrar miles de observaciones y categorizar los objetos detectados mucho más rápido de lo que podría hacerlo un equipo de humanos.

inteligencia artificial de la nasa
Crédito de la foto: NASA

Sin embargo, si bien tales aplicaciones se incluyen en las definiciones generalmente aceptadas de “IA estrecha”, sería difícil llamar “inteligentes” a tales algoritmos o robots. No son más “inteligentes” que su software OCR simplemente porque puede reconocer letras en un documento escaneado.

En otras palabras, el aprendizaje automático ha demostrado su eficacia en la automatización de muchas tareas repetitivas que no requieren mucha reflexión. Hace que las máquinas sean más efectivas en ciertas cosas para las que fueron construidas.

Se pensaba que la creación de una máquina “pensante”, al menos una que pudiera pasar la prueba de Turing, era nuestra próxima frontera, y la llegada de ChatGPT ha entusiasmado al mundo, lo que sugiere que ese momento finalmente ha llegado.

¿Pero lo hizo?

Si bien el bot aún no ha pasado la prueba de Turing (al contrario de lo que insinuaron algunos periodistas demasiado entusiastas hace unas semanas), todavía exhibe un comportamiento que ya podría desafiar los resultados de tal intento.

Si bien ChatGPT puede sonar notablemente humano, tiene una extraña inclinación por inventar cosas cuando no sabe la respuesta, y generalmente lo hace de una manera muy convincente.

Un poco como un estudiante tratando de pasar un examen para el que no se preparó.

Lo probé yo mismo y le pedí a ChatGPT que resumiera un artículo que escribí hace unas semanas. Si bien el bot no está conectado directamente a Internet, afirma que puede leer enlaces y el contenido detrás de ellos. Esto es lo que tengo:

Casi nada de esto es ni remotamente correcto, ya que he escrito específicamente sobre cómo es la vida simple lo que impulsa a las personas a tener familias más grandes, y hay muy pocas políticas públicas que puedan hacer para cambiar eso. Entonces, no, no se habla de política, de conciliación de la vida personal y laboral ni de actitudes culturales de esta manera.

Cuando se le solicitó nuevamente, simplemente repitió los mismos puntos que había hecho anteriormente. ¿Tal vez es como si alguien sugiriera que ChatGPT en realidad no puede acceder a los enlaces, pero parece muy bueno que pueda…?

De todos modos, si no estuviera al tanto del contenido de mi artículo, solo daría esta respuesta muy persuasiva, felizmente inconsciente de que estaba siendo alimentado con basura total porque sonaba totalmente plausible y fue entregado de una manera natural y humana.

Cuando lo alimenté manualmente con el texto completo del artículo, se desempeñó significativamente mejor, pero aun así perdió el punto y algunos puntos importantes que hice allí, lo que hizo que su servicio fuera prácticamente inútil (recuerde todas esas demostraciones, prometiendo reducir la necesidad de leer documentos largos haciéndolos resumir por AI?).

la inteligencia artificial resume el correo electrónico
Crédito de la foto: Marketoonist/Tom Fishburne

El problema es que, a menos que esté familiarizado con el contenido, no tiene forma de saber si el resumen es correcto o no.

Este problema no se limita a cosas que el sistema podría no haber podido aprender.

Los investigadores encuestaron a ChatGPT para obtener información sobre el cáncer y, si bien la mayoría de las respuestas fueron correctas, algunas no lo fueron, a menudo de manera muy engañosa.

chatgpt salud cáncer

La “gran mayoría” – 88 por ciento – de las respuestas fueron apropiadas y fáciles de entender. Sin embargo, algunas de las respuestas son “inexactas o incluso ficticias”, advirtieron.

ChatGPT también proporcionó respuestas contradictorias a preguntas sobre el riesgo de cáncer de mama y dónde hacerse una mamografía. El estudio encontró que las respuestas “variaban significativamente” cada vez que se hacía la misma pregunta.

El coautor del estudio, el Dr. Paul Yi dijo: “Hemos visto que en nuestra experiencia ChatGPT a veces fabrica artículos de revistas falsos o consorcios de salud para respaldar sus afirmaciones.

– Correo diario, 4 de abril de 2023

Sí, has leído bien: “ChatGPT a veces inventa artículos de revistas falsos”. En otras palabras, ¡contiene referencias a artículos que no existen y nunca existieron! ¡Simplemente la inventó!

Un comportamiento similar fue descubierto hace unos meses por un usuario de Hacker News que le pidió a ChatGPT referencias sobre un tema matemático, y resultó que cada título e incluso enlace (!) Era completamente falso:

Hacker News Chatgpt Referencias falsas

Una cosa es hacer un esfuerzo para encontrar información, pero otra muy distinta es cuando te están alimentando con mentiras completas de una manera muy persuasiva. No es exactamente lo que esperábamos en la era de las noticias falsas omnipresentes…

Revelando el truco del mago

Estas “alucinaciones”, como se las llama, exponen los límites de lo que realmente es ChatGPT: un gran modelo de lenguaje.

Está diseñado para ser un conversador extremadamente persuasivo, hasta el punto de fingir cosas siempre que suenen naturales.

Básicamente, no es diferente a un truco de cartas.

Mientras no sepas cómo funciona, también podrías creer que es magia real. Pero al igual que las tarjetas no desaparecen y los conejitos no salen de los sombreros, ChatGPT y otros bots realmente no piensan, aunque lo parezca.

Y las consecuencias son más graves de lo que parece a primera vista.

Después de todo, no importa si el bot tiene razón en un 88 % o en un 97 %; mientras pueda estar equivocado en cualquier punto, no se puede confiar en él.

Porque algo importante puede salir mal, algo que puede costar una vida humana, una falla estructural de un proyecto técnico, una falla de seguridad en el código de un programa, una mala inversión que vale millones, o incluso algo tan simple como un correo electrónico de su gerente, que lo resumió incorrectamente, lo engañó acerca de la solicitud de su jefe y lo preparó para un mal día en el trabajo.

¿Vale la pena el riesgo?

Y nunca podemos saber que cometió un error a menos que ya tengamos el conocimiento completo (en cuyo caso, ¿por qué necesitaríamos el bot?), o aprender la dolorosa lección de la experiencia cuando las cosas salen mal.

En otras palabras, la IA más avanzada que existe nos está fallando en todas las cosas que pensábamos que podía hacer mejor que nosotros, cosas que requieren precisión y certeza..

Errar es humano

Por supuesto, los humanos tampoco somos perfectos: también cometemos errores, a veces con consecuencias catastróficas.

Pero queremos que la IA lo haga mejor que nosotros. De lo contrario, ¿cuál es el punto?

Además, por lo general se pueden identificar áreas propensas al error humano, implementar controles y controles de calidad y mejorar significativamente nuestra confiabilidad.

Mientras tanto, el comportamiento errático de la IA parece ser mucho más aleatorio, lo que significa que, idealmente, necesitaríamos tener un sistema paralelo verificando todo sobre la marcha, por si acaso.

No tengo dudas de que muchos de estos problemas se pueden solucionar, pero no estoy convencido de que podamos lograr el 100% de precisión. Y eso se debe a que la IA es tan inteligente como la alimentamos y cómo la interpreta, según los patrones pasados ​​de los que aprendió, no el pensamiento objetivo.

Todavía tenemos que tener en cuenta que a pesar de los ingeniosos trucos que los impulsan, estos sistemas no tienen cerebro y no razonan como nosotros. Son más como marionetas, que funcionan con un alto grado de precisión (y no es exactamente lo mismo).

Y debido a que son tan convincentes, son lo que los hace tan difíciles de solucionar o verificar, hasta el punto de quedar obsoletos en aplicaciones clave que requieren certeza absoluta.

Dado que necesita tener suficiente conocimiento usted mismo, ¿para qué necesita la máquina sensible (que debe verificar dos veces)?

Irónicamente, nuestros compañeros de IA parecen desempeñarse mucho mejor en áreas que realmente no necesitábamos ni pretendíamos que hicieran, como se ilustra en este tuit irónico:

Twittear inteligencia artificial

Esperábamos que la IA pudiera quitarnos la pesada carga de encima para que pudiéramos disfrutar de actividades más agradables, pero hasta ahora ha sido todo lo contrario.

Herramientas de IA como Stable Diffusion, Midjourney o Dall-E son capaces de generar impresionantes obras de arte o imágenes muy realistas a partir de una simple introducción de texto, como estas “fotos” del Papa Francisco con una chaqueta de invierno que se hicieron virales hace unos días. :

Chaqueta de invierno Papa Francisco
Imagen generada por IA del Papa Francisco con una chaqueta de invierno

O esta fotografía retro de la China comunista que muestra cosas que nunca sucedieron y personas que nunca existieron:

china comunista
Crédito de la foto: Zhang Haijun a través de Midjourney
china comunista
Crédito de la foto: Zhang Haijun a través de Midjourney

Mientras tanto, ChatGPT puede producir rápidamente cualquier cantidad de poemas o prosa sobre cualquier cosa (como Singapur).

singapur poema chatgpt
ChatGPT está escribiendo un poema sobre Singapur

Por supuesto, no es exactamente un candidato al Premio Nobel, pero eso es lo que pasa con las actividades creativas: no tiene por qué serlo.

Y sí, ocasionalmente puedes encontrar fallas en algunas imágenes, pero nuevamente, no tienen que ser perfectas y cualquier falla es rápidamente visible a simple vista. Esto hace que sea fácil de corregir, a diferencia de la información potencialmente inventada que debe confirmar que es válida.

Las áreas en las que los errores no son críticos están marcadas por AI.

Pero también significa que todavía se necesita gente para entender dónde se cometieron esos errores y corregirlos.

Sin duda, mejorará nuestra eficiencia en muchas tareas (como el diseño gráfico o la codificación), pero probablemente no nos reemplace por completo.

Al menos no en el futuro previsible, ya que requeriría mucha más potencia que la salida algorítmica de oraciones que suenan plausibles.

A pesar de todo el bombo sobre la “inteligencia” artificial, todavía queda un largo camino por recorrer antes de que podamos usar el término sin renunciar a nada.

Crédito de las imágenes seleccionadas: bennymarty / depositphotos

Leave a Reply

Your email address will not be published. Required fields are marked *