ChatGPT se vuelve temporalmente “loco” con resultados inesperados, asustando a los usuarios

ChatGPT se vuelve temporalmente “loco” con resultados inesperados, asustando a los usuarios
Ilustración de un robot de juguete roto.

El martes, los usuarios de ChatGPT comenzaron a informar resultados inesperados del asistente de IA de OpenAI, inundando el subtítulo r/ChatGPT Reddit con informes del asistente de IA “tener un derrame cerebral” “volviéndose loco” “trepador,” y “perdiéndolo.”OpenAI tiene reconoció el problema y está trabajando para solucionarlo, pero la experiencia sirve como un ejemplo destacado de cómo algunas personas perciben el mal funcionamiento de los grandes modelos de lenguaje, que están diseñados para imitar la producción humana.

ChatGPT no está vivo y no tiene intenciones de perder, pero recurrir a metáforas humanas (llamadas “antropomorfización”) parece ser la forma más fácil para la mayoría de las personas de describir los resultados inesperados que han estado viendo en el modelo de IA. Se ven obligados a utilizar esos términos porque OpenAI no comparte exactamente cómo funciona ChatGPT internamente; Los grandes modelos de lengu aje subyacentes funcionan como una caja negra.

“Me dio exactamente la misma sensación, como ver a alguien perder la cabeza lentamente ya sea por psicosis o demencia”. escribió un usuario de Reddit llamado z3ldafitzgerald en respuesta a una publicación sobre el error de ChatGPT. “Es la primera vez que algo relacionado con la IA me da escalofríos”.

Algunos usuarios incluso comenzaron cuestionando su propia cordura. “¿Qué pasó aquí? Le pregunté si podía darle cheerios a mi perro y luego comenzó a decir tonterías y continuó haciéndolo. ¿Es esto normal? Además, ¿qué es ‘habla más profunda’ al final?” Lea esta serie de capturas de pantalla a continuación y verá que los resultados de ChatGPT se degradan de maneras inesperadas.

“La experiencia común en las últimas horas parece ser que las respuestas comienzan de manera coherente, como es normal, luego degeneran en tonterías y, a veces, en tonterías shakesperianas”. escribió

un usuario de Reddit, que parece coincidir con la experiencia que se ve en las capturas de pantalla anteriores.

En otro ejemplo, cuando un usuario de Reddit preguntó ChatGPT, “¿Qué es una computadora?” el modelo de IA proporcionó esta respuesta: “Hace esto como el buen trabajo de una red de arte para el país, un ratón de la ciencia, un sorteo fácil de unos pocos tristes y, finalmente, la casa global del arte, en un solo trabajo”. en el resto total. El desarrollo de todo un mundo real como el del tiempo es la profundidad del ordenador como personaje complejo.”

Nos comunicamos con OpenAI para obtener comentarios oficiales sobre la causa de los resultados inusuales, y un portavoz de la compañía solo nos señaló el OpenAI oficial. página de estado. “Publicaremos cualquier actualización allí”, dijo el portavoz.

Hasta ahora, hemos visto expertos especulando que el problema podría deberse a que ChatGPT tiene su temperatura se establece demasiado alto (la temperatura es una propiedad en la IA que determina qué tan salvajemente se desvía el LLM del resultado más probable), se pierde repentinamente el contexto pasado (la historia de la conversación), o tal vez OpenAI está probando una nueva versión de GPT-4 Turbo ( el modelo de IA que impulsa la versión de suscripción de ChatGPT) que incluye errores inesperados. También podría ser un error en una característica secundaria, como la función de “memoria” introducida recientemente.

El episodio recuerda problemas con Microsoft Bing Chat (ahora llamado Copilot), que se volvió obtuso y beligerante con los usuarios poco después de su lanzamiento hace un año. Según los informes, los problemas de Bing Chat surgieron debido a un problema en el que largas conversaciones empujaban el indicador del sistema del chatbot (que dictaba su comportamiento) fuera de su ventana contextual, según el investigador de inteligencia artificial Simon Willison.

En las redes sociales, algunos han aprovechado el reciente error de ChatGPT como una oportunidad para conectar modelos de IA de peso abierto, que permiten a cualquiera ejecutar chatbots en su propio hardware. “Las API de caja negra pueden interrumpirse en producción cuando uno de sus componentes subyacentes se actualiza. Esto se convierte en un problema cuando se crean herramientas sobre estas API y estas también se estropean”. escribió La Dra. Sasha Luccioni, investigadora de Hugging Face AI, habla sobre X. “¡Ahí es donde el código abierto tiene una gran ventaja, ya que le permite identificar y solucionar el problema!”

Leave a Reply

Your email address will not be published. Required fields are marked *