Por qué no deberías confiar en los motores de búsqueda de IA

Por qué no deberías confiar en los motores de búsqueda de IA

Aproximadamente dos segundos después de que Microsoft permitiera que la gente hurgara con su nuevo motor de búsqueda Bing basado en ChatGPT, la gente comenzó a descubrir que respondía a algunas preguntas con respuestas incorrectas o sin sentido, como teorias de conspiracion. Google tuvo un momento embarazoso cuando científicos detectó un error fáctico en el propio anuncio de la compañía para su chatbot Bard, que posteriormente eliminó $ 100 mil millones del precio de sus acciones.

Lo que hace que todo esto sea aún más impactante es que no sorprendió precisamente a nadie que haya estado prestando atención a los modelos de lenguaje de IA.

Aquí está el problema: la tecnología simplemente no está lista para usarse así a esta escala. Los modelos de lenguaje de IA son notorios mentirosos, que a menudo presentan falsedades como hechos. Son excelentes para predecir la siguiente palabra en una oración, pero no tienen conocimiento de lo que realmente significa la oración. Eso hace que sea increíblemente peligroso combinarlos con la búsqueda, donde es crucial aclarar los hechos.

OpenAI, el creador del exitoso chatbot de IA ChatGPT, siempre ha enfatizado que todavía es solo un proyecto de investigación y que está mejorando constantemente a medida que recibe comentarios de las personas. Eso no ha impedido que Microsoft lo integre en una nueva versión de Bing, aunque con la advertencia de que los resultados de la búsqueda pueden no ser confiables.

Google ha estado utilizando el procesamiento del lenguaje natural durante años para ayudar a las personas a realizar búsquedas en Internet utilizando oraciones completas en lugar de palabras clave. Sin embargo, hasta ahora, la empresa se ha mostrado reacia a integrar su propia tecnología de chatbot de inteligencia artificial en su motor de búsqueda exclusivo, dice Chirag Shah, profesor de la Universidad de Washington que se especializa en búsquedas en línea. El liderazgo de Google ha sido preocupado por el “riesgo reputacional”

de apresurarse a sacar una herramienta similar a ChatGPT. ¡La ironía!

Los errores recientes de Big Tech no significan que la búsqueda impulsada por IA sea una causa perdida. Una forma en que Google y Microsoft han tratado de hacer que sus resúmenes de búsqueda generados por IA sean más precisos es ofreciendo citas. Los enlaces a las fuentes permiten a los usuarios comprender mejor de dónde obtiene su información el motor de búsqueda, dice Margaret Mitchell, investigadora y especialista en ética de la empresa emergente de IA Hugging Face, que solía dirigir el equipo de ética de IA de Google.

Esto incluso podría ayudar a que las personas tengan una visión más diversa de las cosas, dice, al alentarlos a considerar más fuentes de las que podrían haber hecho de otra manera.

Pero eso no hace nada para abordar el problema fundamental de que estos modelos de IA componen información y presentan con confianza las falsedades como un hecho. Y cuando el texto generado por IA parece autorizado y cita fuentes, irónicamente, eso podría hacer que los usuarios tengan menos probabilidades de verificar la información que están viendo.

Leave a Reply

Your email address will not be published. Required fields are marked *