Cómo cree DeepMind que puede hacer que los chatbots sean más seguros

Algunos tecnólogos esperan que algún día desarrollemos un sistema de inteligencia artificial superinteligente con el que la gente pueda tener conversaciones. Hágale una pregunta y le ofrecerá una respuesta que suena como algo compuesto por un experto humano. Puede usarlo para pedir consejo médico o para ayudar a planificar unas vacaciones. Bueno, esa es la idea, al menos.

En realidad, todavía estamos muy lejos de eso. Incluso los sistemas más sofisticados de la actualidad son bastante tontos. Una vez conseguí que el chatbot de IA de Meta, BlenderBot, me dijera que un prominente político holandés era un terrorista

. En experimentos donde se usaron chatbots impulsados ​​​​por IA para ofrecer consejos médicos, les dijeron a los pacientes fingidos que se suicidaran. No te llena de mucho optimismo, ¿verdad?

Es por eso que los laboratorios de IA están trabajando arduamente para hacer que sus IA conversacionales sean más seguras y útiles antes de soltarlas en el mundo real. Yo solo publicó una historia sobre el último esfuerzo del laboratorio de inteligencia artificial DeepMind, propiedad de Alphabet: un nuevo chatbot llamado Sparrow.

El nuevo truco de DeepMind para hacer un buen chatbot impulsado por IA era hacer que los humanos le dijeran cómo comportarse—y obligarlo a respaldar sus afirmaciones mediante la búsqueda de Google. Luego se pidió a los participantes humanos que evaluaran qué tan plausibles eran las respuestas del sistema de IA. La idea es seguir entrenando la IA mediante el diálogo entre humanos y máquinas.

Al informar sobre la historia, hablé con Sara Hooker, quien dirige Cohere for AI, un laboratorio de investigación de IA sin fines de lucro.

Ella me dijo que uno de los mayores obstáculos para implementar de manera segura los sistemas de IA conversacionales es su fragilidad, lo que significa que funcionan de manera brillante hasta que son llevados a un territorio desconocido, lo que hace que se comporten de manera impredecible.

“También es un problema difícil de resolver porque dos personas pueden estar en desacuerdo sobre si una conversación es inapropiada. E incluso si estamos de acuerdo en que algo es apropiado en este momento, esto puede cambiar con el tiempo o depender de un contexto compartido que puede ser subjetivo”, dice Hooker.

A pesar de eso, los hallazgos de DeepMind subrayan que la seguridad de la IA no es solo una solución técnica. Necesitas humanos en el circuito.

Leave a Reply

Your email address will not be published.