Una IA está capacitando a consejeros para lidiar con adolescentes en crisis

El chatbot usa GPT-2 por sus habilidades de conversación básicas. Ese modelo se entrena en 45 millones de páginas de la web, lo que le enseña la estructura básica y gramática del idioma inglés. El Proyecto Trevor luego lo entrenó más en todas las transcripciones de conversaciones anteriores de juegos de roles de Riley, lo que le dio al bot los materiales que necesitaba para imitar a la persona.

Durante todo el proceso de desarrollo, el equipo se sorprendió de lo bien que se desempeñó el chatbot. No hay una base de datos que almacene los detalles de la biografía de Riley, sin embargo, el chatbot se mantuvo constante porque cada transcripción refleja la misma historia.

Pero también existen ventajas y desventajas para el uso de la IA, especialmente en contextos sensibles con comunidades vulnerables. Se sabe que GPT-2, y otros algoritmos de lenguaje natural como este, incorporan ideas profundamente racistas, sexistas y homofóbicas. Más de un chatbot se ha descarriado desastrosamente de esta manera, siendo el más reciente un chatbot de Corea del Sur llamado Lee Luda que tenía la personalidad de un estudiante universitario de 20 años. Después de ganar popularidad rápidamente e interactuar con más y más usuarios, comenzó a usar insultos para describir las comunidades queer y discapacitadas.

El Proyecto Trevor es consciente de esto y diseñó formas de limitar el potencial de problemas. Mientras que Lee Luda estaba destinado a conversar con los usuarios sobre cualquier tema, Riley tiene un enfoque muy limitado. Los voluntarios no se desviarán demasiado de las conversaciones en las que han sido entrenados, lo que minimiza las posibilidades de un comportamiento impredecible.

Esto también hace que sea más fácil probar exhaustivamente el chatbot, lo que Trevor Project dice que está haciendo. “Estos casos de uso que son altamente especializados y bien definidos, y diseñados de manera inclusiva, no representan un riesgo muy alto”, dice Nenad Tomasev, investigador de DeepMind.

De humano a humano

Esta no es la primera vez que el campo de la salud mental intenta aprovechar el potencial de la IA para brindar asistencia ética e inclusiva sin dañar a las personas a las que está diseñada para ayudar. Los investigadores han desarrollado formas prometedoras de detectar la depresión a partir de una combinación de señales visuales y auditivas. Los “bots” de terapia, aunque no equivalen a un profesional humano, están siendo lanzados como alternativas para quienes no pueden acceder a un terapeuta o son incómodos confiar en una persona.

Cada uno de estos desarrollos, y otros similares, requieren pensar en cuánta agencia deberían tener las herramientas de inteligencia artificial cuando se trata de tratar a personas vulnerables. Y el consenso parece ser que en este punto la tecnología no es realmente adecuada para reemplazar la ayuda humana.

Aun así, Joiner, el profesor de psicología, dice que esto podría cambiar con el tiempo. Si bien reemplazar a los consejeros humanos con copias de IA es actualmente una mala idea, “eso no significa que sea una restricción permanente”, dice. Las personas “tienen amistades y relaciones artificiales” con servicios de IA ya. Siempre que no se engañe a las personas para que piensen que están teniendo una discusión con un humano cuando están hablando con una IA, dice, podría ser una posibilidad en el futuro.

Mientras tanto, Riley nunca se enfrentará a los jóvenes que en realidad envían mensajes de texto al Proyecto Trevor: solo servirá como una herramienta de capacitación para los voluntarios. “La conexión de persona a persona entre nuestros asesores y las personas que se acercan a nosotros es esencial para todo lo que hacemos”, dice Kendra Gaunt, líder de productos de inteligencia artificial y datos del grupo. “Creo que eso nos hace realmente únicos, y algo que no creo que ninguno de nosotros quiera reemplazar o cambiar”.

Leave a Reply

Your email address will not be published. Required fields are marked *