La IA probablemente no reemplazará a un terapeuta humano

Este artículo apareció originalmente en Noticias de salud de KFF.

En los años pasados, 10.000 a 20.000 aplicaciones han entrado en estampida en el espacio de la salud mental, ofreciendo “interrumpir” la terapia tradicional. Con el frenesí en torno a las innovaciones de IA como ChatGPT, la afirmación de que los chatbots pueden brindar atención de salud mental está en el horizonte.

Los números explican por qué: las tensiones pandémicas llevaron a millones más de estadounidenses buscando tratamiento. Al mismo tiempo, durante mucho tiempo ha habido escasez de profesionales de la salud mental en los Estados Unidos; más que la mitad de todos los condados carecen de psiquiatras. Dada la Ley del Cuidado de Salud a Bajo Precio mandato de que las aseguradoras ofrezcan paridad entre la cobertura de salud física y mental, existe un abismo entre la oferta y la demanda.

Para los empresarios, eso representa una bonanza de mercado. En la conferencia South by Southwest en marzo, donde las nuevas empresas de salud exhibieron sus productos, hubo una convicción casi religiosa de que la IA podría reconstruir la atención médica, ofreciendo aplicaciones y máquinas que podrían diagnosticar y tratar todo tipo de enfermedades, reemplazando a médicos y enfermeras.

Desafortunadamente, en el espacio de la salud mental, falta evidencia de efectividad. Pocas de las muchas aplicaciones en el mercado tienen independiente investigación de resultados

mostrando que ayudan; la mayoría no ha sido examinada en absoluto por la FDA. Aunque se comercializan para tratar afecciones como la ansiedad, el trastorno por déficit de atención/hiperactividad y la depresión, o para predecir tendencias suicidas, muchos advierten a los usuarios (en letra pequeña) que son “sin intención ser médico, de salud del comportamiento u otro servicio de atención médica” o “no aprobado por la FDA producto.”

Hay buenas razones para ser cautelosos frente a este gigante del marketing.

Hace decadas, José Wheatbaum, profesor del Instituto Tecnológico de Massachusetts y considerado uno de los padres de la inteligencia artificial, predijo que la IA nunca sería un buen terapeuta, aunque podría parecer que lo es. De hecho, su programa de IA original, creado en la década de 1960, fue una psicoterapeuta llamada ELIZA, que usaba reconocimiento de palabras y patrones combinado con programación de lenguaje natural. sonar como un terapeuta:

Mujer: Bueno, mi novio me hizo venir aquí.

ELIZA: ¿Tu novio te hizo venir aquí?

Mujer: Dice que estoy deprimido la mayor parte del tiempo.

ELIZA: Lamento escuchar que está deprimido.

Mujer: Es cierto. soy infeliz

ELIZA: ¿Crees que venir aquí te ayudará a no ser infeliz?

Aunque aclamado como un triunfo de la IA, el “éxito” de ELIZA aterrorizó a Weizenbaum, a quien entrevisté una vez. Dijo que los estudiantes interactuarían con la máquina como si Eliza fuera una terapeuta real, cuando lo que él había creado era “un truco de fiesta”, dijo.

Previó la evolución de programas mucho más sofisticados como ChatGPT. Pero “las experiencias que una computadora podría obtener en tales circunstancias no son experiencias humanas”, me dijo. “La computadora, por ejemplo, no experimentará la soledad en ningún sentido en el que la entendamos”.

Lo mismo ocurre con la ansiedad o el éxtasis, emociones tan neurológicamente complejas que los científicos no han podido precisar sus orígenes neuronales. ¿Puede un chatbot lograr la transferencia, el flujo empático entre el paciente y el médico que es fundamental para muchos tipos de terapia?

“El principio básico de la medicina es que es una relación entre humano y humano, y la IA no puede amar”, dijo Bon Ku, director del Laboratorio de Diseño de Salud de la Universidad Thomas Jefferson y pionero en innovación médica. “Tengo un terapeuta humano, y eso nunca será reemplazado por IA”.

Ku dijo que le gustaría ver que la IA se use en su lugar para reducir las tareas de los profesionales, como el mantenimiento de registros y la entrada de datos, para “liberar más tiempo para que los humanos se conecten”.

Si bien algunas aplicaciones de salud mental en última instancia pueden resultar valiosas, hay evidencia de que algunos pueden hacer daño. Un investigador señaló que algunos usuarios criticó estas aplicaciones por su “naturaleza escrita y falta de adaptabilidad más allá de los casos de libros de texto de ansiedad y depresión leves”.

Puede resultar tentador para las aseguradoras ofrecer aplicaciones y chatbots para cumplir con el requisito de paridad en salud mental. Después de todo, esa sería una solución barata y simple, en comparación con la dificultad de ofrecer un panel de terapeutas humanos, especialmente porque muchos no tienen seguro porque consideran que los pagos de las aseguradoras son demasiado bajos.

Tal vez al ver la avalancha de IA que llega al mercado, el Departamento de Trabajo anunció el año pasado que era aumentando los esfuerzos para garantizar un mejor cumplimiento de las aseguradoras con el requisito de paridad en salud mental.

La FDA también dijo a fines del año pasado que “tiene la intención de ejercer la discreción de ejecución” en una variedad de aplicaciones de salud mental, que examinará como dispositivos médicos. Hasta el momento, ninguno ha sido aprobado. Y solo unos pocos han obtenido la autorización de la agencia. designación de dispositivo innovadorcual revisiones rápidas y estudios sobre dispositivos que muestran potencial.

Estas aplicaciones ofrecen principalmente lo que los terapeutas llaman terapia estructurada, en la que los pacientes tienen problemas específicos y la aplicación puede responder con un enfoque similar al de un libro de ejercicios. Por ejemplo, Woebot combina ejercicios de atención plena y autocuidado (con respuestas escritas por equipos de terapeutas) para la depresión posparto. Wysa, otra aplicación que ha recibido una designación de dispositivo innovador, ofrece terapia conductual cognitiva para la ansiedad, la depresión y el dolor crónico.

Pero la recopilación de datos científicos confiables sobre qué tan bien funcionan los tratamientos basados ​​en aplicaciones llevará tiempo. “El problema es que ahora hay muy poca evidencia para que la agencia llegue a alguna conclusión”, dijo Kedar Mate, director del Instituto para la Mejora de la Atención Médica con sede en Boston.

Hasta que tengamos esa investigación, no sabemos si la atención de salud mental basada en aplicaciones funciona mejor que ELIZA de Weizenbaum. Sin duda, la IA puede mejorar con el paso de los años, pero en este punto, es lamentablemente prematuro que las aseguradoras afirmen que brindar acceso a una aplicación se acerca a cumplir con el requisito de paridad de salud mental.

Noticias de salud KFF es una sala de redacción nacional que produce periodismo detallado sobre temas de salud y es uno de los principales programas operativos de KFF, una fuente independiente de investigación, encuestas y periodismo sobre políticas de salud. Aprender más acerca de KFF.

Foto de salud mental

Leave a Reply

Your email address will not be published. Required fields are marked *