La inteligencia artificial podría mejorar la atención psiquiátrica



La IA puede ayudar a impulsar la atención del paciente psiquiátrico.

La IA puede ayudar a impulsar la atención del paciente psiquiátrico.

En todos los campos de la medicina, los investigadores y los médicos buscan inteligencia artificial y aprendizaje automático para ayudarlos a evaluar y diagnosticar a los pacientes, con la esperanza de que la tecnología pueda acelerar el proceso y ayudar a detectar señales y patrones que no son tan evidentes al ojo humano o al cerebro. En el campo de la psiquiatría, que generalmente requiere conversaciones con los pacientes para tomar decisiones sobre la atención, tiene el potencial de aumentar la atención.

"Estamos trabajando en cómo analizar las respuestas de los pacientes", dice Peter Foltz, profesor de investigación en el Instituto de Ciencias Cognitivas de la Universidad de Colorado. “Actualmente en salud mental, los pacientes tienen muy poco tiempo de interacción con los médicos. Muchos de ellos son remotos, y es difícil pasar tiempo con ellos ”. Para solucionar ese problema, Foltz y su equipo están trabajando para crear aplicaciones que puedan recopilar y analizar datos sobre los estados mentales de los individuos e informarlos a los médicos. .

Las herramientas como esta no están diseñadas para reemplazar a médicos y psiquiatras, enfatiza, solo para mejorar aún más su atención. Y a medida que la investigación sobre su papel continúa desarrollándose, es igualmente importante prestar atención a la mejor manera de generar confianza en sus contribuciones. "Para poder realmente hacer esto, es necesario que los laicos y la comunidad psiquiátrica comprendan mejor qué puede hacer la inteligencia artificial, qué no puede hacer y cómo evaluarla", dice.

en un nuevo papel publicado esta semana, Foltz y sus colegas describieron un marco que esperan pueda establecer esa confianza. Destaca tres objetivos clave para la inteligencia artificial en la psiquiatría para luchar: explicabilidad, transparencia y generalización. "Realmente los vemos como pilares en los que la psiquiatría necesita pensar si estamos diciendo que queremos aplicar IA en el campo", dice.

La inteligencia artificial puede ser una caja negra, y cualquier programa que tenga como objetivo ser utilizado clínicamente debe incluir información sobre cómo se construyó y sobre qué datos se capacitó (transparencia), y los médicos deberían recibir tanta información como sea posible sobre cómo el programa llegó a cualquier decisión que escupe al otro extremo (explicabilidad).

"Cuando una máquina hace una predicción, ¿en qué está haciendo sus predicciones?", Dice Foltz. "Queremos que la gente entienda cómo se puede usar esto, cómo se obtienen esos resultados y qué significan esos resultados".

Los programas de inteligencia artificial se entrenan primero en un conjunto específico de datos con un diagnóstico o designación conocida, y luego usan lo que han aprendido de ese conjunto para tomar decisiones sobre información nueva y desconocida. Sin embargo, los programas a menudo están limitados por la población específica en la que se capacitó. "Queremos asegurarnos de que la validación se realice en una población amplia, a fin de garantizar que pueda ser generalizable para otras áreas fuera de la población en la que está capacitado", dice Foltz.

Esos principios también son importantes para otras áreas de la medicina. Sin embargo, en psiquiatría, la inteligencia artificial tiene el potencial de abrir un cuello de botella: las conversaciones con los pacientes siempre han tenido que ser interpretadas por humanos, pero ahora, algo de eso puede ser realizado por máquinas.

El equipo de Foltz está trabajando en aplicaciones que pueden registrar información de preguntas abiertas a los pacientes y analizar patrones de habla para aprender sobre su estado mental. "Estamos viendo cómo dicen las cosas y los componentes de lo que están diciendo", dice. "Podemos ver cuán coherente es, qué tan bien se mantienen en el tema, qué tan grandes son sus saltos de un tema a otro y la estructura de su lenguaje". Los resultados preliminares muestran que el programa puede interpretar el estado mental de un paciente en tanto como un clínico escuchando las mismas respuestas grabadas.

El equipo está trabajando para refinar sus mediciones y ver cómo la herramienta podría aplicarse a una variedad de afecciones de salud mental, desde la esquizofrenia hasta el deterioro cognitivo leve. Fotlz dice, sin embargo, que probablemente pasará un tiempo antes de que este tipo de programas se utilicen clínicamente.

“La línea de tiempo está bastante lejos, probablemente en el rango de cinco a diez años. Algo de eso proviene de la necesidad de hacer más investigación y refinar la investigación, y algunos están realizando estudios más grandes para evaluar la generalización ”, dice. "Todavía estamos descubriendo cómo funciona esto como una herramienta para poder monitorear a los pacientes".

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *