Por qué la IA aún no está lista para el consultorio del médico

Por qué la IA aún no está lista para el consultorio del médico

Este artículo apareció originalmente en Noticias de salud KFF.

¿Qué utilidad podría tener la atención médica para alguien que inventa cosas, no puede guardar un secreto, realmente no sabe nada y, cuando habla, simplemente completa la siguiente palabra en función de lo que viene antes? Mucho, si ese individuo es la forma más nueva de inteligencia artificial, según algunas de las compañías más grandes que existen.

Las empresas que impulsan la última tecnología de IA, conocida como “IA generativa”, están acumulando: Google y microsoft quieren traer tipos de los llamados modelos de lenguaje grande al cuidado de la salud. Las grandes firmas que son familiares para las personas con batas blancas, pero tal vez menos para el Joe y Jane promedio, son igualmente entusiastas: los gigantes de registros médicos electrónicos Epic y Oracle Cerner no se quedan atrás. El espacio también está lleno de nuevas empresas.

Las empresas quieren que su IA tome notas para los médicos y les dé una segunda opinión, suponiendo que puedan evitar que la inteligencia “alucine” o, para el caso, divulgar la información privada de los pacientes.

“Hay algo en marcha que es bastante emocionante”, dijo Eric Topol, director del Instituto Traslacional de Investigación Scripps en San Diego. “Sus capacidades finalmente tendrán un gran impacto”. Topol, como muchos otros observadores, se pregunta cuántos problemas podría causar, como filtrar datos de pacientes, y con qué frecuencia. “Vamos a averiguarlo”.

El espectro de tales problemas inspiró a más de 1000 líderes tecnológicos firmar una carta abierta en marzo, instando a las empresas a detener el desarrollo de sistemas avanzados de inteligencia artificial hasta que “tengamos confianza en que sus efectos serán positivos y sus riesgos serán manejables”. Aun así, algunos de ellos están invirtiendo más dinero en empresas de inteligencia artificial.

La tecnología subyacente se basa en sintetizar grandes porciones de texto u otros datos, por ejemplo, algunos modelos médicos. confiar en 2 millones de notas de la unidad de cuidados intensivos del Centro Médico Beth Israel Deaconess en Boston, para predecir el texto que seguiría a una consulta determinada. La idea ha existido durante años, pero la fiebre del oro y la manía de marketing y los medios que la rodean son más recientes.

El frenesí se inició en diciembre de 2022 por OpenAI respaldado por Microsoft y su producto insignia, ChatGPT, que responde preguntas con autoridad y estilo. Puede explicar la genética en un soneto, por ejemplo.

OpenAI, que comenzó como una empresa de investigación sembrada por élites de Silicon Valley como Sam Altman, Elon Musk y Reid Hoffman, ha llevado el entusiasmo a los bolsillos de los inversores. La empresa tiene una estructura compleja e híbrida con y sin fines de lucro. Pero una nueva ronda de financiación de $ 10 mil millones de Microsoft ha llevado el valor de OpenAI a $ 29 mil millones, El diario de Wall Street informó. En este momento, la empresa otorga licencias de su tecnología a empresas como Microsoft y vende suscripciones a los consumidores. Otras nuevas empresas están considerando vender transcripción de IA u otros productos a sistemas hospitalarios o directamente a pacientes.

Las citas hiperbólicas están en todas partes. El exsecretario del Tesoro Larry Summers tuiteó recientemente: “Va a reemplazar lo que hacen los médicos (escuchar síntomas y hacer diagnósticos) antes de que cambie lo que hacen las enfermeras: ayudar a los pacientes a levantarse y manejarse en el hospital”.

Pero solo unas semanas después de que OpenAI recibió otra gran inyección de efectivo, incluso Altman, su director ejecutivo, desconfía de la fanfarria. “La exageración sobre estos sistemas, incluso si todo lo que esperamos es correcto a largo plazo, está totalmente fuera de control a corto plazo”. dijo para un artículo de marzo en The New York Times.

Pocos en el cuidado de la salud creen que esta última forma de IA está a punto de quitarles el trabajo (aunque algunas empresas están experimentando, de manera controvertida, con chatbots que actuar como terapeutas o guías de atención). Aún así, aquellos que son optimistas con la tecnología piensan que hará que algunas partes de su trabajo sean mucho más fáciles.

Eric Arzubi, un psiquiatra de Billings, Montana, solía administrar a colegas psiquiatras para un sistema hospitalario. Una y otra vez, obtenía una lista de proveedores que aún no habían terminado sus notas: sus resúmenes de la condición de un paciente y un plan de tratamiento.

Escribir estas notas es uno de los grandes factores de estrés en el sistema de salud: en conjunto, es una carga administrativa. Pero es necesario desarrollar un registro para los futuros proveedores y, por supuesto, las aseguradoras.

“Cuando la gente está muy atrasada en la documentación, eso crea problemas”, dijo Arzubi. “¿Qué sucede si el paciente ingresa al hospital y hay una nota que no se ha completado y no sabemos qué ha estado pasando?”

La nueva tecnología podría ayudar a aligerar esas cargas. Arzubi está probando un servicio, llamado Nabla Copilot, que participa en las visitas virtuales de los pacientes y luego las resume automáticamente, organizando en un formato de nota estándar la queja, el historial de enfermedades y un plan de tratamiento.

Los resultados son sólidos después de unos 50 pacientes, dijo: “Es el 90% del camino”. Copilot produce resúmenes útiles que Arzubi normalmente edita. Los resúmenes no captan necesariamente las señales no verbales o los pensamientos que Arzubi podría no querer vocalizar. Aún así, dijo, las ganancias son significativas: no tiene que preocuparse por tomar notas y, en cambio, puede concentrarse en hablar con los pacientes. Y ahorra tiempo.

“Si tengo un día completo de pacientes, donde podría ver a 15 pacientes, diría que esto me ahorra una buena hora al final del día”, dijo. (Si la tecnología se adopta ampliamente, espera que los hospitales no aprovechen el tiempo ahorrado simplemente programando más pacientes. “Eso no es justo”, dijo).

Nabla Copilot no es el único servicio de este tipo; Microsoft está probando el mismo concepto. En la conferencia de abril de la Healthcare Information and Management Systems Society (una reunión de la industria donde los técnicos de la salud intercambian ideas, hacen anuncios y venden sus productos), los analistas de inversiones de Evercore destacaron la reducción de la carga administrativa como una de las principales posibilidades para las nuevas tecnologías.

¿Pero en general? Escucharon críticas mixtas. Y esa opinión es común: muchos tecnólogos y médicos son ambivalentes.

Por ejemplo, si está desconcertado acerca de un diagnóstico, introducir los datos del paciente en uno de estos programas “puede proporcionar una segunda opinión, sin duda”, dijo Topol. “Estoy seguro de que los médicos lo están haciendo”. Sin embargo, eso se topa con las limitaciones actuales de la tecnología.

Joshua Tamayo-Sarver, médico y ejecutivo de la startup Inflect Health, alimentó escenarios ficticios de pacientes basados ​​en su propia práctica en un departamento de emergencias en un sistema para ver cómo funcionaría. No se dio cuenta de las condiciones que amenazan la vida, dijo. “Eso parece problemático”.

La tecnología también tiende a “alucinar”, es decir, inventar información que suena convincente. Los estudios formales han encontrado una amplia gama de rendimiento. Un trabajo de investigación preliminar que examina ChatGPT y los productos de Google mediante un examen abierto de la junta preguntas de neurocirugia encontró una tasa de alucinaciones del 2%. Un estudio de investigadores de Stanford, al examinar la calidad de las respuestas de IA a 64 escenarios clínicos, encontró citas inventadas o alucinadas el 6% de las veces, dijo el coautor Nigam Shah a KFF Health News. Otro documento preliminar encontrado, en casos complejos de cardiología, ChatGPT estuvo de acuerdo con la opinión de expertos la mitad de las veces.

La privacidad es otra preocupación. No está claro si la información ingresada en este tipo de sistema basado en IA permanecerá en el interior. Usuarios emprendedores de ChatGPT, por ejemplo, han conseguido que la tecnología les diga la receta para napalmque se puede utilizar para fabricar bombas químicas.

En teoría, el sistema tiene barandillas que impiden que se escape información privada. Por ejemplo, cuando KFF Health News le preguntó a ChatGPT su dirección de correo electrónico, el sistema se negó a divulgar esa información privada. Pero cuando se le pidió que interpretara a un personaje y se le preguntó sobre la dirección de correo electrónico del autor de este artículo, felizmente entregó la información. (De hecho, era la dirección de correo electrónico correcta del autor en 2021, cuando finaliza el archivo de ChatGPT).

“No pondría datos de pacientes”, dijo Shah, científico jefe de datos de Stanford Health Care. “No entendemos qué sucede con estos datos una vez que llegan a los servidores de OpenAI”.

Tina Sui, portavoz de OpenAI, le dijo a KFF Health News que uno “nunca debe usar nuestros modelos para brindar servicios de diagnóstico o tratamiento para afecciones médicas graves”. No están “afinados para proporcionar información médica”, dijo.

Con la explosión de nuevas investigaciones, dijo Topol, “no creo que la comunidad médica tenga una buena idea de lo que está por suceder”.

Noticias de salud KFF es una sala de redacción nacional que produce periodismo detallado sobre temas de salud y es uno de los principales programas operativos de KFF, una fuente independiente de investigación, encuestas y periodismo sobre políticas de salud. Aprender más acerca de KFF.

imagen de IA

Leave a Reply

Your email address will not be published. Required fields are marked *