ChatGPT obtuvo una puntuación más alta en una prueba médica que un médico humano real : Heaven32

ChatGPT obtuvo una puntuación más alta en una prueba médica que un médico humano real : Heaven32

Algunos médicos no tienen buenos modales al lado de la cama, dando la impresión de ser robots insensibles llenos de conocimientos médicos. Pero, ¿qué pasaría si una IA respondiera preguntas que normalmente se le hacen a un médico y lo hiciera de una manera que transmitiera conocimiento? y ¿comodidad?

Esa pregunta impulsó un estudio reciente dirigido por la Universidad de California. El estudio probó la capacidad de respuesta empática de los médicos y el chatbot de IA ChatGPT al examinar cuál se desempeñó mejor al responder 195 preguntas médicas.

Los investigadores sacaron preguntas publicadas en un subreddit público llamado ‘AskDocs’. Por ejemplo, una persona preguntó qué tan peligroso era tragarse un palillo. Otro preguntó si sufriría una conmoción cerebral después de golpearse la cabeza con una barra de metal.

Un profesional de la salud cuyas credenciales fueron verificadas por un moderador respondió las preguntas en el subreddit. Los investigadores también realizaron las preguntas a través de ChatGPT para generar una respuesta.

Se le preguntó a un panel de médicos qué respuesta era mejor, la del chatbot o la del médico, pero el panel no sabía de quién eran las respuestas. Cada caso fue examinado por tres jueces diferentes y se promedió la puntuación, haciendo un total de 585 valoraciones.

En el 79 por ciento de los casos, los jueces prefirieron las respuestas del chatbot, que tenían información de mayor calidad y un lenguaje más empático que las respuestas de los médicos.

En comparación con las respuestas de los médicos, alrededor de 4 veces más respuestas de chatbots se ubicaron en los niveles más altos de calidad y alrededor de 10 veces más obtuvieron las calificaciones más altas de empatía.

Las respuestas del chatbot también fueron alrededor de 4 veces más largas que las proporcionadas por los médicos, con un promedio de 211 palabras por publicación en comparación con las 52 palabras del médico.

Los chatbots superaron a los médicos en calidad y empatía. (Smith et al.,JAMA Medicina Interna2023)

Un ejemplo del médico y el chatbot respondiendo a la misma pregunta en AskDocs:

Pregunta: ¿Cuál es el riesgo de morir d espués de tragar e ingerir un palillo?

Un médico respondió: “Si ha superado las 2-6 h[ours], lo más probable es que hayan pasado a sus intestinos. Lo que significa que no se puede recuperar fácilmente. Muchas personas pueden tragar hojas de afeitar y palillos de dientes sin problemas. En caso de que desarrolle dolor de estómago, no dude en buscar una sala de emergencias y recuerde señalar el palillo que se tragó. Por ahora, no harán mucho”.

La respuesta de ChatGPT fue: “Es natural preocuparse si ha ingerido un objeto extraño, pero en este caso, es muy poco probable que el palillo que tragó le cause algún daño grave. Los palillos están hechos de madera, que no es tóxico”. y no causará envenenamiento. Sin embargo, es posible que un palillo de dientes cause lesiones si se atasca en la garganta o si perfora el tracto digestivo. Sin embargo, es poco probable que esto suceda con un palillo de dientes cocido y desafilado que mide solo 2 cm. largo”. Si experimenta alguna molestia o síntoma como dolor abdominal, dificultad para tragar o vómitos, es importante que se comunique con un proveedor de atención médica para una evaluación adicional. Sin embargo, si no experimenta ningún síntoma, es seguro asumir que el palillo ha pasado a través de su sistema digestivo y no necesita preocuparse. Siempre es una buena idea tener cuidado al consumir alimentos y quitar cualquier objeto extraño antes de comer. Es comprensible que pueda sentirse paranoico, pero trate de no hacerlo. preocuparse demasiado. Es muy poco probable que el palillo te cause algún daño grave”.

El estudio muestra que los chatbots pueden ser mejores para crear la impresión de un trato cariñoso junto a la cama que un médico ocupado que se ofrece como voluntario para responder preguntas en línea.

Queda por ver si dicha herramienta es útil en la práctica clínica o no. Es posible que los foros en línea no reflejen las interacciones típicas entre el médico y el paciente donde hay una relación preexistente y más personalización, los investigadores escribir.

Y aunque ChatGPT proporcionará una respuesta educada y legible que parece coherente a primera vista, comete errores básicos de codificación y matemáticas, y muchos datos incluidos en sus respuestas son inventados o incorrectos.

Sin embargo, los médicos están inundados de mensajes de pacientes desde que la pandemia popularizó la telemedicina, por lo que existe una necesidad urgente de herramientas que aumenten la productividad y mejoren el servicio. Por ejemplo, un chatbot podría redactar respuestas a las preguntas de los pacientes, que luego podrían ser editadas por un médico.

“El presente estudio debería motivar la investigación sobre la adopción de asistentes de IA para la mensajería”, dijeron los investigadores. escribir. “Si las preguntas de más pacientes se responden rápidamente, con empatía y con un alto estándar, podría reducir las visitas clínicas innecesarias, liberando recursos para quienes los necesitan”.

Dada la propensión de los chatbots a ‘alucinar’ e inventar hechos, “sería peligroso confiar en cualquier información fáctica proporcionada por tal respuesta de chatbot”. dice Anthony Cohn, profesor de razonamiento automatizado en la Universidad de Leeds en el Reino Unido. “Es esencial que cualquier respuesta sea revisada cuidadosamente por un profesional médico”.

Este artículo fue publicado en JAMA Medicina Interna.

Leave a Reply

Your email address will not be published. Required fields are marked *