Este es el algoritmo de la vacuna de Stanford que dejó fuera a los médicos de primera línea

Lo que estos factores no tienen en cuenta es la exposición a pacientes con covid-19, dicen los residentes. Eso significa que el algoritmo no distinguió entre los que habían contraído covid de los pacientes y los que lo habían contraído de la comunidad, incluidos los empleados que trabajaban de forma remota. Y como reportado por primera vez ProPublica les dijo a los residentes que debido a que rotan entre departamentos en lugar de mantener una sola asignación, perdieron puntos asociados con los departamentos donde trabajaban.

La tercera categoría del algoritmo se refiere a la Pautas de asignación de vacunas del Departamento de Salud Pública de California. Estos se enfocan en el riesgo de exposición como el factor más alto para la priorización de vacunas. Las pautas están destinadas principalmente a que los gobiernos del condado y locales decidan cómo priorizar la vacuna, en lugar de cómo priorizar entre los departamentos de un hospital. Pero incluyen específicamente a los residentes, junto con los departamentos donde trabajan, en el nivel de mayor prioridad.

Puede ser que el factor de “rango CDPH” otorgue a los residentes una puntuación más alta, pero aún no lo suficientemente alta para contrarrestar los otros criterios.

“¿Por qué lo hicieron de esa manera?”

Stanford trató de tener en cuenta muchas más variables que otras instalaciones médicas, pero Jeffrey Kahn, director del Instituto de Bioética Johns Hopkins Berkman, dice que el enfoque fue demasiado complicado. “Cuanto más hay diferentes pesos para diferentes cosas, entonces se vuelve más difícil de entender: ‘¿Por qué lo hicieron de esa manera?’”, Dice.

Kahn, que formó parte del comité de 20 miembros de Johns Hopkins sobre asignación de vacunas, dice que su universidad asignó vacunas basándose simplemente en el trabajo y el riesgo de exposición al covid-19.

Dice que la decisión se basó en discusiones que incluyeron intencionalmente diferentes perspectivas, incluidas las de los residentes, y en coordinación con otros hospitales de Maryland. En otra parte, el plan de la Universidad de California en San Francisco se basa en una evaluación similar del riesgo de exposición al virus. Mass General Brigham en Boston clasifica a los empleados en cuatro grupos según el departamento y la ubicación del trabajo, según un correo electrónico interno revisado por ..

“Hay tan poca confianza en todo lo relacionado con la pandemia que no podemos desperdiciarlo”.

“Es muy importante [for] cualquier enfoque como este debe ser transparente y público… y no algo realmente difícil de entender ”, dice Kahn. “Hay tan poca confianza en todo lo relacionado con la pandemia que no podemos desperdiciarlo”.

Los algoritmos se usan comúnmente en la atención médica para clasificar a los pacientes por nivel de riesgo en un esfuerzo por distribuir la atención y los recursos de manera más equitativa. Pero cuantas más variables se utilicen, más difícil será evaluar si los cálculos pueden ser defectuosos.

Por ejemplo, en 2019, un estudio publicado en Science mostró que 10 algoritmos ampliamente utilizados para distribuir la atención en los EE. UU. Terminaron favoreciendo a los pacientes blancos sobre los negros. Resultó que el problema fue que los diseñadores de los algoritmos asumieron que los pacientes que gastaban más en atención médica estaban más enfermos y necesitaban más ayuda. En realidad, quienes gastan más dinero también son más ricos y tienen más probabilidades de ser blancos. Como resultado, el algoritmo asignó menos atención a los pacientes negros con las mismas condiciones médicas que los blancos.

Irene Chen, una candidata a doctorado del . que estudia el uso de algoritmos justos en el cuidado de la salud, sospecha que esto es lo que sucedió en Stanford: los diseñadores de la fórmula eligieron variables que creían que servirían como buenos sustitutos para el nivel de riesgo de covid de un empleado determinado. Pero no verificaron que estos sustitutos produjeran resultados razonables ni respondieran de manera significativa a la opinión de la comunidad cuando el plan de vacunación salió a la luz el martes de la semana pasada. “No es malo que la gente haya pensado en ello después”, dice Chen. “Es que no había un mecanismo para solucionarlo”.

¿Un canario en la mina de carbón?

Después de las protestas, Stanford emitió una disculpa, diciendo que revisaría su plan de distribución.

Los representantes del hospital no respondieron a las preguntas sobre a quién incluirían en los nuevos procesos de planificación o si se seguiría utilizando el algoritmo. Un correo electrónico interno que resume la respuesta de la escuela de medicina, compartido con ., afirma que ni los jefes de programa, los jefes de departamento, los médicos asistentes ni el personal de enfermería participaron en el diseño del algoritmo original. Ahora, sin embargo, algunos profesores están presionando para tener un papel más importante, eliminando los resultados de los algoritmos por completo y, en cambio, otorgando a los jefes de división y presidentes la autoridad para tomar decisiones para sus propios equipos.

Leave a Reply

Your email address will not be published. Required fields are marked *