Lo que nos puede enseñar el uso de inteligencia artificial para ayudar a monitorear la cirugía

Lo que nos puede enseñar el uso de inteligencia artificial para ayudar a monitorear la cirugía

Teodor Grantcharov, profesor de cirugía en Stanford, cree haber encontrado una herramienta para hacer la cirugía más segura y minimizar el error humano: “cajas negras” impulsadas por IA en quirófanos que funcionan de manera similar a la caja negra de un avión. Estos dispositivos, construidos por la empresa Surgical Safety Technologies de Grantcharov, registran todo lo que ocurre en el quirófano a través de cámaras panorámicas, micrófonos en el techo y monitores de anestesia antes de utilizar inteligencia artificial para ayudar a los cirujanos a entender los datos. Captan todo el quirófano en su conjunto, desde el número de veces que se abre la puerta hasta cuántas conversaciones no relacionadas con un caso se producen durante una operación.

Estas cajas negras se utilizan en casi 40 instituciones de Estados Unidos, Canadá y Europa occidental, desde Mount Sinai hasta Duke y la Clínica Mayo. Pero, ¿están los hospitales en la cúspide de una nueva era de seguridad o están creando un ambiente de confusión y paranoia? Lea la historia completa de Simar Bajaj aquí.

Esto me pareció una historia con implicaciones más amplias. Organizaciones de todos los sectores están pensando en cómo adoptar la IA para hacer las cosas más seguras y eficientes. Lo que muestra este ejemplo de hospitales es que la situación no siempre es clara y hay muchos obstáculos que es necesario evitar.

Aquí hay tres lecciones sobre la adopción de la IA que aprendí de esta historia:

1. La privacidad es importante, pero no siempre está garantizada. Grantcharov se dio cuenta muy rápidamente de que la única manera de lograr que los cirujanos utilizaran la caja negra era hacerlos sentir protegidos de posibles repercusiones. Ha diseñado el sistema para registrar acciones pero ocultar las identidades tanto de los pacientes como del personal, incluso eliminando todas las grabaciones en un plazo de 30 días. Su idea es que ningún individuo debería ser castigado por cometer un error.

Las cajas negras hacen que cada persona en la grabación sea anónima; un algoritmo distorsiona las voces de las personas y difumina sus rostros, transformándolos en figuras sombrías y de estilo noir. Entonces, incluso si sabes lo que pasó, no puedes usarlo contra un individuo.

Pero este proceso no es perfecto. Antes de que las grabaciones de hace 30 días se eliminen automáticamente, los administradores del hospital aún pueden ver el número del quirófano, la hora de la operación y el número de historia clínica del paciente, por lo que incluso si el personal técnicamente no está identificado, no son verdaderamente anónimos. . El resultado es una sensación de que “el Gran Hermano está observando”, dice Christopher Mantyh, vicepresidente de operaciones clínicas del Hospital de la Universidad de Duke, que tiene cajas negras en siete quirófanos.

2. No se pueden adoptar nuevas tecnologías sin ganarse primero a la gente. La gente a menudo sospecha, con razón, de las nuevas herramientas, y las fallas del sistema en lo que respecta a la privacidad son parte de la razón por la que el personal ha dudado en adoptarlo. Muchos médicos y enfermeras boicotearon activamente las nuevas herramientas de vigilancia. En un hospital, las cámaras fueron saboteadas al darles la vuelta o al desconectarlas deliberadamente. Algunos cirujanos y personal se negaron a trabajar en las salas donde se encontraban.

Leave a Reply

Your email address will not be published. Required fields are marked *