La IA pensó que las radiografías de rodilla podrían determinar si bebes cerveza y comes frijoles refritos

La IA pensó que las radiografías de rodilla podrían determinar si bebes cerveza y comes frijoles refritos

Algunos modelos de inteligencia artificial están luchando por aprender el antiguo principio: “La correlación no es igual a la causalidad”. Y aunque esa no es una razón para abandonar las herramientas de inteligencia artificial, un estudio reciente debería recordar a los programadores que incluso las versiones confiables de la tecnología todavía son propensas a sufrir episodios de rarezas, como afirmar que las radiografías de rodilla pueden demostrar que alguien bebe cerveza o come frijoles refritos.

Los modelos de inteligencia artificial hacen mucho más que generar respuestas de texto (ocasionalmente precisas) y vídeos (algo) realistas. Herramientas verdaderamente bien diseñadas ya están ayudando a los investigadores médicos a analizar grandes cantidades de conjuntos de datos para descubrir nuevos avances, pronosticar con precisión patrones climáticos y evaluar los esfuerzos de conservación ambiental. Pero según un estudio publicado en la revista Informes Científicosel “aprendizaje abreviado” algorítmico sigue planteando el problema de generar resultados que son a la vez muy precisos y mal informados.

Investigadores de Dartmouth Health entrenaron recientemente modelos médicos de IA con más de 25.000 radiografías de rodilla proporcionadas por la Iniciativa de Osteoartritis de los Institutos Nacionales de Salud. Luego, esencialmente trabajaron al revés, asignando a los programas de aprendizaje profundo la tarea de encontrar puntos en común que predijeran rasgos sin sentido, como qué propietarios de rodillas claramente bebían cerveza o comían frijoles refritos, lo cual, como explican los autores del estudio, es evidentemente absurdo.

“Los modelos no están descubriendo una verdad oculta sobre los frijoles o la cerveza escondida entre nuestras rodillas”, escriben.

Al mismo tiempo, sin embargo, el equipo explica que estas predicciones no son el resultado de una “mera casualidad”. El problema subyacente es lo que se conoce como atajos algorítmicos, en los que los modelos de aprendizaje profundo encuentran conexiones a través de patrones fácilmente detectables, pero aún irrelevantes o engañosos.

“Los atajos hacen que sea trivial crear modelos con predicciones sorprendentemente precisas que carecen de toda validez aparente”, advierten.

Las variables identificadas por los algoritmos, por ejemplo, incluían factores no relacionados, como difer encias en los modelos de máquinas de rayos X o las ubicaciones geográficas de los equipos.

“Estos modelos pueden ver patrones que los humanos no pueden, pero no todos los patrones que identifican son significativos o confiables”, agregó en un artículo Peter Schilling, cirujano ortopédico, profesor asistente de ortopedia de Dartmouth Health y autor principal del estudio. declaración del 9 de diciembre. “Es crucial reconocer estos riesgos para evitar conclusiones engañosas y garantizar la integridad científica”.

Un problema adicional y continuo es que no parece haber una solución fácil para el aprendizaje de atajos de IA. Los intentos de abordar estos sesgos tuvieron sólo un éxito “marginal”, según el anuncio del lunes.

“Esto va más allá del sesgo de pistas de raza o género”, dijo Brandon Hill, científico de aprendizaje automático y coautor del estudio. “Descubrimos que el algoritmo podía incluso aprender a predecir el año en que se tomó una radiografía. Es pernicioso; cuando le impides aprender uno de estos elementos, aprenderá otro que previamente ignoró”.

Según Hill, estos problemas pueden llevar potencialmente a los expertos humanos a confiar en “algunas afirmaciones realmente dudosas” hechas por modelos de IA. Para Schilling, Hill y sus colegas, esto significa que, aunque los programas predictivos de aprendizaje profundo tienen sus utilidades, la carga de la prueba debe ser mucho más rigurosa cuando se utilizan en situaciones como la investigación médica. Hill compara trabajar con la IA con lidiar con una forma de vida extraterrestre y al mismo tiempo intentar antropomorfizarla.

“Es increíblemente fácil caer en la trampa de suponer que el modelo ‘ve’ lo mismo que nosotros”, afirma. “Al final no es así. Aprendió una manera de resolver la tarea que se le había encomendado, pero no necesariamente como lo haría una persona. No tiene lógica ni razonamiento como normalmente lo entendemos”.

Gana las fiestas con las guías de regalos de Heaven32

¿Comprar para, bueno, alguien? Las recomendaciones de regalos navideños del equipo de Heaven32 significan que nunca necesitarás comprar otra tarjeta de regalo de último momento.