La ‘crisis de la replicación’ podría ser peor de lo que pensábamos, revela un nuevo análisis

La ciencia crisis de replicación podría ser peor de lo que pensábamos: una nueva investigación revela que los estudios con resultados replicados tienden a ser citados con menos frecuencia que los estudios que no se han replicado.

Eso no quiere decir que estos estudios más ampliamente citados con experimentos no repetidos sean necesariamente incorrectos o engañosos, pero sí significa que, por una razón u otra, la investigación de seguimiento no ha dado el mismo resultado que el estudio original, pero aún así recibe un montón de citas.

Por lo tanto, según el nuevo análisis, la investigación que es más interesante y diferente parece obtener más citas que la investigación con mucha evidencia que lo corrobora.

Los economistas del comportamiento Marta Serra-García y Uri Gneezy de la Universidad de California analizaron artículos en algunas de las principales revistas de psicología, economía y ciencia; encontraron que los estudios que no se replicaron desde su publicación tenían en promedio 153 veces más probabilidades de ser citados que los estudios que sí lo habían hecho, y que la influencia de estos artículos está creciendo con el tiempo.

“La evidencia existente también muestra que los expertos predicen bien qué artículos se replicarán”, escriben los investigadores en su artículo publicado. “Dada esta predicción, ¿por qué se aceptan artículos no replicables para su publicación en primer lugar?”

“Una posible respuesta es que el equipo de revisión se enfrenta a una compensación. Cuando los resultados son más ‘interesantes’, aplican estándares más bajos con respecto a su reproducibilidad”.

Este problema de replicación ha sido un tema candente entre los científicos durante varios años, pero esta última investigación presenta algunas cifras nuevas e interesantes. El equipo detrás de esto examinó las citas de 139 estudios que se habían incluido en tres proyectos importantes de replicación.

Después de analizar 20,252 artículos que citan estos estudios en una variedad de revistas, encontraron que los artículos no replicables son, en promedio, citados 16 veces más por año.

En las revistas de psicología, el 39 por ciento de los 100 estudios analizados se habían replicado con éxito. En las revistas de economía, fue el 61 por ciento de 18 estudios, y en las revistas Naturaleza y Ciencias, fue el 62 por ciento de 21 estudios.

Las diferencias en lo prominente Naturaleza y Ciencias Las revistas fueron las más llamativas: aquí, los artículos no replicables fueron citados 300 veces más que los replicables en promedio. Estas variaciones se mantuvieron incluso después de tener en cuenta el número de autores en un artículo, el número de autores masculinos, los detalles (como la ubicación y el idioma) de los experimentos y el campo en el que se publicó el artículo.

En todas las revistas y artículos, las citas de un estudio no replicable solo mencionaron la no replicación el 12 por ciento de las veces. Sin embargo, no solo los autores de artículos y los científicos deben ser más conscientes del problema, dicen los investigadores.

“Los hallazgos interesantes o atractivos también son cubiertos más por los medios o compartidos en plataformas como Twitter, generando mucha atención, pero eso no los hace verdaderos”. dice Gneezy.

La investigación problemática también puede llevar mucho tiempo corregirla: un documento de 1998 infame y ahora retractado vincular vacunas y autismo hizo que muchos se opusieran a la idea de la vacunación como una opción segura y saludable. Tomó 12 años para que se retractara ese documento en particular, y ha causado un daño duradero a la percepción pública de la seguridad de las vacunas.

Sin embargo, la retracción de los papeles puede marcar la diferencia, señalan los investigadores: Mostrar estadísticas que las citas de un artículo retractado tienden a caer casi un 7 por ciento por año. Esta es quizás una forma de manejar la actual crisis de replicación y asegurarnos de que nuestros métodos científicos sean lo más completos posible.

Los autores del nuevo estudio reconocen que tanto los académicos como los editores de revistas sienten la presión de publicar hallazgos ‘interesantes’ que tienen más probabilidades de atraer la atención, pero quieren ver investigaciones sobre cómo se puede mejorar la calidad de los artículos científicos.

“Esperamos que nuestra investigación anime a los lectores a ser cautelosos si leen algo interesante y atractivo”. dice Serra-García.

“Siempre que los investigadores citan un trabajo que es más interesante o que se ha citado mucho, esperamos que verifiquen si hay datos de replicación disponibles y qué sugieren esos hallazgos”.

La investigación ha sido publicada en Avances científicos.

.

Leave a Reply

Your email address will not be published. Required fields are marked *