‘Rat Dck’ entre imágenes galimatías de IA publicadas en Science Journal

Esta semana, la revista científica Frontiers in Cell and Developmental Biology publicó una investigación que presenta imágenes falsas realizadas con Midjourney, uno de los Los generadores de imágenes de IA más populares.

El acceso abierto papel explora la relación entre las células madre en los testículos de los mamíferos y una vía de señalización responsable de mediar la inflamación y el cáncer en las células. El contenido escrito del artículo no parece ser falso, pero sus aspectos más sorprendentes no se encuentran en la investigación en sí. Más bien, son representaciones inexactas y grotescas de testículos de rata, vías de señalización y células madre.

El diagrama de rata generado por IA muestra una rata (etiquetada de manera útil y correcta) cuya parte superior del cuerpo está etiquetada como “células madre sentólicas”. Lo que parece ser un pene de rata muy grande está etiquetado como “Dissilced”, con inserciones a la derecha para resaltar la “célula iollotte sserotgomar”, “dck” y “Retat”. Mmm.

De acuerdo a Pautas para el editor de Frontiers, los manuscritos están sujetos a “controles de calidad iniciales” por parte del equipo de integridad de la investigación y el editor responsable antes del proceso de revisión por pares. Es decir, supuestamente muchos ojos revisaron este trabajo antes de que se publicaran las imágenes.

Hay que reconocer que los investigadores afirman en el artículo que las imágenes del artículo fueron generadas por Midjourney. Pero Fronteras sitio para políticas y ética de publicaciones señala que se podrán presentar correcciones si “hay un error en una figura que no altera las conclusiones” o “hay cifras mal etiquetadas”, entre otros factores. Las imágenes generadas por IA ciertamente parecen caer dentro de esas categorías. Dingjun Hao, investigador de la Universidad Xi’an Jiaotong y coautor del estudio, no respondió de inmediato a la solicitud de comentarios de Gizmodo.

La imagen de la rata es evidentemente errónea, incluso si nunca le has abierto los genitales a una rata. Pero las otras cifras del artículo podrían parecer creíbles para el ojo inexperto, al menos a primera vista. Sin embargo, incluso alguien que nunca haya abierto un libro de texto de biología vería, tras un examen más detenido, que las etiquetas de cada diagrama no están del todo en inglés; signo revelador de texto generado por IA en imágenes.

El artículo fue editado por un experto en reproducción animal del Instituto Nacional de Investigación Láctea de la India y revisado por investigadores de Northwestern Medicine y el Instituto Nacional de Nutrición y Fisiología Animal. Entonces, ¿cómo se publicaron las extravagantes imágenes? Frontiers in Cell and Developmental Biology no respondió de inmediato a una solicitud de comentarios.

El generador de texto OpenAI ChatGPT es lo suficientemente competente como para obtener investigación farkakte más allá de los ojos supuestamente perspicaces de los críticos. Un estudio realizado por investigadores de la Universidad Northwestern y la Universidad de Chicago encontró que los expertos humanos fueron engañados por resúmenes científicos producidos por ChatGPT el 32% de las veces.

Entonces, solo porque las ilustraciones son claramente una tontería que se disfraza de ciencia, no debemos pasar por alto la capacidad de los motores de inteligencia artificial para hacer pasar tonterías como reales. Fundamentalmente, advirtieron los autores del estudio, los artículos generados por IA podrían causar una crisis de integridad científica. Parece que esa crisis puede estar en marcha.

Alexander Pearson, científico de datos de la Universidad de Chicago y coautor de ese estudio, señaló en ese momento que “la tecnología de texto generativo tiene un gran potencial para democratizar la ciencia, por ejemplo, facilitando que los científicos que no hablan inglés compartan su trabajo con la comunidad en general”, pero “es imperativo que pensemos detenidamente en las mejores prácticas de uso”.

La creciente popularidad de la IA ha causado imágenes científicamente inexactas para abrirse camino en publicaciones científicas y artículos de noticias. Las imágenes de IA son fáciles de crear y, a menudo, visualmente atractivas, pero la IA es igual de difícil de manejar y, como era de esperar, resulta difícil transmitir todos los matices de la precisión científica en una solicitud de diagrama o ilustración.

El periódico reciente está muy lejos de los periódicos falsos de años pasados, un panteón que incluye éxitos como “¿Cuál es el problema con las aves?” y el Star Trek-trabajo temático “Rápido cambio morfológico genético y del desarrollo después de una celeridad extrema.”

A veces, un artículo que pasa la revisión por pares es simplemente divertido. Otras veces, es una señal de que “fábricas de papel”están produciendo supuestas investigaciones que no tienen ningún mérito científico. En 2021, Springer Nature fue obligado a retractarse de 44 artículos en el Arabian Journal of Geosciences por ser una total tontería.

En este caso, la investigación puede haber estado bien, pero todo el estudio queda cuestionado por la inclusión de imágenes generadas por Midjourney. Al lector promedio puede resultarle difícil considerar las vías de señalización cuando todavía está ocupado contando exactamente cuántas pelotas se supone que tiene la rata.

Más: ChatGPT escribe lo suficientemente bien como para engañar a los revisores científicos

Heaven32: