Errores e imprecisiones aparecidos recientemente en revistas científicas, como una imagen de una rata con un pene gigante u otra de una pierna humana con demasiado hueso, revelan el uso cada vez más extendido de la inteligencia artificial (IA) en estas publicaciones, en detrimento de su calidad.
Si los especialistas interrogados por la AFP reconocen el interés de instrumentos como ChatGPT para redactar contenidos, sobre todo en materia de traducción para investigadores cuyo lengua materna no es el inglés, las rectificaciones realizadas recientemente por algunas revistas apuntan a prácticas deshonestas.
A principios de año, una ilustración de una rata con unos órganos genitales sobredimensionados, muy compartida en redes sociales, llevó a la retirada de un estudio publicado en una revista de la editorial universitaria Frontiers, un actor importante en el sector.
El mes pasado, otro estudio había sido retirado tras presentar una imagen de una pierna humana donde había más huesos de lo habitual.
Pero más allá de estas imágenes erróneas, la mayor sacudida para el sector procede de ChatGPT, el programa conversacional desarrollado por la empresa estadounidense OpenAI.
En marzo, un artículo publicado por el grupo editorial científico británico Elsevier se hizo viral porque su comienzo era «Por supuesto, aquí tiene una introducción posible para vuestro tema», una fórmula típica de las respuestas de ChatGPT.