Revista de Ciencias Sociales (RCS)

Vol. XXXII, No. 1, Enero - Marzo 2026. pp. 278-305

FCES - LUZ ● ISSN: 1315-9518 ● ISSN-E: 2477-9431

Como citar: Pérez-Rodríguez, J. A., Rodríguez-Borges, C. G., Guillén-Intriago, M. M., y Pita, M. V. (2026). Transformación de procesos y políticas editoriales de las revistas científicas frente al uso de inteligencia artificial. Revista De Ciencias Sociales, XXXII(1), 278-305.

Transformación de procesos y políticas editoriales de las revistas científicas frente al uso de inteligencia artificial

Pérez-Rodríguez, Jesús Alberto*

Rodríguez-Borges, Ciaddy Gina**

Guillén-Intriago, Mariuxi Monserrate***

Pita Mera, María Veneranda****

Resumen

El desarrollo de herramientas de inteligencia artificial, tanto generativas como no generativas, ha transformado los procesos editoriales de las revistas científicas, siendo utilizadas por autores y comités editoriales para optimizar tareas y reducir tiempos en el flujo de publicación. Esta investigación tiene como objetivo analizar la evolución de los procesos y políticas editoriales vinculados al uso de herramientas de inteligencia artificial entre 2022 y el presente, identificando los principales cambios éticos, operativos y normativos implementados por reconocidas casas editoriales internacionales. Se empleó un diseño metodológico mixto, de carácter descriptivo y exploratorio, estructurado en tres fases: Revisión sistemática de literatura, etnografía digital de las políticas editoriales que integran inteligencia artificial y el mapeo de avances en su aplicación. Los resultados evidencian que la etapa de evaluación preliminar es la que más frecuentemente utiliza herramientas de inteligencia artificial; mientras que, en la revisión por pares, su uso permanece restringido. Entre las principales limitaciones destacan la falta de estandarización en las políticas, las barreras técnicas y la escasa capacitación. Asimismo, se observó que muchas revistas carecen de una declaración explícita sobre el uso de herramientas de inteligencia artificial y no existe consenso respecto al lugar adecuado para su divulgación.

Palabras clave: Políticas editoriales; etnografía digital; brecha tecnológica; casas editoriales; algoritmos generativos.

*         Postdoctorado en Gestión de la Ciencia y la Tecnología. Doctor en Ciencias, mención Instrumentación. Docente Investigador de la carrera de Ingeniería Eléctrica en la Universidad Técnica de Manabí, Portoviejo, Manabí, Ecuador. E-mail: jesus.perez@utm.edu.ec ORCID: http://orcid.org/0000-0002-1578-2565

**        Postdoctorado en Gestión de la Ciencia y la Tecnología. Doctora en Ciencias Técnicas. Docente Investigadora de la carrera de Ingeniería Industrial en la Universidad Técnica de Manabí, Portoviejo, Manabí, Ecuador. E-mail: ciaddy.rodriguez@utm.edu.ec ORCID: https://orcid.org/0000-0003-1097-4194

***       Magister en Ciencias de Datos y Máquinas de Aprendizaje. Ingeniera en Sistemas Informáticos. Docente Investigadora de la Facultad de Ingeniería y Ciencias Aplicadas en la Universidad Técnica de Manabí, Portoviejo, Manabí, Ecuador. E-mail: mariuxi.guillen@utm.edu.ec ORCID: https://orcid.org/0009-0005-6923-0538

****      Magister en Arquitectura con mención en Proyectos Arquitectónicos y Urbanos. Docente Investigadora de la Facultad de Ingeniería y Ciencias Aplicadas en la Universidad Técnica de Manabí, Portoviejo, Manabí, Ecuador. E-mail: veneranda.pita@utm.edu.ec ORCID: https://orcid.org/0000-0002-4480-4567

Recibido: 2025-09-17 • Aceptado: 2025-12-05

Transformation of editorial processes and policies of scientific journals in response to the use of artificial intelligence

Abstract

The development of artificial intelligence tools, both generative and non-generative, has transformed the editorial processes of scientific journals, being used by authors and editorial boards to optimize tasks and reduce publication times. This research aims to analyze the evolution of editorial processes and policies related to the use of artificial intelligence tools between 2022 and the present, identifying the main ethical, operational, and regulatory changes implemented by renowned international publishing houses. A mixed-methods design was employed, of a descriptive and exploratory nature, structured in three phases: a systematic literature review, digital ethnography of editorial policies that integrate artificial intelligence, and mapping of advances in its application. The results show that the preliminary evaluation stage is where artificial intelligence tools are most frequently used, while their use remains restricted in the peer review process. Among the main limitations are the lack of standardization in policies, technical barriers, and insufficient training. Furthermore, it was observed that many journals lack an explicit statement regarding the use of artificial intelligence tools, and there is no consensus on the appropriate place for such disclosure.

Keywords: Editorial policies; digital ethnography; digital divide; publishing houses; generative algorithms.

Introducción

Las revistas científica son el principal medio de reconocimiento, evaluación y difusión del conocimiento científico en la actualidad (Fyfe et al., 2019), y su prestigio reside principalmente en la rigurosidad de los métodos empleados para la selección, revisión, aceptación y publicación de los resultados alcanzados en los procesos de investigación (Candal-Pedreira et al., 2023), debido a que las revistas deben garantizar dentro de sus políticas y criterios, una evaluación que permita la verificación del aporte teórico y científico, validez y reproducibilidad de los resultados, así como la originalidad (Alves et al., 2022; Moradzadeh et al., 2022).

El incremento en el número de artículos científicos de los últimos 20 años ha complejizado las tareas de los editores de revistas; por ejemplo, entre 2016 y 2022 se registró un incremento del 45% en el número de artículos recibidos por las revistas respecto a los 6 años anteriores (Hanson et al., 2023). Otros autores, como Pezzullo y Boccia (2024), han señalado que bases de datos como Web of Science reportaron que, en el año 2023, más de tres millones de artículos científicos fueron publicados, por lo que las revistas y casas editoriales han tenido que recurrir a diversos métodos para hacerle frente a semejante tarea.

Entre los métodos empleado para hacer frente al gran volumen de articulo que se recibe anualmente en las revistas, se encuentran: Aumentos en la tasa de rechazo de artículos; generar ediciones especiales; además de proceder a la incorporación de herramientas que sistematicen los procesos y permitan una mayor eficiencia en la agilización de los tiempos de cada etapa de la gestión editorial, para garantizar la continuidad de los procesos (Wu et al., 2024).

Por lo que, a partir del año 2000, han surgido diversas herramientas para apoyar las funciones editoriales, entre las que se incluyen: Sistemas de revistas abiertas (OJS), reseñas electrónicas, Scholar One Manuscript, Editorial Manager, entre otros software (Aries Systems Corporation, 2023; Tabatadze, 2024). A partir del año 2020, se inicia la integración de algoritmos de Inteligencia Artificial (IA) a los mencionados procesos (Seghier, 2023). Pero a partir del año 2004, se incorpora ya software con algoritmos avanzados en la gestión editorial (Fiorillo y Mehta, 2024).

Estas herramientas que incorporan distintos algoritmos de IA, no solo están realizando funciones simples, sino que cada vez sustituyen procesos complejos de revisión, tales como ajustar documentos a las normas de las revistas, además de ser capaces de generar información y resultados creativos, por lo que estos algoritmos propuestos para su uso en los procesos editoriales, requieren del establecimiento de políticas de uso claras, no solo para los autores que emplean las más comunes, sino también por parte de las revistas en sus procesos editoriales (Pividori y Greene, 2023; Ling y Yan, 2023; Gatrell et al., 2024).

Debido a la poca difusión de los cambios en las políticas editoriales de las revistas sobre el uso de herramientas de IA, y su proceso de implementación, así como también, de cuánto es el avance en la incorporación de estas herramientas, se planteó la necesidad de realizar una investigación exploratoria en diferentes fuentes de información que permitiera, precisar, los siguientes aspecto: Cuáles son las etapas del proceso editorial donde se está empleando IA y bajo qué limitaciones; en qué aspecto convergen los editores de revistas sobre las ventajas del uso de estas herramientas; y, cuáles son los riesgo de su utilización, resaltando los vacíos en cuanto a la normalización en el uso de la IA y qué aspectos ameritan cooperación interinstitucional.

Por lo que, el objetivo de esta investigación consiste en analizar la evolución de los procesos y políticas editoriales vinculadas al uso de herramientas de IA en las revistas científicas entre los años ٢٠٢٢ y ٢٠٢٥, identificando los principales cambios éticos, operativos y normativos implementados por reconocidas casas editoriales internacionales.

1. Fundamentación teórica

1.1. Procesos editoriales

Los procesos editoriales suelen contemplar generalmente 6 etapas, entre ellas: Evaluación preliminar, revisión por pares, decisión editorial, producción, maquetación, publicación y, finalmente, la difusión (pospublicación), las cuales abordan una serie de tareas, tal como se presenta en la Figura I.

Fuente: Elaboración propia, ٢٠٢٥ adaptado de Chang y Kong (٢٠١٨).

Figura I: Etapa del proceso editorial de revista científicas

En cada una de estas fases se están desarrollando herramientas de IA, no generativa y generativas, para apoyar cada proceso (Kaebnick et al., 2023; Leung et al., 2023; Acosta y Finol, 2024), existiendo una mayor cantidad de herramientas en los procesos de evaluación preliminar y poco uso en la fase de revisión por pares y decisión editorial por parte de algunos autores (Banh y Strobel, 2023).

Estas tecnologías se han integrado en múltiples puntos del ciclo editorial, desde la redacción asistida de manuscritos hasta la revisión por pares, la evaluación automatizada de calidad y su maquetación para su posterior publicación, como señalan Leung et al. (2023). El avance de los modelos de lenguaje generativo ha ampliado las capacidades para redactar texto científico, sugerir referencias, generar figuras o resumir resultados, lo que plantea no solo beneficios operativos sino también desafíos éticos y conceptuales de gran calado.

Usualmente el proceso editorial se divide en seis fases: Evaluación preliminar, revisión por pares, decisión editorial, producción/maquetación, publicación y difusión pospublicación. En cada fase se han ido incorporando diversas herramientas de IA, pero no con la misma intensidad: su uso se acepta con más facilidad en la evaluación preliminar; mientras que en la revisión por pares y la toma de decisiones editoriales todavía hay posturas divididas. El avance de la IA generativa representa un reto debido a su capacidad de realizar actividades propias del autor, como redactar, proponer referencias, generar figuras o resumir hallazgos, lo que obliga a discutir con más cuidado sus implicaciones éticas y conceptuales.

1.2. Uso de IA generativa y no generativa en los procesos editoriales

Las herramientas de IA aplicadas en la gestión editorial, en la actualidad se clasifican según el contenido que generan (Díaz, 2024), considerando su capacidad y complejidad para estas tareas se han clasificado en dos grandes categorías, una de ellas es la IA no generativa (IANG) (Hernández-León y Rodríguez-Conde, 2024a; 2024b), estas herramientas limitan su funcionalidad a: Analizar, contrastar, valorar, clasificar, detectar patrones para la verificación de la integridad (detección de similitudes), automatizar tareas de revisión de ortografía, gestión de metadatos, análisis semántico de manuscritos (Kaebnick et al., 2023; Leung et al., 2023).

Estos algoritmos no generativos están consolidándose como valiosas herramientas de apoyo a las casas editoriales, y revistas en procesos como: Asignación de revisores, sistemas de análisis de datos para evaluar métricas de impacto y calidad, además del seguimiento del manuscrito en la gestión editorial (Leung et al., 2023), cuyos procesos están principalmente orientados al control de calidad de los manuscritos y a mejorar la redacción y presentación de los mismos, dado a que estas tareas no generan modificaciones significativas a los documentos.

Mientras que, por otra parte, se integran los algoritmos de IA denominados herramientas de IA generativa (Morán-Ortega et al., 2024), se caracteriza por su capacidad de crear contenido nuevo a partir de un conjunto amplio de datos y patrones previamente aprendidos (Kim et al., 2025; Ooi et al., 2025; Mendoza et al., 2025), este contenido puede abarcar textos, gráficos, imágenes (Pividori y Greene, 2023), considerando las tareas más básicas de estas herramientas.

Sin embargo, su potencial va más allá, puesto que pueden proponer metodologías, patrones de lenguaje, estilos de redacción, estructuras de presentación, entre otras funciones muy útiles en el proceso editorial (Cress y Kimmerle, 2023; Torres et al., 2025). Diversas casas editoriales han consolidado el uso de estas herramientas para realizar funciones de redacción asistida, creación de títulos, resúmenes y otras partes del artículo (Liebrenz et al., 2023; Carobene et al., 2024), lo cual ayuda a potenciar la visibilidad y citación de los mismos, así como también, la normalización del lenguaje en el manuscrito, apoyar en la revisión de los pares encontrados, inconsistencias y errores, generación de imágenes, redacción de borradores para algunos textos, automatizar la edición de estilos y formatos y otras funciones estilísticas de la edición (Elkhatat et al., 2023; Agrawal et al., 2024; Osasona et al., 2024).

Las herramientas de IA que más controversia han generado, son aquellas que presentan la posibilidad de incorporar cambios (IA generativas) respecto al documento originalmente presentado por los autores (Banh y Strobel, 2023; Kaebnick et al., 2023; Tuquinga-Cercado et al., 2025). Ante la posibilidad de adopción de estas herramientas, se ha creado la necesidad de definir estándares precisos para la utilización de estas, así como códigos de ética pertinentes, tanto para los autores que las emplean en la redacción de sus artículos, como para las entidades editoriales que las aplican en sus procesos editoriales.

Algunos de los códigos de ética y normativas se han ido adecuando proponiendo pautas para el uso de la IA, tal es el caso del Committee on Publication Ethics (COPE, 2023); y, el International Committee of Medical Journal Editors (ICMJE, 2024), los cuales intenta evitar los prejuicios que surgieron de la utilización de estas herramientas en la gestión editorial, particularmente en el contexto de las herramientas generativas, a causa de potenciales disputas sobre la autoría y la atribución del contenido.

El énfasis de estas normativas y políticas se basa en evitar la suplantación de la autoría y los sesgos en los criterios reflejados en los artículos, debido a la utilización de herramientas generativas, lo que podría ocasionar disputas sobre la autoría y la atribución del contenido (Goretti et al., 2024). Sin embargo, en la actualidad, el marco legal y las pautas éticas, operativas y políticas para el uso adecuado, están aún en desarrollo por parte de algunos comités, y también, algunas normativas que han surgido de las grandes casas editoriales y que debido a la reciente adopción de estas tecnologías aún se mantienen en fase de desarrollo y cambio (“políticas vivas”).

En la actualidad, los marcos legales y las pautas éticas, operativas y políticas para el uso adecuado de estas herramientas de inteligencia artificial en la gestión editorial aún se encuentran en una fase inicial, debido a la reciente adopción de estas tecnologías. El avance en el desarrollo y adopción de estas herramientas por parte de las casas editoriales y revistas, ha creado la necesidad de definir estándares precisos, normativas y políticas para su utilización, así como códigos éticos pertinentes tanto para los autores que las emplean, como para las revistas, por lo que han surgido un conjunto de comités y entidades que han abordado estas políticas y propuesta para su utilización (COPE, 2023; ICMJE, 2024).

Las herramientas de IA generativa pueden potenciar la redacción y producción de contenidos, por lo que incrementa riesgos de autoría, sesgos y atribución, esto representa un gran desafío tecnológico, ético y normativo, que debe ser discutido de forma amplia y acordado, de forma rápida debido al avance en la adopción; hasta ahora, los comités y editoriales han emitido lineamientos, pero estos están aún en evolución y suelen denominarse como “políticas vivas”, por los cambios aun en curso, requieren más estandarizar criterios de uso, transparencia y responsabilidad para preservar la integridad y confianza en la publicación científica.

1.3. Políticas editoriales

El empleo de herramientas de IA ha transformado profundamente los procesos de producción, revisión y difusión del conocimiento científico, en especial las IA generativas, generando debates sobre la autoría, la integridad, la originalidad y la responsabilidad en la difusión científica. Las revistas científicas y casas editoriales se han visto obligadas a revisar y actualizar sus políticas editoriales para adaptarse a este nuevo marco tecnológico, teniendo claro que en este contexto las fronteras entre la asistencia técnica y la creación intelectual se vuelven difusas (COPE, 2023).

Se hace necesario estudiar la evolución de cómo las políticas pueden apoyar el proceso en avance de estas herramientas IA y proponer una metodología de cómo las editoriales consiguen responder a los nuevos desafíos no solo éticos, sino metodológicos que plantea la IA en la publicación científica, y cómo estas directrices logran aportar a la preservación de la confianza en la ciencia. La necesidad de guías específicas, para el manejo de estas herramientas, ha permitido generar documentos como Artificial Intelligence and Authorship de COPE (2023) y las Recommendations del ICMJE (2024), que marcan un punto de inflexión en la regulación global del uso de IA en la autoría y edición académica.

La relevancia científica de este fenómeno, se basa en la necesidad de estandarizar criterios y procedimientos en relación al uso de IA Generativa (IAG), que puede generar textos, imágenes y datos artificiales y de IA no generativa (IANG), que se restringe a funciones de análisis, revisión o detección. La STM Association (2023), resalta que la normalización no solo promueve la transparencia, sino que también equilibra las prácticas entre editoriales, disciplinas y regiones, disminuyendo la fragmentación normativa que se ha observado en años recientes.

No obstante, los últimos estudios comparativos (Ganjavi et al., 2024; BMJ Publishing Group, 2024) muestran que, pese a que la mayoría de las grandes editoriales han implementado políticas en torno a la IA, persisten diferencias significativas en su aplicación, obligatoriedad y procedimientos de comprobación.

Algunas empresas de edición, como Elsevier o Springer Nature, implementan políticas vivas que se actualizan constantemente; mientras que otras, como Taylor y Francis o Wiley, siguen declaraciones generales sin directrices operativas. Esta diversidad subraya la relevancia de examinar cuánto están acordes las políticas vigentes con los estándares de ética internacionales y hasta qué punto aseguran una implementación consistente y comprobable. Una evaluación metódica del progreso en estas políticas editoriales facilitará la identificación de los riesgos en ascenso y las áreas de vacío en la normativa del uso de IA en el entorno científico.

En la actualidad se presentan retos relacionados con la declaración del uso de IA, la privacidad en la revisión por colegas, la prohibición de imágenes producidas de manera artificial y la falta de acuerdo en cuanto al porcentaje o nivel aceptable de contenido asistido por IA (World Association of Medical Editors [WAME], 2023; BMJ Publishing Group, 2024). Estas desigualdades resaltan la importancia de robustecer un esquema de gobernanza ética y operativa que garantice la rastreabilidad de la aportación humana y la transparencia en los algoritmos.

Por lo tanto, analizar el avance y las discrepancias en las políticas editoriales relacionadas con la IA no solo posibilita valorar la situación presente de la normativa académica, sino también prever los criterios mundiales de integridad científica que determinarán la edición académica en la era digital. Por lo que es necesario, además, definir algunas políticas específicas que están surgiendo, debido a lo cambiante de las herramientas de IA disponibles para cada fase, tal es el caso de los términos “políticas vivas”, “política ad hoc” o el Acuerdo IA Act Europeo, que han surgido con este proceso de cambios constantes.

El uso de IA, especialmente la generativa, puede generar debates sobre autoría, integridad, originalidad y responsabilidad, y es la fuente principal que obliga a editoriales y revistas a actualizar sus políticas. Es importante identificar la evolución de estas directrices y proponer metodologías operativas para responder a retos éticos y metodológicos, preservando la confianza en los comités como: COPE, ICMJE, entre otros, que se dedican a monitorear los aspectos éticos y metodológicos necesarios para ser utilizado en los procesos editoriales, considerando los cambios rápidos que se están presentado e incorporándolo como “políticas vivas” en algunos casos y pautas generales en otros.

1.4. Políticas vivas

Debido a los continuos cambios a los que están siendo sometidas las revistas en cuanto a sus políticas editoriales, productos de la incorporación de nuevas herramientas de IA y de la necesidad de establecer criterios adecuados a la realidad que no permanecen constantes en el tiempo, ha surgido un nuevo término denominado política viva (living policy).

La Política Viva en el ámbito editorial, hace referencia a que la revista o editorial mantendrá actualizada de forma periódica en su página web o en sus documentos las políticas editoriales, sin la necesidad de publicar la fecha de la última revisión, dado lo dinámico de los cambios generados. Por lo que generalmente se ha adoptado la publicación en formato web dinámico y no en un PDF fecha como era lo común en años anteriores (Association for Psychological Science, 2023; Journal of Industrial Engineering and Management [JIEM], 2025).

El contenido de las políticas suele provenir de diversas fuentes de investigación de las propias editoriales (basada en la evolución tecnológicas), pero también, en algunos casos se ajusta siguiendo la guías generadas por los comités u organismo, tal es el caso del Comité de Ética en Publicaciones (COPE, 2023), Comité Internacional de Directores de Revistas Biomédicas (ICMJE, 2024), Asociación Internacional de Editores Científicos, Técnicos y Médicos (STM Association, 2024), Asociación Mundial de Editores Médicos (WAME, 2023), entre otros comité y asociaciones de editores.

Este tipo de política, que se actualiza de forma tan constante, para poder citarla se requiere indicar la fecha de la consulta (por ejemplo, “consultado el 7-oct-2025”); puesto que esta puede experimentar un cambio significativo en días, semanas o meses. Un ejemplo de las casas editoriales que han adoptado la “política viva” es Elsevier Generative AI Policies for Journals la cual suele ser reemplaza o mejorada en una fecha establecida para adaptarse a las nuevas herramientas que van surgiendo o normativas, tal es caso del Artificial Intelligence Act (AI Act) europeo

1.5. El uso del AI en el marco europeo

En el año 2024, fue aprobado una primera aproximación como marco legal para la reglamentación en el uso de la IA, esta normativa fue realizada en la Unión Europea y lleva por nombre Artificial Intelligence Act (AI Act), dicha normativa fue elaborada por la contribución de tres organismos europeos, como lo son: La Comisión Europea, el Consejo de la Unión Europea y el Parlamento Europeo, en este documento se hace énfasis en la tipificación de los sistemas de IA, de acuerdo a su nivel de riesgo y sienta las bases para las normas de transparencia, responsabilidad y seguridad para su aplicación (Comisión Europea, 2025).

En el sector editorial, la normativa desarrollada enmarca un importante papel regulador promoviendo el uso responsable de las IA mediante prácticas ajustadas a esa normativa, aplicada a los procesos característicos de las editoriales, tales como la revisión, redacción y publicación. Lo que motiva a los gestores responsables de dichos procesos a incorporar políticas internas, haciendo énfasis en la protección de datos y verificación de transparencia. Este marco le da un impulso al entorno académico europeo al potenciar la confianza en la integridad de los procesos editoriales. Sin embargo, de cara al futuro, se plantean desafíos en el desarrollo de dicha tecnología y en el marco regulatorio en los cuales deben ser contenidas las disposiciones legales y éticas.

1.6. Política ad hoc

Desde 2023 hasta ahora, algunas revistas y entidades editoriales han establecido regulaciones de ética destinadas a administrar el uso de IA en el entorno donde se desarrolla el proceso de investigación y publicaciones científicas. Estas regulaciones son una reacción al progreso de las herramientas de IA generativa. La aplicación de esta tecnología ha evidenciado la importancia de tratar situaciones vinculadas con la autoría, la originalidad y la responsabilidad (COPE, 2023; Wiley, 2025).

Otro avance lo han constituido las prestigiosas editoriales académicas, entre ellas Helsinki University Press y Editorial Wiley, que han implementado normativas que impiden atribuir autoría a la inteligencia artificial, además de solicitar la declaración de utilización del tipo de IA utilizado en el manuscrito. Estas acciones buscan transparencia en la ciencia, promoviendo un marco ético, representado para no afectar la credibilidad de los autores y en los procesos en los cuales se emplean estas herramientas (Wiley, 2025; Doskaliuk et al., 2025).

El uso de la tecnología de IA aporta en los procesos editoriales, una mejora en la eficiencia en cuanto a los tiempos de revisión de los manuscritos, verificando la alteración de datos o similitud en la redacción (plagio), también ayuda en la edición y en las gestiones debido a la revisión por pares. Sin embargo, el uso de las herramientas exige establecer políticas que estipulen los límites en el uso de la IA, las responsabilidades de los autores y los principios de transparencia. Estas políticas garantizan que la IA funcione y cumpla para ser usadas solo como un complemento del juicio humano y no como un reemplazo, favoreciendo una integración armónica entre la innovación tecnológica y el rigor académico (Doskaliuk et al., 2025).

La aparición de la IA en la producción científica, también acarrea riesgos éticos y epistemológicos. Entre los aspectos más importantes están la creación de contenido falso o parcializado, la pérdida de la autoría humana, el uso no revelado de IA en la escritura y la potencial divulgación de información sensible durante los procesos de revisión. Estas amenazas ponen en peligro la credibilidad y la transparencia del saber científico, elementos esenciales de la publicación académica.

En este sentido, las políticas editoriales precisas y contemporáneas se transforman en una herramienta fundamental para los autores y los comités editoriales, puesto que proporcionan criterios objetivos para la toma de decisiones. Así, las políticas funcionan como un marco orientador que equilibra la innovación tecnológica con la ética científica, asegurando que la IA sea utilizada de forma responsable y acorde con los valores de la investigación académica (Resnick y Hosseini, 2025).

Las denominadas “políticas vivas” responden a la necesidad de ajustar con frecuencia las normas editoriales, ante la rápida incorporación de herramientas de IA; por ello, suelen publicarse en entornos web dinámicos y para su correcta referencia, requieren consignar la fecha de consulta. Su contenido se construye combinando la experiencia de las editoriales con recomendaciones de organismos internacionales, entre ellos: COPE, ICMJE, STM, entre otros.

Estas “políticas vivas” proponen una alternativa como un marco regulatorio emergente, como el AI Act europeo, orientado a reforzar transparencia, responsabilidad y protección de datos en las fases de redacción, revisión y publicación. En paralelo, se han formulado políticas ad hoc que niegan la autoría a la IA y exigen declarar su utilización, con el fin de sostener la integridad y la confianza en la comunicación científica.

2. Metodología

En esta investigación se empleó un diseño metodológico mixto, de carácter descriptivo y exploratorio, que aborda la obtención de información secundaria y primaria, se estructuro en: Una revisión sistemática de literatura, una exploración etnografía digital sobre las políticas editoriales con integración de IA y mapeo de avances en cuanto a la implementación de políticas editoriales específicas para el uso de IA a nivel de casa editoriales con mayor número de revistas a nivel internacional.

Para alcanzar el objetivo planteado, se formularon tres preguntas de investigación que orientaron el desarrollo del estudio y permitieron estructurar el análisis de los resultados: 1) ¿En qué fase de los procesos editoriales se han generado cambios con el uso de las herramientas de IA?; 2) ¿Cuáles son los principales cambios que se han generado a nivel de políticas editoriales respecto al uso de IA, en aspectos éticos y operativos implementados por las principales casas editoriales de revistas científicas?; y, 3) ¿Qué aspectos técnicos limitan y presentan riesgos en la implementación de herramientas de IA en los procesos editoriales de las revistas científicas?

2.1. Revisión sistemática de la literatura

Se realizó una revisión sistemática de la literatura priorizando las publicaciones correspondientes a los años 2022 al 2025, por lo que se estableció una estrategia de búsqueda de la información, considerando como criterio de inclusión y exclusión los años de publicación, así como también, se incluyeron tanto estudios empíricos como análisis teóricos, orientados hacia los procesos editoriales bajo entornos de uso IA, marcos normativos y políticas institucionales dirigidas a la adopción de herramientas IA.

Se contempló la revisión de publicaciones en inglés y español, que tuviesen textos completos disponibles. Las bases de datos consultadas fueron: Scopus, Web of Science, PubMed, SpringerLink, ScienceDirect e IEEE Xplore. La implementación de estos criterios se realizó a través de un procedimiento en dos fases: Inicialmente, se realizó un análisis preliminar por título y resumen; y posteriormente, se efectuó una revisión a texto completo para confirmar la conexión temática. Este procedimiento fue dirigido de manera sistemática por el equipo de investigación. En situaciones de incertidumbre, se decidió la exclusión del documento. Las primeras investigaciones mostraron un total de 182 publicaciones científicas.

Luego de un análisis preliminar detallado por título y resumen, se escogieron 68 publicaciones para una revisión a texto completo, utilizando criterios temáticos y metodológicos establecidos previamente en el campo de la implementación de IA en las plataformas editoriales y para garantizar su vinculación directa con los propósitos del estudio. Por ende, se logró finalmente el análisis minucioso de 45 artículos.

2.2. Etnografía digital sobre las políticas editoriales

Debido a los continuos cambios a que están sujetas las revistas en relación a sus políticas editoriales bajo el entorno de adopción de nuevas herramientas de IA y la exigencia de definir criterios apropiados para regular su utilización tanto por parte de autores como editores, fue necesario emplear el recurso de la etnografía digital, para manualmente poder ingresar a los portales de las revistas y obtener la información publicada respecto a sus políticas de IA.

La etnografía digital, también conocida como etnografía virtual, netnografía o ciberetnografía, es un método de estudio que se centra en las interacciones e información disponible presentadas en ambientes digitales, tales como sitios web, redes sociales, foros, comunidades en línea y plataformas de publicación científica de IA (Forberg y Schilt, 2023).

Este enfoque fusiona una modalidad de investigación cualitativa con métodos cuantitativos, para examinar un fenómeno o elemento en estudio consultado de primera mano, utilizando técnicas como la observación del investigador, el estudio de documentos digitales, con el objetivo de reconocer (en tiempo real) en los ambientes virtuales, las distintas clases de declaración utilizadas para la implementación de herramientas de IA en el proceso de edición seguido por las revistas (Delli y D’Auria, 2021). Para efectuar esta parte de la investigación se empleó un conjunto de preguntas guías, que facilitaron la ubicación de la información relevante dentro de los documentos web. A continuación, se presenta en el Cuadro 1, las preguntas guías empleadas

Cuadro 1

Estrategia de términos utilizados para la búsqueda sistemática

No.

Pregunta / Indicador

Finalidad / Variable a medir

Motivación y resultados esperados

1

¿Fecha de última actualización o publicación de la política editorial?

Medir la actualidad y vigencia normativa de la política frente a la rápida evolución de la IA.

Identificar el nivel de actualización institucional; se espera que las políticas más recientes (2023–2025) reflejen adaptaciones a IA generativa.

2

¿Tiene guía oficial sobre IA? (Sí/No)

Evaluar la formalización documental de la postura institucional.

Determinar si la editorial posee una política explícita o solo menciones genéricas; las guías oficiales son indicadores de madurez regulatoria.

3

¿Prohíbe IA como autor? (Sí/No)

Medir la adhesión al principio ético internacional de autoría humana.

Confirmar la alineación con COPE, ICMJE y WAME; se espera una prohibición explícita en todas las políticas consolidadas.

4

¿Permite el uso de IA con divulgación? (Sí/No)

Identificar el grado de transparencia exigido a los autores.

Se espera que la mayoría de las políticas fomenten uso responsable y divulgación completa, no la prohibición total.

5

¿Prohíbe imágenes y figuras generadas por IA? (Sí/No)

Medir las restricciones visuales frente a material potencialmente manipulado.

Explorar el compromiso con la integridad visual y científica

6

¿Indica dónde divulgar el uso de IA (Métodos, agradecimiento, carta de aceptación de normas y políticas, carta de presentación)?

Evaluar la claridad operacional en la ubicación de la divulgación.

Cuanto más específica sea la instrucción, mayor estandarización y reproducibilidad del cumplimiento ético.

7

¿Cita al COPE, ICMJE, STM u otra organización de ética editorial? (Sí/No, especificar cuál)

Identificar la alineación ética internacional de la política editorial.

Determinar qué marco guía la política (COPE = ética general, ICMJE = autoría, STM = industria, WAME = biomédica).

8

¿Indica en qué parte del proceso editorial se emplea IA (recepción, selección de área, revisión de pares, edición, manuscrito, divulgación)?

Evaluar la integración operativa de la IA dentro del flujo editorial.

Medir la madurez tecnológica y el grado de automatización responsable de cada casa editorial.

9

¿Qué porcentaje del uso de IA permite la editorial por parte de los autores? (٪)

Analizar el grado de tolerancia o restricción de contenido generado por IA.

Aunque pocas editoriales fijan porcentajes, se espera obtener tendencias cualitativas hacia un uso asistencial y no sustantivo.

10

¿La política se limita a IA generativa o incluye IA no generativa (detectores, analítica, revisión automatizada)?

Diferenciar la amplitud conceptual de la regulación editorial.

Identificar si la editorial aborda la IA solo desde el enfoque generativo (texto, imágenes) o integral (analítica, revisión).

Fuente: Elaboración propia, ٢٠٢٥.

2.3. Mapeo de aplicación de herramientas IA en casa editoriales

Se empleó la estrategia metodológica del mapeo de avance de las casas editoriales para entender cómo estas tecnologías se están incorporando a los procesos de edición científica. Este tipo de análisis facilitó la visualización de patrones de uso y la creación de una panorámica sistemática (Cárdenas-Oliveros et al., 2022), acerca de la incorporación de la IA, lo cual permitió comprender qué aspectos éticos y técnicos están siendo abordados por la casas editoriales, en cuanto a sus prácticas más eficaces, para ello, se llevó a cabo un análisis de los resultados logrados en la segunda fase exploratoria empleando la etnografía de forma descriptiva, y profundizando con publicaciones, guía de los comité de ética editoriales de reconocimiento mundial, para valorar las medidas que han adoptado en este entorno.

Los autores utilizaron las herramientas de ChatGPT-5.0 (OpenAI) y Consensus (Consensus IA), únicamente como apoyo en la ubicación de evidencias y enlaces de las declaraciones sobre las políticas del uso de herramientas de inteligencia artificial. Todo el contenido fue redactado por los autores, quienes asumen plena responsabilidad de este documento. Se analizó una línea de tiempo sobre la evolución de las políticas de uso de IA, y la implementación de distintos cambios que han surgido en las mismas y en los lineamientos generados por los comités.

3. Resultados y discusión

3.1. Revisión sistemática de la literatura

La revisión sistemática permitió identificar las principales herramientas de IA que están siendo empleadas en las diferentes etapas del proceso editorial, considerando además si las mismas corresponden a inteligencias generativas o no generativas y en qué tareas suelen emplearse.

Numerosas herramientas están progresivamente incorporándose a las plataformas de gestión editorial para acelerar el proceso de revisión preliminar, también conocido como triaje, que permite asegurar el cumplimiento de estándares mínimos antes de la revisión por pares. Entre las principales herramientas orientadas a garantizar la originalidad, autoría y coherencia de los manuscritos, se encuentran las que se presentan en el Cuadro 2.

Cuadro 2

Herramientas de IA empleadas en los procesos editoriales

Fase

Proceso editorial

Descripción del proceso

IA Generativa (soporte técnico, analítico o de integridad)

No IA Generativa (IAG)

Revisión preliminar

1. Evaluación preliminar (Desk Review)

Revisión inicial del manuscrito: formato, metadatos, similitud, cumplimiento ético y originalidad antes de asignar editor o revisores.

iThenticate, Turnitin AI Detector, STM Integrity Hub, Penelope.ai, SciScore, Compilatio, StatReviewer (verificación estadística)

Writefull (IAG), ChatGPT-4o, Elicit, Scite Assistant para redacción preliminar o resumen bajo supervisión editorial.

Revisión por pares

2. Asignación y triage editorial

Análisis de pertinencia temática, novedad, y asignación de editor o rechazo inicial (desk reject).

Reviewer Finder (Springer), Find Reviewers (Elsevier), algoritmos de coincidencia semántica y análisis de conflicto de interés.

Uso limitado de LLM internos (IAG) para generar resúmenes o notas internas sin divulgar datos confidenciales.

3. Selección de revisores

Identificación y contacto de revisores competentes, verificación de conflicto de interés, seguimiento de aceptación.

Publons Reviewer Connect, Prophy.ai, Aries Editorial Manager AI Matching, Colmena (IA de análisis de expertise).

No se permite el uso de IAG externos para redactar invitaciones (confidencialidad).

4. Revisión por pares

Evaluación metodológica y científica del manuscrito; detección de errores o sesgos.

StatReviewer (revisión estadística automatizada), STM Image Integrity, Plagiarism Detector, Integrity Hub.

Prohibido uso de IAG para redactar informes de revisión (según políticas de Elsevier, Science y COPE).

Decisión editorial y edición

5. Decisión editorial y comunicación al autor

Integración de informes de revisión, redacción de la carta de decisión y notificación a los autores.

Decision-support dashboards (EM, ProduXion Manager), verificadores de calidad editorial.

Writefull (IAG) o GPT-4o para borradores de comunicaciones internas bajo revisión editorial.

6. Revisión y re-envío del manuscrito

Incorporación de cambios por parte del autor, nueva revisión de similitud, validación estadística y lingüística.

iThenticate re-check, SciScore, STM Hub, validadores de integridad.

Writefull (IAG), Trinka AI, DeepL Write para correcciones lingüísticas con declaración del uso.

Producción y maquetación

7. Producción editorial (edición, maquetación)

Corrección de estilo, normalización de referencias, maquetación, marcaje XML, y control de metadatos.

Proofig, Typeset.io, KUDOS, LaTeX AI Enhancer, Overleaf Copilot.

Writefull for Publishers (IAG), GPT-4o Edit para revisión de claridad textual.

8. Pruebas de autor (Proofs)

Revisión de galeradas, detección de errores de composición y confirmación final del contenido.

Proof Central, Bibliometric Validator, XML Validator, Overleaf Proof Assistant.

Writefull Proof (IAG) o ChatGPT-4o Reviewer para verificar consistencia gramatical.

Difusión y post- producción

9. Publicación y post-publicación

Liberación del artículo en línea, DOI, indexación, métricas, monitoreo de integridad y comunicación pública.

STM Integrity Hub (post-publication analytics), Altmetric AI, Scite.ai, Semantic Scholar Summarizer.

Writefull Abstract Assist (IAG), ChatGPT-4o Summarizer, Scholarcy para generación de resúmenes públicos.

Fuente: Elaboración propia, ٢٠٢٥.

Este tipo de automatización mejora la eficiencia y estandariza el cumplimiento de criterios básicos de calidad. Este software ha evolucionado para incorporar algoritmos de detección de texto generado por IA, lo que genera preocupación en algunos editores dado el uso de modelos de lenguaje para redactar secciones sustantivas de un artículo (Weber-Wulff et al., 2023).

Algunas editoriales, como Springer Nature, han empezado a desarrollar soluciones tecnológicas propias orientadas a detectar señales lingüísticas o patrones de estilo que podrían asociarse con la generación automatizada de contenido (Carobene et al., 2024). Aunque estas aplicaciones aún se encuentran en fases iniciales de implementación, ya se observa un uso creciente y diverso de herramientas destinadas al triaje automatizado de manuscritos.

En esta línea, plataformas como StatReviewer, Penelope.ai, Research Integrity Assessment (RIA) y ManuscriptCheck, apoyan la evaluación preliminar al identificar inconsistencias de estructura, omisiones en apartados críticos (por ejemplo, declaraciones éticas o conflictos de interés) y problemas en la presentación o coherencia de resultados estadísticos (Kousha y Thelwall, 2024).

Existe un conjunto de herramientas de mejoramiento lingüístico y de redacción asistida; tal es el caso de herramientas como Grammarly, Writefull, Paperpal y Trinka, que han sido adoptadas ampliamente para mejorar la calidad lingüística de los manuscritos. Además de corregir ortografía y gramática, estas aplicaciones utilizan procesamiento de lenguaje natural para sugerir reestructuración de frases, tono académico y adecuación al estilo científico (Doskaliuk et al., 2025).

Autores como Lund y Naheem (2024), sostienen que la creciente dependencia de estas herramientas podría reconfigurar las prácticas epistémicas propias de la escritura académica, al introducir una lógica de coproducción humano-algorítmica que difumina los límites tradicionales de la autoría.

En cuanto a la detección de plagio y de contenido generado por IA, existe una amplia gama de modelos generadores de texto, tales es el caso de ChatGPT, lo que ha motivado la incorporación de herramientas como Turnitin, iThenticate, GPTZero, DetectGPT y Copyleaks para detectar posible contenido generado por estas herramientas de IA y cuantificar su porcentaje de uso. Sin embargo, la evidencia empírica reciente sugiere limitaciones graves en su fiabilidad.

Estudios comparativos como los de Elkhatat et al. (2023); y, Weber-Wulff et al. (2023), exponen cómo estas herramientas pueden presentar tasas significativas de falsos positivos (texto humano clasificado erróneamente como generado por IA) y falsos negativos (contenido generado por IA que pasa desapercibido). Además, su precisión disminuye cuando los textos han sido mínimamente editados por humanos o traducidos.

Esta limitación plantea interrogantes fundamentales sobre la validez de los mecanismos de control de calidad basados en IA y genera un dilema ético y práctico para las editoriales, quienes deben equilibrar la eficiencia con la garantía de la integridad académica, con el riesgo de falsas acusaciones de mala conducta o erosión de la confianza en el proceso editorial.

a. Revisión por pares

La IA optimiza la revisión por pares, tanto en la sugerencia de revisores como en la evaluación de la novedad, así como también, la asignación de revisores, por lo que estos sistemas de IA emplean análisis semánticos (Bustamante-Limones et al., 2024) y de redes de coautoría, mejorando la eficiencia y la identificación de expertos, como demuestran herramientas como Reviewer Finder de Elsevier y proyectos como Colmena (Farber, 2024; Repiso, 2024). En cuanto a la evaluación de la “novedad metodológica”, se han desarrollado sistemas que combinan el juicio humano con modelos de lenguaje de gran escala (Wu et al., 2025).

No obstante, la aplicación de estas herramientas presenta desafíos significativos, particularmente en lo que respecta a la transparencia y los sesgos algorítmicos. Estos sesgos pueden surgir al aprender de datos históricos de asignación y citación, perpetuando así inequidades disciplinarias y geográficas existentes (Farber, 2024). Sin embargo, está la etapa donde existe menor consenso sobre los beneficios de la utilización de las herramientas y, en algunos casos, hasta un rechazo categórico, particularmente para su uso por parte de los revisores.

Las herramientas de IA pueden agilizar la revisión por pares al apoyar la búsqueda y asignación de revisores mediante análisis del contenido del manuscrito y de vínculos de coautoría, lo que facilita identificar especialistas y reducir tiempos; sin embargo, es una de las fases en que menos se ha avanzado en la incorporación a los procesos editoriales. Se sugiere explorar esquemas combinados en los que los criterios de los editores se complementen con modelos de lenguaje de IA, para valorar la originalidad o novedad metodológica.

No obstante, estas aplicaciones actualmente enfrentan retos importantes sobre la transparencia de su funcionamiento y pueden incorporar sesgos, puesto que aprenden de patrones históricos que tienden a replicar desigualdades entre disciplinas y regiones. Por ello, esta fase sigue siendo una de las más discutidas y, en algunos contextos, se mantiene una postura restrictiva o incluso de rechazo a que los revisores utilicen IA.

b. Decisión y edición del manuscrito

En esta fase se presentan instrumentos que respaldan a los editores en la contextualización y verificación de los manuscritos. Se incluyen Scholarcy o sistemas internos de IA creados por editoriales como Springer Nature o Elsevier, que proporcionan resúmenes con citas verificables, lo cual simplifica la ruta del saber existente y disminuye los peligros de desinformación, aunque su alcance se limita al catálogo de sus propias bases de datos. Para cotejar los datos expuestos en los manuscritos, los editores tienen la opción de utilizar otras herramientas y bases de datos como ScienceDirect.

c. Producción y maquetación

La IA también se utiliza durante la fase de producción. SnappShot y ChartCheck, ayudan a asegurar la veracidad visual y estadística de las publicaciones, identificando alteraciones en las figuras y fallos en representaciones gráficas (Lund y Naheem, 2024; Nuijten y Wicherts, 2024). Aunque su contribución es esencial para mantener la transparencia, su eficacia se basa en la calidad técnica de los archivos.

d. Difusión y postproducción

Como parte de los recursos digitales usados para expandir su alcance y garantizar la visibilidad de los contenidos, se están incorporando herramientas basadas en IA para optimizar la difusión y el seguimiento post-publicación de los artículos. Entre ellas Semantic Scholar emplea el procesamiento de lenguaje natural y el aprendizaje automático para producir resúmenes automáticos (“TL; DR”), resaltar los aspectos más significativos de una investigación y proponer artículos parecidos, lo cual incrementa la visibilidad y el acceso al contenido científico.

Otra aplicación, Research Rabbit, facilita la visualización de redes de citas y alianzas, además de obtener sugerencias personalizadas de artículos vinculados, lo que promueve que los artículos publicados sean hallados por nuevos lectores interesados (Nuijten y Wicherts, 2024).

Las plataformas como Scite.ai proporcionan instrumentos para producir “citaciones inteligentes o smart citations” que permite identificar o rastrear las publicaciones donde son citadas, donde se argumentan como contradictorias con otros autores, lo que favorece el monitoreo del impacto posterior a la publicación. Estas tecnologías posibilitan la mejora de la propagación, la simplificación de la búsqueda de temas, el incremento de la claridad y el aporte al posicionamiento académico de los artículos más allá de su primera publicación.

3.2. Comités Internacionales y sus políticas sobre el uso de las herramientas IA

En este sentido entre 2021 y 2025, la edición científica ha incorporado de manera progresiva lineamientos sobre el uso de IA (Kaebnick et al., 2024), de modo que a la fecha ha dejado de ser un tema emergente para convertirse en una necesidad de políticas editoriales (Leung et al., 2023). Por lo que Inicialmente se procedió a revisar los últimos lineamientos planteados por el comité de más amplia aceptación por las revistas científicas de alto impacto y casa editoriales, para brindar respuesta sobre los principales cambios que estos comités han generado a nivel de políticas editoriales, en cuanto a los aspectos éticos y operativos implementados.

La International Association of Scientific, Technical and Medical Publishers (STM, 2023), cuya fundación data del año 1969 y la cual ha sido adoptada por más de 140 casas editoriales de alto impacto, dentro de la cuales se pueden mencionar Elsevier, Springer Nature, Wiley, ACS, Taylor y Francis, Cell Press, entre otras. Fue el primer organismo en incorporar lineamientos sobre el uso de la IA en el año 2021 y posteriormente en el año 2023, y ha difundido una guía práctica con recomendaciones para autores, revisores y editores sobre transparencia, capacitación y auditorías internas, en la cual fomenta la interoperabilidad entre editoriales.

Esta guía incorpora lineamiento para: La transparencia algorítmica: identificación de herramientas utilizadas, capacitación de personal editorial en ética de IA, establecimiento de auditorías internas sobre la integridad de datos e imágenes y la adopción de protocolos de interoperabilidad entre casas editoriales para reportar uso de IA; es de mencionarse que STM no es un órgano regulador si actúa como coordinador internacional de estándares técnicos y éticos en la industria editorial.

El COPE, el cual fue creado el año de 1997 en el Reino Unido, y está integrado por editores, casas editoriales y sociedades científicas de alto prestigio como: Elsevier, Springer Nature, Wiley, Taylor y Francis, PLoS, entre otras. A partir de febrero de 2023, COPE incorporó lineamientos sobre IA, en la cual se establece que la IA no puede figurar como autora y que su uso debe ser declarado y supervisado por los autores humanos, y que a su vez son los autores quienes mantienen la total responsabilidad moral y legal sobre el contenido publicado.

En los lineamientos de COPE se enfatizan tres principios universales: Responsabilidad humana integral, transparencia en la declaración del uso y rendición de cuentas y trazabilidad. Esta organización proporciona no solo guías, sino también casos prácticos, que son una referencia global para la generación de políticas editoriales en diversas disciplinas. Aunque no impone un formato obligatorio de divulgación, su marco normativo es referencia en más del 80% de las políticas de las editoriales internacionales (Ganjavi et al., 2024; BMJ Publishing Group, 2024).

Por su parte, el International Committee of Medical Journal Editors (ICMJE), es otro comité fundado en el año 1978, que agrupa a otro conjunto de editores de revistas biomédicas del mundo, como The New England Journal of Medicine (NEJM), JAMA, The BMJ y Annals of Internal Medicine, entre otras. Cuenta con el respaldo de la National Library of Medicine (NLM) y es reconocido como la autoridad en cuanto a normas de autoría en el área biomédica. En mayo de 2023, por primera vez, incorporó un apartado específico sobre IA en sus lineamientos.

El documento establece que el uso de IA en redacción debe declararse en la sección de Agradecimientos, que su aplicación en análisis de datos, figuras o resultados se consigne en los Métodos, y que la IA no puede figurar como autora ni asumir responsabilidad intelectual. Sus normas son adoptadas por más de 6.000 revistas biomédicas y citadas por todas las principales editoriales. El ICMJE ha logrado la mayor estandarización práctica, especificando dónde y cómo divulgar el uso de IA y garantizando la interoperabilidad entre revistas biomédicas y editoriales a nivel global.

Finalmente, la World Association of Medical Editors (WAME), cuya fundación se produjo en el año 1995, y cuya finalidad es actuar como una asociación profesional independiente, está integrada fundamentalmente por editores de revistas médicas y académicas de todo el mundo. Esta asociación presentó en enero de 2023 una política donde se orienta sobre la prohibición de autoría de IA, la necesidad de divulgación explícita de su uso y la preservación de la responsabilidad humana. WAME ha proporcionado hojas de ruta, ejemplos y guías de buenas prácticas para que las revistas puedan elaborar políticas internas.

Su marco ético ha sido base para la adopción de políticas de IA en BMJ, JAMA, Elsevier y Taylor y Francis. Esta organización lideró el inicio del debate internacional sobre IA generativa en la edición científica. Su valor radica en haber establecido definiciones claras y un modelo de transparencia y autoría responsable, hoy adoptado globalmente.

La incorporación de políticas asociadas al uso de la IA, ha sido representada en la línea de tiempo que permite visualizar los diferentes comité e instituciones que han aportado a establecer criterios rigurosos que sirven de guía para el uso del IA en el proceso editorial que se presenta a continuación en la Figura II.

Fuente: Elaboración propia, ٢٠٢٥.

Figura II: Diagrama del avance en la incorporación de política IA en comités editoriales

No obstante, aún persisten vacíos normativos respecto al porcentaje de texto generado, la validez de los detectores de IA y el alcance de su uso no generativo en producción y revisión. Actualmente, las políticas avanzan hacia una gobernanza híbrida, donde la IA se concibe como herramienta complementaria y no como sustituto del juicio humano.

3.3. Revisión etnográfica sobre políticas de uso de las herramientas IA

En función de la revisión etnográfica efectiva se procedió de inicio a identificar las principales casas editoriales y revista que pudieran presentar mayores avances en cuanto a la creación y propuesta de políticas o que estuvieran adheridas a las políticas de los comités éticos, entre ellos: STM; COPE WAWE ICJME, entre otros creados por las propias casas editoriales, para ello se tomó en cuenta la investigación realizada por Ganiavi et al. (2024), donde se señalan las principales casas editoriales, y el número de revista que dirigen, lo cual sirvió de fuente secundaria de información para proceder a indagar en cada uno de los portales web y documentación disponibles de las distintas editoriales.

La revisión evidenció información que se presenta en el Gráfico I, en el cual se muestra el reporte de las 20 casas editoriales con mayor número de revista administradas, que fueron seleccionadas por considerar la infraestructura y el personal disponible para el estudio y la incorporación de las políticas IA de forma permanente, denominadas como políticas vivas o de frecuente cambio para su adaptación.

Fuente: Ganiavi et al. (2024).

Gráfico I: Principales Casa editoriales y su nivel de adopción a políticas sobre uso de IA

A partir de esta información se procedió a realizar la exploración etnográfica, dado que se determinó una búsqueda inicial a un total de 20 casas editoriales analizadas, una vez realizado la revisión de los portales web y la documentación, se avanzó a una segunda fase, en la que se exploró propiamente las páginas de cada una de estas casas empleando la guía exploratoria (lista de verificación) expuesta en el marco metodológico, que consta de ١٠ preguntas, dirigiendo los esfuerzos a buscar la respuesta a cada una de las interrogantes planteadas, para lograr mediante la búsqueda construir una matriz descriptiva de las características de las políticas y los avance en el uso de las herramienta IA en los procesos editoriales.

En cada caso se procedió a registrar la fecha de la más reciente actualización visible en cada sitio web, comprobando los datos almacenados en el pie de página, en el sello CrossMark o en las secciones que señalaban “política viva”. Luego, se examinaron las directrices oficiales de cada editorial, examinando secciones como la política de IA, las directrices de autor para AI y las políticas éticas; en las situaciones en las que la información se transmitía directamente al editor, se dejó una nota explícita.

Se pudo constatar el avance hacia la formalización de guías oficiales sobre IA, por parte de las casas editoriales a partir del año ٢٠٢٣, antes de esta fecha solo el ٢٤٪ de las grandes editoriales contaba con una guía formal, frente al ٨٧٪ de las revistas que actualmente disponen de las mismas, lo que aceleró la adopción de estas políticas y lineamientos (Ganjavi et al., ٢٠٢٤).

En cada portal (BMJ, JAMA Network, Science, y PMC), se registró la postura institucional respecto a la autoría con Inteligencia Artificial, el grado de claridad requerido en relación con las herramientas empleadas, revisando aspecto como: Descripción, versión, propósito y estímulos, también se contempló la revisión de las secciones asignadas para su declaración de: Métodos, agradecimientos, carta al editor o secciones nuevas, entre otras; siendo necesario evaluar si las políticas establecían una distinción entre imágenes científicas y diagramas ilustrativos, y si había restricciones específicas en su producción a través de IA.

Finamente se evaluó, la presencia de plantillas o listados de control específicos, la mención a entidades internacionales como COPE, ICMJE, WAME o STM, y el reconocimiento de las etapas del proceso editorial en las que se autoriza o se procede a limitar la utilización de IA, por ejemplo, en los procesos de triaje, detección de plagio, revisión por pares, edición, entre otros.

Una vez realizada la revisión etnográfica, en la cual se seleccionaron las principales casas editoriales, basada en su capacidad institucional para diseñar, mantener y actualizar políticas vinculadas al uso de IA, tomando como base el mapeo propuesto por Ganjavi et al. (2024), posteriormente, se examinaron sus portales web y documentos oficiales utilizando una lista de verificación de 10 ítems, con el fin de construir una matriz descriptiva sobre el alcance, las características y el nivel de desarrollo de dichas políticas.

3.4. Mapeo de aplicación de herramientas IA en las casas editoriales

Una vez realizada la revisión etnográfica solo 14 casas editoriales de las 20 seleccionadas contaban con políticas específicas con respecto al IA, por lo que se extendió la búsqueda a 2 casas editoriales adicionales (dada la relevancia de estas), por lo que se procedió con la estrategia metodológica de valorar los avance en cada uno de los aspectos evaluados.

Siendo los principales elementos contemplados: La vigencia política, la formalización de la política mediante guías oficiales, cumplimiento ético respecto a la autoría humana, aspectos relacionados con la integridad visual de imágenes generadas por parte de los autores, la claridad en la ubicación de la divulgación, alineación con marcos éticos internacionales, la integración operativa de la IA en el proceso editorial, el grado de permisividad y la amplitud conceptual de las políticas frente a IA generativa y no generativa. Dada la diversidad de criterios en cada uno de los aspectos evaluados, se presenta a continuación, el Cuadro 3 que resume las políticas de uso de las herramientas IA por parte de las casas editoriales con más presencia de revistas de alto impacto.

Cuadro 3

Políticas de uso de las herramientas IA por parte de las casas editoriales

Casa editorial

Fecha publicación

¿Prohíbe imágenes IA?

¿Dónde divulgar el uso?

¿Cita COPE/ICMJE/STM u otra?

¿Permite IA en procesos editoriales?

¿En qué parte del proceso la usa/limita?

Springer Nature / Nature Portfolio

Política viva

Sí (generativa) con excepciones puntuales (Nature)

Métodos u otra sección adecuada

Sí (ética editorial general) (Nature)

Sí, con supervisión y transparencia

Recepción/ edición con límites; revisores no deben subir manuscritos a IA

Elsevier

Política viva

No global (depende de la revista)

Agradecimientos/ Métodos, según guía de revista (www.elsevier.com)

Sí (COPE, integridad) (www.elsevier.com)

Sí, pero revisores/ editores no deben subir manuscritos a IA

Revisión y editorial con límites explícitos

AAAS / Science Journals

16-nov-23

Sí (imágenes/multimedia IA no permitidas sin permiso) (Science)

Carta de cobertura/Métodos/Agradecimientos, con herramienta y versión (Science)

Sí (estándares de integridad; alinea con COPE) (Science)

No para redactar informes de revisión; confidencialidad prioritaria

Revisión por pares (prohibiciones), edición con cautela

BMJ

Política viva

No global

Agradecimientos y/o Métodos; puede pedirse en carta (BMJ)

Sí (ICMJE/COPE) (BMJ)

Uso editorial controlado y transparente

Recepción/edición con límites; revisión resguardada

Wiley

13-sept-23

No global

Métodos/ Agradecimientos (herramienta y propósito) (Nature)

Sí (COPE/STM) (Nature)

No subir manuscritos a IA; uso limitado

Revisión/ edición con límites

Taylor & Francis

12-jun-24

No global

Prefacio/ Introducción (libros) y guías por revista (Science)

Sí (integridad; buenas prácticas) (Science)

Restricciones a revisores/ editores

Recepción/ edición; revisión con límites

SAGE

9-oct-24

No global

Agradecimientos/ Métodos (según revista) (BMJ)

Sí (COPE) (BMJ)

Revisores: uso limitado; no comprometer confidencialidad

Revisión con límites; edición asistida

PLoS ONE

18-sep-2025 (blog/policy)

No global

Sección dedicada (p.ej., Métodos) con detalle de uso (www.elsevier.com)

Sí (COPE) (www.elsevier.com)

Revisores/editores: no subir manuscritos a IA

Revisión/ edición con límites

MDPI

20-abr-2023 (anuncio)

Restricciones por revista/tema

Agradecimientos/ Métodos (varía)

Sí (COPE/WAME) (MDPI)

Uso interno con controles; no subir manuscritos a IA

Revisión con límites; edición asistida

Frontiers

Política viva

Restricciones caso-a-caso

Agradecimientos/ Métodos; en guías por revista (Frontiers)

Sí (COPE/WAME) (Frontiers)

No subir manuscritos a IA; límites a revisores

Revisión colaborativa con salvaguarda

Oxford University Press (OUP)

Políticas activas 2023-2025

No global

Cover letter + Métodos/ Agradecimientos (según título) (OUP Academic)

Sí (ética OUP; referencias a COPE en títulos) (OUP Academic)

Revisores: límites; confidencialidad

Recepción/edición; revisión con límites

Cambridge University Press (CUP)

Políticas activas 2023-2025

No global

Normalmente en Métodos/ Agradecimientos (según título) (Cambridge University Press & Assessment)

Sí (CUP alinea con COPE) (Cambridge University Press & Assessment)

Revisores: límites y confidencialidad

Revisión y edición con límites

IEEE

30-dic-2024 (anuncio integridad)

No global

Identificar porciones y citar herramienta (según guía) (IEEE Spectrum)

Sí (alineada a integridad IEEE)

Revisores/editores con prohibición de uso para redactar informes

Revisión (prohibiciones); edición con límites

American Chemical Society (ACS)

2023-2025

No global

Agradecimientos; descripción del uso (texto/imagen) (researcher-resources.acs.org)

Sí, y cita COPE/WAME/JAMA en blogs y guías (ACS Publications Chemistry Blog)

Revisores/editores con límites

Recepción/ edición con límites; revisión resguardada

Royal Society of Chemistry (RSC)

2025 (comunicación/PRW)

No global

Normalmente en Agradecimientos/ Métodos (según título) (Royal Society of Chemistry)

Sí (alineada a integridad/políticas RSC) (Royal Society of Chemistry)

Revisores con límites de confidencialidad

Revisión/ edición con límites

Cell Press (Elsevier)

2024-2025 (varios títulos)

Sí en Heliyon (prohibición de imágenes IA) (Cell)

“Statement” al final del manuscrito (Cell); guías por revista (Cell)

Sí (alineado a integridad/COPE vía Elsevier)

Revisores/editores con límites

Revisión con límites; edición asistida

Fuente: Elaboración propia, ٢٠٢٥.

El análisis comparativo de las políticas editoriales de las principales casas editoriales internacionales, reveló un avance significativo en la formulación acelerada y heterogénea de política de uso de IA, en las modalidades de actualización de estas políticas en cuanto a sus fechas de publicación, segmentándose el comportamiento como se presenta en el Gráfico II.

Fuente: Elaboración propia, ٢٠٢٥.

Gráfico II: Políticas de actualización sobre el uso del IA

Como puede observarse en el Gráfico II, la gran mayoría de las casas editoriales han adoptado la “política viva”, para ir actualizando de forma permanente los lineamientos y políticas sobre el uso de herramientas IA, y la otra parte de las editoriales ha actualizado sus políticas entre mayo de 2023 y hasta 2025.

Este dinamismo, según el criterio de los autores Gaviani et al. (2024), genera retos en la trazabilidad y consistencia normativa, pues la coexistencia de versiones múltiples de políticas de uso de las IA o guías por parte de cada una de las revistas dentro de una misma editorial, provoca confusión entre autores y revisores, y evidencia una falta de sincronía institucional.

La mayoría de las políticas ya establecen el principio universal de autoría exclusivamente humana, y presentan prohibiciones sobre el uso de estas herramientas de IA para la generación de figuras y datos estadísticos, junto con la obligación de declarar cualquier asistencia automatizada en la redacción o análisis de datos. No obstante, persiste la falta de consenso sobre el grado de intervención permitido, es decir, el porcentaje de uso de las herramientas.

Algunas revistas, como Science, restringen cualquier texto o imagen generados por IA sin autorización; mientras otras, como BMJ o Wiley, promueven un enfoque más flexible, basado en la divulgación responsable y la supervisión humana. Estos contrastes reflejan la tensión entre innovación y control, así como la dificultad para armonizar criterios éticos en un entorno editorial global. En cuanto a los aspectos operativos, estos presentan diversidad de métodos de divulgación tal como se presenta en el Gráfico III, que se presenta a continuación

Fuente: Elaboración propia, 2025.

Gráfico III: Método de divulgación de las herramientas IA usadas

Existe un crecimiento en las políticas que especifican dónde y cómo divulgar el uso de IA, con mención frecuente en secciones como: Métodos, agradecimientos, carta de presentación o declaración del uso de IA. Elsevier, por ejemplo, ha implementado plantillas de declaración de uso; mientras que otras editoriales permiten reportes libres, lo que genera un mosaico de formatos que afecta la comparabilidad entre revistas (Elsevier, ٢٠٢٤). A pesar de ello, muy pocas políticas indican la incorporación de IA en la revisión por pares, edición de manuscrito o pospublicación, siendo Science y JAMA Network las que ofrecen los lineamientos más restrictivos, sobre todo en la confidencialidad de los revisores (JAMA Network, ٢٠٢٤).

Respecto a las políticas dirigidas a los autores, en aspectos como la integridad visual, se observa una tendencia hacia la prohibición de imágenes, figuras y fotografías generadas por IA, especialmente en el ámbito biomédico y clínico, presumiblemente debido al riesgo de manipulación y hasta la falsificación de datos visuales es mayor, igualmente en el tratamiento estadístico de los datos se limita el uso de IA. Las casas editoriales Science y JAMA expresan explícitamente esta restricción al uso de figuras y fotografías sintéticas (Science/AAAS, ٢٠٢٣).

Otro de los aspectos operativos que se han encontrado en el mapeo de las casas editoriales es sobre las restricciones de uso de la IA en algunas fases del proceso editorial, las cuales se presentan de forma jerarquizada por frecuencia de aparición en el Gráfico IV, que se muestra a continuación.

Fuente: Elaboración propia (2025).

Gráfico IV: Uso de IA en el proceso editorial

Existe por parte de todas las casas editoriales evidencia sobre la necesidad de establecer límites operativos, que ilimiten el uso indebido de IA en fases críticas del proceso editorial, como la evaluación de manuscritos o la redacción de decisiones editoriales. En el mapeo global, se evidencia que el sistema editorial se encuentra en una fase de maduración normativa, donde se ha logrado un consenso ético básico: la IA no puede ser autora y su uso debe divulgarse, pero subsisten amplias asimetrías en la implementación. Los principales desafíos giran en torno a la estandarización del formato de declaración, la diferenciación entre IA generativa y no generativa, y la definición de los límites operativos del uso de IA por editores y revisores.

Las casas editoriales que han avanzado hacia modelos más transparentes y auditables, presentan una guía para el resto de las revistas en cuanto a las políticas y la adopción de estas herramientas. También señalan la posibilidad de integrar exitosamente estas herramientas tecnológicas sin afectar su ética editorial. Existen numerosos retos que próximas investigaciones abordarán esta temática, entre ellas la verificación del equilibrio en los sesgos que introducen estas herramientas, en aspectos como: El lenguaje en que se redactan las publicaciones, la eficiencia algorítmica y la integridad científica, garantizando que la IA sea solo un recurso complementario al juicio crítico humano y no un sustituto de la responsabilidad intelectual.

Alguno de los elementos que deben ser estudiados en la búsqueda de soluciones para un desarrollo más uniforme en cuanto al uso de estas herramientas por el universo amplio editorial de revistas en regiones como Latinoamérica o el resto de países con menores recursos para la investigación, donde ya se ha planteado soluciones como observatorio para la colaboración conjunta y capacitaciones en red de colaboración.

Conclusiones

Este estudio aporta una evaluación sistemática del progreso en la incorporación de políticas editoriales orientadas a regular el uso de las herramientas de IA, particularmente las IA generativa, capaces de realizar funciones propias de los autores, las cuales continuamente surgiendo de forma acelerada con funciones cada vez más optimizadas desde el año 2023, por lo que se evidencia un consenso internacional hacia la aceptación de autoría únicamente humana en los articulos y la declaración obligatoria del uso de IA. Se destaca que la gobernanza actual aún es heterogénea y con vacíos operativos según el tipo de IA.

Los resultados muestran que la IA se integra con mayor facilidad en la etapa inicial del proceso editorial, es decir, en el triaje, detección de similitud, control de integridad y apoyo a la edición, donde aporta eficiencia y estandarización. En contraste, la revisión por pares y la decisión editorial se mantienen como fases más sensibles, donde existe mayor cautela y discrepancias por riesgos de sesgo, opacidad y afectación de la trazabilidad. Esto confirma que el reto principal no es técnico, sino de gobernanza y confianza.

Entre las limitaciones encontradas, destacan el carácter dinámico de las “políticas vivas” y la variabilidad en el nivel de detalle disponible en los portales de cada editorial, lo que limita comparaciones plenamente homogéneas. Además, al basarse en evidencia documental, este estudio no permitió verificar el cumplimiento real, la efectividad de los controles internos o el impacto cuantitativo en tiempos editoriales y calidad de dictámenes.

Como líneas futuras, se propone pasar de la política escrita a su aplicación real mediante estudios longitudinales, auditorías de cumplimiento y trabajo de campo con editores, revisores y autores. También es prioritario acordar métricas comparables para la declaración del uso de IA y la trazabilidad, evaluar sesgos algorítmicos en la selección de revisores y en decisiones asistidas, y establecer protocolos verificables para la integridad de imágenes y datos. Esto permitiría construir estándares interoperables y una gobernanza auditable, clave para reducir brechas y fortalecer capacidades en Latinoamérica.

Referencias bibliográficas

Acosta, S. F., y Finol, M. R. (2024). Inteligencia artificial como mecanismo para mejorar la gestión educativa universitaria. Revista de Ciencias Sociales (Ve), XXX(3), 583-597. https://doi.org/10.31876/rcs.v30i3.42697

Agrawal, A., Gans, J. S., y Goldfarb, A. (2024). Artificial intelligence adoption and system-wide change. Journal of Economics & Management Strategy, 33(2), 327-337. https://doi.org/10.1111/jems.12521

Alves, L., Carvalho, M., y Dias, L. (2022). Transparência e processo editorial: Como é o trabalho das Editoras-chefes? Cadernos de Saúde Pública, 38(6), e00089822. https://doi.org/10.1590/0102-311xpt089822

Aries Systems Corporation (2023). Editorial Manager and ProduXion Manager workflow automation. Aries Systems Corporation. https://www.ariessys.com

Association for Psychological Science (December, 2023). APS editorial policies. Association for Psychological Science. https://www.psychologicalscience.org/publications/aps-editorial-policies

Banh, L., y Strobel, G. (2023). Generative artificial intelligence. Electronic Markets, 33(1), 63. https://doi.org/10.1007/s12525-023-00680-1

BMJ Publishing Group (2024). BMJ editorial policies on artificial intelligence and integrity in research. BMJ Publishing Group. https://www.bmj.com/about-bmj/resources-authors

Bustamante-Limones, A., Rodriguez-Borges, C., y Pérez-Rodríguez, J. A. (2024). Evaluación del uso de gemelos digitales en los sistemas de producción. AiBi Revista de Investigación, Administración e Ingeniería, 12(3), 195-204. https://doi.org/10.15649/2346030X.4382

Candal-Pedreira, C., Rey-Brandariz, J., Varela-Lema, L., Pérez-Ríos, M., y Ruano-Ravina, A. (2023). Los desafíos de la revisión por pares: Cómo garantizar la calidad y transparencia del proceso editorial de las revistas científicas. Anales de Pediatría, 99(1), 54-59. https://doi.org/10.1016/j.anpedi.2023.05.017

Cárdenas-Oliveros, J. A., Rodríguez-Borges, C. G., Pérez-Rodríguez, J. A., y Valencia-Zambrano, X. H. (2022). Desarrollo del pensamiento crítico: Metodología para fomentar el aprendizaje en ingeniería. Revista de Ciencias Sociales (Ve), XXVIII(4), 512-530. https://doi.org/10.31876/rcs.v28i4.39145

Carobene, A., Padoan, A., Cabitza, F., Banfi, G., y Plebani, M. (2024). Rising adoption of artificial intelligence in scientific publishing: Evaluating the role, risks, and ethical implications in paper drafting and review process. Clinical Chemistry and Laboratory Medicine, 62(5), 835-843. https://doi.org/10.1515/cclm-2023-1136

Chang, H., y Kong, H.-J. (2018). A new online journal management system. Healthcare Informatics Research, 24(1), 1-2. https://doi.org/10.4258/hir.2018.24.1.1

Comisión Europea (2025). Quienes somos. Comisión Europea. https://commission.europa.eu/index_es

Committee on Publication Ethics COPE (2023). Position statement on artificial intelligence tools in research publication. Committee on Publication Ethics. https://doi.org/10.24318/cCVRZBms

Cress, U., y Kimmerle, J. (2023). Co-constructing knowledge with generative AI tools: Reflections from a CSCL perspective. International Journal of Computer-Supported Collaborative Learning, 18(4), 607-614. https://doi.org/10.1007/s11412-023-09409-w

Delli, A., y DAuria, V. (2021). Digital Ethnography: A systematic literature review. Italian Sociological Review, 11(4S), 243-267. https://doi.org/10.13136/isr.v11i4S.434

Díaz, D. (2024). Herramientas para detectar el Plagio a la Inteligencia Artificial: ¿Cuán útiles son? Revista CoGnosis, 9(2), 144-150.

Doskaliuk, B., Zimba, O., Yessirkepov, M., Klishch, I., y Yatsyshyn, R. (2025). Artificial intelligence in peer review: Enhancing efficiency while preserving integrity. Journal of Korean Medical Science, 40(7), e92. https://doi.org/10.3346/jkms.2025.40.e92

Elkhatat, A. M., Elsaid, K., y Almeer, S. (2023). Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text. International Journal for Educational Integrity, 19(1), 17. https://doi.org/10.1007/s40979-023-00140-5

Elsevier (2024). Generative AI policies for journals. Elsevier. https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals

Farber, S. (2024). Enhancing peer review efficiency: A mixed-methods analysis of artificial intelligence-assisted reviewer selection across academic disciplines. Learned Publishing, 37(4), e1638. https://doi.org/10.1002/leap.1638

Fiorillo, L., y Mehta, V. (2024). Accelerating editorial processes in scientific journals: Leveraging AI for rapid manuscript review. Oral Oncology Reports, 10, 100511. https://doi.org/10.1016/j.oor.2024.100511

Forberg, P., y Schilt, K. (2023). What is ethnographic about digital ethnography? A sociological perspective. Frontiers in Sociology, 8, 1156776. https://doi.org/10.3389/fsoc.2023.1156776

Fyfe, A., Squazzoni, F., Torny, D., y Dondio, P. (2019). Managing the growth of peer review at the Royal Society journals, 1865–1965. Science, Technology, & Human Values, 45(3), 405-429. https://doi.org/10.1177/0162243919862868

Ganjavi, C., Eppler, M. B., Pekcan, A., Biedermann, B., Abreu, A., Collins, G. S., Gill, I. S., y Cacciamani, G. E. (2024). Publishersand journalsinstructions to authors on use of generative artificial intelligence in academic and scientific publishing: Bibliometric analysis. BMJ, 384, e077192. https://doi.org/10.1136/bmj-2023-077192

Gatrell, C., Muzio, D., Post, C., y Wickert, C. (2024). Here, there and everywhere: On the responsible use of artificial intelligence (AI) in management research and the peer-review process. Journal of Management Studies, 61(3), 739-751. https://doi.org/10.1111/joms.13045

Goretti, L., Küsters, A., Morgana, S., y Sharma, A. (2024). Challenges and opportunities of using generative AI for research: Opening the discussion. The International Spectator, 60(1), 1-16. https://doi.org/10.1080/03932729.2024.2435176

Hanson, M. A., Gómez, P., Crosetto, P., y Brockington, D. (2023). The strain on scientific publishing. Quantitative Science Studies, 5(4), 823-843. https://doi.org/10.1162/qss_a_00327

Hernández-León, N., y Rodríguez-Conde, M.-J. (2024a). Cómo nos puede ayudar la inteligencia artificial a hacer un análisis sistemático de literatura científica (SLR): Ejemplo práctico sobre la inteligencia artificial aplicada a la educación”. En I. Cabero (Coord.), Perspectivas contemporáneas en educación: Innovación, investigación y transformación (pp. 567-585). Dykinson.

Hernández-León, N., y Rodríguez-Conde, M.-J. (2024b). Inteligencia artificial aplicada a la educación y la evaluación educativa en la universidad: Introducción de sistemas de tutorización inteligentes, sistemas de reconocimiento y otras tendencias futuras. Revista de Educación a Distancia (RED), 24(78). https://doi.org/10.6018/red.594651

International Committee of Medical Journal Editors - ICMJE (2024). Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals. International Committee of Medical Journal Editors. https://www.icmje.org/recommendations/

JAMA Network (2025). Home. JAMA Network. https://jamanetwork.com/journals/jama

Journal of Industrial Engineering and Management (2025). Editorial policies. Journal of Industrial Engineering and Management. https://www.jiem.org/index.php/jiem/about/editorialPolicies

Kaebnick, G. E., Magnus, D. C., Kao, A., Hosseini, M., Resnik, D., Dubljević, V., Rentmeester, C., Gordijn, B., y Cherry, M. J. (2023). Editorsstatement on the responsible use of generative AI technologies in scholarly journal publishing. Hastings Center Report, 53(5), 3-6. https://doi.org/10.1002/hast.1507

Kim, J., Yu, S., Detrick, R., y Li, N. (2025). Exploring studentsperspectives on generative AI-assisted academic writing. Education and Information Technologies, 30(1), 1265-1300. https://doi.org/10.1007/s10639-024-12878-7

Kousha, K., y Thelwall, M. (2024). Artificial intelligence to support publishing and peer review: A summary and review. Learned Publishing, 37(1), 4-12. https://doi.org/10.1002/leap.1570

Leung, T. I., De Azevedo, T., Mavragani, A., y Eysenbach, G. (2023). Best practices for using AI tools as an author, peer reviewer, or editor. Journal of Medical Internet Research, 25, e51584. https://doi.org/10.2196/51584

Liebrenz, M., Schleifer, R., Buadze, A., Bhugra, D., y Smith, A. (2023). Generating scholarly content with ChatGPT: Ethical challenges for medical publishing. The Lancet Digital Health, 5(3), e105-e106. https://doi.org/10.1016/s2589-7500(23)00019-5

Ling, X., y Yan, S. (2023). Lets be fair: What about an AI editor? Accountability in Research, 31(8), 1253-1254. https://doi.org/10.1080/08989621.2023.2223997

Lund, B. D., y Naheem, K. T. (2024). Can ChatGPT be an author? A study of artificial intelligence authorship policies in top academic journals. Learned Publishing, 37(1), 13-21. https://doi.org/10.1002/leap.1582

Mendoza, W. S., Díaz-Guecha, L. Y., Numa-Sanjuán, N., y Herrera, S. (2025). Inteligencia Artificial Generativa y sus consideraciones éticas en el derecho: Una valoración exploratoria sobre la práctica. Revista de Ciencias Sociales (Ve), XXXI(4), 206-222. https://doi.org/10.31876/rcs.v31i4.44848

Moradzadeh, M., Sedghi, S., y Panahi, S. (2022). Towards a new paradigm for journal qualitycriteria: A scoping review. Scientometrics, 128, 279-321. https://doi.org/10.1007/s11192-022-04520-5

Morán-Ortega, S.-A., Ruiz-Tirado, S.-G., Simental-López, L.-M., y Tirado-López, A.-B. (2024). Barreras de la inteligencia artificial generativa en estudiantes de educación superior: Percepción docente. Revista de Investigación en Tecnologías de la Información, 12(25), 26-37. https://doi.org/10.36825/riti.12.25.003

Nature Portfolio (2023). Editorial policies and peer review process. Nature Portfolio. https://www.nature.com/nature-portfolio 

Nuijten, M. B., y Wicherts, J. M. (2024). Implementing statcheck during peer review is related to a steep decline in statistical-reporting inconsistencies. Advances in Methods and Practices in Psychological Science, 7(2). https://doi.org/10.1177/25152459241258945

Ooi, K.-B., Tan, G. W.-H., Al-Emran, M., Al-Sharafi, M. A., Capatina, A., Chakraborty, A., Dwivedi, Y. K., Huang, T.-L., Kar, A. K., Lee, V.-H., Loh, X.-M., Micu, A., Mikalef, P., Mogaji, E., Pandey, N., Raman, R., Rana, N. P., Sarker, P., Sharma, A., Wong, L.-W. (2025). The potential of generative artificial intelligence across disciplines: Perspectives and future directions. Journal of Computer Information Systems, 65(1), 76-107. https://doi.org/10.1080/08874417.2023.2261010

Osasona, F., Amoo, O. O., Atadoga, A., Abrahams, T. O., Farayola, O. A., y Ayinla, B. S. (2024). Reviewing the ethical implications of AI in decision making processes. International Journal of Management & Entrepreneurship Research, 6(2), 322-335. https://doi.org/10.51594/ijmer.v6i2.773

Pezzullo, A. M., y Boccia, S. (2024). Growth and challenges in biomedical scientific publishing. European Journal of Public Health, 34(S_3), ckae144.677. https://doi.org/10.1093/eurpub/ckae144.677

Pividori, M., y Greene, C. S. (2023). A publishing infrastructure for AI-assisted academic authoring [Preprint]. bioRxiv. https://doi.org/10.1101/2023.01.21.525030

PLoS ONE (2023). Peer review guidelines and metrics. PLoS ONE. https://journals.plos.org/plosone/s/journal-information

Repiso, R. (2024). Artificial Intelligence in the editorial process and peer review. Revista Investigación e Innovación en Ciencias de la Salud, 6(2), 1-4. https://doi.org/10.46634/riics.317 

Resnik, D. B., y Hosseini, M. (2025). Disclosing artificial intelligence use in scientific research and publication: When should disclosure be mandatory, optional, or unnecessary? Accountability in Research, 1–13. https://doi.org/10.1080/08989621.2025.2481949

Science/AAAS (2023). Editorial policies on the use of artificial intelligence. Science/AAAS. https://www.science.org/

Seghier, M. L. (2023). Using ChatGPT and other AI-assisted tools to improve manuscripts readability and language. International Journal of Imaging Systems and Technology, 33(3), 773–775. https://doi.org/10.1002/ima.22902

Springer Nature (2024). Reviewer Finder and peer review tools. Springer Nature. https://www.springernature.com/gp

STM Association (2023). STM Integrity Hub: AI and ethics in publishing. STM Association. https://www.stm-assoc.org/integrity-hub

Tabatadze, B. (2024). Technological Aspects of Open Journal Systems (OJS). Journal of Technical Science and Technologies, 8(1), 23-29.

Taylor & Francis Group (2024). Editorial integrity and AI guidelines. Taylor & Francis Group. https://authorservices.taylorandfrancis.com

Torres, G. A., Torres, J. M., y Pacheco, M. C. (2025). Inteligencia artificial generativa: Impactos y dilemas éticos en el ámbito educativo. Revista de Ciencias Sociales (Ve), XXXI(2), 535-543. https://doi.org/10.31876/rcs.v31i2.43784

Tuquinga-Cercado, M. A., López-Ramírez, M. L., Gutiérrez-Aguayo, J. A., y Delgado-Fajardo, S. J. (2025). Análisis crítico del uso de inteligencia artificial en la formación de estudiantes universitarios. Revista de Ciencias Sociales (Ve), XXXI(E-12), 319-334. https://doi.org/10.31876/rcs.v31i.44567

Weber-Wulff, D., Anohina-Naumeca, A., Bjelobaba, S., Foltýnek, T., Guerrero-Dib, J., Popoola, O., Šigut, P., y Waddington, L. (2023). Testing of detection tools for AI-generated text. International Journal for Educational Integrity, 19, 26. https://doi.org/10.1007/s40979-023-00146-z

Wiley (2025). ManuscriptCheck. Wiley. https://authorservices.wiley.com/author-resources/Journal-Authors/Prepare/manuscriptcheck.html

World Association of Medical Editors - WAME (2025). Home. World Association of Medical Editors (WAME). https://www.wame.org/

Wu, J., Sanchez-Diaz, I., Yang, Y., y Qu, X. (2024). Why is your paper rejected? Lessons learned from over 5,000 rejected transportation papers. Communications in Transportation Research, 4, 100129. https://doi.org/10.1016/j.commtr.2024.100129