Revista de Ciencias Sociales (RCS)
Vol. XXXII, No. 1, Enero - Marzo 2026. pp.
278-305
FCES - LUZ ● ISSN: 1315-9518 ● ISSN-E: 2477-9431
Como citar: Pérez-Rodríguez, J.
A., Rodríguez-Borges, C. G., Guillén-Intriago, M. M., y Pita, M. V. (2026).
Transformación de procesos y políticas editoriales de las revistas científicas
frente al uso de inteligencia artificial. Revista De Ciencias Sociales,
XXXII(1), 278-305.
Transformación de procesos y
políticas editoriales de las revistas científicas frente al uso de inteligencia
artificial
Pérez-Rodríguez, Jesús Alberto*
Rodríguez-Borges,
Ciaddy Gina**
Guillén-Intriago,
Mariuxi Monserrate***
Pita
Mera, María Veneranda****
Resumen
El
desarrollo de herramientas de inteligencia artificial, tanto generativas como
no generativas, ha transformado los procesos editoriales de las revistas
científicas, siendo utilizadas por autores y comités editoriales para optimizar
tareas y reducir tiempos en el flujo de publicación. Esta investigación tiene
como objetivo analizar la evolución de los procesos y políticas editoriales
vinculados al uso de herramientas de inteligencia artificial entre 2022 y el
presente, identificando los principales cambios éticos, operativos y normativos
implementados por reconocidas casas editoriales internacionales. Se empleó un
diseño metodológico mixto, de carácter descriptivo y exploratorio, estructurado
en tres fases: Revisión sistemática de literatura, etnografía digital de las
políticas editoriales que integran inteligencia artificial y el mapeo de
avances en su aplicación. Los resultados evidencian que la etapa de evaluación
preliminar es la que más frecuentemente utiliza herramientas de inteligencia
artificial; mientras que, en la revisión por pares, su uso permanece
restringido. Entre las principales limitaciones destacan la falta de
estandarización en las políticas, las barreras técnicas y la escasa
capacitación. Asimismo, se observó que muchas revistas carecen de una
declaración explícita sobre el uso de herramientas de inteligencia artificial y
no existe consenso respecto al lugar adecuado para su divulgación.
Palabras clave: Políticas editoriales; etnografía digital; brecha
tecnológica; casas editoriales; algoritmos generativos.
* Postdoctorado en Gestión de la Ciencia y la Tecnología. Doctor en Ciencias, mención Instrumentación. Docente Investigador de la carrera de Ingeniería Eléctrica en la Universidad Técnica de Manabí, Portoviejo, Manabí, Ecuador. E-mail: jesus.perez@utm.edu.ec ORCID: http://orcid.org/0000-0002-1578-2565
** Postdoctorado en Gestión de la Ciencia y la Tecnología. Doctora en Ciencias Técnicas. Docente Investigadora de la carrera de Ingeniería Industrial en la Universidad Técnica de Manabí, Portoviejo, Manabí, Ecuador. E-mail: ciaddy.rodriguez@utm.edu.ec ORCID: https://orcid.org/0000-0003-1097-4194
*** Magister en Ciencias de Datos y Máquinas de Aprendizaje. Ingeniera en Sistemas Informáticos. Docente Investigadora de la Facultad de Ingeniería y Ciencias Aplicadas en la Universidad Técnica de Manabí, Portoviejo, Manabí, Ecuador. E-mail: mariuxi.guillen@utm.edu.ec ORCID: https://orcid.org/0009-0005-6923-0538
**** Magister en Arquitectura con mención en Proyectos Arquitectónicos y Urbanos. Docente Investigadora de la Facultad de Ingeniería y Ciencias Aplicadas en la Universidad Técnica de Manabí, Portoviejo, Manabí, Ecuador. E-mail: veneranda.pita@utm.edu.ec ORCID: https://orcid.org/0000-0002-4480-4567
Recibido: 2025-09-17 • Aceptado: 2025-12-05
Transformation of editorial processes and policies of scientific journals in response to the use of artificial intelligence
Abstract
The development of artificial intelligence tools, both generative and non-generative, has transformed the editorial processes of scientific journals, being used by authors and editorial boards to optimize tasks and reduce publication times. This research aims to analyze the evolution of editorial processes and policies related to the use of artificial intelligence tools between 2022 and the present, identifying the main ethical, operational, and regulatory changes implemented by renowned international publishing houses. A mixed-methods design was employed, of a descriptive and exploratory nature, structured in three phases: a systematic literature review, digital ethnography of editorial policies that integrate artificial intelligence, and mapping of advances in its application. The results show that the preliminary evaluation stage is where artificial intelligence tools are most frequently used, while their use remains restricted in the peer review process. Among the main limitations are the lack of standardization in policies, technical barriers, and insufficient training. Furthermore, it was observed that many journals lack an explicit statement regarding the use of artificial intelligence tools, and there is no consensus on the appropriate place for such disclosure.
Keywords: Editorial policies; digital ethnography; digital divide; publishing houses; generative algorithms.
Introducción
Las
revistas científica son el principal medio de reconocimiento, evaluación y
difusión del conocimiento científico en la actualidad (Fyfe et al., 2019), y su
prestigio reside principalmente en la rigurosidad de los métodos empleados para
la selección, revisión, aceptación y publicación de los resultados alcanzados
en los procesos de investigación (Candal-Pedreira et al., 2023), debido a que
las revistas deben garantizar dentro de sus políticas y criterios, una
evaluación que permita la verificación del aporte teórico y científico, validez
y reproducibilidad de los resultados, así como la originalidad (Alves et al.,
2022; Moradzadeh et al., 2022).
El
incremento en el número de artículos científicos de los últimos 20 años ha
complejizado las tareas de los editores de revistas; por ejemplo, entre 2016 y
2022 se registró un incremento del 45% en el número de artículos recibidos por
las revistas respecto a los 6 años anteriores (Hanson et al., 2023). Otros
autores, como Pezzullo y Boccia (2024), han señalado que bases de datos como Web of Science reportaron que, en el año 2023, más
de tres millones de artículos científicos fueron publicados, por lo que las
revistas y casas editoriales han tenido que recurrir a diversos métodos para
hacerle frente a semejante tarea.
Entre
los métodos empleado para hacer frente al gran volumen de articulo que se
recibe anualmente en las revistas, se encuentran: Aumentos en la tasa de
rechazo de artículos; generar ediciones especiales; además de proceder a la
incorporación de herramientas que sistematicen los procesos y permitan una
mayor eficiencia en la agilización de los tiempos de cada etapa de la gestión
editorial, para garantizar la continuidad de los procesos (Wu et al., 2024).
Por
lo que, a partir del año 2000, han surgido diversas herramientas para apoyar
las funciones editoriales, entre las que se incluyen: Sistemas de revistas
abiertas (OJS), reseñas electrónicas, Scholar One
Manuscript, Editorial Manager, entre
otros software (Aries Systems Corporation,
2023; Tabatadze, 2024). A partir del año 2020, se inicia la integración de
algoritmos de Inteligencia Artificial (IA) a los mencionados procesos (Seghier,
2023). Pero a partir del año 2004, se incorpora ya software
con algoritmos avanzados en la gestión editorial (Fiorillo y Mehta, 2024).
Estas
herramientas que incorporan distintos algoritmos de IA, no solo están
realizando funciones simples, sino que cada vez sustituyen procesos complejos
de revisión, tales como ajustar documentos a las normas de las revistas, además
de ser capaces de generar información y resultados creativos, por lo que estos
algoritmos propuestos para su uso en los procesos editoriales, requieren del
establecimiento de políticas de uso claras, no solo para los autores que
emplean las más comunes, sino también por parte de las revistas en sus procesos
editoriales (Pividori y Greene, 2023; Ling y Yan, 2023; Gatrell et al., 2024).
Debido
a la poca difusión de los cambios en las políticas editoriales de las revistas
sobre el uso de herramientas de IA, y su proceso de implementación, así como
también, de cuánto es el avance en la incorporación de estas herramientas, se
planteó la necesidad de realizar una investigación exploratoria en diferentes
fuentes de información que permitiera, precisar, los siguientes aspecto: Cuáles
son las etapas del proceso editorial donde se está empleando IA y bajo qué
limitaciones; en qué aspecto convergen los editores de revistas sobre las
ventajas del uso de estas herramientas; y, cuáles son los riesgo de su
utilización, resaltando los vacíos en cuanto a la normalización en el uso de la
IA y qué aspectos ameritan cooperación interinstitucional.
Por
lo que, el objetivo de esta investigación consiste en analizar la evolución de
los procesos y políticas editoriales vinculadas al uso de herramientas de IA en
las revistas científicas entre los años ٢٠٢٢ y ٢٠٢٥, identificando los principales cambios éticos,
operativos y normativos implementados por reconocidas casas editoriales
internacionales.
1.
Fundamentación teórica
1.1.
Procesos editoriales
Los
procesos editoriales suelen contemplar generalmente 6 etapas, entre ellas:
Evaluación preliminar, revisión por pares, decisión editorial, producción,
maquetación, publicación y, finalmente, la difusión (pospublicación), las
cuales abordan una serie de tareas, tal como se presenta en la Figura I.

Fuente: Elaboración propia, ٢٠٢٥
adaptado de Chang y Kong (٢٠١٨).
Figura I: Etapa del proceso editorial de revista científicas
En
cada una de estas fases se están desarrollando herramientas de IA, no
generativa y generativas, para apoyar cada proceso (Kaebnick et al., 2023;
Leung et al., 2023; Acosta y Finol, 2024), existiendo una mayor cantidad de
herramientas en los procesos de evaluación preliminar y poco uso en la fase de
revisión por pares y decisión editorial por parte de algunos autores (Banh y
Strobel, 2023).
Estas
tecnologías se han integrado en múltiples puntos del ciclo editorial, desde la
redacción asistida de manuscritos hasta la revisión por pares, la evaluación
automatizada de calidad y su maquetación para su posterior publicación, como
señalan Leung et al. (2023). El avance de los modelos de lenguaje generativo ha
ampliado las capacidades para redactar texto científico, sugerir referencias,
generar figuras o resumir resultados, lo que plantea no solo beneficios
operativos sino también desafíos éticos y conceptuales de gran calado.
Usualmente
el proceso editorial se divide en seis fases: Evaluación preliminar, revisión
por pares, decisión editorial, producción/maquetación, publicación y difusión
pospublicación. En cada fase se han ido incorporando diversas herramientas de
IA, pero no con la misma intensidad: su uso se acepta con más facilidad en la
evaluación preliminar; mientras que en la revisión por pares y la toma de
decisiones editoriales todavía hay posturas divididas. El avance de la IA
generativa representa un reto debido a su capacidad de realizar actividades propias
del autor, como redactar, proponer referencias, generar figuras o resumir
hallazgos, lo que obliga a discutir con más cuidado sus implicaciones éticas y
conceptuales.
1.2.
Uso de IA generativa y no generativa en los procesos editoriales
Las
herramientas de IA aplicadas en la gestión editorial, en la actualidad se
clasifican según el contenido que generan (Díaz, 2024), considerando su
capacidad y complejidad para estas tareas se han clasificado en dos grandes
categorías, una de ellas es la IA no generativa (IANG) (Hernández-León y
Rodríguez-Conde, 2024a; 2024b), estas herramientas limitan su funcionalidad a:
Analizar, contrastar, valorar, clasificar, detectar patrones para la
verificación de la integridad (detección de similitudes), automatizar tareas de
revisión de ortografía, gestión de metadatos, análisis semántico de manuscritos
(Kaebnick et al., 2023; Leung et al., 2023).
Estos
algoritmos no generativos están consolidándose como valiosas herramientas de
apoyo a las casas editoriales, y revistas en procesos como: Asignación de
revisores, sistemas de análisis de datos para evaluar métricas de impacto y
calidad, además del seguimiento del manuscrito en la gestión editorial (Leung
et al., 2023), cuyos procesos están principalmente orientados al control de
calidad de los manuscritos y a mejorar la redacción y presentación de los
mismos, dado a que estas tareas no generan modificaciones significativas a los
documentos.
Mientras
que, por otra parte, se integran los algoritmos de IA denominados herramientas
de IA generativa (Morán-Ortega et al., 2024), se caracteriza por su capacidad
de crear contenido nuevo a partir de un conjunto amplio de datos y patrones
previamente aprendidos (Kim et al., 2025; Ooi et al., 2025; Mendoza et al.,
2025), este contenido puede abarcar textos, gráficos, imágenes (Pividori y
Greene, 2023), considerando las tareas más básicas de estas herramientas.
Sin
embargo, su potencial va más allá, puesto que pueden proponer metodologías,
patrones de lenguaje, estilos de redacción, estructuras de presentación, entre
otras funciones muy útiles en el proceso editorial (Cress y Kimmerle, 2023;
Torres et al., 2025). Diversas casas editoriales han consolidado el uso de
estas herramientas para realizar funciones de redacción asistida, creación de
títulos, resúmenes y otras partes del artículo (Liebrenz et al., 2023; Carobene
et al., 2024), lo cual ayuda a potenciar la visibilidad y citación de los
mismos, así como también, la normalización del lenguaje en el manuscrito,
apoyar en la revisión de los pares encontrados, inconsistencias y errores,
generación de imágenes, redacción de borradores para algunos textos,
automatizar la edición de estilos y formatos y otras funciones estilísticas de
la edición (Elkhatat et al., 2023; Agrawal et al., 2024; Osasona et al., 2024).
Las
herramientas de IA que más controversia han generado, son aquellas que
presentan la posibilidad de incorporar cambios (IA generativas) respecto al
documento originalmente presentado por los autores (Banh y Strobel, 2023;
Kaebnick et al., 2023; Tuquinga-Cercado et al., 2025). Ante la posibilidad de
adopción de estas herramientas, se ha creado la necesidad de definir estándares
precisos para la utilización de estas, así como códigos de ética pertinentes,
tanto para los autores que las emplean en la redacción de sus artículos, como
para las entidades editoriales que las aplican en sus procesos editoriales.
Algunos
de los códigos de ética y normativas se han ido adecuando proponiendo pautas
para el uso de la IA, tal es el caso del Committee on Publication Ethics (COPE,
2023); y, el International Committee of Medical Journal Editors (ICMJE, 2024),
los cuales intenta evitar los prejuicios que surgieron de la utilización de
estas herramientas en la gestión editorial, particularmente en el contexto de
las herramientas generativas, a causa de potenciales disputas sobre la autoría
y la atribución del contenido.
El
énfasis de estas normativas y políticas se basa en evitar la suplantación de la
autoría y los sesgos en los criterios reflejados en los artículos, debido a la
utilización de herramientas generativas, lo que podría ocasionar disputas sobre
la autoría y la atribución del contenido (Goretti et al., 2024). Sin embargo,
en la actualidad, el marco legal y las pautas éticas, operativas y políticas
para el uso adecuado, están aún en desarrollo por parte de algunos comités, y
también, algunas normativas que han surgido de las grandes casas editoriales y
que debido a la reciente adopción de estas tecnologías aún se mantienen en fase
de desarrollo y cambio (“políticas vivas”).
En
la actualidad, los marcos legales y las pautas éticas, operativas y políticas
para el uso adecuado de estas herramientas de inteligencia artificial en la
gestión editorial aún se encuentran en una fase inicial, debido a la reciente
adopción de estas tecnologías. El avance en el desarrollo y adopción de estas
herramientas por parte de las casas editoriales y revistas, ha creado la
necesidad de definir estándares precisos, normativas y políticas para su
utilización, así como códigos éticos pertinentes tanto para los autores que las
emplean, como para las revistas, por lo que han surgido un conjunto de comités
y entidades que han abordado estas políticas y propuesta para su utilización
(COPE, 2023; ICMJE, 2024).
Las
herramientas de IA generativa pueden potenciar la redacción y producción de
contenidos, por lo que incrementa riesgos de autoría, sesgos y atribución, esto
representa un gran desafío tecnológico, ético y normativo, que debe ser
discutido de forma amplia y acordado, de forma rápida debido al avance en la
adopción; hasta ahora, los comités y editoriales han emitido lineamientos, pero
estos están aún en evolución y suelen denominarse como “políticas vivas”, por
los cambios aun en curso, requieren más estandarizar criterios de uso,
transparencia y responsabilidad para preservar la integridad y confianza en la
publicación científica.
1.3.
Políticas editoriales
El
empleo de herramientas de IA ha transformado profundamente los procesos de
producción, revisión y difusión del conocimiento científico, en especial las IA
generativas, generando debates sobre la autoría, la integridad, la originalidad
y la responsabilidad en la difusión científica. Las revistas científicas y
casas editoriales se han visto obligadas a revisar y actualizar sus políticas
editoriales para adaptarse a este nuevo marco tecnológico, teniendo claro que
en este contexto las fronteras entre la asistencia técnica y la creación
intelectual se vuelven difusas (COPE, 2023).
Se
hace necesario estudiar la evolución de cómo las políticas pueden apoyar el
proceso en avance de estas herramientas IA y proponer una metodología de cómo
las editoriales consiguen responder a los nuevos desafíos no solo éticos, sino
metodológicos que plantea la IA en la publicación científica, y cómo estas
directrices logran aportar a la preservación de la confianza en la ciencia. La
necesidad de guías específicas, para el manejo de estas herramientas, ha
permitido generar documentos como Artificial
Intelligence and Authorship de COPE (2023) y las Recommendations del ICMJE (2024), que marcan un
punto de inflexión en la regulación global del uso de IA en la autoría y
edición académica.
La
relevancia científica de este fenómeno, se basa en la necesidad de estandarizar
criterios y procedimientos en relación al uso de IA Generativa (IAG), que puede
generar textos, imágenes y datos artificiales y de IA no generativa (IANG), que
se restringe a funciones de análisis, revisión o detección. La STM Association
(2023), resalta que la normalización no solo promueve la transparencia, sino
que también equilibra las prácticas entre editoriales, disciplinas y regiones,
disminuyendo la fragmentación normativa que se ha observado en años recientes.
No
obstante, los últimos estudios comparativos (Ganjavi et al., 2024; BMJ
Publishing Group, 2024) muestran que, pese a que la mayoría de las grandes
editoriales han implementado políticas en torno a la IA, persisten diferencias
significativas en su aplicación, obligatoriedad y procedimientos de
comprobación.
Algunas
empresas de edición, como Elsevier o Springer Nature, implementan políticas vivas que
se actualizan constantemente; mientras que otras, como Taylor y Francis
o Wiley, siguen declaraciones generales sin
directrices operativas. Esta diversidad subraya la relevancia de examinar
cuánto están acordes las políticas vigentes con los estándares de ética
internacionales y hasta qué punto aseguran una implementación consistente y
comprobable. Una evaluación metódica del progreso en estas políticas
editoriales facilitará la identificación de los riesgos en ascenso y las áreas
de vacío en la normativa del uso de IA en el entorno científico.
En
la actualidad se presentan retos relacionados con la declaración del uso de IA,
la privacidad en la revisión por colegas, la prohibición de imágenes producidas
de manera artificial y la falta de acuerdo en cuanto al porcentaje o nivel
aceptable de contenido asistido por IA (World Association of Medical Editors
[WAME], 2023; BMJ Publishing Group, 2024). Estas desigualdades resaltan la
importancia de robustecer un esquema de gobernanza ética y operativa que
garantice la rastreabilidad de la aportación humana y la transparencia en los
algoritmos.
Por
lo tanto, analizar el avance y las discrepancias en las políticas editoriales
relacionadas con la IA no solo posibilita valorar la situación presente de la
normativa académica, sino también prever los criterios mundiales de integridad
científica que determinarán la edición académica en la era digital. Por lo que
es necesario, además, definir algunas políticas específicas que están
surgiendo, debido a lo cambiante de las herramientas de IA disponibles para
cada fase, tal es el caso de los términos “políticas vivas”, “política ad hoc” o el Acuerdo IA Act Europeo, que han
surgido con este proceso de cambios constantes.
El
uso de IA, especialmente la generativa, puede generar debates sobre autoría,
integridad, originalidad y responsabilidad, y es la fuente principal que obliga
a editoriales y revistas a actualizar sus políticas. Es importante identificar
la evolución de estas directrices y proponer metodologías operativas para
responder a retos éticos y metodológicos, preservando la confianza en los
comités como: COPE, ICMJE, entre otros, que se dedican a monitorear los
aspectos éticos y metodológicos necesarios para ser utilizado en los procesos
editoriales, considerando los cambios rápidos que se están presentado e
incorporándolo como “políticas vivas” en algunos casos y pautas generales en
otros.
1.4.
Políticas vivas
Debido
a los continuos cambios a los que están siendo sometidas las revistas en cuanto
a sus políticas editoriales, productos de la incorporación de nuevas
herramientas de IA y de la necesidad de establecer criterios adecuados a la
realidad que no permanecen constantes en el tiempo, ha surgido un nuevo término
denominado política viva (living policy).
La
Política Viva en el ámbito editorial, hace referencia a que la revista o
editorial mantendrá actualizada de forma periódica en su página web o en sus documentos las políticas editoriales,
sin la necesidad de publicar la fecha de la última revisión, dado lo dinámico
de los cambios generados. Por lo que generalmente se ha adoptado la publicación
en formato web dinámico y no en un PDF fecha
como era lo común en años anteriores (Association for Psychological Science,
2023; Journal of Industrial Engineering and Management [JIEM], 2025).
El
contenido de las políticas suele provenir de diversas fuentes de investigación
de las propias editoriales (basada en la evolución tecnológicas), pero también,
en algunos casos se ajusta siguiendo la guías generadas por los comités u
organismo, tal es el caso del Comité de Ética en Publicaciones (COPE, 2023),
Comité Internacional de Directores de Revistas Biomédicas (ICMJE, 2024),
Asociación Internacional de Editores Científicos, Técnicos y Médicos (STM
Association, 2024), Asociación Mundial de Editores Médicos (WAME, 2023), entre
otros comité y asociaciones de editores.
Este
tipo de política, que se actualiza de forma tan constante, para poder citarla
se requiere indicar la fecha de la consulta (por ejemplo, “consultado el
7-oct-2025”); puesto que esta puede experimentar un cambio significativo en
días, semanas o meses. Un ejemplo de las casas editoriales que han adoptado la
“política viva” es Elsevier Generative AI Policies
for Journals la cual suele ser reemplaza o mejorada en una fecha
establecida para adaptarse a las nuevas herramientas que van surgiendo o
normativas, tal es caso del Artificial Intelligence
Act (AI Act) europeo
1.5.
El uso del AI en el marco europeo
En
el año 2024, fue aprobado una primera aproximación como marco legal para la
reglamentación en el uso de la IA, esta normativa fue realizada en la Unión
Europea y lleva por nombre Artificial Intelligence
Act (AI Act), dicha normativa fue elaborada por la contribución de tres
organismos europeos, como lo son: La Comisión Europea, el Consejo de la Unión
Europea y el Parlamento Europeo, en este documento se hace énfasis en la
tipificación de los sistemas de IA, de acuerdo a su nivel de riesgo y sienta
las bases para las normas de transparencia, responsabilidad y seguridad para su
aplicación (Comisión Europea, 2025).
En
el sector editorial, la normativa desarrollada enmarca un importante papel
regulador promoviendo el uso responsable de las IA mediante prácticas ajustadas
a esa normativa, aplicada a los procesos característicos de las editoriales,
tales como la revisión, redacción y publicación. Lo que motiva a los gestores
responsables de dichos procesos a incorporar políticas internas, haciendo
énfasis en la protección de datos y verificación de transparencia. Este marco
le da un impulso al entorno académico europeo al potenciar la confianza en la
integridad de los procesos editoriales. Sin embargo, de cara al futuro, se
plantean desafíos en el desarrollo de dicha tecnología y en el marco
regulatorio en los cuales deben ser contenidas las disposiciones legales y
éticas.
1.6.
Política ad hoc
Desde
2023 hasta ahora, algunas revistas y entidades editoriales han establecido
regulaciones de ética destinadas a administrar el uso de IA en el entorno donde
se desarrolla el proceso de investigación y publicaciones científicas. Estas
regulaciones son una reacción al progreso de las herramientas de IA generativa.
La aplicación de esta tecnología ha evidenciado la importancia de tratar
situaciones vinculadas con la autoría, la originalidad y la responsabilidad
(COPE, 2023; Wiley, 2025).
Otro
avance lo han constituido las prestigiosas editoriales académicas, entre ellas Helsinki University Press y Editorial Wiley, que han implementado normativas que impiden
atribuir autoría a la inteligencia artificial, además de solicitar la
declaración de utilización del tipo de IA utilizado en el manuscrito. Estas
acciones buscan transparencia en la ciencia, promoviendo un marco ético,
representado para no afectar la credibilidad de los autores y en los procesos
en los cuales se emplean estas herramientas (Wiley, 2025; Doskaliuk et al.,
2025).
El
uso de la tecnología de IA aporta en los procesos editoriales, una mejora en la
eficiencia en cuanto a los tiempos de revisión de los manuscritos, verificando
la alteración de datos o similitud en la redacción (plagio), también ayuda en
la edición y en las gestiones debido a la revisión por pares. Sin embargo, el
uso de las herramientas exige establecer políticas que estipulen los límites en
el uso de la IA, las responsabilidades de los autores y los principios de
transparencia. Estas políticas garantizan que la IA funcione y cumpla para ser
usadas solo como un complemento del juicio humano y no como un reemplazo,
favoreciendo una integración armónica entre la innovación tecnológica y el
rigor académico (Doskaliuk et al., 2025).
La
aparición de la IA en la producción científica, también acarrea riesgos éticos
y epistemológicos. Entre los aspectos más importantes están la creación de
contenido falso o parcializado, la pérdida de la autoría humana, el uso no
revelado de IA en la escritura y la potencial divulgación de información
sensible durante los procesos de revisión. Estas amenazas ponen en peligro la
credibilidad y la transparencia del saber científico, elementos esenciales de
la publicación académica.
En
este sentido, las políticas editoriales precisas y contemporáneas se
transforman en una herramienta fundamental para los autores y los comités
editoriales, puesto que proporcionan criterios objetivos para la toma de
decisiones. Así, las políticas funcionan como un marco orientador que equilibra
la innovación tecnológica con la ética científica, asegurando que la IA sea
utilizada de forma responsable y acorde con los valores de la investigación
académica (Resnick y Hosseini, 2025).
Las
denominadas “políticas vivas” responden a la necesidad de ajustar con
frecuencia las normas editoriales, ante la rápida incorporación de herramientas
de IA; por ello, suelen publicarse en entornos web
dinámicos y para su correcta referencia, requieren consignar la fecha de
consulta. Su contenido se construye combinando la experiencia de las
editoriales con recomendaciones de organismos internacionales, entre ellos:
COPE, ICMJE, STM, entre otros.
Estas
“políticas vivas” proponen una alternativa como un marco regulatorio emergente,
como el AI Act europeo, orientado a reforzar transparencia, responsabilidad y
protección de datos en las fases de redacción, revisión y publicación. En paralelo,
se han formulado políticas ad hoc que niegan
la autoría a la IA y exigen declarar su utilización, con el fin de sostener la
integridad y la confianza en la comunicación científica.
2.
Metodología
En
esta investigación se empleó un diseño metodológico mixto, de carácter
descriptivo y exploratorio, que aborda la obtención de información secundaria y
primaria, se estructuro en: Una revisión sistemática de literatura, una
exploración etnografía digital sobre las políticas editoriales con integración de
IA y mapeo de avances en cuanto a la implementación de políticas editoriales
específicas para el uso de IA a nivel de casa editoriales con mayor número de
revistas a nivel internacional.
Para
alcanzar el objetivo planteado, se formularon tres preguntas de investigación
que orientaron el desarrollo del estudio y permitieron estructurar el análisis
de los resultados: 1) ¿En qué fase de los procesos editoriales se han generado
cambios con el uso de las herramientas de IA?; 2) ¿Cuáles son los principales
cambios que se han generado a nivel de políticas editoriales respecto al uso de
IA, en aspectos éticos y operativos implementados por las principales casas
editoriales de revistas científicas?; y, 3) ¿Qué aspectos técnicos limitan y
presentan riesgos en la implementación de herramientas de IA en los procesos
editoriales de las revistas científicas?
2.1.
Revisión sistemática de la literatura
Se
realizó una revisión sistemática de la literatura priorizando las publicaciones
correspondientes a los años 2022 al 2025, por lo que se estableció una
estrategia de búsqueda de la información, considerando como criterio de
inclusión y exclusión los años de publicación, así como también, se incluyeron
tanto estudios empíricos como análisis teóricos, orientados hacia los procesos
editoriales bajo entornos de uso IA, marcos normativos y políticas
institucionales dirigidas a la adopción de herramientas IA.
Se
contempló la revisión de publicaciones en inglés y español, que tuviesen textos
completos disponibles. Las bases de datos consultadas fueron: Scopus, Web of Science,
PubMed, SpringerLink,
ScienceDirect e IEEE Xplore. La implementación de estos criterios se
realizó a través de un procedimiento en dos fases: Inicialmente, se realizó un
análisis preliminar por título y resumen; y posteriormente, se efectuó una
revisión a texto completo para confirmar la conexión temática. Este
procedimiento fue dirigido de manera sistemática por el equipo de
investigación. En situaciones de incertidumbre, se decidió la exclusión del
documento. Las primeras investigaciones mostraron un total de 182 publicaciones
científicas.
Luego
de un análisis preliminar detallado por título y resumen, se escogieron 68
publicaciones para una revisión a texto completo, utilizando criterios
temáticos y metodológicos establecidos previamente en el campo de la
implementación de IA en las plataformas editoriales y para garantizar su
vinculación directa con los propósitos del estudio. Por ende, se logró
finalmente el análisis minucioso de 45 artículos.
2.2.
Etnografía digital sobre las políticas editoriales
Debido
a los continuos cambios a que están sujetas las revistas en relación a sus
políticas editoriales bajo el entorno de adopción de nuevas herramientas de IA
y la exigencia de definir criterios apropiados para regular su utilización
tanto por parte de autores como editores, fue necesario emplear el recurso de
la etnografía digital, para manualmente poder ingresar a los portales de las
revistas y obtener la información publicada respecto a sus políticas de IA.
La
etnografía digital, también conocida como etnografía virtual, netnografía o
ciberetnografía, es un método de estudio que se centra en las interacciones e
información disponible presentadas en ambientes digitales, tales como sitios web, redes sociales, foros, comunidades en línea y
plataformas de publicación científica de IA (Forberg y Schilt, 2023).
Este
enfoque fusiona una modalidad de investigación cualitativa con métodos
cuantitativos, para examinar un fenómeno o elemento en estudio consultado de primera
mano, utilizando técnicas como la observación del investigador, el estudio de
documentos digitales, con el objetivo de reconocer (en tiempo real) en los
ambientes virtuales, las distintas clases de declaración utilizadas para la
implementación de herramientas de IA en el proceso de edición seguido por las
revistas (Delli y D’Auria, 2021). Para efectuar esta parte de la investigación
se empleó un conjunto de preguntas guías, que facilitaron la ubicación de la
información relevante dentro de los documentos web.
A continuación, se presenta en el Cuadro 1, las preguntas guías empleadas
Cuadro 1
Estrategia de términos utilizados para la búsqueda sistemática
|
No. |
Pregunta / Indicador |
Finalidad / Variable a medir |
Motivación y resultados esperados |
|
1 |
¿Fecha de última actualización o publicación de la
política editorial? |
Medir la actualidad y vigencia normativa de la política
frente a la rápida evolución de la IA. |
Identificar el nivel de actualización institucional; se
espera que las políticas más recientes (2023–2025) reflejen adaptaciones a IA
generativa. |
|
2 |
¿Tiene guía oficial sobre IA? (Sí/No) |
Evaluar la formalización documental de la postura
institucional. |
Determinar si la editorial posee una política explícita
o solo menciones genéricas; las guías oficiales son indicadores de madurez
regulatoria. |
|
3 |
¿Prohíbe IA como autor? (Sí/No) |
Medir la adhesión al principio ético internacional de
autoría humana. |
Confirmar la alineación con COPE, ICMJE y WAME; se
espera una prohibición explícita en todas las políticas consolidadas. |
|
4 |
¿Permite el uso de IA con divulgación? (Sí/No) |
Identificar el grado de transparencia exigido a los
autores. |
Se espera que la mayoría de las políticas fomenten uso
responsable y divulgación completa, no la prohibición total. |
|
5 |
¿Prohíbe imágenes y figuras generadas por IA? (Sí/No) |
Medir las restricciones visuales frente a material
potencialmente manipulado. |
Explorar el compromiso con la integridad visual y
científica |
|
6 |
¿Indica dónde divulgar el uso de IA (Métodos,
agradecimiento, carta de aceptación de normas y políticas, carta de
presentación)? |
Evaluar la claridad operacional en la ubicación de la
divulgación. |
Cuanto más específica sea la instrucción, mayor
estandarización y reproducibilidad del cumplimiento ético. |
|
7 |
¿Cita al COPE, ICMJE, STM u otra organización de ética
editorial? (Sí/No, especificar cuál) |
Identificar la alineación ética internacional de la política
editorial. |
Determinar qué marco guía la política (COPE = ética
general, ICMJE = autoría, STM = industria, WAME = biomédica). |
|
8 |
¿Indica en qué parte del proceso editorial se emplea IA
(recepción, selección de área, revisión de pares, edición, manuscrito,
divulgación)? |
Evaluar la integración operativa de la IA dentro del
flujo editorial. |
Medir la madurez tecnológica y el grado de
automatización responsable de cada casa editorial. |
|
9 |
¿Qué porcentaje del uso de IA permite la editorial por
parte de los autores? (٪) |
Analizar el grado de tolerancia o restricción de
contenido generado por IA. |
Aunque pocas editoriales fijan porcentajes, se espera
obtener tendencias cualitativas hacia un uso asistencial y no sustantivo. |
|
10 |
¿La política se limita a IA generativa o incluye IA no
generativa (detectores, analítica, revisión automatizada)? |
Diferenciar la amplitud conceptual de la regulación
editorial. |
Identificar si la editorial aborda la IA solo desde el
enfoque generativo (texto, imágenes) o integral (analítica, revisión). |
Fuente: Elaboración propia, ٢٠٢٥.
2.3.
Mapeo de aplicación de herramientas IA en casa editoriales
Se
empleó la estrategia metodológica del mapeo de avance de las casas editoriales
para entender cómo estas tecnologías se están incorporando a los procesos de
edición científica. Este tipo de análisis facilitó la visualización de patrones
de uso y la creación de una panorámica sistemática (Cárdenas-Oliveros et al.,
2022), acerca de la incorporación de la IA, lo cual permitió comprender qué
aspectos éticos y técnicos están siendo abordados por la casas editoriales, en
cuanto a sus prácticas más eficaces, para ello, se llevó a cabo un análisis de
los resultados logrados en la segunda fase exploratoria empleando la etnografía
de forma descriptiva, y profundizando con publicaciones, guía de los comité de
ética editoriales de reconocimiento mundial, para valorar las medidas que han
adoptado en este entorno.
Los
autores utilizaron las herramientas de ChatGPT-5.0
(OpenAI) y Consensus
(Consensus IA), únicamente como apoyo en la
ubicación de evidencias y enlaces de las declaraciones sobre las políticas del
uso de herramientas de inteligencia artificial. Todo el contenido fue redactado
por los autores, quienes asumen plena responsabilidad de este documento. Se
analizó una línea de tiempo sobre la evolución de las políticas de uso de IA, y
la implementación de distintos cambios que han surgido en las mismas y en los
lineamientos generados por los comités.
3.
Resultados y discusión
3.1.
Revisión sistemática de la literatura
La
revisión sistemática permitió identificar las principales herramientas de IA
que están siendo empleadas en las diferentes etapas del proceso editorial,
considerando además si las mismas corresponden a inteligencias generativas o no
generativas y en qué tareas suelen emplearse.
Numerosas
herramientas están progresivamente incorporándose a las plataformas de gestión
editorial para acelerar el proceso de revisión preliminar, también conocido
como triaje, que permite asegurar el cumplimiento de estándares mínimos antes
de la revisión por pares. Entre las principales herramientas orientadas a
garantizar la originalidad, autoría y coherencia de los manuscritos, se
encuentran las que se presentan en el Cuadro 2.
Cuadro 2
Herramientas de IA empleadas en los procesos editoriales
|
Fase |
Proceso editorial |
Descripción del proceso |
IA Generativa (soporte técnico, analítico o de
integridad) |
No IA Generativa (IAG) |
|
Revisión preliminar |
1. Evaluación preliminar (Desk Review) |
Revisión inicial del manuscrito: formato, metadatos,
similitud, cumplimiento ético y originalidad antes de asignar editor o
revisores. |
iThenticate, Turnitin AI Detector, STM Integrity Hub, Penelope.ai, SciScore, Compilatio, StatReviewer (verificación estadística) |
Writefull (IAG), ChatGPT-4o, Elicit, Scite Assistant
para redacción preliminar o resumen bajo supervisión editorial. |
|
Revisión por pares |
2. Asignación y triage editorial |
Análisis de pertinencia temática, novedad, y asignación
de editor o rechazo inicial (desk reject). |
Reviewer Finder (Springer), Find Reviewers (Elsevier),
algoritmos de coincidencia semántica y análisis de conflicto de interés. |
Uso limitado de LLM internos (IAG) para generar
resúmenes o notas internas sin divulgar datos confidenciales. |
|
3. Selección de revisores |
Identificación y contacto de revisores competentes,
verificación de conflicto de interés, seguimiento de aceptación. |
Publons Reviewer Connect, Prophy.ai, Aries Editorial Manager AI Matching, Colmena (IA de análisis de expertise). |
No se permite el uso de IAG externos para redactar
invitaciones (confidencialidad). |
|
|
4. Revisión por pares |
Evaluación metodológica y científica del manuscrito;
detección de errores o sesgos. |
StatReviewer (revisión estadística automatizada), STM
Image Integrity, Plagiarism Detector, Integrity Hub. |
Prohibido uso de IAG para redactar informes de revisión
(según políticas de Elsevier, Science y COPE). |
|
|
Decisión editorial y edición |
5. Decisión editorial y comunicación al autor |
Integración de informes de revisión, redacción de la
carta de decisión y notificación a los autores. |
Decision-support dashboards (EM, ProduXion Manager),
verificadores de calidad editorial. |
Writefull (IAG) o GPT-4o para borradores de
comunicaciones internas bajo revisión editorial. |
|
6. Revisión y re-envío del manuscrito |
Incorporación de cambios por parte del autor, nueva
revisión de similitud, validación estadística y lingüística. |
iThenticate re-check, SciScore, STM Hub, validadores de
integridad. |
Writefull (IAG), Trinka AI, DeepL Write para
correcciones lingüísticas con declaración del uso. |
|
|
Producción y maquetación |
7. Producción editorial (edición, maquetación) |
Corrección de estilo, normalización de referencias,
maquetación, marcaje XML, y control de metadatos. |
Proofig, Typeset.io, KUDOS, LaTeX AI Enhancer, Overleaf Copilot. |
Writefull for Publishers (IAG), GPT-4o Edit para
revisión de claridad textual. |
|
8. Pruebas de autor (Proofs) |
Revisión de galeradas, detección de errores de
composición y confirmación final del contenido. |
Proof Central, Bibliometric Validator, XML Validator, Overleaf Proof Assistant. |
Writefull Proof (IAG) o ChatGPT-4o Reviewer para
verificar consistencia gramatical. |
|
|
Difusión y post- producción |
9. Publicación y post-publicación |
Liberación del artículo en línea, DOI, indexación,
métricas, monitoreo de integridad y comunicación pública. |
STM Integrity Hub (post-publication analytics), Altmetric AI, Scite.ai, Semantic Scholar Summarizer. |
Writefull Abstract Assist (IAG), ChatGPT-4o Summarizer,
Scholarcy para generación de resúmenes públicos. |
Fuente: Elaboración propia, ٢٠٢٥.
Este
tipo de automatización mejora la eficiencia y estandariza el cumplimiento de
criterios básicos de calidad. Este software
ha evolucionado para incorporar algoritmos de detección de texto generado por
IA, lo que genera preocupación en algunos editores dado el uso de modelos de
lenguaje para redactar secciones sustantivas de un artículo (Weber-Wulff et
al., 2023).
Algunas
editoriales, como Springer Nature, han
empezado a desarrollar soluciones tecnológicas propias orientadas a detectar
señales lingüísticas o patrones de estilo que podrían asociarse con la
generación automatizada de contenido (Carobene et al., 2024). Aunque estas
aplicaciones aún se encuentran en fases iniciales de implementación, ya se
observa un uso creciente y diverso de herramientas destinadas al triaje
automatizado de manuscritos.
En
esta línea, plataformas como StatReviewer, Penelope.ai, Research Integrity
Assessment (RIA) y ManuscriptCheck, apoyan la evaluación preliminar al identificar
inconsistencias de estructura, omisiones en apartados críticos (por ejemplo,
declaraciones éticas o conflictos de interés) y problemas en la presentación o
coherencia de resultados estadísticos (Kousha y Thelwall, 2024).
Existe
un conjunto de herramientas de mejoramiento lingüístico y de redacción
asistida; tal es el caso de herramientas como Grammarly,
Writefull, Paperpal
y Trinka, que han sido adoptadas ampliamente
para mejorar la calidad lingüística de los manuscritos. Además de corregir
ortografía y gramática, estas aplicaciones utilizan procesamiento de lenguaje
natural para sugerir reestructuración de frases, tono académico y adecuación al
estilo científico (Doskaliuk et al., 2025).
Autores
como Lund y Naheem (2024), sostienen que la creciente dependencia de estas
herramientas podría reconfigurar las prácticas epistémicas propias de la
escritura académica, al introducir una lógica de coproducción
humano-algorítmica que difumina los límites tradicionales de la autoría.
En
cuanto a la detección de plagio y de contenido generado por IA, existe una
amplia gama de modelos generadores de texto, tales es el caso de ChatGPT, lo que ha motivado la incorporación de
herramientas como Turnitin, iThenticate, GPTZero,
DetectGPT y Copyleaks
para detectar posible contenido generado por estas herramientas de IA y
cuantificar su porcentaje de uso. Sin embargo, la evidencia empírica reciente
sugiere limitaciones graves en su fiabilidad.
Estudios
comparativos como los de Elkhatat et al. (2023); y, Weber-Wulff et al. (2023),
exponen cómo estas herramientas pueden presentar tasas significativas de falsos
positivos (texto humano clasificado erróneamente como generado por IA) y falsos
negativos (contenido generado por IA que pasa desapercibido). Además, su
precisión disminuye cuando los textos han sido mínimamente editados por humanos
o traducidos.
Esta
limitación plantea interrogantes fundamentales sobre la validez de los
mecanismos de control de calidad basados en IA y genera un dilema ético y
práctico para las editoriales, quienes deben equilibrar la eficiencia con la
garantía de la integridad académica, con el riesgo de falsas acusaciones de
mala conducta o erosión de la confianza en el proceso editorial.
a.
Revisión por pares
La
IA optimiza la revisión por pares, tanto en la sugerencia de revisores como en
la evaluación de la novedad, así como también, la asignación de revisores, por
lo que estos sistemas de IA emplean análisis semánticos (Bustamante-Limones et
al., 2024) y de redes de coautoría, mejorando la eficiencia y la identificación
de expertos, como demuestran herramientas como Reviewer
Finder de Elsevier y proyectos como
Colmena (Farber, 2024; Repiso, 2024). En cuanto a la evaluación de la “novedad
metodológica”, se han desarrollado sistemas que combinan el juicio humano con
modelos de lenguaje de gran escala (Wu et al., 2025).
No
obstante, la aplicación de estas herramientas presenta desafíos significativos,
particularmente en lo que respecta a la transparencia y los sesgos
algorítmicos. Estos sesgos pueden surgir al aprender de datos históricos de
asignación y citación, perpetuando así inequidades disciplinarias y geográficas
existentes (Farber, 2024). Sin embargo, está la etapa donde existe menor
consenso sobre los beneficios de la utilización de las herramientas y, en
algunos casos, hasta un rechazo categórico, particularmente para su uso por
parte de los revisores.
Las
herramientas de IA pueden agilizar la revisión por pares al apoyar la búsqueda
y asignación de revisores mediante análisis del contenido del manuscrito y de
vínculos de coautoría, lo que facilita identificar especialistas y reducir
tiempos; sin embargo, es una de las fases en que menos se ha avanzado en la
incorporación a los procesos editoriales. Se sugiere explorar esquemas
combinados en los que los criterios de los editores se complementen con modelos
de lenguaje de IA, para valorar la originalidad o novedad metodológica.
No
obstante, estas aplicaciones actualmente enfrentan retos importantes sobre la
transparencia de su funcionamiento y pueden incorporar sesgos, puesto que
aprenden de patrones históricos que tienden a replicar desigualdades entre
disciplinas y regiones. Por ello, esta fase sigue siendo una de las más
discutidas y, en algunos contextos, se mantiene una postura restrictiva o
incluso de rechazo a que los revisores utilicen IA.
b.
Decisión y edición del manuscrito
En
esta fase se presentan instrumentos que respaldan a los editores en la
contextualización y verificación de los manuscritos. Se incluyen Scholarcy o sistemas internos de IA creados por
editoriales como Springer Nature o Elsevier, que proporcionan resúmenes con citas
verificables, lo cual simplifica la ruta del saber existente y disminuye los
peligros de desinformación, aunque su alcance se limita al catálogo de sus
propias bases de datos. Para cotejar los datos expuestos en los manuscritos,
los editores tienen la opción de utilizar otras herramientas y bases de datos
como ScienceDirect.
c.
Producción y maquetación
La
IA también se utiliza durante la fase de producción. SnappShot y ChartCheck,
ayudan a asegurar la veracidad visual y estadística de las publicaciones,
identificando alteraciones en las figuras y fallos en representaciones gráficas
(Lund y Naheem, 2024; Nuijten y Wicherts, 2024). Aunque su contribución es
esencial para mantener la transparencia, su eficacia se basa en la calidad
técnica de los archivos.
d.
Difusión y postproducción
Como
parte de los recursos digitales usados para expandir su alcance y garantizar la
visibilidad de los contenidos, se están incorporando herramientas basadas en IA
para optimizar la difusión y el seguimiento post-publicación de los artículos.
Entre ellas Semantic Scholar emplea el
procesamiento de lenguaje natural y el aprendizaje automático para producir
resúmenes automáticos (“TL; DR”), resaltar los aspectos más significativos de
una investigación y proponer artículos parecidos, lo cual incrementa la
visibilidad y el acceso al contenido científico.
Otra
aplicación, Research Rabbit, facilita la
visualización de redes de citas y alianzas, además de obtener sugerencias
personalizadas de artículos vinculados, lo que promueve que los artículos
publicados sean hallados por nuevos lectores interesados (Nuijten y Wicherts,
2024).
Las
plataformas como Scite.ai proporcionan instrumentos para
producir “citaciones inteligentes o smart citations”
que permite identificar o rastrear las publicaciones donde son citadas, donde
se argumentan como contradictorias con otros autores, lo que favorece el
monitoreo del impacto posterior a la publicación. Estas tecnologías posibilitan
la mejora de la propagación, la simplificación de la búsqueda de temas, el
incremento de la claridad y el aporte al posicionamiento académico de los
artículos más allá de su primera publicación.
3.2.
Comités Internacionales y sus políticas sobre el uso de las herramientas IA
En
este sentido entre 2021 y 2025, la edición científica ha incorporado de manera
progresiva lineamientos sobre el uso de IA (Kaebnick et al., 2024), de modo que
a la fecha ha dejado de ser un tema emergente para convertirse en una necesidad
de políticas editoriales (Leung et al., 2023). Por lo que Inicialmente se
procedió a revisar los últimos lineamientos planteados por el comité de más
amplia aceptación por las revistas científicas de alto impacto y casa
editoriales, para brindar respuesta sobre los principales cambios que estos
comités han generado a nivel de políticas editoriales, en cuanto a los aspectos
éticos y operativos implementados.
La
International Association of Scientific, Technical and Medical Publishers (STM, 2023), cuya fundación data del año 1969 y la cual
ha sido adoptada por más de 140 casas editoriales de alto impacto, dentro de la
cuales se pueden mencionar Elsevier, Springer Nature, Wiley, ACS, Taylor y Francis, Cell
Press, entre otras. Fue el primer organismo
en incorporar lineamientos sobre el uso de la IA en el año 2021 y
posteriormente en el año 2023, y ha difundido una guía práctica con
recomendaciones para autores, revisores y editores sobre transparencia,
capacitación y auditorías internas, en la cual fomenta la interoperabilidad entre
editoriales.
Esta guía incorpora lineamiento para: La
transparencia algorítmica: identificación de herramientas utilizadas,
capacitación de personal editorial en ética de IA, establecimiento de
auditorías internas sobre la integridad de datos e imágenes y la adopción de
protocolos de interoperabilidad entre casas editoriales para reportar uso de
IA; es de mencionarse que STM no es un órgano regulador si actúa como
coordinador internacional de estándares técnicos y éticos en la industria
editorial.
El COPE, el cual fue creado el año de 1997 en
el Reino Unido, y está integrado por editores, casas editoriales y sociedades
científicas de alto prestigio como: Elsevier, Springer
Nature, Wiley, Taylor
y Francis, PLoS, entre otras. A partir de febrero de 2023, COPE incorporó
lineamientos sobre IA, en la cual se establece que la IA no puede figurar como
autora y que su uso debe ser declarado y supervisado por los autores humanos, y
que a su vez son los autores quienes mantienen la total responsabilidad moral y
legal sobre el contenido publicado.
En los lineamientos de COPE se enfatizan tres
principios universales: Responsabilidad humana integral, transparencia en la
declaración del uso y rendición de cuentas y trazabilidad. Esta organización
proporciona no solo guías, sino también casos prácticos, que son una referencia
global para la generación de políticas editoriales en diversas disciplinas.
Aunque no impone un formato obligatorio de divulgación, su marco normativo es
referencia en más del 80% de las políticas de las editoriales internacionales
(Ganjavi et al., 2024; BMJ Publishing Group, 2024).
Por su parte, el International Committee of
Medical Journal Editors (ICMJE), es otro comité fundado en el año 1978, que
agrupa a otro conjunto de editores de revistas biomédicas del mundo, como The New
England Journal of Medicine (NEJM), JAMA, The BMJ y Annals
of Internal Medicine, entre otras. Cuenta con el respaldo de la National
Library of Medicine (NLM) y es reconocido como la autoridad en
cuanto a normas de autoría en el área biomédica. En mayo de 2023, por primera
vez, incorporó un apartado específico sobre IA en sus lineamientos.
El documento establece que el uso de IA en
redacción debe declararse en la sección de Agradecimientos, que su aplicación
en análisis de datos, figuras o resultados se consigne en los Métodos, y que la
IA no puede figurar como autora ni asumir responsabilidad intelectual. Sus
normas son adoptadas por más de 6.000 revistas biomédicas y citadas por todas
las principales editoriales. El ICMJE ha logrado la mayor estandarización
práctica, especificando dónde y cómo divulgar el uso de IA y garantizando la
interoperabilidad entre revistas biomédicas y editoriales a nivel global.
Finalmente, la World
Association of Medical Editors (WAME), cuya fundación se produjo
en el año 1995, y cuya finalidad es actuar como una asociación profesional
independiente, está integrada fundamentalmente por editores de revistas médicas
y académicas de todo el mundo. Esta asociación presentó en enero de 2023 una
política donde se orienta sobre la prohibición de autoría de IA, la necesidad
de divulgación explícita de su uso y la preservación de la responsabilidad
humana. WAME ha proporcionado hojas de ruta, ejemplos y guías de buenas
prácticas para que las revistas puedan elaborar políticas internas.
Su
marco ético ha sido base para la adopción de políticas de IA en BMJ, JAMA, Elsevier y Taylor y Francis. Esta organización
lideró el inicio del debate internacional sobre IA generativa en la edición
científica. Su valor radica en haber establecido definiciones claras y un
modelo de transparencia y autoría responsable, hoy adoptado globalmente.
La
incorporación de políticas asociadas al uso de la IA, ha sido representada en
la línea de tiempo que permite visualizar los diferentes comité e instituciones
que han aportado a establecer criterios rigurosos que sirven de guía para el
uso del IA en el proceso editorial que se presenta a continuación en la Figura
II.

Fuente: Elaboración propia, ٢٠٢٥.
Figura II: Diagrama del avance en la incorporación de
política IA en comités editoriales
No
obstante, aún persisten vacíos normativos respecto al porcentaje de texto
generado, la validez de los detectores de IA y el alcance de su uso no
generativo en producción y revisión. Actualmente, las políticas avanzan hacia
una gobernanza híbrida, donde la IA se concibe como herramienta complementaria
y no como sustituto del juicio humano.
3.3.
Revisión etnográfica sobre políticas de uso de las herramientas IA
En
función de la revisión etnográfica efectiva se procedió de inicio a identificar
las principales casas editoriales y revista que pudieran presentar mayores
avances en cuanto a la creación y propuesta de políticas o que estuvieran
adheridas a las políticas de los comités éticos, entre ellos: STM; COPE WAWE
ICJME, entre otros creados por las propias casas editoriales, para ello se tomó
en cuenta la investigación realizada por Ganiavi et al. (2024), donde se
señalan las principales casas editoriales, y el número de revista que dirigen,
lo cual sirvió de fuente secundaria de información para proceder a indagar en
cada uno de los portales web y documentación
disponibles de las distintas editoriales.
La
revisión evidenció información que se presenta en el Gráfico I, en el cual se
muestra el reporte de las 20 casas editoriales con mayor número de revista
administradas, que fueron seleccionadas por considerar la infraestructura y el
personal disponible para el estudio y la incorporación de las políticas IA de
forma permanente, denominadas como políticas vivas o de frecuente cambio para
su adaptación.

Fuente: Ganiavi et al. (2024).
Gráfico I: Principales Casa
editoriales y su nivel de adopción a políticas sobre uso de IA
A
partir de esta información se procedió a realizar la exploración etnográfica,
dado que se determinó una búsqueda inicial a un total de 20 casas editoriales
analizadas, una vez realizado la revisión de los portales web y la documentación, se avanzó a una segunda
fase, en la que se exploró propiamente las páginas de cada una de estas casas
empleando la guía exploratoria (lista de verificación) expuesta en el marco
metodológico, que consta de ١٠ preguntas, dirigiendo los esfuerzos a buscar la respuesta a cada una de
las interrogantes planteadas, para lograr mediante la búsqueda construir una
matriz descriptiva de las características de las políticas y los avance en el
uso de las herramienta IA en los procesos editoriales.
En
cada caso se procedió a registrar la fecha de la más reciente actualización
visible en cada sitio web, comprobando los
datos almacenados en el pie de página, en el sello CrossMark
o en las secciones que señalaban “política viva”. Luego, se examinaron las
directrices oficiales de cada editorial, examinando secciones como la política
de IA, las directrices de autor para AI y las políticas éticas; en las
situaciones en las que la información se transmitía directamente al editor, se
dejó una nota explícita.
Se
pudo constatar el avance hacia la formalización de guías oficiales sobre IA,
por parte de las casas editoriales a partir del año ٢٠٢٣, antes de esta fecha solo el ٢٤٪ de las grandes editoriales contaba
con una guía formal, frente al ٨٧٪ de las revistas que actualmente disponen de las mismas, lo que aceleró
la adopción de estas políticas y lineamientos (Ganjavi et al., ٢٠٢٤).
En
cada portal (BMJ, JAMA Network, Science, y PMC), se registró la postura
institucional respecto a la autoría con Inteligencia Artificial, el grado de
claridad requerido en relación con las herramientas empleadas, revisando
aspecto como: Descripción, versión, propósito y estímulos, también se contempló
la revisión de las secciones asignadas para su declaración de: Métodos,
agradecimientos, carta al editor o secciones nuevas, entre otras; siendo
necesario evaluar si las políticas establecían una distinción entre imágenes
científicas y diagramas ilustrativos, y si había restricciones específicas en
su producción a través de IA.
Finamente
se evaluó, la presencia de plantillas o listados de control específicos, la
mención a entidades internacionales como COPE, ICMJE, WAME o STM, y el
reconocimiento de las etapas del proceso editorial en las que se autoriza o se
procede a limitar la utilización de IA, por ejemplo, en los procesos de triaje,
detección de plagio, revisión por pares, edición, entre otros.
Una
vez realizada la revisión etnográfica, en la cual se seleccionaron las
principales casas editoriales, basada en su capacidad institucional para
diseñar, mantener y actualizar políticas vinculadas al uso de IA, tomando como
base el mapeo propuesto por Ganjavi et al. (2024), posteriormente, se
examinaron sus portales web y documentos
oficiales utilizando una lista de verificación de 10 ítems, con el fin de construir una matriz
descriptiva sobre el alcance, las características y el nivel de desarrollo de
dichas políticas.
3.4. Mapeo de aplicación de herramientas IA en las casas editoriales
Una vez realizada la revisión etnográfica solo 14 casas editoriales de las 20 seleccionadas contaban con políticas específicas con respecto al IA, por lo que se extendió la búsqueda a 2 casas editoriales adicionales (dada la relevancia de estas), por lo que se procedió con la estrategia metodológica de valorar los avance en cada uno de los aspectos evaluados.
Siendo los principales elementos contemplados: La vigencia política, la formalización de la política mediante guías oficiales, cumplimiento ético respecto a la autoría humana, aspectos relacionados con la integridad visual de imágenes generadas por parte de los autores, la claridad en la ubicación de la divulgación, alineación con marcos éticos internacionales, la integración operativa de la IA en el proceso editorial, el grado de permisividad y la amplitud conceptual de las políticas frente a IA generativa y no generativa. Dada la diversidad de criterios en cada uno de los aspectos evaluados, se presenta a continuación, el Cuadro 3 que resume las políticas de uso de las herramientas IA por parte de las casas editoriales con más presencia de revistas de alto impacto.
Cuadro 3
Políticas de uso de las herramientas IA por
parte de las casas editoriales
|
Casa editorial |
Fecha publicación |
¿Prohíbe imágenes IA? |
¿Dónde divulgar el uso? |
¿Cita COPE/ICMJE/STM u otra? |
¿Permite IA en procesos editoriales? |
¿En qué parte del proceso la usa/limita? |
|
Springer Nature / Nature Portfolio |
Política viva |
Métodos u otra sección adecuada |
Sí, con supervisión y transparencia |
Recepción/ edición con límites; revisores no deben
subir manuscritos a IA |
||
|
Elsevier |
Política viva |
No global (depende de la revista) |
Agradecimientos/ Métodos, según guía de revista (www.elsevier.com) |
Sí, pero revisores/ editores
no deben subir manuscritos a IA |
Revisión y editorial con límites explícitos |
|
|
AAAS / Science Journals |
16-nov-23 |
Sí (imágenes/multimedia IA
no permitidas sin permiso) (Science) |
Carta de
cobertura/Métodos/Agradecimientos, con herramienta y versión (Science) |
No para redactar informes de
revisión; confidencialidad prioritaria |
Revisión por pares (prohibiciones), edición con cautela |
|
|
BMJ |
Política viva |
No global |
Uso editorial controlado y transparente |
Recepción/edición con límites; revisión resguardada |
||
|
Wiley |
13-sept-23 |
No global |
No subir manuscritos a IA; uso limitado |
Revisión/ edición con límites |
||
|
Taylor & Francis |
12-jun-24 |
No global |
Prefacio/ Introducción
(libros) y guías por revista (Science) |
Restricciones a revisores/ editores |
Recepción/ edición; revisión con límites |
|
|
SAGE |
9-oct-24 |
No global |
Revisores: uso limitado; no comprometer
confidencialidad |
Revisión con límites; edición asistida |
||
|
PLoS ONE |
18-sep-2025 (blog/policy) |
No global |
Sección dedicada (p.ej.,
Métodos) con detalle de uso (www.elsevier.com) |
Revisores/editores: no subir manuscritos a IA |
Revisión/ edición con límites |
|
|
MDPI |
20-abr-2023 (anuncio) |
Restricciones por revista/tema |
Agradecimientos/ Métodos (varía) |
Uso interno con controles; no subir manuscritos a IA |
Revisión con límites; edición asistida |
|
|
Frontiers |
Política viva |
Restricciones caso-a-caso |
No subir manuscritos a IA; límites a revisores |
Revisión colaborativa con salvaguarda |
||
|
Oxford University Press (OUP) |
Políticas activas 2023-2025 |
No global |
Cover letter + Métodos/
Agradecimientos (según título) (OUP Academic) |
Sí (ética OUP; referencias a
COPE en títulos) (OUP Academic) |
Revisores: límites; confidencialidad |
Recepción/edición; revisión con límites |
|
Cambridge University Press (CUP) |
Políticas activas 2023-2025 |
No global |
Normalmente en Métodos/
Agradecimientos (según título) (Cambridge University Press & Assessment) |
Sí (CUP alinea con COPE) (Cambridge University Press & Assessment) |
Revisores: límites y confidencialidad |
Revisión y edición con límites |
|
IEEE |
30-dic-2024 (anuncio integridad) |
No global |
Identificar porciones y
citar herramienta (según guía) (IEEE Spectrum) |
Sí (alineada a integridad IEEE) |
Revisores/editores con prohibición de uso para redactar
informes |
Revisión (prohibiciones); edición con límites |
|
American Chemical Society (ACS) |
2023-2025 |
No global |
Agradecimientos; descripción
del uso (texto/imagen) (researcher-resources.acs.org) |
Sí, y cita COPE/WAME/JAMA en
blogs y guías (ACS Publications Chemistry Blog) |
Revisores/editores con límites |
Recepción/ edición con límites; revisión resguardada |
|
Royal
Society of Chemistry (RSC) |
2025 (comunicación/PRW) |
No global |
Normalmente en
Agradecimientos/ Métodos (según título) (Royal Society of Chemistry) |
Sí (alineada a integridad/políticas RSC) (Royal Society of Chemistry) |
Revisores con límites de confidencialidad |
Revisión/ edición con límites |
|
Cell Press (Elsevier) |
2024-2025 (varios títulos) |
“Statement” al final del
manuscrito (Cell); guías por revista (Cell) |
Sí (alineado a integridad/COPE vía Elsevier) |
Revisores/editores con límites |
Revisión con límites; edición asistida |
Fuente: Elaboración propia, ٢٠٢٥.
El análisis comparativo de las políticas editoriales de las principales casas editoriales internacionales, reveló un avance significativo en la formulación acelerada y heterogénea de política de uso de IA, en las modalidades de actualización de estas políticas en cuanto a sus fechas de publicación, segmentándose el comportamiento como se presenta en el Gráfico II.

Fuente: Elaboración propia, ٢٠٢٥.
Gráfico II: Políticas de actualización sobre el uso del IA
Como puede observarse en el Gráfico II, la gran mayoría de las casas editoriales han adoptado la “política viva”, para ir actualizando de forma permanente los lineamientos y políticas sobre el uso de herramientas IA, y la otra parte de las editoriales ha actualizado sus políticas entre mayo de 2023 y hasta 2025.
Este dinamismo, según el criterio de los autores Gaviani et al. (2024), genera retos en la trazabilidad y consistencia normativa, pues la coexistencia de versiones múltiples de políticas de uso de las IA o guías por parte de cada una de las revistas dentro de una misma editorial, provoca confusión entre autores y revisores, y evidencia una falta de sincronía institucional.
La mayoría de las políticas ya establecen el principio universal de autoría exclusivamente humana, y presentan prohibiciones sobre el uso de estas herramientas de IA para la generación de figuras y datos estadísticos, junto con la obligación de declarar cualquier asistencia automatizada en la redacción o análisis de datos. No obstante, persiste la falta de consenso sobre el grado de intervención permitido, es decir, el porcentaje de uso de las herramientas.
Algunas revistas, como Science, restringen cualquier texto o imagen generados por IA sin autorización; mientras otras, como BMJ o Wiley, promueven un enfoque más flexible, basado en la divulgación responsable y la supervisión humana. Estos contrastes reflejan la tensión entre innovación y control, así como la dificultad para armonizar criterios éticos en un entorno editorial global. En cuanto a los aspectos operativos, estos presentan diversidad de métodos de divulgación tal como se presenta en el Gráfico III, que se presenta a continuación

Fuente: Elaboración propia, 2025.
Gráfico III: Método de divulgación de las herramientas IA usadas
Existe un crecimiento en las políticas que especifican dónde y cómo divulgar el uso de IA, con mención frecuente en secciones como: Métodos, agradecimientos, carta de presentación o declaración del uso de IA. Elsevier, por ejemplo, ha implementado plantillas de declaración de uso; mientras que otras editoriales permiten reportes libres, lo que genera un mosaico de formatos que afecta la comparabilidad entre revistas (Elsevier, ٢٠٢٤). A pesar de ello, muy pocas políticas indican la incorporación de IA en la revisión por pares, edición de manuscrito o pospublicación, siendo Science y JAMA Network las que ofrecen los lineamientos más restrictivos, sobre todo en la confidencialidad de los revisores (JAMA Network, ٢٠٢٤).
Respecto a las políticas dirigidas a los autores, en aspectos como la integridad visual, se observa una tendencia hacia la prohibición de imágenes, figuras y fotografías generadas por IA, especialmente en el ámbito biomédico y clínico, presumiblemente debido al riesgo de manipulación y hasta la falsificación de datos visuales es mayor, igualmente en el tratamiento estadístico de los datos se limita el uso de IA. Las casas editoriales Science y JAMA expresan explícitamente esta restricción al uso de figuras y fotografías sintéticas (Science/AAAS, ٢٠٢٣).
Otro de los aspectos operativos que se han encontrado en el mapeo de las casas editoriales es sobre las restricciones de uso de la IA en algunas fases del proceso editorial, las cuales se presentan de forma jerarquizada por frecuencia de aparición en el Gráfico IV, que se muestra a continuación.

Fuente: Elaboración propia (2025).
Gráfico IV: Uso de IA en el proceso editorial
Existe por parte de todas las casas editoriales evidencia sobre la necesidad de establecer límites operativos, que ilimiten el uso indebido de IA en fases críticas del proceso editorial, como la evaluación de manuscritos o la redacción de decisiones editoriales. En el mapeo global, se evidencia que el sistema editorial se encuentra en una fase de maduración normativa, donde se ha logrado un consenso ético básico: la IA no puede ser autora y su uso debe divulgarse, pero subsisten amplias asimetrías en la implementación. Los principales desafíos giran en torno a la estandarización del formato de declaración, la diferenciación entre IA generativa y no generativa, y la definición de los límites operativos del uso de IA por editores y revisores.
Las casas editoriales que han avanzado hacia modelos más transparentes y auditables, presentan una guía para el resto de las revistas en cuanto a las políticas y la adopción de estas herramientas. También señalan la posibilidad de integrar exitosamente estas herramientas tecnológicas sin afectar su ética editorial. Existen numerosos retos que próximas investigaciones abordarán esta temática, entre ellas la verificación del equilibrio en los sesgos que introducen estas herramientas, en aspectos como: El lenguaje en que se redactan las publicaciones, la eficiencia algorítmica y la integridad científica, garantizando que la IA sea solo un recurso complementario al juicio crítico humano y no un sustituto de la responsabilidad intelectual.
Alguno de los elementos que deben ser estudiados en la búsqueda de soluciones para un desarrollo más uniforme en cuanto al uso de estas herramientas por el universo amplio editorial de revistas en regiones como Latinoamérica o el resto de países con menores recursos para la investigación, donde ya se ha planteado soluciones como observatorio para la colaboración conjunta y capacitaciones en red de colaboración.
Conclusiones
Este estudio aporta una evaluación sistemática del progreso en la incorporación de políticas editoriales orientadas a regular el uso de las herramientas de IA, particularmente las IA generativa, capaces de realizar funciones propias de los autores, las cuales continuamente surgiendo de forma acelerada con funciones cada vez más optimizadas desde el año 2023, por lo que se evidencia un consenso internacional hacia la aceptación de autoría únicamente humana en los articulos y la declaración obligatoria del uso de IA. Se destaca que la gobernanza actual aún es heterogénea y con vacíos operativos según el tipo de IA.
Los resultados muestran que la IA se integra con mayor facilidad en la etapa inicial del proceso editorial, es decir, en el triaje, detección de similitud, control de integridad y apoyo a la edición, donde aporta eficiencia y estandarización. En contraste, la revisión por pares y la decisión editorial se mantienen como fases más sensibles, donde existe mayor cautela y discrepancias por riesgos de sesgo, opacidad y afectación de la trazabilidad. Esto confirma que el reto principal no es técnico, sino de gobernanza y confianza.
Entre las limitaciones encontradas, destacan el carácter dinámico de las “políticas vivas” y la variabilidad en el nivel de detalle disponible en los portales de cada editorial, lo que limita comparaciones plenamente homogéneas. Además, al basarse en evidencia documental, este estudio no permitió verificar el cumplimiento real, la efectividad de los controles internos o el impacto cuantitativo en tiempos editoriales y calidad de dictámenes.
Como líneas futuras, se propone pasar de la política escrita a su aplicación real mediante estudios longitudinales, auditorías de cumplimiento y trabajo de campo con editores, revisores y autores. También es prioritario acordar métricas comparables para la declaración del uso de IA y la trazabilidad, evaluar sesgos algorítmicos en la selección de revisores y en decisiones asistidas, y establecer protocolos verificables para la integridad de imágenes y datos. Esto permitiría construir estándares interoperables y una gobernanza auditable, clave para reducir brechas y fortalecer capacidades en Latinoamérica.
Referencias bibliográficas
Acosta,
S. F., y Finol, M. R. (2024). Inteligencia artificial como mecanismo para
mejorar la gestión educativa universitaria. Revista
de Ciencias Sociales (Ve), XXX(3), 583-597. https://doi.org/10.31876/rcs.v30i3.42697
Agrawal, A., Gans, J.
S., y Goldfarb, A. (2024). Artificial intelligence adoption and system-wide
change. Journal of Economics & Management Strategy, 33(2),
327-337. https://doi.org/10.1111/jems.12521
Alves, L., Carvalho, M.,
y Dias, L. (2022). Transparência
e processo editorial: Como é o trabalho das Editoras-chefes? Cadernos de
Saúde Pública, 38(6), e00089822. https://doi.org/10.1590/0102-311xpt089822
Aries
Systems Corporation (2023). Editorial Manager and
ProduXion Manager workflow automation. Aries Systems Corporation. https://www.ariessys.com
Association for
Psychological Science (December, 2023). APS editorial policies. Association for
Psychological Science. https://www.psychologicalscience.org/publications/aps-editorial-policies
Banh, L., y Strobel, G.
(2023). Generative artificial intelligence. Electronic Markets, 33(1),
63. https://doi.org/10.1007/s12525-023-00680-1
BMJ Publishing Group
(2024). BMJ editorial policies on artificial intelligence and integrity in
research. BMJ Publishing Group. https://www.bmj.com/about-bmj/resources-authors
Bustamante-Limones,
A., Rodriguez-Borges, C., y Pérez-Rodríguez,
J. A. (2024). Evaluación del uso de gemelos digitales
en los sistemas de producción. AiBi Revista de
Investigación, Administración e Ingeniería, 12(3),
195-204. https://doi.org/10.15649/2346030X.4382
Candal-Pedreira,
C., Rey-Brandariz, J., Varela-Lema, L., Pérez-Ríos, M., y Ruano-Ravina, A.
(2023). Los desafíos de la revisión por pares: Cómo
garantizar la calidad y transparencia del proceso editorial de las revistas
científicas. Anales de Pediatría, 99(1),
54-59. https://doi.org/10.1016/j.anpedi.2023.05.017
Cárdenas-Oliveros,
J. A., Rodríguez-Borges, C. G., Pérez-Rodríguez, J. A., y Valencia-Zambrano, X.
H. (2022). Desarrollo del pensamiento crítico: Metodología para fomentar el
aprendizaje en ingeniería. Revista de Ciencias Sociales
(Ve), XXVIII(4), 512-530. https://doi.org/10.31876/rcs.v28i4.39145
Carobene,
A., Padoan, A., Cabitza, F., Banfi, G., y Plebani, M. (2024). Rising adoption of artificial intelligence in
scientific publishing: Evaluating the role, risks, and ethical implications in
paper drafting and review process. Clinical Chemistry and Laboratory
Medicine, 62(5), 835-843. https://doi.org/10.1515/cclm-2023-1136
Chang, H., y Kong, H.-J.
(2018). A new online journal management system. Healthcare Informatics
Research,
24(1), 1-2. https://doi.org/10.4258/hir.2018.24.1.1
Comisión
Europea (2025). Quienes somos. Comisión Europea. https://commission.europa.eu/index_es
Committee on Publication
Ethics – COPE
(2023). Position statement on artificial intelligence tools in research
publication. Committee on Publication Ethics. https://doi.org/10.24318/cCVRZBms
Cress, U., y Kimmerle,
J. (2023). Co-constructing knowledge with generative AI tools: Reflections from
a CSCL perspective. International Journal of Computer-Supported
Collaborative Learning, 18(4), 607-614. https://doi.org/10.1007/s11412-023-09409-w
Delli,
A., y D’Auria, V. (2021). Digital
Ethnography: A systematic literature review. Italian Sociological Review,
11(4S),
243-267. https://doi.org/10.13136/isr.v11i4S.434
Díaz,
D. (2024). Herramientas para detectar el Plagio a la Inteligencia Artificial: ¿Cuán útiles son? Revista
CoGnosis, 9(2), 144-150.
Doskaliuk,
B., Zimba, O., Yessirkepov, M., Klishch, I., y Yatsyshyn, R. (2025). Artificial intelligence in peer review: Enhancing
efficiency while preserving integrity. Journal of Korean Medical Science, 40(7), e92.
https://doi.org/10.3346/jkms.2025.40.e92
Elkhatat, A. M., Elsaid,
K., y Almeer, S. (2023). Evaluating the efficacy of AI content detection tools
in differentiating between human and AI-generated text. International
Journal for Educational Integrity, 19(1), 17. https://doi.org/10.1007/s40979-023-00140-5
Elsevier (2024).
Generative AI policies for journals. Elsevier. https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals
Farber, S. (2024).
Enhancing peer review efficiency: A mixed-methods analysis of artificial
intelligence-assisted reviewer selection across academic disciplines. Learned
Publishing,
37(4), e1638. https://doi.org/10.1002/leap.1638
Fiorillo, L., y Mehta,
V. (2024). Accelerating editorial processes in scientific journals: Leveraging
AI for rapid manuscript review. Oral Oncology Reports, 10, 100511. https://doi.org/10.1016/j.oor.2024.100511
Forberg, P., y Schilt,
K. (2023). What is ethnographic about digital ethnography? A sociological
perspective. Frontiers in Sociology, 8, 1156776. https://doi.org/10.3389/fsoc.2023.1156776
Fyfe,
A., Squazzoni, F., Torny, D., y Dondio, P. (2019). Managing the growth of peer review at the Royal
Society journals, 1865–1965. Science, Technology, & Human Values, 45(3),
405-429. https://doi.org/10.1177/0162243919862868
Ganjavi, C., Eppler, M.
B., Pekcan, A., Biedermann, B., Abreu, A., Collins, G. S., Gill, I. S., y
Cacciamani, G. E. (2024). Publishers’ and journals’ instructions to authors on use
of generative artificial intelligence in academic and scientific publishing:
Bibliometric analysis. BMJ, 384, e077192. https://doi.org/10.1136/bmj-2023-077192
Gatrell, C., Muzio, D.,
Post, C., y Wickert, C. (2024). Here, there and everywhere: On the responsible
use of artificial intelligence (AI) in management research and the peer-review
process. Journal of Management Studies, 61(3), 739-751. https://doi.org/10.1111/joms.13045
Goretti, L., Küsters,
A., Morgana, S., y Sharma, A. (2024). Challenges and opportunities of using
generative AI for research: Opening the discussion. The International
Spectator,
60(1), 1-16. https://doi.org/10.1080/03932729.2024.2435176
Hanson, M. A., Gómez,
P., Crosetto, P., y Brockington, D. (2023). The strain on scientific
publishing. Quantitative Science Studies, 5(4), 823-843. https://doi.org/10.1162/qss_a_00327
Hernández-León, N., y
Rodríguez-Conde, M.-J. (2024a). Cómo nos puede ayudar la inteligencia
artificial a hacer un análisis sistemático de literatura científica (SLR): Ejemplo práctico
sobre “la inteligencia artificial aplicada a la educación”. En I. Cabero
(Coord.), Perspectivas contemporáneas en educación: Innovación, investigación y transformación (pp. 567-585). Dykinson.
Hernández-León, N., y
Rodríguez-Conde, M.-J. (2024b). Inteligencia artificial aplicada a la educación y la evaluación educativa en la
universidad: Introducción de sistemas de tutorización inteligentes,
sistemas de reconocimiento y otras tendencias futuras. Revista de Educación a Distancia (RED), 24(78).
https://doi.org/10.6018/red.594651
International Committee
of Medical Journal Editors - ICMJE (2024). Recommendations for the conduct,
reporting, editing, and publication of scholarly work in medical journals.
International Committee of Medical Journal Editors. https://www.icmje.org/recommendations/
JAMA Network (2025).
Home. JAMA Network. https://jamanetwork.com/journals/jama
Journal of Industrial
Engineering and Management (2025). Editorial policies. Journal of Industrial
Engineering and Management. https://www.jiem.org/index.php/jiem/about/editorialPolicies
Kaebnick, G. E., Magnus,
D. C., Kao, A., Hosseini, M., Resnik, D., Dubljević, V.,
Rentmeester, C., Gordijn, B., y Cherry, M. J. (2023). Editors’ statement on the responsible
use of generative AI technologies in scholarly journal publishing. Hastings
Center Report,
53(5), 3-6. https://doi.org/10.1002/hast.1507
Kim, J., Yu, S.,
Detrick, R., y Li, N. (2025). Exploring students’ perspectives on generative
AI-assisted academic writing. Education and Information Technologies, 30(1),
1265-1300. https://doi.org/10.1007/s10639-024-12878-7
Kousha, K., y Thelwall,
M. (2024). Artificial intelligence to support publishing and peer review: A
summary and review. Learned Publishing, 37(1), 4-12. https://doi.org/10.1002/leap.1570
Leung, T. I., De
Azevedo, T., Mavragani, A., y Eysenbach, G. (2023). Best practices for using AI
tools as an author, peer reviewer, or editor. Journal of Medical Internet
Research,
25, e51584. https://doi.org/10.2196/51584
Liebrenz, M., Schleifer,
R., Buadze, A., Bhugra, D., y Smith, A. (2023). Generating scholarly content
with ChatGPT: Ethical challenges for medical publishing. The Lancet Digital
Health, 5(3),
e105-e106. https://doi.org/10.1016/s2589-7500(23)00019-5
Ling, X., y Yan, S.
(2023). Let’s
be fair: What about an AI editor? Accountability in Research, 31(8),
1253-1254. https://doi.org/10.1080/08989621.2023.2223997
Lund, B. D., y Naheem,
K. T. (2024). Can ChatGPT be an author? A study of artificial intelligence
authorship policies in top academic journals. Learned Publishing, 37(1),
13-21. https://doi.org/10.1002/leap.1582
Mendoza,
W. S., Díaz-Guecha, L. Y., Numa-Sanjuán, N., y Herrera, S.
(2025). Inteligencia Artificial Generativa y sus consideraciones éticas en el
derecho: Una valoración exploratoria sobre la
práctica. Revista de Ciencias Sociales (Ve), XXXI(4), 206-222. https://doi.org/10.31876/rcs.v31i4.44848
Moradzadeh,
M., Sedghi, S., y Panahi, S. (2022). Towards
a new paradigm for ‘journal
quality’ criteria:
A scoping review. Scientometrics, 128,
279-321. https://doi.org/10.1007/s11192-022-04520-5
Morán-Ortega, S.-A.,
Ruiz-Tirado, S.-G., Simental-López, L.-M., y Tirado-López, A.-B. (2024).
Barreras de la inteligencia artificial generativa en estudiantes de educación superior:
Percepción docente. Revista de
Investigación en Tecnologías de la
Información, 12(25), 26-37. https://doi.org/10.36825/riti.12.25.003
Nature Portfolio (2023).
Editorial policies and peer review process. Nature Portfolio. https://www.nature.com/nature-portfolio
Nuijten, M. B., y
Wicherts, J. M. (2024). Implementing statcheck during peer review is related to
a steep decline in statistical-reporting inconsistencies. Advances in
Methods and Practices in Psychological Science, 7(2). https://doi.org/10.1177/25152459241258945
Ooi, K.-B., Tan, G.
W.-H., Al-Emran, M., Al-Sharafi, M. A., Capatina, A., Chakraborty, A., Dwivedi,
Y. K., Huang, T.-L., Kar, A. K., Lee, V.-H., Loh, X.-M., Micu, A., Mikalef, P.,
Mogaji, E., Pandey, N., Raman, R., Rana, N. P., Sarker, P., Sharma, A., … Wong,
L.-W. (2025). The potential of generative artificial intelligence across
disciplines: Perspectives and future directions. Journal of Computer Information
Systems,
65(1), 76-107. https://doi.org/10.1080/08874417.2023.2261010
Osasona, F., Amoo, O.
O., Atadoga, A., Abrahams, T. O., Farayola, O. A., y Ayinla, B. S. (2024).
Reviewing the ethical implications of AI in decision making processes. International
Journal of Management & Entrepreneurship Research, 6(2), 322-335. https://doi.org/10.51594/ijmer.v6i2.773
Pezzullo,
A. M., y Boccia, S. (2024). Growth and challenges in
biomedical scientific publishing. European Journal of Public Health, 34(S_3), ckae144.677. https://doi.org/10.1093/eurpub/ckae144.677
Pividori,
M., y Greene, C. S. (2023). A publishing
infrastructure for AI-assisted academic authoring [Preprint]. bioRxiv. https://doi.org/10.1101/2023.01.21.525030
PLoS ONE (2023). Peer
review guidelines and metrics. PLoS ONE. https://journals.plos.org/plosone/s/journal-information
Repiso, R. (2024).
Artificial Intelligence in the editorial process and peer review. Revista
Investigación e Innovación en Ciencias de la
Salud, 6(2), 1-4. https://doi.org/10.46634/riics.317
Resnik, D. B., y Hosseini, M. (2025). Disclosing artificial
intelligence use in scientific research and publication: When should disclosure
be mandatory, optional, or unnecessary? Accountability in Research, 1–13. https://doi.org/10.1080/08989621.2025.2481949
Science/AAAS (2023).
Editorial policies on the use of artificial intelligence. Science/AAAS. https://www.science.org/
Seghier, M. L. (2023).
Using ChatGPT and other AI-assisted tools to improve manuscripts readability
and language. International Journal of Imaging Systems and Technology, 33(3),
773–775. https://doi.org/10.1002/ima.22902
Springer Nature (2024).
Reviewer Finder and peer review tools. Springer Nature. https://www.springernature.com/gp
STM Association (2023).
STM Integrity Hub: AI and ethics in publishing. STM Association. https://www.stm-assoc.org/integrity-hub
Tabatadze, B. (2024).
Technological Aspects of Open Journal Systems (OJS). Journal of
Technical Science and Technologies, 8(1), 23-29.
Taylor & Francis
Group (2024). Editorial integrity and AI guidelines. Taylor &
Francis Group.
https://authorservices.taylorandfrancis.com
Torres,
G. A., Torres, J. M., y Pacheco, M. C. (2025). Inteligencia artificial
generativa: Impactos y dilemas éticos en el ámbito educativo. Revista de
Ciencias Sociales (Ve), XXXI(2), 535-543. https://doi.org/10.31876/rcs.v31i2.43784
Tuquinga-Cercado,
M. A., López-Ramírez, M. L., Gutiérrez-Aguayo, J. A., y Delgado-Fajardo, S. J.
(2025). Análisis crítico del uso de inteligencia artificial en la formación de
estudiantes universitarios. Revista de Ciencias Sociales (Ve), XXXI(E-12),
319-334. https://doi.org/10.31876/rcs.v31i.44567
Weber-Wulff,
D., Anohina-Naumeca, A., Bjelobaba, S., Foltýnek, T., Guerrero-Dib, J.,
Popoola, O., Šigut, P., y Waddington, L. (2023). Testing of detection tools for AI-generated text. International
Journal for Educational Integrity, 19, 26. https://doi.org/10.1007/s40979-023-00146-z
Wiley (2025).
ManuscriptCheck. Wiley. https://authorservices.wiley.com/author-resources/Journal-Authors/Prepare/manuscriptcheck.html
World Association of
Medical Editors - WAME (2025). Home. World Association of Medical Editors
(WAME). https://www.wame.org/
Wu, J., Sanchez-Diaz, I., Yang, Y., y Qu, X.
(2024). Why is your paper rejected? Lessons learned from over
5,000 rejected transportation papers. Communications in Transportation
Research, 4, 100129. https://doi.org/10.1016/j.commtr.2024.100129