Revista de Ciencias Sociales (RCS)

Vol. XXIX, No. 4, Octubre - Diciembre 2023. pp. 415-427

FCES - LUZ ● ISSN: 1315-9518 ● ISSN-E: 2477-9431

 

Como citar: Aliaga-Pacora, A. A., Juárez-Hernández, L. G., y Sumarriva-Bustinza, L. A. (2023). Validez de una rúbrica para evaluar competencias investigativas en postgrado. Revista De Ciencias Sociales, 29(4), 415-427.

 

Validez de una rúbrica para evaluar competencias investigativas en postgrado

 

Aliaga-Pacora, Alicia Agromelis*

Juárez-Hernández, Luis Gibran**

Sumarriva-Bustinza, Liliana Asunción***

 

Resumen  

 

Las competencias investigativas son el dominio de actitudes cognitivas puestas en prácticas por los estudiantes. El objetivo fue analizar la validez de constructo de una rúbrica analítica para evaluar las competencias investigativas de estudiantes de posgrado. Docentes asesores evaluaron 260 tesis mediante la rúbrica. El análisis de validez de constructo se efectuó mediante un proceso de validación cruzada entre el análisis factorial exploratorio, que es una técnica estadística que explora con precisión las dimensiones subyacentes de las variables latentes de las variables observadas y el análisis factorial comprobatorio, que encuadra los modelos de ecuaciones estructurales, analizando las relaciones entre los indicadores de las variables observadas y las variables latentes. Los resultados del análisis factorial exploratorio mostraron correspondencia con la propuesta teórica, donde un solo factor explicó el 51% de la varianza que fue representado por la totalidad de ítems. La evaluación de este modelo mediante el análisis factorial comprobatorio reveló un buen ajuste (X2/gl: 2.197; RMSA: 0,085; GFI: 0,902; CFI: 0,932; TLI: 0,912), y se encontró evidencia de validez convergente (CFE>0,50; CC: 0,902; VME: 0,464). La confiabilidad de la rúbrica fue óptima (α=0,903). Se concluye que el constructo formulado está representado en la estructura del instrumento.

 

Palabras clave: Competencias investigativas; fiabilidad; instrumento; postgrado; validación.  

 

 

Validity of a rubric to assess graduate research skills

 

Abstract

 

Research competencies are the domain of cognitive attitudes put into practice by students. The objective of this study was to analyze the construct validity of an analytical rubric to assess the research competencies of graduate students. Consulting professors assessed 260 theses using this rubric. Construct validity analysis was performed using a cross-validation process between exploratory, which is a statistical technique that accurately explores the underlying dimensions of the latent variables of the observed variables and the test factor analysis, which frames the structural equation models, analyzing the relationships between the indicators of the observed variables and the latent variables. The results of the EFA showed correspondence with the theoretical proposal, where a single factor explained 51% of the variance represented by all items. Evaluation of this model using the EFA revealed a good fit (X2/gl: 2,197; RMSA: 0.085; GFI: 0.902; IFC: 0.932; TLI: 0.912) and evidence of convergent validity (CFE>0.50; CC: 0.902; VME: 0.464). The reliability of the rubric was optimal (α=0.903). It is concluded that the formulated construct is represented within the structure of the instrument.

 

Keywords: Research competencies; reliability; instrument; postgraduate; validation.

 

 

Introducción

A inicios del siglo XXI surge una nueva sociedad en donde el saber es el activo principal en la dinámica social. En este marco, la universidad como comunidad académica cumple un rol fundamental en la generación y difusión del conocimiento a través de la investigación, por ello debe garantizar el desarrollo de competencias investigativas en la formación universitaria y el dominio de estas en el nivel de postgrado, en tanto se busca con ello replantear el rol de la universidad e insertarla en los procesos de innovación social (Orellana-Navarrete, Tenorio y Abad, 2022).

Las competencias para investigar son claves en el progreso. A través de estas se persigue la modelación de profesionales, cuyo fin está pensado en la inserción dentro de la sociedad, con un claro componente epistémico, axiológico y social intrínseco (Dávila, Agüero y Ruiz, 2021) que, claramente, conducen a la difusión del conocimiento (Lucas y Roa, 2021), la producción científica, la eficiencia (Ibáñez, Morresi y Delbianco, 2017; Pétriz y Rubiralta, 2017), y a garantizar la vigencia de una universidad vinculada a la sociedad; la escasa producción científica fue uno de los criterios para que 14 universidades en Ecuador (Reiban y Álava, 2017), y 18 en el Perú dejaran de funcionar (Superintendencia Nacional de Educación Superior Universitaria [SUNEDU], 2018).

En tal sentido, para identificar y dar solución a un problema, siguiendo la lógica de la investigación científica, que concibe procesos claros, estructura sistemática, trabajo colectivo, fases e interrelaciones específicas (Di Gravia y Campos, 2021), se debe tener el dominio de las habilidades, destrezas y capacidades, que en su conjunto forman la competencia investigativa, con la finalidad de permitir el dominio de acciones prácticas que generen conocimientos a los profesionales, a fin de regular racionalmente su actividad investigativa (Rubio et al., 2018).

Acorde a la significancia e importancia de esta propiedad psicométrica la meta del presente estudio fue analizar la validez de constructo del instrumento “Rúbrica analítica socioformativa para medir las competencias investigativas en posgrado”.

 

1. Fundamentación teórica

En los estudiantes de postgrado, la competencia investigativa es trascendental en su formación como investigadores, en tanto le permite evidenciar la capacidad de integrar conocimientos, para que puedan ejecutar las competencias profesionales eficazmente y poder aplicar a la vida cotidiana y laboral (Celaya et al., 2017); y de esta manera, convertirse en generadores de cambios y formar parte de los procesos productivos para el desarrollo económico de su localidad, región y país; mejorando el vínculo universidad-sociedad (Reiban, De La Rosa y Zeballos, 2017); puesto que, el rol fundamental de la universidad debe estar orientado al trabajo conjunto con las diferentes organizaciones gubernamentales haciendo uso de la investigación científica y favoreciendo su desarrollo.

Las competencias investigativas son entendidas como el dominio de actitudes cognitivas puestas en prácticas por los estudiantes, desde el abordaje de un problema hasta la solución de esta a través de la investigación científica, este proceso implica el manejo de la bibliografía, selección, delimitación del problema, marco teórico, validación del instrumento y contrastación de hipótesis (Antúnez y Veytia, 2020).

En tal sentido, las competencias investigativas permiten desarrollar destrezas y capacidades para realizar con facilidad el proceso investigativo y como parte de este la generación y difusión del saber a partir de la investigación, para comunicar al grupo científico y a la comunidad en general los nuevos avances tanto científicos como tecnológicos (George y Ramírez, 2019).

Las competencias investigativas desde enfoques educativos emergentes (socioformación) se refieren al desarrollo del pensamiento complejo, que demanda de un análisis conceptual, crítico y sistémico, seguido de la creatividad y ser parte de la solución de problemas del contexto con ética, uso de la tecnología, la comunicación, dentro de entornos colaborativos y la autogestión del conocimiento (Tobón, 2017; Dorantes y Tobón, 2017; Salazar-Gómez y Tobón, 2018). 

Desde este enfoque se indica que el trabajo que se realiza a nivel de posgrado debe comprender el cambio del plan de estudio e integrar técnicas y métodos que permita a los discentes la adopción del enfoque de la filosofía de la complejidad para enfrentar cambios vertiginosos que la sociedad actual exige (Navarro, 2019).

Como puede notarse, se considera importante evaluar las competencias investigativas en los posgraduados en la medida que son los responsables directos del desarrollo del país, puesto que, laboran en diferentes instituciones tanto públicas como privadas y son los artífices para generar nuevos proyectos que obedecen a las políticas públicas impartidas.

A este respecto, referente a la evaluación de las competencias investigativas en el nivel de postgrado, se cuentan con diversas propuestas instrumentales como el de Cardoso y Cerecedo (2019), que mide solo el diseño de investigación; el de Grijalva y Urrea (2017), que evalúa la búsqueda de información y metodología; y, el de George y Ramírez (2019), que se centró en medir el nivel de manejo de las Tecnologías de Información y Comunicación (TIC) como apoyo en el proceso de investigación. Los instrumentos se caracterizaban por presentar respuestas de tipo Likert.

De acuerdo a Torres et al. (2022), las rubricas constituyen una didáctica formativa, que lleva al logro de competencias, habilidades y actitudes significativas en la formación universitaria. A partir de lo anterior, Aliaga-Pacora, Juárez-Hernández y Herrera-Meza (2021) diseñaron la “Rúbrica analítica socioformativa para evaluar competencias investigativas en posgrado” (RASeCI), la cual, mediante 11 ítems valora la evidencia del desarrollo de la tesis de acuerdo con cinco ejes (introducción, metodología, resultados, informe final y trabajo colaborativo).

La rúbrica analítica de tipo socioformativa tiene como característica valorar los niveles de capacidades, habilidades y destrezas, en relación con las competencias investigativas que deben ser alcanzadas por los discentes de posgrado para lograr la meta que se va a ver reflejado en el producto final, que es la tesis. La autoevaluación, la gestión de los recursos y el tiempo, son ventajas del uso de la rúbrica (Pulido, 2017; Tobón et al., 2020).

Cada ítem es evaluado acorde a cinco niveles de dominio: Preformal, receptivo, resolutivo, autónomo, estratégico; y cada nivel tiene descriptores, los cuales coadyuvan a determinar con exactitud el nivel de progreso. En este sentido, tanto descriptores y niveles tiene su fundamento en la taxonomía socioformativa (Tobón, 2017). Acorde al autor mencionado los niveles de desempeño son ordenados secuencialmente, cuyo fin es a través de la mejora continua alcanzar el dominio de las competencias. Referente a los descriptores de cada nivel, estos tienen la función de explicar y describir las características del progreso paulatino de las competencias investigativas de forma estratégica y práctica.

Un aspecto para mencionar es que la rúbrica RASeCI fue sujeta a una revisión de expertos y juicio de expertos, enfatizando que cuenta con validez de facie y contenido. Lo anterior atendiendo a lo referido por Boluarte y Tamari (2017), quienes precisan que la validez de un instrumento avala la calidad y utilidad de lo que se pretender medir y que esta se estima de tres formas; de contenido, de criterio y de constructo.

Sin embargo, el instrumento (RASeCI) no fue sujeto del análisis de validez de constructo. En este sentido, la propiedad de validez de constructo se relaciona con la calidad e idoneidad en relación con el constructo hipotético fundamentado en la teoría de Messick (1980), reflejado en el instrumento de recolección de datos. La validez de constructo, es un proceso de rigor científico que tiene como fin la constatación de hipótesis, la vinculación de lo empírico con lo racional, en donde, las inferencias efectuadas sobre la base de las puntuaciones de los instrumentos serían las hipótesis y la validez el proceso de acopio de certezas que apoyan las inferencias (Arias, Rivera y Ceballos, 2019; Chacón, Pérez-Gil y Holgado, 2000).

 

2. Metodología

Se desarrolló un estudio instrumental que, según León y Montero (2020), consiste en analizar las características psicométricas y diseño de un instrumento. En particular en el presente se utilizó un tipo de diseño de investigación experimental, de tipo cuantitativo, donde se analizó la propiedad de validez de constructo y confiabilidad.

Posterior a su definición y construcción, en una primera fase se realizó la validez de prima facie, en la que cuatro expertos determinaron la pertenencia y relevancia de los aspectos incluidos en el instrumento. Posteriormente, se obtuvo evidencia de la validez de contenido por medio de un juicio de expertos (V de Aiken>0,80) (Aliaga-Pacora et al., 2021). Al concluir esta etapa, estos últimos autores administraron la rúbrica a 38 asesores de tesis, muestra piloto del estudio, los cuales denotaron un nivel bueno de comprensión tanto de las instrucciones como de los ítems del instrumento, y de manera inicial se estimó la confiabilidad, cuyo valor fue óptimo (α = 0,832).

La “Rúbrica analítica socioformativa para evaluar competencias investigativas en posgrado” RASeCI (Aliaga-Pacora et al., 2021) está constituida por 11 ítems, cada uno tiene cinco descriptores y compuesta por los niveles: Preformal, receptivo, resolutivo, autónomo y estratégico de acuerdo con la taxonomía socioformativa (Tobón, 2017). Asimismo, los ítems se integraron en cinco ejes: Introducción, metodología, resultados, informe final y trabajo colaborativo (ver Cuadro 1).

Cuadro 1

Aspectos y preguntas

Aspectos

Preguntas del instrumento

Introducción.

 

 

1. ¿En qué nivel el estudiante es capaz de identificar, describir y explicar un problema de investigación de su contexto para proponer alternativas de solución?

2. ¿En qué nivel el estudiante es capaz de recabar, seleccionar y organizar información válida y confiable para la fundamentación del problema identificado?

3. ¿En qué nivel el estudiante es capaz de formular las preguntas, objetivos y/o hipótesis para seguir con el proceso de investigación?

4. ¿En qué nivel el estudiante es capaz de construir el marco teórico integrando diferentes campos del saber en su investigación?

5. ¿En qué nivel el estudiante es capaz de exponer y argumentar la relevancia teórica, metodológica y práctica de la investigación?

Metodología

 

Resultados

6. ¿En qué nivel el estudiante es capaz de seleccionar el diseño de investigación?

7. ¿En qué nivel el estudiante es capaz de registrar y sistematizar los datos obtenidos en el trabajo de campo? 

8. ¿En qué nivel el estudiante es capaz de analizar los datos para estructurar la respuesta a la pregunta de investigación?

9. ¿En qué nivel el estudiante es capaz de interpretar los datos obtenidos para construir, exponer y fundamentar los resultados de la investigación?

Informe final

 

Trabajo colaborativo

10. ¿En qué nivel el estudiante es capaz de redactar el informe final (Tesis) del trabajo con precisión académico-científica (redacción y ortografía) y técnica (normas APA vigente)?

11. ¿En qué nivel el estudiante es capaz de obtener colaboración y apoyo de parte de personajes solventes profesional y académicamente para el desarrollo de su investigación?

 

Fuente: Elaboración propia, 2023 en base a Aliaga-Pacora et al. (2021).

Para la selección de la muestra, se escogió una población de once (11) asesores de tesis de la Escuela Universitaria de Postgrado en la Universidad Nacional Federico Villarreal de Lima Perú (EUPG-UNFV). Dicha muestra es utilizada en base a los criterios de simplicidad, puesto que el tamaño de la misma es suficiente para establecer un grado de representatividad entre los factores y variables considerados. Los asesores escogidos, evaluaron las tesis de 260 doctorandos de los cuales el 64% eran varones y 36% mujeres. Por otra parte, el 100% de los asesores tienen el grado de Doctor y a su vez el 20% de ellos tienen de 10 a 20 años de experiencia en investigación, así como el 80% de 21 a más años.

De manera inicial, se verificó el ajuste a la distribución normal de los ítems mediante la asimetría y curtosis, considerando que ambos aspectos no fueran superiores a ± 1.5 (Curran, West y Finch, 1996). Seguidamente, se analizó la correlación ítem-test tomando como criterio lo establecido por Tabachnick y Fidell (2013), de no considerar ítems con valores menores a 0,20 y mayores a 0,90.

Una vez realizados estos análisis, la muestra se dividió en dos partes para efectuar la validación cruzada que consiste en realizar un Análisis Factorial Exploratorio (AFE), a fin de explorar la estructura latente; y el Análisis Factorial Confirmatorio (AFC), para validar la estructura (Lloret-Segura et al., 2014; Urbano-Contreras, Iglesias-García y Martínez-González, 2019). La obtención de las submuestras se realizó mediante un proceso de aleatorización a través de una hoja de cálculo electrónica. La primera muestra, quedó constituida de 110 trabajos de tesis y se analizó mediante el AFE; y la segunda, se conformó de 150 trabajos de tesis y se analizó a través del AFC.

Para el AFE, en primer orden se analizaron los supuestos de aplicación, siendo los indicadores de correlación y las pruebas de Kaiser-Meyer-Olkin (KMO) y de Barlett (Mavrou, 2015; Juárez, 2018). Después de haber verificado los supuestos, se seleccionó la técnica de máxima verosimilitud y para retener la cantidad de factores se utilizó la regla de Gutman-Kaiser (Mavrou, 2015; Juárez, 2018; López-Aguado y Gutiérrez-Provecho, 2019). Acorde a lo referido por Rositas (2014), se verificó que las cargas factoriales fueran significativas acordes con el tamaño de la muestra (CF> .55). En caso de que se presentara complejidad factorial, se analizó el tipo de rotación de la matriz factorial acorde al tipo de datos y características de relación entre ítems.

El AFC se efectuó con la técnica de estimación de máxima verosimilitud y la evaluación del ajuste del modelo, se consideró la razón Chi-cuadrada/grados de libertad (X2/gl) e índices de ajuste (índice de bondad de ajuste GFI); Error cuadrático medio de aproximación (RMSAE); índice comparativo de ajuste (CFI); Índice de Tucker-Lewis (TLI), acorde a los criterios establecidos por Hu y Bentler (1999).

A partir de las cargas factoriales estandarizadas, se calculó la Varianza Media Extraída (VEM) y la Confiabilidad Compuesta (CC) (Fornell y Larcker, 1981), considerando como valor umbral para la primera, mayor a 0,50; y para la segunda, de 0,70 (Hair et al., 2010). Por último, se aplicó el cálculo de la confiabilidad utilizando el Alfa de Cronbach.

 

3. Resultados y discusión

En ningún caso los ítems presentaron valores superiores a los establecidos para la asimetría y curtosis (ver Tabla 1), por lo que se asume que poseen una distribución normal. Respecto al análisis de correlación ítem-test y acorde a los criterios establecidos, no existió necesidad de eliminar ítems, puesto que todos estuvieron dentro del rango estipulado (0,20>CIT<0,90). 

Tabla 1

Análisis de los ítems

Ítem

Asimetría

Curtosis

Correlación ítem-Test

1

-0,405

-0,965

0,530

2

-0,577

-0,712

0,654

3

-0,373

-1,007

0,657

4

-0,974

0,056

0,646

5

-0,543

-0,292

0,619

6

-0,788

-0,723

0,780

7

-0,577

-0,809

0,677

8

-0,933

-0,576

0,794

9

0,029

-0,882

0,542

10

-0,265

-1,388

0,507

11

0,015

-1,230

0,527

 

Fuente: Elaboración propia, 2023.

La revisión de la adecuación de los datos al análisis factorial fue positiva. En primer orden, se presenta la matriz de correlaciones entre ítems visualizándose en esta la correlación significativa entre ítems (ver Tabla 2).  

Tabla 2

Matriz de correlación entre ítems

ítem

1

2

3

4

5

6

7

8

9

10

11

1

1.000

2

0,400*

1.000

3

0,529*

0,477*

1.000

4

0,410*

0,472*

0,508*

1.000

5

0,437*

0,570*

0,545*

0,603*

1.000

6

0,446*

0,539*

0,529*

0,420*

0,510*

1.000

7

0,389*

0,553*

0,415*

0,556*

0,552*

0,583*

1.000

8

0,585*

0,502*

0,521*

0,543*

0,498*

0,701*

0,617*

1.000

9

0,356*

0,483*

0,343*

0,381*

0,423*

0,548*

0,377*

0,517*

1.000

10

0,426*

0,369*

0,336*

0,362*

0,349*

0,517*

0,354*

0,488*

0,326*

1.000

11

0,401*

0,323*

0,441*

0,321*

0,325*

0,586*

0,390

0,578*

0,187*

0,311*

1.000

Nota: *= p<0.05

 

Fuente: Elaboración propia, 2023.

Mediante las pruebas Kaiser Meyer Olkin (KMO: 0,895) y esfericidad de Bartlett (X2: 579.255 gl: 50; p<0,000), se verificó la adecuación de los datos a fin de analizarlo a través del AFE. Propiamente, en la primera matriz del AFE (comunalidades), se reveló la simbolización de todos los ítems contenido en el modelo factorial, el cual se conformó de un solo factor, y el cual explicó más del 51% de la varianza (ver Tabla 3). El análisis de la matriz factorial indicó la representación de todos los ítems al factor encontrado; puesto que, presentaron cargas factoriales significativas (CF>0,55). La confiabilidad fue óptima (α=0,903; IC al 95%: 0,873 ± 0,928).

Tabla 3

Matriz factorial de comunalidad

Ítem

Comunalidad

Carga Factorial

1

0,441

0,639

2

0,479

0,692

3

0,484

0,684

4

0,501

0,674

5

0,531

0,712

6

0,678

0,803

7

0,537

0,714

8

0,681

0,833

9

0,434

0,579

10

0,339

0,558

11

0,463

0,570

 

Fuente: Elaboración propia, 2023.

El AFC reveló un buen ajuste del modelo obtenido, dado que los diferentes índices mostraron un valor óptimo (X2/gl: 2.197; GFI: 0.902; CFI: 0.932; TLI: 0.912); sin embargo, para el error cuadrático medio de aproximación (RMSAE: 0.085), el valor fue aceptable. Se especifica que se cumplió la condición de la carga factorial estandarizada para todos los ítems (CFE> 0.50) (ver Figura I) y la confiabilidad compuesta (CC> 0.902); sin embargo, la varianza media extraída fue menor a la estipulada (VME: 0.464).

 

 

 

 

 

 

 

 

 

 

 

Fuente: Elaboración propia, 2023.

Figura I: Representación del modelo factorial

Dado los hallazgos encontrados, el desarrollo de competencias investigativas en los discentes de posgrado es esencial, pues estas les facilitan identificar diferentes problemas del contexto en donde se vincula el saber hacer, saber ser, saber conocer y sobre todo saber convivir; con idoneidad y ética; los cuales coadyuvan no sólo en el reconocimiento y análisis, sino que también aporta a la solución de los problemas reales (Aliaga-Pacora y Luna-Nemecio, 2020).

Lo antes mencionado, evidencia una necesidad debido a que las competencias investigativas son relevantes en la formación académica y en forma particular para los graduados, puesto que estas facilitan la capacidad de suplir saberes, para poner en marcha las competencias profesionales eficientemente y poder aplicarlos a la vida diaria e identificar problemas de su comunidad.

En tal sentido, se considera que el instrumento “Rúbrica analítica socioformativa para evaluar competencias investigativas en posgrado” de Aliaga-Pacora et al. (2021) es un aporte al área; puesto que, permite al docente asesor de tesis dar seguimiento al avance de los estudiantes acerca del progreso de las competencias investigativas, evidenciado en el desarrollo del trabajo de tesis de acuerdo con los descriptores que presenta en los diferentes niveles de dominio.

En la misma línea, Tobón et al. (2020) refieren que estos facilitan al docente analizar y reflexionar sobre su práctica y adecuar estrategias que les permita a los estudiantes a que gradualmente logren su desarrollo de las capacidades, habilidades y destrezas dentro del campo investigativo.

Un instrumento se optimiza cuantas más propiedades psicométricas se analicen (Boluarte y Tamari, 2017), una de ellas es la validez de facie que consiste en confirmar la pertinencia, relevancia, claridad y la comprensión de los ítems (Hardesty y Bearden, 2004). Otra propiedad relevante es la validez de contenido, que hace referencia al nivel en el cual los aspectos de un instrumento de medición son pertinentes, relevantes y representativos de un constructo (Haynes, Richard y Kubany, 1995; Polit, 2015; Juárez-Hernández y Tobón, 2018), dado que se vincula con el proceso de axiomas válidos y fundados en el contenido, que posibilita identificar debilidades y fortalezas del instrumento, el cual coadyuva a la toma de decisiones referente a la adecuación, inclusión o exclusión de un ítem (Boluarte y Tamari, 2017).

Conforme a lo antes mencionado, la “Rúbrica analítica socioformativa para evaluar competencias investigativas en posgrado” (RASeCI) ha sido expuesta a estos procesos; por lo que se indica que la misma, cuenta con validez de facie y de contenido (Aliaga-Pacora et al., 2021).

En tal sentido, es trascendental que un instrumento cuente también con validez de constructo; puesto que mediante esta se constata la consistencia entre la teoría hipotetizada y el instrumento, y de esa manera fundamentar la representación del atributo que se está valorando en cada uno de los datos obtenidos (Leyva, 2011).

El análisis de validez del constructo de la RASeCI, se efectuó con un esquema de validación cruzada constituido en primer orden por un método exploratorio y confirmatorio acorde a las recomendaciones clásicas (Lloret-Segura et al., 2014). A este respecto, los resultados del Análisis Factorial Exploratorio mostraron la correspondencia con el modelo teórico, puesto que acorde al modelo factorial obtenido, se encontró un solo factor, el cual explicó más del 51% de la varianza. A este respecto, el valor de la varianza explicada se considera como óptimo a partir del 40% como mínimo para muestras menores de 300 casos (Velicer y Fava, 1998).

Otro resultado destacable, es que todos los ítems se encontraron representados dentro del modelo factorial con cargas factoriales representativas acorde al tamaño de muestra (CF> 0.50), lo que se traduce en que estos efectivamente miden el constructo o la teoría propuesta (Mavrou, 2015). De lo anterior, destaca la fase de validez de contenido, puesto que su estimación es trascendental en la validez de constructo.

La evaluación del modelo factorial mediante el AFC, brindó elementos de comprobación del ajuste del modelo a los datos, puesto que los diversos indicadores empleados (X2/gl, GFI, CFI, TLI) mostraron valores cercanos al óptimo. Si bien para el Error cuadrático medio de aproximación (RMSEA) no se presentó un valor optimo, se puede considerar aceptable de acuerdo con Browne y Cudeck (1992).

Acorde a Fornell y Larcker (1981); y, Hair et al. (2010), para que se pueda indicar que existe validez convergente, se deberá de cumplir las condiciones de que el valor de las cargas factoriales estandarizadas sea superior a 0,50, la confiabilidad compuesta mayor a 0.70, y la varianza extraída media mayor a 0,50. Específicamente en los resultados del presente estudio, todos los ítems presentaron un valor optimo en las cargas factoriales estandarizadas (CFE> 0,50), así como la confiabilidad compuesta (CC: 0,902); sin embargo, la varianza extraída media fue menor a la indicada (VEM: 0,464).

En este orden, Moral (2019) refiere que entre mayor sea el número de ítems que integran un factor, se deteriora la validez convergente medida a través de la varianza extraída media (VEM), por lo que recomienda considerar un valor de VEM ajustado al número de ítems, en correspondencia con la confiabilidad compuesta y las cargas factoriales estandarizadas, las cuales en su mayoría sean mayores a 0,50.

En correspondencia a esta precisión, la varianza extractada media ajustada al número de ítems del presente estudio, debería de ser aceptable si fuese mayor a 0,30 y considerando que la confiabilidad compuesta fuera mayor a 0,80 para revelar un nivel aceptable de validez convergente. Para ambos casos se cumplen estas condiciones en el presente, por lo anterior se puede indicar que existe validez convergente.

Este conjunto de evidencias permite verificar la sustentabilidad empírica del modelo propuesto, y denotar que los indicadores propuestos miden adecuadamente dicho factor (Fornell y Larcker, 1981; Hair et al., 2010). La confiabilidad del instrumento fue optima (α=0,903), lo cual indica que el resultado es confiable al aplicarlo en disímiles momentos; al respecto, Prieto y Delgado (2010) refieren que se trata de una propiedad estable de valoración de un instrumento cuando el proceso se repite. 

 

Conclusiones

Se concluye que el instrumento “Rúbrica analítica socioformativa para evaluar competencias investigativas en posgrado”, mide con precisión el constructo que se pretende estimar. De esta forma, el instrumento RASeCI permitirá al docente asesor de tesis determinar la calidad y avance de los maestrandos y doctorandos, referentes al progreso de sus competencias investigativas durante la elaboración del trabajo de tesis evidenciado en los descriptores que presenta cada nivel de dominio, los cuales facilitan al asesor de tesis brindar diversas estrategias a fin de que los estudiantes de forma gradual logren sus competencias investigativas.

 

Referencias bibliográficas

Aliaga-Pacora, A. A., Juárez-Hernández, L. G., y Herrera-Meza, R. (2021). Diseño y validez de contenido de una rúbrica analítica socioformativa para evaluar competencias investigativas en posgrado. Apuntes Universitarios, 11(2), 62-82. https://doi.org/10.17162/au.v11i2.632

Aliaga-Pacora, A. A., y Luna-Nemecio, J. (2020). La construcción de competencias investigativas del docente de posgrado para lograr el desarrollo social sostenible. Revista Espacios, 41(1), 1. https://www.revistaespacios.com/a20v41n20/a20v41n20p01.pdf

Antúnez, A. G., y Veytia, M. G. (2020). Desarrollo de competencias investigativas y uso de herramientas tecnológicas en la gestión de información. Revista Conrado, 21(1), 96-102. https://conrado.ucf.edu.cu/index.php/conrado/article/view/1219

Arias, W., Rivera, R., y Ceballos, K. (2019). Confiabilidad y Estructura Factorial de la Escala de Malestar Psicológico de Kessler en estudiantes universitarios de Arequipa (Perú). Archivos de Medicina, 19(2), 387-395. https://doi.org/10.30554/archmed.19.2.2854.2019

Boluarte, A., y Tamari, K. (2017). Validez de contenido y confiabilidad inter-observadores de Escala Integral Calidad de Vida. Revista de Psicologia, 35(2), 641-666. https://doi.org/10.18800/psico.201702.009

Browne, M. W., y Cudeck, R. (1992). Alternative ways of assessing model fit. Sociological Methods & Research, 21(2), 230-258. https://doi.org/10.1177/0049124192021002005

Cardoso, E. O., y Cerecedo, M. T. (2019). Valoración de las Competencias Investigativas de los Estudiantes de Posgrado en Administración. Formación Universitaria, 12(1), 35-44. https://doi.org/10.4067/s0718-50062019000100035

Celaya, A., Luque, D., García, J., Amozurrutia, J. A., Preciado, J. M., Laborín, J., y Cabanillas, R. E. (2017). Evaluación de la producción científica de sustentabilidad ambiental en un centro público de investigación (CPI) del Conacyt (1982-2012). Revista de La Educacion Superior, 46(182), 89-112. https://doi.org/10.1016/j.resu.2017.04.002

Chacón, S., Pérez-Gil, J. A., y Holgado, F. P. (2000). Validez en evaluación de programas: Una comparación de técnicas de análisis basadas en modelos estructurales, teoría de la generalizabilidad y modelos multinivel. Psicothema, 12(S-2), 122-126. https://www.psicothema.com/pi?pii=531

Curran, P. J., West, S. G., y Finch, J. F. (1996). The robustness of test statistics to nonnormality and specification error in confirmatory factor analysis. Psychological Methods, 1(1), 16-29. https://doi.org/10.1037/1082-989X.1.1.16

Dávila, R. C., Agüero, E. D. C., y Ruiz, J. L. (2021). Retos de la Educación por Competencias en la Sociedad Contemporánea. Revista de Filosofía, (98), 270-290. https://doi.org/10.5281/zenodo.5527562

Di Gravia, A. R., y Campos, Y. Y. (2021). Componentes sociocontextual y lógicoestructural en el problema de investigación. Revista de Ciencias Sociales (Ve), XXVII(3), 351-364. https://doi.org/10.31876/rcs.v27i3.36774

Dorantes, J. A., y Tobón, S. (2017). Instrumentos de evaluación: Rúbricas socioformativas. Praxis Investigativa ReDIE: Revista Electrónica de la Red Durango de Investigadores Educativos, 9(17), 79-86. https://praxisinvestigativa.mx/assets/17_7_instrumentos.pdf

Fornell, C., y Larcker, D. F. (1981). Structural Equation Models with unobservable variables and measurement error: Algebra and statistics. Journal of Marketing Research, 18(3), 382-388. https://doi.org/10.1177/002224378101800313

George, C. E., y Ramírez, A. (2019). Competencias investigativas y saberes digitales de estudiantes de posgrado en la modalidad virtual. Certiuni Journal, (85), 65-78. http://uajournals.com/ojs/index.php/certiunijournal/article/view/605

Grijalva, A. A., y Urrea, M. L. (2017). Cultura científica desde la universidad. Evaluación de la competencia investigativa en estudiantes de Verano Científico. Education in the Knowledge Society (EKS), 18(3), 15. https://doi.org/10.14201/eks20171831535

Hair, J. F., Black, W. C., Babin, B. J., y Anderson, R. E. (2010). Multivariate Data Analysis. Pearson Education.

Hardesty, D. M., y Bearden, W. O. (2004). The use of expert judges in scale development. Implications for improving face validity of measures of unobservable constructs. Journal of Business Research, 57(2), 98-107. https://doi.org/10.1016/S0148-2963(01)00295-8

Haynes, S. N., Richard, D. C. S., y Kubany, E. S. (1995). Content validity in psychological assessment: A functional approach to concepts and methods. Psychological Assessment, 7(3), 238-247. https://doi.org/10.1037/1040-3590.7.3.238

Hu, L.-T., y Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives. Structural Equation Modeling, 6(1), 1-55. https://doi.org/10.1080/10705519909540118

Ibáñez, M. M., Morresi, S. S., y Delbianco, F. (2017). Una medición de la eficiencia interna en una universidad argentina usando el método de fronteras estocásticas. Revista de la Educación Superior, 46(183), 47-62. https://doi.org/10.1016/j.resu.2017.06.002

Juárez, L. G. (2018). Manual práctico de estadística básica para la investigación. KResearch Corp.

Juárez-Hernández, L. G., y Tobón, S. (2018). Análisis de los elementos implícitos en la validación de contenido de un instrumento de investigación. Revista Espacios, 39(53), 7. http://www.revistaespacios.com/cited2017/cited2017-23.pdf 

León, O. G., y Montero, I. (2020). Métodos de investigación en Psicología y Educación: Las tradiciones cuantitativa y cualitativa. McGraw-Hill Interamericana de España S.L.

Leyva, Y. E. (2011). Una reseña sobre la validez de constructo de pruebas referidas a criterio. Perfiles Educativos, 33(131), 131-154. https://doi.org/10.22201/iisue.24486167e.2011.131.24238

Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A., y Tomás-Marco, I. (2014). El análisis factorial exploratorio de los ítems: Una guía práctica, revisada y actualizada. Anales de Psicologia, 30(3), 1151-1169. https://doi.org/10.6018/analesps.30.3.199361

López-Aguado, M., y Gutiérrez-Provecho, L. (2019). Cómo realizar e interpretar un análisis factorial exploratorio utilizando SPSS. REIRE Revista d’Innovació i Recerca en Educació, 12(2), 1-14. https://doi.org/10.1344/reire2019.12.227057

Lucas, E., y Roa, J. (2021). Análisis de la producción científica sobre enseñanza universitaria virtual y semipresencial en revistas españolas de alto impacto. Revista Complutense de Educación, 32(4), 605-616. https://doi.org/10.5209/rced.70887

Mavrou, I. (2015). Análisis factorial exploratorio: Cuestiones conceptuales y metodológicas. Revista Nebrija de Lingüística Aplicada a la Enseñanza de las Lenguas, (19), 71-80. https://doi.org/10.26378/rnlael019283  

Messick, S. (1980). Test validity and the ethics of assessment. American Psychologist, 35(11), 1012-1027. https://doi.org/10.1037/0003-066X.35.11.1012

Moral, J. (2019). Revisión de los criterios para validez convergente estimada a través de la Varianza Media Extraída. Psychologia, 13(2), 25-41. https://revistas.usb.edu.co/index.php/Psychologia/article/view/4119

Navarro, B. (2019). Sobre el pensamiento complejo. Cuadernos de Trabajo Social, 32(2), 471-475. https://doi.org/10.5209/cuts.65080

Orellana-Navarrete, V., Tenorio, F., y Abad, A. (2022). Universidad e innovación: Una mirada desde lo social. Revista de Ciencias Sociales (Ve), XXVIII(3), 204-217. https://doi.org/10.31876/rcs.v28i3.38469

Pétriz, F., y Rubiralta, M. (2017). Las misiones de la universidad. Cuadernos de Pedagogía, (476), 46-50.

Polit, D. F. (2015). Assessing measurement in health: Beyond reliability and validity. International Journal of Nursing Studies, 52(11), 1746-1753. https://doi.org/10.1016/j.ijnurstu.2015.07.002

Prieto, G. y Delgado, A. R. (2010). Fiabilidad y Validez. Papeles del Psicólogo, 31(1), 67-74. https://www.papelesdelpsicologo.es/pdf/1797.pdf

Pulido, J. E. (2017). Nivel de dominio de las copetencias investigativas de los aspirantes a ingresar al programa de postgrado de la UPEL-IMPM. Revista Boletín Redipe, 6(1), 113-128. https://revista.redipe.org/index.php/1/article/view/182

Reiban, R. E., De La Rosa, H., y Zeballos, J. M. (2017). Competencias investigativas en la Educación Superior. Revista Publicando, 4(10), 395-405. https://revistapublicando.org/revista/index.php/crv/article/view/439

Reiban, R., y Álava, J. (2017). Las competencias investigativas en la producción científica docente. Grupo Compás.

Rositas, J. (2014). Los tamaños de las muestras en encuestas de las ciencias sociales y su repercusion en la generacion del conocimiento. Innovaciones de Negocios, 11(22), 235-268. https://doi.org/10.29105/rinn11.22-4

Rubio, M. J., Torrado, M., Quirós, C., y Valls, R. (2018). Autopercepción de las competencias investigativas en estudiantes de último curso de Pedagogía de la Universidad de Barcelona para desarrollar su Trabajo de Fin de Grado. Revista Complutense de Educación, 29(2), 335-354. https://doi.org/10.5209/RCED.52443

Salazar-Gómez, E., y Tobón, S. (2018). Análisis documental del proceso de formación docente acorde con la sociedad del conocimiento. Espacios, 29(53), 17. http://www.revistaespacios.com/cited2017/cited2017-17.pdf

Superintendencia Nacional de Educación Superior Universitaria - SUNEDU (2018). Informe bienal sobre la realidad universitaria peruana. SUNEDU. https://www.sunedu.gob.pe/informe-bienal-sobre-realidad-universitaria/ 

Tabachnick, B. G., y Fidell, L. S. (2013). Using Multivariate Statistics. Pearson Education.

Tobón, S. (2017). Evaluación socioformativa: Estrategias e instrumentos. Kresearch.

Tóbón, S., Pimienta-Prieto, J. H., Herrera-Meza, S. R., Juárez-Hernández, L. G., y Hernández-Mosqueda, J. S. (2020). Validez y confiabilidad de una rúbrica para evaluar las prácticas pedagógicas en docentes de Educación Media (SOCME-10). Revista Espacios, 39(53), 30. http://www.revistaespacios.com/cited2017/cited2017-30.pdf

Torres, G. A., Perea, J. T., García, D. M., y De la Hoz-Escorcia, S. (2022). Atributos didácticos de las rúbricas en la formación del ingeniero civil: Una mirada desde la estática. Revista de Ciencias Sociales (Ve), XXVIII(1), 202-215. https://doi.org/10.31876/rcs.v28i1.37685

Urbano-Contreras, A., Iglesias-García, M. T., y Martínez-González, R. A. (2019). Diseño y validación de la Escala de Tiempo Compartido en la Pareja (TCP). Psychology, Society & Education, 11(2), 165-175. https://ojs.ual.es/ojs/index.php/psye/article/view/1909

Velicer, W. F., y Fava, J. L. (1998). Effects of variable and subject sampling on factor pattern recovery. Psychological Methods, 3(2), 231-251. https://doi.org/10.1037/1082-989X.3.2.231

 

 



* Doctora en Educación. Maestra en Administración en la Educación. Docente en la Universidad Privada San Juan Bautista, Lima, Perú. Docente en la Universidad Tecnológica del Perú, Lima, Perú. E-mail: aliciaaliagapacora@gmail.com ORCID: https://orcid.org/0000-0002-4608-2975

 

** Doctor en Ciencias Biológicas y de la Salud. Magister en Biología. Docente en el Centro Universitario CIFE, Cuernavaca, México. E-mail: luisgibrancife@gmail.com ORCID: https://orcid.org/0000-0003-0658-6818

 

*** Doctora en Ciencias de la Educación. Docente Investigadora en la Universidad Nacional de Educación Enrique Guzmán y Valle, Lima, Perú. E-mail: lsumarriva@une.edu.pe ORCID: https://orcid.org/0000-0002-6128-3089

 

Recibido: 2023-06-12                · Aceptado: 2023-08-29