Competencias docentes en el uso de simulaciones virtuales STEMdiseño y validación de un instrumento de medida (CDUSV)

  1. Rosa Gómez del Amo
  2. Alicia Palacios Ortega
  3. Daniel Moreno Mediavilla
  4. Álvaro Barreras Peral
Aldizkaria:
Bordón: Revista de pedagogía

ISSN: 0210-5934 2340-6577

Argitalpen urtea: 2022

Zenbakien izenburua: Educación STEM: tecnologías emergentes para el aprendizaje científico

Alea: 74

Zenbakia: 4

Orrialdeak: 85-102

Mota: Artikulua

DOI: 10.13042/BORDON.2022.94154 DIALNET GOOGLE SCHOLAR lock_openDialnet editor

Beste argitalpen batzuk: Bordón: Revista de pedagogía

Garapen Iraunkorreko Helburuak

Laburpena

INTRODUCCIÓN. La importancia del uso de las simulaciones virtuales como recurso didáctico para desarrollar una enseñanza de las ciencias contextualizada, aplicada y centrada en el desarrollo de las competencias científicas ha creado la necesidad de evaluar cuáles son las competencias del profesorado de educación secundaria en el uso de estas herramientas. El objetivo de este trabajo es construir y validar un cuestionario para evaluar las competencias del profesorado de educación secundaria de áreas STEM en el uso de las simulaciones virtuales. MÉTODO. A partir de una revisión teórica exhaustiva se desarrolló un cuestionario inicial que fue sometido a un proceso de validación por expertos. A continuación, se llevó a cabo un estudio piloto con 30 profesores que ayudó a construir el instrumento definitivo. El cuestionario final fue aplicado a 332 profesores de educación secundaria de áreas STEM en España y, posteriormente, se llevó a cabo su validación a través de un análisis factorial exploratorio (AFE). RESULTADOS. Los resultados obtenidos muestran una elevada validez de contenido y fiabilidad (α de Cronbach = .92). A su vez, el análisis factorial exploratorio desarrollado mediante el método de extracción de máxima verosimilitud y rotación Equamax muestra una estructura de 4 factores denominados: “Desarrollo de la práctica docente”, “Planificación didáctica”, “Autorreflexión sobre la práctica docente” y “Dificultades asociadas al uso de las simulaciones virtuales”. Se obtiene una fiabilidad alta para todos los factores extraídos. DISCUSIÓN. Finalmente, se discute el valor del instrumento y su interés para el diseño de programas de formación de profesorado construidos a partir del conocimiento y las dificultades reales del profesorado ante el uso de las simulaciones virtuales STEM en el aula de educación secundaria.

Erreferentzia bibliografikoak

  • Alkhaldi, T., Pranata, I. y Athauda, R. I. (2016). A review of contemporary virtual and remote laboratory implementations: observations and findings. Journal of Computers in Education, 3(3), 329-351. https://doi.org/10.1007/s40692-016-0068-z
  • Asparouhov, T. y Muthen, B. (2009). Exploratory structural equation modeling. Structural Equation Modeling, 16, 397-438.
  • Bandalos, D. L. y Finney, S. J. (2010). Factor analysis: exploratory and confirmatory. En G. R. Hancock y R. O. Mueller (eds.), Reviewer’s guide to quantitative methods. Routledge.
  • Blake, C. y Scanlon, E. (2007). Reconsidering simulations in science education at a distance: features of effective use. Journal of Computer Assisted Learning, 23, 491-502. https://doi.org/10.1111/j.1365-2729.2007.00239.x
  • Cabero, J., Marín, V. y Castaño, C. (2015). Validación de la aplicación del modelo TPACK para la formación del profesorado en TIC. @tic. Revista d’Innovació Educativa, 14, 13-22. https://doi.org/10.7203/attic.14.4001
  • Cabero, J., Pérez, J. L. y Llorente, C. (2018). Estructural equation model and validation of the TPACK model: empirical study [Modelo de ecuaciones estructurales y validación del modelo de formación TPACK: estudio empírico]. Profesorado, 22(4), 353-376. https://doi.org/10.30827/profesorado.v22i4.8420
  • Carlos-Guzmán, J. (2016). ¿Qué y cómo evaluar el desempeño docente? Una propuesta basada en los factores que favorecen el aprendizaje. Propósitos y Representaciones, 4(2), 285-358. http://dx.doi.org/10.20511/pyr2016.v4n2.124
  • Cebrián-Cienfuentes, S., Ros, C., Fernández-Piqueras, R. y Guerrero, E. (2021). Análisis de la competencia digital docente y uso de recursos TIC tras un proceso de intervención universitario, basado en la implementación de una metodología innovadora de gamificación. Bordón, Revista de Pedagogía, 73(2), 41-61. https://doi.org/10.13042/Bordon.2021.87134
  • Chan, P., Van Gerven, T., Dubois, J. y Bernaerts, K. (2021). Virtual chemical laboratories: a systematic literature review of research, technologies and instructional design. Computers and Education Open, 2. https://doi.org/10.1016/j.caeo.2021.100053
  • Costello, A. B. y Osborne, J. (2005). Best practices in exploratory factor analysis: four recommendations for getting the most from your analysis. Practical Assessment Research & Evaluation, 10(7), 1-9. https://doi.org/10.7275/jyj1-4868
  • D’Angelo, C., Rutstein, D., Harris, C., Bernard, R., Borokhovski, E. y Haertel, G. (2014). Simulations for STEM learning: systematic review and meta-analysis. SRI Education, 58.
  • De Jong, T. y Van Joolingen, W. R. (1998). Scientific discovery learning with computer simulations of conceptual domains. Review of Educational Research, 68(2), 179-201. https://doi.org/10.3102/00346543068002179
  • Escobar, I. M. C. y Adames, C. P. (2008). Competencias docentes de profesores de pregrado: diseño y validación de un instrumento de evaluación. Universitas Psychologica, 7(2), 456-456. https://revistas.javeriana.edu.co/index.php/revPsycho/article/view/441
  • Fernández, M. J., Rodríguez, J. M. y Fernández, F. J. (2016). Evaluación de competencias docentes del profesorado para la detección de necesidades formativas. Bordón, Revista de Pedagogía, 68(2), 85-101. https://doi.org/10.13042/Bordon.2016.68206
  • Ferrando, P. J. y Anguiano-Carrasco, C. (2010). El análisis factorial como técnica de investigación en psicología. Papeles del Psicólogo, 31(1), 18-33.
  • Ferrari, A. (2013). DIGCOMP: a framework for developing and understanding digital competence in Europe. European Commission. Joint Research Centre. Institute for Prospective Technological Studies.
  • Flora, D. B., LaBrish, C. y Chalmers, R. P. (2012). Old and new ideas for data screening and assumption testing for exploratory and confirmatory factor analysis. Frontiers in Quantitative Psychology and Measurement, 3(55), 1-21. https://doi.org/10.3389/fpsyg.2012.00055
  • Forero, C. G., Maydeu-Olivares, A. y Gallardo-Pujol, D. (2009). Factor analysis with ordinal indicators: a Monte Carlo study comparing DWLS and ULS estimation. Structural Equation Modeling, 16, 625-641. https://doi.org/10.1080/10705510903203573
  • Gable, R. K. y Wolf, J. W. (1993). Instrument development in the affective domain: measuring attitudes and values in corporate and school settings. Kluwer Academic.
  • Geelan, D. y Fan, X. (2013). Enhancing students’ scientific literacy in science education using interactive simulations: a critical literature review. Journal of Computers in Mathematics and Science Teaching, 32, 125-171.
  • Gisbert, M., González, J. y Esteve, F. M. (2016). Competencia digital y competencia digital docente: una panorámica sobre el estado de la cuestión. Revista Interuniversitaria de Investigación en Tecnología Educativa, 0, 74-83. https://doi.org/10.6018/riite2016/257631
  • Gnesdilow, D. y Puntambekar, S. (2021). Comparing middle school students’ science explanations during physical and virtual laboratories. Journal of Science Education and Technology, 31(4), 191-202. https://doi.org/10.1007/s10956-021-09941-0
  • González, J. y Wagenaar, R. (2008). La contribución de las universidades al proceso de Bolonia. Una introducción a Tuning Educational Structures in Europe (edición española). Publicaciones de la Universidad de Deusto.
  • Grant, J. S. y Davis, L. L. (1997). Selection and use of content experts for instrument development. Research in Nursing & Health, 20, 269-274.
  • Hall, R., Atkins, L. y Fraser, J. (2014). Defining a self-evaluation digital literacy for secondary educators. The DigiLit Leicester Project. Research in Learning Technology, 22. https://doi.org/10.3402/rlt.v22.21440
  • Harada, A. S. (2021). La comunidad docente y las competencias digitales: la formación a lo largo de la vida. Revista Conhecimento Online, 1, 177-192. https://doi.org/10.25112/rco.v1i0.2400
  • Hutkemri, E. Z. (2014). Impact of using GeoGebra on students’ conceptual and procedural knowledge of limit function. Mediterranean Journal of Social Sciences, 5(23), 873-881. https://doi.org/10.5901/mjss.2014.v5n23p873
  • INTEF (2017). Marco de Competencia Digital. Ministerio de Educación, Ciencia y Deportes.
  • Jimoyiannis, A. (2010). Developing a technological pedagogical content knowledge framework for science education: implications of a teacher trainers’ preparation program. Proceedings of Informing Science & IT Education Conference (InSITE), 597-607.
  • Kelley, T. L. (1935). Essential traits of mental life. Harvard Studies in Education, vol. 26. Harvard University Press.
  • Koehler, M. J. y Mishra, P. (2008). Introducing technological pedagogical content knowledge. En A. E. R. Association (ed.), Annual Meeting of the American Educational Research Association.
  • Lee, Y. H., Waxman, H., Wu, J. Y., Michko, G. y Lin, G. (2013) Revisit the effect of teaching and learning with technology. Educ Technol Soc, 16(1), 133-146.
  • Lévy-Mangin, J. P., Varela-Mallou, J. y Abad-González, J. (2006). Modelización con estructuras de covarianzas en ciencias sociales: temas esenciales, avanzados y aportaciones especiales. Netbiblo.
  • Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A. y Tomás-Marco, I. (2014). El análisis factorial exploratorio de los ítems: una guía práctica, revisada y actualizada. Anales de Psicología, 30(3), 1151-1169. http://dx.doi.org/10.6018/analesps.30.3.199361
  • Lorenzo-Seva, U., Timmerman, M. E. y Kiers, H. A. L. (2011). The Hull method for selecting the number of common factors. Multivariate Behavioral Research, 46(2), 340-364. http://doi.org/10.1080/00273171.2011.564527
  • Lorenzo-Seva, U. y Ferrando, P. J. (2020). FACTOR (n.o de versión 10.10.03). Windows. Tarragona (Spain): Rovira i Virgili University. http://psico.fcep.urv.es/utilitats/factor
  • Menchaca, I., Dziabenko, O. y García, J. (2020). Experiencia española en el proyecto Go-Lab. Educar, 56(2), 387-405. https://doi.org/10.5565/rev/educar.1067
  • O’Dwyer, L. y Bernauer, J. (2014). Quantitative research for the qualitative researcher. SAGE Publications, Inc. https://doi.org/10.4135/9781506335674
  • Pelgrum, W. J. (2001). Obstacles to the integration of ICT in education: results from a worldwide educational assessment. Computers & Education, 37(2), 163-178. https://doi.org/10.1016/S0360-1315(01)00045-8
  • Perales-Palacios, F. J. y Aguilera, D. (2020). Ciencia-tecnología-sociedad vs. STEM: ¿evolución, revolución o disyunción? Ápice. Revista de Educación Científica, 4(1), 1-15. https://doi.org/10.17979/arec.2020.4.1.5826
  • Perkins, K., Moore, E., Podolefsky, N., Lancaster, K. y Denison, C. (2012). Towards research-based strategies for using PhET simulations in middle school physical science classes, AIP Conference Proceedings, 1413, 295-298. https://doi.org/10.1063/1.3680053
  • Prendes, M. P., Castañeda, L. y Gutiérrez, I. (2010). Competencias para el uso de TIC de los futuros maestros. Comunicar, 18(35), 175-182. https://doi.org/10.3916/C35-2010-03-11
  • Ramnarain, U., Pieters, A. y Wu, H. K. (2021). Assessing the technological pedagogical content knowledge of pre-service science teachers at a South African university. International Journal of Information and Communication Technology Education, 17(3), 123-136. https://doi.org/10.4018/ IJICTE.20210701.oa8
  • Rutten, N., Van Joolingen, W. R. y Van der Veen, J. T. (2012). The learning effects of computer simulations in science education. Computers and Education, 58(1), 136-153. https://doi.org/10.1016/j.compedu.2011.07.017
  • Sarramona, J. y Santiuste, V. (2015). La formación no presencial ante el reto de las competencias profesionales. Revista Española de Pedagogía, 73, 449-464.
  • Scalise, K., Timms, M., Moorjani, A., Clark, L., Holtermann, K. e Irvin, P. S. (2011). Student learning in science simulations: design features that promote learning gains. Journal of Research in Science Teaching, 48(9), 1050-1078. https://doi.org/10.1002/tea.20437
  • Schmidt, D., Baran, E., Thompson, A., Mishra, P., Koehler, M. y Shin, T. (2009). Technological pedagogical content knowledge (TPACK): the development and validation of an assessment instrument for preservice teachers. Journal of Research on Technology in Education, 42(2), 123-149. https://doi.org/10.1080/15391523.2009.10782544
  • Sierra, F. A. C. y Gutiérrez-Santiuste, E. (2021). Questionnaire on knowledge of university mathematics teachers for technological integration. Revista Fuentes, 2(23), 150-162. https://doi.org/10.12795/revistafuentes.2021.12792
  • Skjong, R. y Wentworth, B. (2000). Expert judgement and risk perception. http://research.dnv.com/skj/ Papers/SkjWen.pdf
  • Smetana, L. K. y Bell, R. L. (2012). Computer simulations to support science instruction and learning: a critical review of the literature. International Journal of Science Education, 34(9), 1337-1370. https://doi.org/10.1080/09500693.2011.605182
  • Smetana, L. K. y Bell, R. L. (2014). Which setting to choose: comparison of whole-class vs. smallgroup computer simulation use. Journal of Science Education and Technology, 23(4), 481-495. https://doi.org/10.1007/s10956-013-9479-z
  • Sypsas, A. y Kalles, D. (2018). Virtual laboratories in biology, biotechnology and chemistry education: a literature review. En N. Karanikolas y B. Mamalis (eds.), Proceedings of the 22nd Pan-Hellenic Conference on Informatics (PCI ‘18) (70-75). Association for Computing Machinery. https://doi.org/10.1145/3291533.3291560
  • Tabachnick, B. G. y Fidell, L. S. (2001). Using multivariate statistics. Al-lyn and Bacon.
  • Taquez, H., Rengifo, D. y Mejía, D. (2017). Diseño de un instrumento para evaluar el nivel de uso y apropiación de las TIC en una institución de educación superior. Portal Educativo de las Américas (OEA). https://recursos.educoas.org/publicaciones/dise-o-de-un-instrumento-para-evaluarel-nivel-de-uso-y-apropiaci-n-de-las-tic-en-una
  • Tourón, J., Martín, D., Navarro-Asensio, E., Pradas, S. e Íñigo, V. (2018). Validación de constructo de un instrumento para medir la competencia digital docente de los profesores (CDD) | Construct validation of a questionnaire to measure teachers’ digital competence (TDC). Revista Española de Pedagogía, 76(269), 25‑54. https://doi.org/10.22550/REP76‑1‑2018‑02
  • Wahyuni, I., Zaenuri, Wardono, Sukestiyarno, Y. L., Waluya, S. B., Nuriana y Aminah, N. (2021). Design of instrument Technological Pedagogic Content Knowledge (TPACK) for prospective mathematics teachers. Journal of Physics: Conference Series 1918(4). https://doi.org/10.1088/1742-6596/1918/4/042097
  • Waight, N., Liu, X., Gregorius, R. M., Smith, E. y Park, M. (2014) Teacher conceptions and approaches associated with an immersive instructional implementation of computer-based models and assessment in a secondary chemistry classroom. International Journal of Science Education, 36(3), 467-505, https://doi.org/10.1080/09500693.2013.787506