Una plataforma virtual para la evaluación e investigación on-lineMenPas

  1. Sergio Luis González-Ruiz 1
  2. Rocío Dominguez Alfonso 2
  3. Encarnación Chica Merino 3
  4. José Luis Pastrana Brincones 2
  5. Antonio Hernández Mendo 2
  1. 1 Junta de Andalucía
    info

    Junta de Andalucía

    Sevilla, España

    ROR https://ror.org/01jem9c82

  2. 2 Universidad de Málaga
    info

    Universidad de Málaga

    Málaga, España

    ROR https://ror.org/036b2ww28

  3. 3 Universidad de Cádiz
    info

    Universidad de Cádiz

    Cádiz, España

    ROR https://ror.org/04mxxkb11

Revista:
Cuadernos de psicología del deporte

ISSN: 1578-8423 1989-5879

Año de publicación: 2018

Volumen: 18

Número: 3

Páginas: 32-54

Tipo: Artículo

Otras publicaciones en: Cuadernos de psicología del deporte

Resumen

El desarrollo de una sociedad cada vez más tecnológica y unos ciudadanos con mayor necesidad de interactuar a través de las TIC (Tecnologías de la Información y la Comunicación) está llevando a la comunidad científica a replantearse la forma de gestionar su trabajo y los medios para acceder a la investigación y a los sujetos investigados. Desde este planteamiento, el uso de plataformas virtuales para la evaluación e investigación facilita tanto el acceso de los individuos como la labor de los investigadores. En este documento presentamos la plataforma de Evaluación Psicosocial “MenPas”, desarrollada especialmente para el campo de la Psicología del Deporte aunque abierta a otras disciplinas, en la que se desarrollan evaluaciones e investigaciones relativas a los diferentes cuestionarios y aplicaciones implementadas en la misma. A modo de ejemplo se utilizan datos descriptivos relativos a tres de los cuestionarios disponibles en la plataforma (IPSETA, IPED, PID) con la intención de establecer posibles diferencias significativas en función del tipo de evaluación administrada a los participantes (anónima vs. identificada).

Referencias bibliográficas

  • 1. Alvarado, J. M. y Santiesteban, C. (2006). La validez en la medición psicológica. Madrid: UNED.
  • 2. American Psychologist Association (APA) (1992). Ethical principles of psychologists and code of conduct. American psychologist, 47, 1597-1411. https://doi.org/10.1037/0003-066X.47.12.1597
  • 3. Anguera, Mª T., Camerino, O., Castañer, M. y Sánchez-Algarra, P. (2014): Mixed methods en la investigación de la actividad física y el deporte. Revista de Psicología del Deporte, 23 (1), 123-130.
  • 4. Area, M. (2010). El proceso de integración y uso pedagógico de las TIC en los centros educativos. Un estudio de casos. Revista de educación, 352, 77-97.
  • 5. Baena, A., Fuster, H., Carbonell, X. y Oberst, U. (2010). Retos metodológicos de la investigación psicológica a distancia. Aloma: Revista de Psicología, 26, 137-156.
  • 6. Bejar, I. I. (1985). Speculations on the future of test design. En Embrestson, S. E. (Ed.), Test Design: Developments in Psychology and Psychometics (279- 294). Nueva York: Academic Press. https://doi.org/10.1016/B978-0-12-238180-5.50014-8
  • 7. Bermejo, A. (2001). Valoración y aplicación de la terapia psicológica vía Internet. Psiquiatria. com, 5(3). Recuperado de: http://psiqu.com/2-1616
  • 8. Berrocal, E. y Megías, S. (2016) Indicadores de calidad para la evaluación de plataformas virtuales. Textos. Revista Internacional de aprendizaje y cibersociedad, 19 (2), 105-118.
  • 9. Betsch, C. (2004). Preference for Intuition and Deliberation (PID): An inventory for assessing affect and cognition based decision-making. Zeitschrift für Differentielle und Diagnostische Psychologie, 25, 179-197. https://doi.org/10.1024/0170-1789.25.4.179
  • 10. Birnbaum, M. H. (1999). Testing critical properties of decision making on the Internet. Psychological Science, 10, 399-407. https://doi.org/10.1111/1467- 9280.00176
  • 11. Birnbaum, M. H. (2004). Human research and data collection via the Internet. Annu. Rev. Psychol., 55, 803-832. https://doi.org/10.1146/annurev.psych.55.090902.141 601
  • 12. Birnbaum, M. H., & Wakcher, S. V. (2002). Webbased experiments controlled by JavaScript: An example from probability learning. Behavior Research Methods, Instruments, & Computers, 34, 189-199. https://doi.org/10.3758/BF03195442
  • 13. Booth-Kewley, S., Larson, G. E. y Miyoshi, D. K. (2007). Social desirability effects on computerized and paper-and-pencil questionnaires. Computers in Human Behavior, 23(1), 463-477. https://doi.org/10.1016/j.chb.2004.10.020
  • 14. Buchanan, T., & Smith, J. L. (1999). Using the Internet for psychological research: Personality testing on the World Wide Web. British Journal of Psychology, 90, 125-144. https://doi.org/10.1348/000712699161189
  • 15. Cabañeros, J., García, C. y Lozano, L. (2003). Efecto de la deseabilidad social en preguntas sobre temas comprometidos. Ponencia presentada en Xl Conferencia Española de Biometría, La Coruña.
  • 16. Carlbring, P., Brunt, S., Bohman, S., Austin, D., Richards, J., Öst, L.-G. y Andersson, G. (2007). Internet vs. paper and pencil administration of questionnaires commonly used in panic/agoraphobia research. Computers in Human Behavior, 23(3), 1421- 1434. https://doi.org/10.1016/j.chb.2005.05.002
  • 17. C.D. Estatal y C.O. de Psicólogos (2007). Ética y deontología para psicólogos. Madrid: Colegio Oficial de Psicólogos.
  • 18. Coll, C. (2008). Psicología de la educación virtual: aprender y enseñar con las tecnologías de la información y la comunicación. Madrid: Ediciones Morata.
  • 19. Coll, C. y Monereo, C. (2008). Educación y aprendizaje en el siglo XXI: Nuevas herramientas, nuevos escenarios, nuevas finalidades. En Coll, C. y Monereo, C. (Eds.), Psicología de la educación virtual. Enseñar y aprender con las Tecnologías de la información y la comunicación (19-53). Madrid: Ediciones Morata.
  • 20. Coq, D. y Asián, R. (2002). Estudio de la “deseabilidad social” en una investigación mediante encuestas a empresarios andaluces. Metodología de encuestas, 4(2), 211-225.
  • 21. Cox, R. H. (2008). Psicología del deporte: Conceptos y sus aplicaciones. Madrid: Editorial Médica Panamericana.
  • 22. Crowne, D. P. y Marlowe, D. (1960). A new scale of social desirability independent of psychopathology. Journal of Consulting Psychology, 24(4), 349-354. https://doi.org/10.1037/h0047358
  • 23. Chillida, J. R. (2013). ¿Hay brecha digital en los hogares españoles?: Banda Ancha. Telos: Cuadernos de comunicación e innovación, 94, 6-8.
  • 24. Christian, L. M., Dillman, D. A. y Smyth, J. D. (2008). The effects of mode and format on answers to scalar questions in telephone and web surveys. Advances in telephone survey methodology, 12, 250- 275.
  • 25. Dandurand, F., Shultz, T. R. y Onishi, K. H. (2008). Comparing online and lab methods in a problemsolving experiment. Behavior Research Methods, 40, 428-434. https://doi.org/10.3758/BRM.40.2.428
  • 26. De Marchis, G. (2012). Lo que sabemos sobre la validez de las encuestas realizadas a través de la web. En Requeijo, P. y Díaz-Cuesta, J. (coord.) Innovar en el EEES a través de la investigación (267-286). Madrid: Vision Libros.
  • 27. Del Río, C. (2009). La docencia de la ética profesional en los estudios de psicología en España. Papeles del psicólogo, 30(3), 210-219.
  • 28. Díaz de Rada, V. (2011). Encuestas con encuestador y autoadministradas por internet.¿ Proporcionan resultados comparables? Reis, 136, 49-90. https://doi.org/10.5477/cis/reis.136.49
  • 29. Díaz de Rada, V. (2012). Ventajas e inconvenientes de la encuesta por Internet. Papers: Revista de Sociología, 97 (1), 193-223. https://doi.org/10.5565/rev/papers/v97n1.71
  • 30. Dillman, D. A. y Bowker, D. K. (2001). The web questionnaire challenge to survey methodologists. En Batinic, B.; Reips, U.; Bosnjak , M. y Werner, A.: Online Social Sciences (53-71) Seattle: Hogrefe & Huber,
  • 31. Dodou, D. y De Winter, J. (2014). Social desirability is the same in offline, online, and paper surveys: A meta-analysis. Computers in Human Behavior, 36, 487-495. https://doi.org/10.1016/j.chb.2014.04.005
  • 32. Edwards, A. L. (1957). The social desirability variable in personality assessment and research. Texas: Dryden Press.
  • 33. Estalella, A., y Ardévol, E. (2011). e-research: desafíos y oportunidades para las ciencias sociales. Convergencia, 18(55), 87-111.
  • 34. Esteve, F. (2009). Bolonia y las TIC: de la docencia 1.0 al aprendizaje 2.0. La cuestión universitaria, 5, 59-68.
  • 35. Eysenck, H. J., & Eysenck, S. B. G. (1964). Manual of the Eysenck Personality Inventory. London: Univer. of London.
  • 36. Fernández-Ballesteros, R. (2014). Evaluación psicológica. Madrid: Ediciones Pirámide.
  • 37. Fernández-Ballesteros, R., y Macià Antón, A. (2007). Garantías científicas y éticas de la evaluación psicológica. En Fernández-Ballesteros (Ed.), Evaluación psicológica, métodos y estudio de casos. (121-160). Madrid: Pirámide.
  • 38. Freire, J. (2007). Los retos y oportunidades de la web 2.0 para las universidades. En Jiménez, R. y Polo, F. (Ed.), La Gran Guía de los Blogs 2008 (82-90). Barcelona: El Cobre Ediciones.
  • 39. Fricker, R. D. y Schonlau, M. (2002). Advantages and disadvantages of Internet research surveys: Evidence from the literature. Field methods, 14 (4), 347-367. https://doi.org/10.1177/152582202237725
  • 40. Fundación Telefónica (2014). La Sociedad de la Información en España 2013: siE[13. Barcelona: Ariel.
  • 41. Ganassali, S. (2008). The influence of the design of web survey questionnaires on the quality of responses. Survey Research Methods, 1 (2), 21-32.
  • 42. García-Marchena, S. (2005). Estandarización de la prueba para evaluar talentos deportivos IPSETA. Artículo no publicado.
  • 43. George, D. y Mallery, P. (2003). Reliability analysis. SPSS for Windows, step by step: a simple guide and reference, 14th edn. Boston: Allyn & Bacon, 222-232.
  • 44. Germine, L., Nakayama, K., Duchaine, B. C., Chabris, C. F., Chatterjee, G. y Wilmer, J. B. (2012). Is the Web as good as the lab? Comparable performance from Web and lab in cognitive/perceptual experiments. Psychonomic bulletin & review, 19(5), 847-857. https://doi.org/10.3758/s13423-012-0296-9
  • 45. González-Ruiz, S.L., Hernández-Mendo, A., y Pastrana, J. L. (2010). Herramienta software para la evaluación psicosocial de deportistas y entornos deportivos. Lecturas: EF y Deportes. Revista Digital, 15 (144). Recuperado de http://www.efdeportes.com/efd144/evaluacionpsicosocial-de-deportistas.htm
  • 46. González-Ruiz, S. L., Gómez-Gallego, I., Pastrana Brincones, J. L. y Hernández-Mendo, A. (2015). Algoritmos de clasificación y redes neuronales en la observación automatizada de registros. Cuadernos de Psicología del Deporte, 15(1), 31-40. https://doi.org/10.4321/S1578-84232015000100003
  • 47. Gosling, S. D., Vazire, S., Srivastava, S. y John, O. P. (2004). Should we trust web-based studies? A comparative analysis of six preconceptions about internet questionnaires. American psychologist, 59(2), 93-104. https://doi.org/10.1037/0003-066X.59.2.93
  • 48. Gunn, H. (2002). Web-based surveys: Changing the survey process. First Monday, 7 (12). https://doi.org/10.5210/fm.v7i12.1014
  • 49. Hathaway, S. R. y McKinley, J. C. (1990). Minnesota multiphasic personality inventory (MMPI). Gender roles: a handbook of tests and measures, 41 (4), 142.
  • 50. Hewstone, M., Stroebe, W. y Jonas, K. (Eds.) (2012). An Introduction to Social Psychology. Leicester: BPS Blackwell.
  • 51. Hernández-Mendo, A.; Fernández de Motta, M. M. y Raimundi, M. J. (2017) Un cuestionario para evaluar los canales de comunicación. Revista Iberoamericana de Psicología del Ejercicio y el Deporte, 12 (1), 33-41
  • 52. Hernández-Mendo, A., Castellano, J., Camerino, O., Jonsson, G., Blanco-Villaseñor, A., Lopes, A. y Anguera, Mª T. (2014) Programas informáticos de registro, control de calidad del dato y análisis de datos. Revista de Psicología del Deporte, 23 (1), 111- 121.
  • 53. Hernández-Mendo, A.; Morales-Sánchez, V. y González-Ruiz, S.L. (2012) Gestión de la calidad a través de la plataforma MEMPAS. Cuadernos de psicología del deporte, 12 (1), 147-150. https://doi.org/10.4321/S1578-84232012000100015
  • 54. Hogg, M. A., Graha, M. H., Vaughan, G. M. y Morando, M. H. (2010). Psicología social. Madrid: Editorial Médica Panamericana.
  • 55. Hopkins, D. (1989). Investigación en el aula: Guía del profesor: Barcelona: Promociones y Publicaciones Universitarias, PPU.
  • 56. Instituto Nacional de Estadística (2017) Encuesta sobre equipamiento y uso de tecnologias de la información y comunicación en los hogares. Recuperado de http://www.ine.es/prensa/tich_2017.pdf
  • 57. Jackob, N. y Zerback, T. (2006). Improving quality by lowering non-response–a guideline for online surveys. Conferencia presentada en WAPOR-Seminar “Quality Criteria in Survey Research VI" Recuperado de: https://www.researchgate.net/publication/274372217_ Improving_Quality_by_Lowering_Non-Response_- _A_Guideline_for_OnlineSurveys_Paper_presented_on_the_the_WAPORSeminar_Quality_Criteria_in_Survey_Research_VI_C adenabbia_Italy_June_29-_July_1_2006_mit_Th
  • 58. Kays, K., Gathercoal, K. y Buhrow, W. (2012). Does survey format influence self-disclosure on sensitive question items? Computers in Human Behavior, 28(1), 251-256. https://doi.org/10.1016/j.chb.2011.09.007
  • 59. Koo, M. y Skinner, H. (2005). Challenges of internet recruitment: a case study with disappointing results. Journal of Medical Internet Research, 7(1). https://doi.org/10.2196/jmir.7.1.e6
  • 60. Kraut, R., Olson, J., Banaji, M., Bruckman, A., Cohen, J. y Couper, M. (2004). Psychological research online: report of Board of Scientific Affairs' Advisory Group on the Conduct of Research on the Internet. American psychologist, 59(2), 105. https://doi.org/10.1037/0003-066X.59.2.105
  • 61. Kreuter, F., Presser, S. y Tourangeau, R. (2008). Social desirability bias in CATI, IVR, and Web surveys the effects of mode and question sensitivity. Public Opinion Quarterly, 72(5), 847-865. https://doi.org/10.1093/poq/nfn063
  • 62. Lackerbauer, I. (2001). Internet. España: Marcombo.
  • 63. Lacherez, P. (2008). The internal validity of webbased studies. Empirical Musicology Review, 3(3), 161-162. https://doi.org/10.18061/1811/34107
  • 64. Laporte, J.-R. y Vallvé, C. (2001). Principios básicos de investigación clínica. Barcelona: AstraZeneca.
  • 65. Larkins, E. R., Hume, E. C. y Garcha, B. S. (2011). The validity of the randomized response method in tax ethics research. Journal of Applied Business Research (JABR), 13(3), 25-32. https://doi.org/10.19030/jabr.v13i3.5749
  • 66. Lelkes, Y., Krosnick, J. A., Marx, D. M., Judd, C. M. y Park, B. (2012). Complete anonymity compromises the accuracy of self-reports. Journal of Experimental Social Psychology, 6(48), 1291-1299. https://doi.org/10.1016/j.jesp.2012.07.002
  • 67. López, F. L., Izquierdo, M. G. y Currás, M. B. (2009). El uso de Internet en España: Influencia de factores regionales y socio-demográficos. Investigaciones regionales(16), 93-115.
  • 68. Lozzia, G. S., Abal, F. J. P., Blum, G. D., Aguerri, M. E., Galibert, M. S. y Attorresi, H. F. (2013). Tests Informatizados. Nuevos desafíos prácticos y éticos para la Evaluación Psicológica. Summa Psicológica, 6(1), 135-148.
  • 69. Lusar, A. C. (2011). Ética del psicólogo (Vol. 77): Editorial UOC.
  • 70. Manzini, J. L. (2000). Declaración de Helsinki: Principios éticos para la investigación médica sobre sujetos humanos. Acta bioethica, 6(2), 321-334. https://doi.org/10.4067/S1726-569X2000000200010
  • 71. Martin, W. (2008). Psicología experimental: cómo hacer experimentos en psicología: Cengage Learning Editores.
  • 72. Martínez, F. y Prendes, M. P. (2004). Nuevas tecnologías y educación. Madrid: Pearson Educación.
  • 73. McGraw, K. O., Tew, M. D. y Williams, J. E. (2000). The integrity of web-delivered experiments: Can you trust the data? Psychological Science, 11, 502-506. https://doi.org/10.1111/1467-9280.00296
  • 74. Mühlenfeld, H.-U. (2005). Differences betweentalking about'andadmitting'sensitive behaviour in anonymous and non-anonymous web-based interviews. Computers in Human Behavior, 21(6), 993-1003. https://doi.org/10.1016/j.chb.2004.02.023
  • 75. Muñiz, J. (1997). Aspectos éticos y deontológicos de la evaluación psicológica. Evaluación psicológica en el año 2000, 307-345.
  • 76. Muñiz, J. y Fernández-Hermida, J. R. (2010). La opinión de los psicólogos españoles sobre el uso de los tests. Papeles del psicólogo, 31(1), 108-121.
  • 77. Musch, J., Bröder, A. y Klauer, K. C. (2001). Improving survey research on the World-Wide Web using the randomized response technique. Dimensions of Internet science, 179-192.
  • 78. ONTSI. Observatorio nacional de las telecomunicaciones y la sociedad de la información (2014). La sociedad en red. Informa anual 2013. Madrid: Ministerio de industria, energía y turismo.
  • 79. Pérez, M. J., Labiano, M. y Brusasca, C. (2010). Escala de Deseabilidad Social: Análisis psicométrico en muestra argentina. Revista Evaluar, 10, 53-67.
  • 80. Prensky, M. (2001) Digital natives, digital inmigrants. On the Horizon (9), 5, 1-6. Recuperado de: https://bit.ly/2ySL1ib
  • 81. Prieto, G., Carro, J., Orgaz, B., Pulido, R. F. y Gonzáles-Tablas, M. (1993). Uso del Hypercard para la construcción de tests informatizados de aptitudes espaciales. Psicológica, 14, 229-237.
  • 82. Raimundi, M.J. y Hernández Mendo, A. (2013). Características psicológicas y rendimiento en deportistas argentinos: diferencias por género y nivel competitivo. XIV Congreso Internacional sobre la Psicología del deporte. Recuperado de: http://altorendimiento.com/caracteristicaspsicologicas-y-rendimiento-en-deportistas-argentinosdiferencias-por-genero-y-nivel-competitivo/
  • 83. Raimundi, M. J. (2012). Plataforma de evaluación psicosocial on-line MenPas. Avances de la Psicología del Deporte en Iberoamerica, 2(1), 63-64.
  • 84. Raimundi, M. J., Reigal, R. y Hernández Mendo, A. (2015). Adaptación argentina del Inventario Psicológico de Ejecución Deportiva (IPED): Validez, fiabilidad y precisión. Cuadernos de Psicología del Deporte, 16 (1), 211-222
  • 85. Reis, H.T, y Gosling, S. D. (2010) Social psychological methods outside the laboratory. En Handbook of social psychology (vol.1) New Jersey: John Wiley & sons, Inc. https://doi.org/10.1002/9780470561119.socpsy001003
  • 86. Renom, J. (1993). Tests adaptativos computerizados. En M. Forns y M.T. Anguera (Eds.), Aportaciones recientes a la evaluación psicológica. Barcelona: PPU.
  • 87. Risso, A. (2001). ¿ Experimentos psicológicos a través de Internet? Anuario de psicología, 32(2), 109- 116.
  • 88. Romero., C. a. (2013). Data mining in education. WIREs Data Mining Knowl Discov, 12-27. https://doi.org/10.1002/widm.1075
  • 89. Sádaba, C. (2010). El Perfil del Usuario de Internet en España Spanish Internet User Profile. Intervención psicosocial, 19(1), 41-55. https://doi.org/10.5093/in2010v19n1a6
  • 90. Salgado, J. F. (2005). Personalidad y deseabilidad social en contextos organizacionales: implicaciones para la práctica de la psicología del trabajo y las organizaciones. Papeles del psicólogo(92), 115-128.
  • 91. Sanmartin, J. y Algarabel, S. (1990). El laboratorio computarizado de experimentación psicológica. En Sanmartín, J. y Algarabel, S. (Eds.), Métodos informáticos aplicados a la psicología (pp. 385-421). Madrid: Pirámide.
  • 92. Smith, P. K. (2007). Investigaciones sobre "bullying en los centros educativos": los primeros 25 años. En Yubero, S. Larrañaga, E, y Blanco, A. (Eds.), Convivir con la violencia: un análisis desde la psicología y la educación de la violencia en nuestra sociedad (pp. 272). Cuenca: Ediciones de la Universidad de Castilla-La Mancha.
  • 93. Steyvers, M., Tenenbaum, J. B., Wagenmakers, E. -J., & Blum, B. (2003). Inferring causal networks from observations and interventions. Cognitive Science, 27, 453-489. https://doi.org/10.1207/s15516709cog2703_6
  • 94. Stieger, S. y Reips, U. D. (2010). What are participants doing while flling in an on-line questionnaire: A paradata collection tool and an empirical study. Computers in Human Behavior, 26(6), 1488-1495. https://doi.org/10.1016/j.chb.2010.05.013
  • 95. Suárez, J., Pedrosa, I., Pérez, B. y García-Cueto, E. (2010). El anonimato, la respuesta aleatoria e Internet como control de la deseabilidad social en contenidos sexuales. Revista de Investigación para Alumnos de Psicología y Logopedia, 4, 3-14.
  • 96. Tourangeau, R. (2004). Survey research and societal change. Annu. Rev. Psychol., 55, 775-801. https://doi.org/10.1146/annurev.psych.55.090902.142 040
  • 97. Truell, A. D.. (2003). Use of Internet Tools for Survey Research. Information Technology, Learning, and Performance Journal, 21(1), 31-36.
  • 98. Uceda, J. y Barro, S. (2008). Las TIC en el Sistema Universitario Español: UNIVERSITIC 2008. Madrid: Conferencia de Rectores de las Universidades Españolas. CRUE.
  • 99. Vallejo, M. A., Jordán, C. M., Díaz, M. I., Comeche, M. I. y Ortega, J. (2007). Psychological assessment via the internet: a reliability and validity study of online (vs paper-and-pencil) versions of the General Health Questionnaire-28 (GHQ-28) and the Symptoms Check-List-90-Revised (SCL-90-R). Journal of Medical Internet Research, 9(1). https://doi.org/10.2196/jmir.9.1.e2
  • 100.Vázquez, A. S. y Rodríguez, N. G. (2008). Actitud de los consumidores hacia las encuestas on-line. Estudios sobre consumo, 84, 9-17.
  • 101.Warner, S. L. (1965). Randomized response: A survey technique for eliminating evasive answer bias. Journal of the American Statistical Association, 60(309), 63- 69. https://doi.org/10.1080/01621459.1965.10480775
  • 102.Wood, R. T., Griffiths, M. D. y Eatough, V. (2004). Online data collection from video game players: Methodological issues. CyberPsychology & Behavior, 7(5), 511-518. https://doi.org/10.1089/cpb.2004.7.511
  • 103. Morales, P. (1988). Medición de actitudes en psicología y educación: construcción de escalas y problemas metodológicos. Madrid: Universidad de Comillas.