Please enable JavaScript.
Coggle requires JavaScript to display documents.
Cuadro sinóptico, REFERENCIAS, : - Coggle Diagram
Cuadro sinóptico
Fases y subfases enriquecidas :
La elaboración de un instrumento psicométrico requiere rigor teórico, trabajo en equipo, análisis estadístico. El proceso de elaboración del instrumento psicométrico se articula en cuatro grandes etapas (planificación teórica, construcción de ítems, validación del contenido y piloto y el análisis psicométrico y la estandarización) y subfases, que van desde definir el constructo con la máxima precisión hasta tener documentado en un manual el uso y la interpretación de resultados. A lo largo del proceso se alterna la actividad cualitativa (revisión bibliográfica, talleres con expertos/as, entrevistas cognitivas) y la actividad cuantitativa (análisis de ítems, análisis de la validez factorial, análisis de la consistencia interna), para garantizar la relevancia, la claridad y la fiabilidad del mismo en diversos contextos (Muñiz & Fonseca-Pedrero, 2019).
Resumen Ejecutivo
Fases y subfases enriquecidas
.
Planificación y fundamentación
1.1 Definición y operacionalización del constructo
Central: Acotar con precisión qué se mide (por ejemplo, “autoeficacia académica según Bandura”)
Secundaria: Revisar modelos teóricos, meta-análisis y marcos nomológicos existentes para identificar dimensiones y límites del constructo
Complementaria: Diseñar entrevistas cognitivas con sujetos de interés para conocer su interpretación de los términos clave (Willis, 2004
.
1.2 Especificaciones técnicas y logísticas
Central: Seleccionar tipo de escala (Likert, Guttman, formatos de rendimiento) según las características del constructo y la población
Secundaria: Decidir modo de aplicación (impreso, web, móvil), número aproximado de ítems y duración estimada
Complementaria: Asegurar permisos éticos (Comité de Ética/IRB) y planificar cronograma de recolección de datos
Generación y construcción de ítems
.
2.1 Elaboración de un banco amplio de ítems
Central: Crear 2–3 veces más ítems de los necesarios, cubriendo cada faceta identificada en 1.1
Secundaria: Redactar en lenguaje claro, evitando doble negación y sesgos culturales o de género
Complementaria: Incorporar ejemplos, ilustraciones o anclajes de frecuencia (“Siempre”, “A veces”) para homogeneizar respuestas
.
2.2 Depuración cualitativa de ítems
Central: Juzgar cada ítem según claridad, relevancia y representatividad de la dimensión que pretende medir
Secundaria: Someter a revisión por panel de expertos (6–10 especialistas) y calcular coeficientes de acuerdo (I-CVI)
Complementaria: Realizar pruebas cognitivas con 10–15 participantes para captar matices de comprensión y ajustar redacción
Validación de contenido y estudio piloto
3.1 Valoración de contenido
Central: Obtener juicio sistemático de expertos y revisar sugerencias de modificación o eliminación
Secundaria: Documentar cada cambio y su justificación en un protocolo de validación
Complementaria: Incorporar observaciones de población piloto sobre formato, tiempo y comodidad de uso
.
3.2 Prueba piloto
Central: Aplicar el instrumento a una muestra preliminar (n ≈ 50–100) representativa de la población final
Secundaria: Calcular estadísticos de ítem (dificultad, correlación ítem-test, índice de discriminación)
Complementaria: Evaluar la consistencia de las respuestas temporales (test–retest en 2 semanas) para conocer estabilidad
Análisis psicométrico y versión final
.
4.1 Estudio de confiabilidad
Central: Alfa de Cronbach e índices Omega para la consistencia interna de cada escala o subescala
Secundaria: Análisis de estabilidad temporal (coeficiente de correlación de Pearson o ICC)
Complementaria: Reportar error estándar de medición (SEM) para cada puntuación
.
4.2 Evidencias de validez
Central: Análisis factorial exploratorio (AFE) seguido de confirmatorio (AFC) para verificar la estructura dimensional
Secundaria: Comprobación de validez convergente y discriminante mediante correlaciones con instrumentos afines y contrastantes
Complementaria: Pruebas de invarianza factorial para asegurar equivalencia en subgrupos (género, edad, cultura)
.
4.3 Documentación y estandarización
Central: Redactar un manual completo: objetivos, población, procedimiento de aplicación, cálculo de puntuaciones y rangos normativos
Secundaria: Publicar datos normativos (percentiles, T-scores) basados en muestras representativas
Complementaria: Programar revisiones periódicas para actualizar ítems y normas en función de cambios contextuales
Limitaciones
Las limitaciones comunes en estudios incluyen la falta de representatividad de la muestra, que limita la validez externa y la estimación de parámetros poblacionales(dsp.facmed.unam.mx)
. También hay errores de medición, como el error aleatorio, que afecta la confiabilidad, y el error sistemático, que afecta la validez(dsp.facmed.unam.mx). Factores como la deseabilidad social y diferencias culturales pueden introducir sesgos. Muchos problemas provienen de un uso inadecuado del test, no solo del diseño del instrumento
(papelesdelpsicologo.es). Otras limitaciones incluyen tamaños muestrales insuficientes y suposiciones estadísticas no cumplidas(papelesdelpsicologo.es). Estos aspectos deben considerarse al interpretar resultados de análisis psicométrico.
Planificación Teórica
En la planificación teórica, es importante definir el constructo y revisar la bibliografía relevante. Al crear ítems, deben ser breves, claros y apropiados para la población objetivo. Se aconseja que expertos evalúen la claridad y adecuación del lenguaje. Antes de aplicar el instrumento en gran escala, se debe probar con una muestra piloto para corregir problemas.
(researchgate.net) Finalmente, es fundamental analizar la fiabilidad y validez del instrumento con técnicas apropiadas y un tamaño muestral adecuado.
REFERENCIAS
.
Muñiz, J., & Fonseca-Pedrero, E. (2019). Diez pasos para la construcción de un test. Psicothema, 31(1), 7–16.
DeVellis, R. F. (2017). Scale Development: Theory and Applications (4th ed.). SAGE Publications.
Clark, L. A., & Watson, D. (1995). Constructing validity: Basic issues in objective scale development. Psychological Assessment, 7(3), 309–319.
Willis, G. B. (2004). Cognitive Interviewing: A Tool for Improving Questionnaire Design. SAGE Publications.
Boateng, G. O., Neilands, T. B., Frongillo, E. A., Melgar-Quiñónez, H. R., & Young, S. L. (2018). Best practices for developing and validating scales for health, social, and behavioral research: A primer. Frontiers in Public Health, 6, 149.
Clark, L. A., & Watson, D. (2019). Constructing validity: New developments in creating objective scale measures. Annual Review of Clinical Psychology, 15, 1–25.
Boateng, G. O., et al. (2022). Development and psychometric evaluation of an instrument to assess… International Nursing Review.
https://doi.org/10.1186/s12912-022-00957-4
Gordon B. Willis. (2011). Cognitive Interviewing [Training Manual Working Paper #7]. National Center for Health Statistics.
.
Muñiz, J., & Fonseca-Pedrero, E. (2008). Construcción de instrumentos de medida en Psicología. Editorial Pirámide.
Dorans, N. J., & Cook, L. L. (2016). Item response theory models in psychological measurement. Annual Review of Psychology, 69, 568–595.
Henson, R. K., & Roberts, J. K. (2006). Use of exploratory factor analysis in published research: Common errors and some comment on improved practice. Educational and Psychological Measurement, 66(3), 393–416.
Streiner, D. L., & Norman, G. R. (2008). Health Measurement Scales: A Practical Guide to Their Development and Use (4th ed.). Oxford University Press.
American Educational Research Association, American Psychological Association, & National Council on Measurement in Education. (2014). Standards for educational and psychological testing. American Educational Research Association.
International Test Commission. (2015). ITC guidelines for computer-based and internet-delivered testing.
https://www.intestcom.org/files/guideline_itc_guidelines_for_computer-based_and_internet-delivered_testing.pdf
Muñiz, J., & Fonseca-Pedrero, E. (2019). Construcción de tests en las ciencias sociales y de la salud (2.ª ed.). Editorial Pirámide.
Willis, G. B. (2004). Cognitive interviewing: A tool for improving questionnaire design. SAGE Publications.
Gómez-Benito, J., Hidalgo, M. D., & Zumbo, B. D. (2017). Assessing differential item functioning: A comparison between the Mantel–Haenszel and logistic regression procedures. Psicothema, 29(4), 499–505.
https://doi.org/10.7334/psicothema2016.256
Hambleton, R. K., Swaminathan, H., & Rogers, H. J. (1991). Fundamentals of item response theory. SAGE Publications
: