Please enable JavaScript.
Coggle requires JavaScript to display documents.
Teorie e tecniche 2 - Coggle Diagram
Teorie e tecniche 2
34. difficoltà dell'item
📌 Definizione
- Misura quanto è facile o difficile un item.
- Indicata con la lettera p.
🧮 Come si calcola
- Formula:
p= nuemro di risposte corrette/ numero totale di risposte
- Valori possibili: da 0 a 1
- p = 0 → nessuno risponde correttamente → item troppo difficile
- p = 1 → tutti rispondono correttamente → item troppo facile
✅ Valori ottimali
- Ideale: p ≈ 0,50
- Migliore capacità di discriminazione
- Accettabile: p compreso tra 0,20 e 0,80
- Evitare:
- p < 0,20 → troppo difficile
- p > 0,80 → troppo facile
(salvo casi specifici, es. motivazione o misurazione di livelli estremi)
35. l’indice di correlazione item-totale corretta
- Cos’è: Misura la coerenza tra un singolo item e il punteggio totale del test, escludendo il contributo di quell’item per evitare autocorrelazioni spurie.
- Cosa esprime: Quanto l’item è allineato con il costrutto globale misurato dal test.
- Come si calcola: È un coefficiente di correlazione tra le risposte all’item e la somma dei punteggi degli altri item.
- Per item dicotomici si usa la correlazione punto-biseriale.
- Interpretazione:
- Valore alto → item ben integrato e discriminativo, contribuisce positivamente alla misura complessiva.
- Valore basso → item poco rappresentativo, potenzialmente problematico, da rivedere o eliminare.
18. discriminatività e l’indice di discriminatività nei test di prestazione massima
- Cos’è la discriminatività: La capacità di un item di differenziare tra soggetti con livelli alti e bassi del costrutto misurato. Un item discriminativo è risposto correttamente principalmente da chi ha abilità elevate e meno da chi ha abilità basse.
- Come si calcola l’indice di discriminatività:
- Si divide il campione in due gruppi: il 27% con i punteggi più alti e il 27% con i punteggi più bassi
- Si calcola la proporzione di risposte corrette per ciascun item in entrambi i gruppi:
- 𝑃alto= proporzione di risposte corrette nel gruppo alto
- Pbasso= proporzione di risposte corrette nel gruppo basso
Si calcola l’indice:
D=Palto-Pbasso
- Interpretazione:
- valori di D vicini a 1 → ottima discriminatività
- Valori prossimi a 0 o negativi → item poco discriminativo o inversamente discriminativo
36. correlazione item-totale corretta nei test di prestazione massima
- Definizione: La correlazione item-totale corretta misura quanto le risposte a un singolo item siano associate al punteggio totale del test, escludendo il contributo dello stesso item per evitare autocorrelazioni artificiali. Serve a valutare la coerenza dell’item con il costrutto globale misurato dal test.
- Come si calcola:
- Per ogni soggetto si sommano le risposte corrette di tutti gli item tranne quello in esame.
- Si calcola il coefficiente di correlazione tra:
- le risposte dicotomiche dell’item (0 = errato, 1 = corretto),
- il punteggio totale parziale (escluso l’item).
- Se l’item è dicotomico si usa il coefficiente punto-biseriale; per item a punteggi scalari si usa Pearson
- Interpretazione: Valori variano da -1 a +1.
- Valori > 0,30 sono considerati generalmente accettabili.
- Valori negativi indicano possibili problemi di incoerenza o scoring errato dell’item.
37. ridondanza negli item
- Definizione: La ridondanza si verifica quando due item misurano in modo molto simile lo stesso aspetto del costrutto, fornendo informazioni sovrapposte che non migliorano la precisione della scala ma ne aumentano inutilmente la lunghezza.
- Come si misura: Si calcola la correlazione interitem:
- coefficiente punto-biseriale per item dicotomici;
- coefficiente di Pearson per item con punteggi scalari.
- Valori di correlazione elevati (≥ 0,70) indicano ridondanza.
- Cosa fare se due item sono ridondanti:
- Valutare il contenuto per capire se la sovrapposizione è giustificata;
- Se non giustificata, scegliere l’item più valido (chiarezza, psicometria, rilevanza teorica) e eliminare l’altro;
- Oppure riformulare uno degli item per coprire un aspetto diverso del costrutto e ridurre la sovrapposizione.
39. caso valido e motivi per la presenza di casi non validi all’interno del database
- Caso valido: È un’osservazione (cioè la riga di dati di un singolo soggetto) in cui tutti i dati richiesti sono presenti, correttamente codificati e rientrano nei valori o categorie attesi, senza errori, incoerenze o valori fuori scala.
- Motivi della presenza di casi non validi:
- Dati mancanti: risposte non compilate o problemi tecnici durante la raccolta dati.
- Errori di immissione: valori fuori range o errori di digitazione.
- Incoerenze: risposte contraddittorie o tempi di compilazione troppo brevi (speeders).
- Duplicazioni: stessi soggetti registrati più volte.
- Risposte inattendibili: risposte monotone o casuali che non seguono le istruzioni.
- Il data cleaning serve a identificare e gestire questi casi per garantire l’affidabilità delle analisi.
38. Missing Completely at Random (MCAR) vs Missing at Random (MAR)
- MCAR (Missing Completely at Random):
- La probabilità che un dato sia mancante è completamente indipendente sia dalla variabile stessa che da qualsiasi altra variabile nel dataset, osservata o meno. La mancanza è casuale senza alcuna relazione con i dati.
- Esempio: Perdita casuale di risposte dovuta a un guasto tecnico senza correlazione con i contenuti o caratteristiche dei soggetti.
- MAR (Missing at Random):
- La probabilità di dati mancanti dipende da altre variabili osservate, ma non dal valore della variabile mancante stessa. Dopo aver considerato queste variabili, la mancanza è casuale rispetto alla variabile mancante.
- Esempio: In un questionario sull’ansia, i soggetti più anziani saltano item complessi; la mancanza dipende dall’età, non dall’ansia.
- Differenza principale:
- MCAR: mancanza totalmente casuale, senza legami con dati; analisi su dati completi è non distorta.
- MAR: mancanza condizionata da variabili note; richiede controllo o imputazione per evitare bias.
38. Missing Not at Random (MNAR) vs Missing Completely at Random (MCAR)
- MNAR (Missing Not at Random):
- La probabilità che un dato sia mancante dipende dal valore stesso della variabile mancante, anche dopo aver considerato tutte le altre variabili osservate. In pratica, il valore mancante influenza la sua stessa assenza.
- Esempio: In un’indagine sulla depressione, chi ha livelli molto alti di depressione può evitare di rispondere ad alcuni item per vergogna o paura, quindi la mancanza aumenta con l’aumentare della gravità.
- Differenza rispetto a MCAR:
- Nel MCAR, la mancanza è totalmente casuale e indipendente da qualsiasi valore nel dataset.
- Nel MNAR, la mancanza è non ignorabile perché dipende dal valore mancante stesso, rendendo l’analisi e la gestione dei dati molto più complesse. Non basta usare metodi di imputazione standard; spesso sono necessari modelli specifici che tengano conto del meccanismo di mancata osservazione (es. modelli di selezione o pattern-mixture).
40. 2 statistiche descrittive nell’analisi preliminare dei test di prestazione tipica
- Media (µ)
- È la somma dei punteggi divisa per il numero di rispondenti.
- Indica il “centro” della distribuzione dei punteggi, cioè il valore medio intorno al quale si concentrano le risposte.
- Utile per capire la tendenza generale delle risposte e confrontare item o gruppi.
- Valori estremi (molto alti o molto bassi) possono indicare effetti di “tetto” o “pavimento” (poche variazioni nelle risposte).
- Deviazione standard (σ)
- Misura quanto i punteggi si discostano dalla media, ovvero la dispersione delle risposte.
- Una deviazione standard bassa indica risposte molto simili tra loro; una deviazione alta segnala ampia variabilità.
- Utile per identificare item poco discriminativi (SD molto bassa) o incoerenti (SD troppo alta).
- Su scale come la Likert 1–5, una SD intorno a 1 è considerata buona, mentre valori molto bassi o molto alti possono indicare problemi.
41. obiettivi dell’analisi fattoriale secondo Nunnally e Bernstein
Secondo Nunnally e Bernstein, l’analisi fattoriale ha due obiettivi principali:
- Riduzione e sintesi delle informazioni (Data Reduction)
- Ridurre un ampio numero di variabili osservate (es. item di un test) a un numero minore di fattori o dimensioni latenti, semplificando così i dati senza perdere informazioni importanti.
- Identificazione delle strutture latenti (Construct Identification)
- Scoprire i costrutti psicologici sottostanti che spiegano le correlazioni tra gli item, verificando se gruppi di item si raggruppano coerentemente secondo i costrutti teorici, supportando così la validità di costrutto dello strumento.
- In sintesi, l’analisi fattoriale serve a sintetizzare i dati e a identificare fattori latenti che rappresentano costrutti psicologici rilevanti.
42. i 3 principi alla base dell’Analisi Fattoriale Esplorativa
- Principio di Causazione
- I fattori latenti sono le cause nascoste che generano le risposte osservate agli item. La correlazione tra item deriva dal fatto che condividono la stessa causa latente. Si distingue così la varianza comune (spiegata dai fattori) dalla varianza unica (errore e specificità).
- Principio di Parsimonia
- Tra soluzioni fattoriali simili, si preferisce quella con meno fattori, per avere un modello più semplice e teoricamente più compatto.
- Principio di Struttura Semplice
- Si cerca una soluzione in cui ogni item carica fortemente su un solo fattore e quasi nulla sugli altri, facilitando l’interpretazione e la definizione chiara dei fattori.
42. Analisi fattoriale, adatta per un modello di misura a indicatori formativi
Tecnica appropriata: Analisi delle Componenti Principali (PCA)
- Motivo principale: in un modello formativo, gli item definiscono il costrutto, non ne sono l’effetto. La PCA rispecchia questo approccio perché:
- Non assume fattori latenti come cause delle risposte.
- Utilizza tutta la varianza (comune + unica + errore), quindi ogni item contribuisce direttamente alla componente.
- Mira a costruire un indice composito, riducendo la complessità ma mantenendo l'informazione.
- Differenza con l’Analisi Fattoriale (FA):
- La FA è più adatta a modelli riflessivi, dove i fattori spiegano le covariazioni tra item. Invece, nei modelli formativi non vi è una causa comune sottostante.
45. l’Analisi Fattoriale Esplorativa comunalità e calcolata
- Definizione: La comunalità indica quanta parte della varianza di un item è spiegata dai fattori comuni estratti dal modello.
- Funzione: Misura quanto un item è rappresentato dal modello fattoriale → più è alta, più l’item è coerente con la struttura fattoriale.
- Calcolo:
- Si stimano i loadings dell’item su ciascun fattore.
- Si eleva al quadrato ogni loading.
- Si sommano i quadrati dei loadings:
- h2i = comunalità dell’item i
- λij = loading dell’item i sul fattore j
- m= numero di fattori
- Interpretazione dei valori:
- Vicino a 1 → item ben rappresentato dai fattori
- Vicino a 0 → item poco spiegato dal modello, possibile candidato all’eliminazione
44. matrice di saturazione
🔹 Definizione Tabella che mostra quanto ogni item (variabile osservata) sia associato a ciascun fattore latente estratto nell’analisi fattoriale.
🔹 Struttura:
- Righe = Item osservati (variabili)
- Colonne = Fattori latenti
- Corpo della matrice = Saturazioni fattoriali λij
🔹 Cosa rappresentano le saturazioni λij:
- Sono coeff. di correlazione tra l’item i e il fattore j
- Indicano quanto un item contribuisce alla definizione del fattore
- Valori elevati (es. > 0.40) → item ben rappresentato dal fattore
Valori vicini a 0 → item poco associato al fattore
🔹 Struttura semplice:
- Un item carica fortemente su un solo fattore → facilita l’interpretazione dei fattori.
🔹 Utilità:
Permette di:
- Capire quali item misurano quali fattori
- Valutare la qualità degli item
- Interpretare il significato psicologico dei fattori latenti
46. analisi fattoriale
- Definizione teorica del costrutto
- Chiarire le dimensioni latenti da indagare
- Basarsi su letteratura e modelli teorici
- Costruzione del pool di item
- Redigere item coerenti con ogni dimensione
- Usare scale adeguate (es. Likert)
- Raccolta dati
- Somministrare il questionario
- Campione ampio e rappresentativo
- Verifica della fattorializzabilità
- KMO (valori > 0.6 accettabili)
- Test di sfericità di Bartlett (significativo = dati adatti)
- Determinante matrice di correlazione (non troppo vicino a 0)
- Scelta del metodo di estrazione
- Es. Principal Axis Factoring (PAF), Maximum Likelihood (ML)
- In base a scopi e normalità dei dati
- Determinazione del numero di fattori
- Criterio di Kaiser (eigenvalue > 1)
- Scree plot
- Analisi parallela
- Rotazione dei fattori
- Ortogonale (Varimax) → fattori indipendenti
- Obliqua (Promax, Oblimin) → fattori correlati
- Interpretazione della soluzione
- Analisi dei loadings
- Etichettare i fattori in base agli item con saturazioni elevate
- Valutazione del modello
- Comunalità
- Varianza spiegata
- Coerenza con la teoria
- Raffinamento e validazione
- Rimozione item deboli
- Replica su campioni indipendenti
- Verifica di validità e attendibilità
47. significato dei fattori in una Analisi Fattoriale Esplorativa
- Fattori = costrutti latenti
→ Non direttamente osservabili, ma inferiti dalle correlazioni tra item.
- Funzione principale:
→ Spiegano la covarianza tra gli item osservati, cioè perché certe domande tendono ad avere risposte simili.
- Varianza comune
→ Ogni fattore cattura una quota di varianza condivisa tra item correlati.
→ La varianza specifica e l’errore di misura restano esclusi.
- Riduzione della complessità
→ Aiutano a sintetizzare numerosi item in poche dimensioni significative, facilitando l’interpretazione.
- Modello riflessivo:
→ I fattori causano le risposte agli item.
→ Cambiamenti nel fattore producono variazioni nei punteggi degli item ad esso associati.
- Utilità teorica e pratica:
→ Permettono di comprendere le strutture psicologiche sottostanti
→ Migliorano la parsimonia, coerenza e validità interna degli strumenti psicometrici.
49. differenza tra rotazioni ortogonali e rotazioni oblique
🔹 Rotazioni ortogonali
- Angolo fisso di 90° tra i fattori → Fattori non correlati.
- Obiettivo: semplificare l’interpretazione senza introdurre correlazioni tra le dimensioni.
- Principali tipi:
- Varimax (più usata)
- Quartimax
- Equamax
- Vantaggi:
- Fattori indipendenti → più facile interpretazione statistica.
- Adatta quando si ipotizza indipendenza tra costrutti.
- Limite:
- Può non rappresentare bene la struttura reale se i fattori sono effettivamente correlati.
🔸 Rotazioni oblique
- Angolo variabile tra i fattori → Fattori possono essere correlati.
- Permettono correlazioni tra costrutti latenti (più realistico in psicologia).
- Principali tipi:
- Producono due matrici:
- Matrice Pattern: carichi “puri” (esclude correlazioni tra fattori).
- Matrice Structure: correlazioni tra item e fattori (inclusa correlazione tra fattori).
- Vantaggi:
- Maggiore aderenza ai dati reali,
- Favorisce una struttura semplice anche con fattori intercorrelati.
- Richiede interpretazione più articolata → serve considerare anche le correlazioni tra fattori.
50. rotazioni oblique dei fattori
🎯 Obiettivo
- Semplificare la struttura fattoriale consentendo correlazioni tra i fattori
- A differenza delle rotazioni ortogonali, non mantengono l’angolo di 90° tra gli assi → i fattori possono correlarsi.
🔧 Metodi principali
- Direct Oblimin
- Include un parametro "delta":
- ∆ ≈ 0 → rotazione quasi ortogonale
- ∆ negativo → maggiore obliquità
- Promax
2 fasi:
- Inizia con Varimax (ortogonale)
- Eleva i carichi a una potenza (es. 4) → ottiene una rotazione obliqua più interpretabile
📊 Output prodotto
- Matrice Pattern
- Mostra i carichi fattoriali “puri” (al netto delle correlazioni tra fattori)
- Matrice Structure
- Mostra le correlazioni totali tra item e fattori (inclusa correlazione tra fattori)
- Matrice di correlazione tra fattori
- Indica quanto i fattori sono correlati fra loro
🧠 Interpretazione
- Correlazioni tra fattori ≈ 0 → soluzione quasi ortogonale (fattori indipendenti)
- Correlazioni elevate → costrutti latenti sovrapposti
🔁 può suggerire l’uso di modelli gerarchici o bifattoriali
52. scree-test e il criterio
📊 Cos'è il grafico scree
- Grafico degli autovalori (eigenvalues) derivati dalla matrice di correlazione non ruotata.
- Asse Y: autovalori
- Asse X: numero progressivo dei fattori (1, 2, 3, …)
- Autovalori in ordine decrescente → mostra quanta varianza spiega ciascun fattore.
🪨 Cosa rappresenta
- Discesa rapida iniziale → fattori che spiegano molta varianza
- “Gomito” (elbow): punto in cui la curva cambia pendenza
- Dopo il gomito → plateau (zona dei “detriti” o scree): fattori meno informativi
🎯 Criterio di Cattell (elbow rule)
- Si estraggono i fattori prima del gomito
- Quelli dopo il gomito spiegano varianza non significativa o rumore
⚠️ Limiti
- Interpretazione del gomito può essere soggettiva
- La forma del grafico può dipendere dalla scala
🔍 Suggerimento
- Affiancare lo scree-test a criteri oggettivi:
→ Parallel Analysis
→ Autovalori > 1 (criterio di Kaiser)