CFA (1) (CAP.5)
INTRODUZIONE
analisi della dimensionalità come metodo x studiare coerenza interna di una scala e validità fattoriale-> diverse sono le tecniche statistiche utilizzate x analisi dimensionalità--> EFA(analisi fattoriale esplorativa), PLS(partial least squares), generalized component analysis, e CFA
analisi fattoriale confermativa: modello statistico multivariato x lo studio simultaneo di + variabili-> appartiene alla famiglia dei modelli a variabili latenti: dato un insieme di v.a. Y1..Yj nelle quali la funzione congiunta f viene studiata condizionando un sottoinsieme p di variabili ad un altro sottoinsieme q non osservato nelle sue realizzazioni (q: v.latenti, p: v.osservate) (q<p)
insieme di tecniche statistiche utilizzate x ricercare esistenza variabili latenti Yq partendo da variabili osservate Yp, in particolare nella CFA si conosce già struttura variabili-> bisogna confermare se struttura presente valida x dati raccolti
gerarchia tra le v.a.-> Yq precedono Yp nel senso del meccanismo generatore dati: esiti Yq si realizzano mentre esiti Yp si realizzano condizionatamente a esiti Yq--> schema definito riflessivo (schema formativo opposto)
si utilizza l'analisi fattoriale quando sia v.a. latenti sia v.a. osservate sono metriche (osservate attraverso valori numerici) (guardare tabella)--> quando non è possibile che siano rappresentate come v.a. continue utilizzo tecniche che trasformano metriche variabili
Yq lo indichiamo con η (lettere greche a sottolineare realizzazioni non osservate) (kx1 latenti, hx1 osservate), densità congiunta e marginale-> soluzione integrale q-variato permette di ottenere densità probabilità x le v.a. oss.
CFA COME MODELLO A VARIABILI LATENTI
assumiamo che le v.a. latenti segnano in distribuzione il modello gaussiano q-variato η~ Nq(µi,Φ)-> µi: vettore qx1, Φ: matrice di covarianza qxq--> rappresentiamo relazione tra v.a. attraverso modello lineare: y= Ϯ(intercette item,medie px1)+ Λ (matrice pxq, coefficienti fattoriali che legano p e q) x η + Ϭ(px1 errore reale modello)
assumendo errore normale gaussiano x errore misurazioni Ϭ~ N (media nulla) --> modello probabilistico:
y(fx1)= Np (Ϯ+Λμ) ,ΛΦΛ ^T+ϴ) (guardare quaderno x operazioni) , Λ: factor pattern matrix -> molto importante esprime ipotesi ricercatore circa le scale di misura
semplificando il modello si assume che v.a. latenti e osservate abbiano media nulla -> yi~Np (0p, ΛΦΛ ^T+ϴ)-> Ʃ=Λ (pxq)Φ(qxq)Λ ^T+ϴ(pxp) --> CFA modello di decomposizione di Ʃ
sulla base dell'ordine della matrice Φ qxq è possibile avere modelli ( varianza decompost in due componenti comunalità e parte residua[errore]):
unidimensionali(q=1)-> modello lineare con una sola variabile latente: η--> Y= ηλj+Ϭj
-> λ (coefficienti fattoriali che legano le osservabili al misurando latente), j(item j xk vale anche x item 1,2,..j)--> misure osservate sono linearmente dipendenti da parte comune c e residuale (uj)
bidimensionali (q=2):
multidimensionali: (q>2): è generalizzabile al caso con q variabili --> (guardare quaderno x rappresentazione grafica e algebrica)
ASSUNZIONI DEL MODELLO
1) E[Yj]=0 valore atteso v.a. oss. = 0, 2) E[ηk]=0 " " v.a. latenti 3) E[Ϭ]=0 (legge degli errori accidentali), 4) cov[ηk,Ϭ]=0 v.a. errori e misurandi sono incorrelati
MATRICE DI COVARIANZA RIPRODOTTA
o matrice attesa dal modello Ʃ-> matrice di varianza e covarianza del modello che ne rappresenta il parametro da stimare-> decomposizione permette di rappresentare tutte le varianze e covarianze del modello Y rispetto a legami con η (S matrice di covarianza osservata)
PROCEDURA CFA
1) Sy (statistica osservata), 2) modello CFA-> si definisce Ʃ, 3)adattamento ai dati di Ʃ, 4) valutazione adattamento, 5)eventualmente miglioramento del modello,
6) interpretazione del modellol
covarianza-> dipendenza tra 2 v.