CFA (1) (CAP.5)

INTRODUZIONE

analisi della dimensionalità come metodo x studiare coerenza interna di una scala e validità fattoriale-> diverse sono le tecniche statistiche utilizzate x analisi dimensionalità--> EFA(analisi fattoriale esplorativa), PLS(partial least squares), generalized component analysis, e CFA

analisi fattoriale confermativa: modello statistico multivariato x lo studio simultaneo di + variabili-> appartiene alla famiglia dei modelli a variabili latenti: dato un insieme di v.a. Y1..Yj nelle quali la funzione congiunta f viene studiata condizionando un sottoinsieme p di variabili ad un altro sottoinsieme q non osservato nelle sue realizzazioni (q: v.latenti, p: v.osservate) (q<p)

insieme di tecniche statistiche utilizzate x ricercare esistenza variabili latenti Yq partendo da variabili osservate Yp, in particolare nella CFA si conosce già struttura variabili-> bisogna confermare se struttura presente valida x dati raccolti

gerarchia tra le v.a.-> Yq precedono Yp nel senso del meccanismo generatore dati: esiti Yq si realizzano mentre esiti Yp si realizzano condizionatamente a esiti Yq--> schema definito riflessivo (schema formativo opposto)

si utilizza l'analisi fattoriale quando sia v.a. latenti sia v.a. osservate sono metriche (osservate attraverso valori numerici) (guardare tabella)--> quando non è possibile che siano rappresentate come v.a. continue utilizzo tecniche che trasformano metriche variabili

Yq lo indichiamo con η (lettere greche a sottolineare realizzazioni non osservate) (kx1 latenti, hx1 osservate), densità congiunta e marginale-> soluzione integrale q-variato permette di ottenere densità probabilità x le v.a. oss.

CFA COME MODELLO A VARIABILI LATENTI

assumiamo che le v.a. latenti segnano in distribuzione il modello gaussiano q-variato η~ Nq(µi,Φ)-> µi: vettore qx1, Φ: matrice di covarianza qxq--> rappresentiamo relazione tra v.a. attraverso modello lineare: y= Ϯ(intercette item,medie px1)+ Λ (matrice pxq, coefficienti fattoriali che legano p e q) x η + Ϭ(px1 errore reale modello)

assumendo errore normale gaussiano x errore misurazioni Ϭ~ N (media nulla) --> modello probabilistico:
y(fx1)= Np (Ϯ+Λμ) ,ΛΦΛ ^T+ϴ) (guardare quaderno x operazioni) , Λ: factor pattern matrix -> molto importante esprime ipotesi ricercatore circa le scale di misura

semplificando il modello si assume che v.a. latenti e osservate abbiano media nulla -> yi~Np (0p, ΛΦΛ ^T+ϴ)-> Ʃ=Λ (pxq)Φ(qxq)Λ ^T+ϴ(pxp) --> CFA modello di decomposizione di Ʃ

sulla base dell'ordine della matrice Φ qxq è possibile avere modelli ( varianza decompost in due componenti comunalità e parte residua[errore]):

unidimensionali(q=1)-> modello lineare con una sola variabile latente: η--> Y= ηλj+Ϭj
-> λ (coefficienti fattoriali che legano le osservabili al misurando latente), j(item j xk vale anche x item 1,2,..j)--> misure osservate sono linearmente dipendenti da parte comune c e residuale (uj)

bidimensionali (q=2):

multidimensionali: (q>2): è generalizzabile al caso con q variabili --> (guardare quaderno x rappresentazione grafica e algebrica)

ASSUNZIONI DEL MODELLO

1) E[Yj]=0 valore atteso v.a. oss. = 0, 2) E[ηk]=0 " " v.a. latenti 3) E[Ϭ]=0 (legge degli errori accidentali), 4) cov[ηk,Ϭ]=0 v.a. errori e misurandi sono incorrelati

MATRICE DI COVARIANZA RIPRODOTTA

o matrice attesa dal modello Ʃ-> matrice di varianza e covarianza del modello che ne rappresenta il parametro da stimare-> decomposizione permette di rappresentare tutte le varianze e covarianze del modello Y rispetto a legami con η (S matrice di covarianza osservata)

PROCEDURA CFA

1) Sy (statistica osservata), 2) modello CFA-> si definisce Ʃ, 3)adattamento ai dati di Ʃ, 4) valutazione adattamento, 5)eventualmente miglioramento del modello,
6) interpretazione del modellol

covarianza-> dipendenza tra 2 v.