Please enable JavaScript.
Coggle requires JavaScript to display documents.
RICHIAMI E FONDAMENTI(CAP.1) - Coggle Diagram
RICHIAMI E FONDAMENTI(CAP.1)
INTRODUZIONE
misurazione: insieme di regole attuate x ottenere informazioni e produrre conoscenza su una quantità (proprietà misurabile di un fenomeno che può essere rappresentato in termini numerici o con operazioni matematiche)
fatta rispetto ad un riferimento metrologico (unità di misura)
quantità da misurare->misurando ɲ(eta)
3 tipi di errore:
casuale: >n campione , errore tende a <
sistematico: distorsioni nel processo misurativo come quantità costanti ad ogni misurazione-> comportamento opposto a quello dell’errore
casuale
spurio: strumento difettoso o errore operatore (errori di procedura)
incertezza: può derivare da diverse fonti-> x analizzarla e controllarla: modello matematico dell'incertezza ( ce ne sono diversi ex. teoria probabilità)
probabilità: esperimenti di tipo aleatorio-> esiti possibili sono certi, ciò che è soggetto a incertezza l'accadere o - di un esito -> la collezione di tutti gli esiti possibili : spazio campionario Ω
assegnazioni di P (diversi approcci):
classica: P rapporto tra n casi e n evetni possibili (probabilità a priori)
frequentista: probabilità è assegnata usando successione di prove aleatorie indipendenti (probabilità a posteriori)
soggettivista: probabilità assegnata in base a fiducia su eventi (ex. scommesse)
VARIABILI ALEATORIE (V.A.)
definizione: oggetto o funzione matematica che può assumere diversi valori con una certa probabilità (rappresentazione matematica semplificata dell'esperimento aleatorio (ex. lancio dado)-> permettono di definire modelli probabilistici generali (ex.gaussiana)
definizione non formale: variabile aleatoria x è una regola che fa corrispondere elementi Ω all'insieme dei n reali R (insieme dei valori che x può assumere è detto supporto S)-> S finito (Ω=n): x discreta, S infinito: x continua (calcolo con integrale)
v.a.con supporto: in R univariate, in R^2 bivariate, in R^k multiple
x identificare una v.a. occorre determinare le modalità con cui P assegna le probabilità su Sx:
PMF: funzione di probabiltà di massa (v.a. discreta)
PDF: " " densità (v.a. continua)
CDF: " " ripartizione (v.a. discreta/continua) -> rappresenta elemento di unificazione delle v.a.discrete e continue-> xk è definita nello stesso x entrambe le v.a.
valori medi di v.a
comportamento v.a., se è nota F(X), può essere rappresentato da indici che esprimono alcune sue caratteristiche-> indicatori sintetici (posizione, dispersione, forma-> definiti da media(o valore atteso) e varianza della stessa v.a.
valore atteso: aspettativa esito medio da esperimento aleatorio associato, diverso da media(distribuzione frequenza variabile a livello campionario)
varianza: aspettativa riguardo distrubuzione (dispersione) esiti dell'esperimento aleatorio associato
quando una v.a. possiede valore atteso e varianza finiti allora si definisce la v.a. standardizzata Z con le seguenti proprietà ( E=0, var=1)-> modellizzazione errore di misura: dopo un elevato n di misurazioni ci attendiamo errore =0 e dispersione contenuta
INFERENZA STATISTICA
modello statistico parametrico (Ϻ) x interpretare una realtà che altrimenti sarebbe troppo vasta da interpretare-> è un'astrazione di un dato fenomen/proprietà del mondo reale ed ha la cartteristica di rappresentarne il funzionamento
approccio deduttivo: modello M è noto(Ꝋ ,F, X conosciuti) ed è in grado di generare nuove istanze (si sa se è un modello o è un altro)
approccio induttivo: osservatore ha a disposizione diverse istanze compatibili in principio con diversi modelli che potenzialmente hanno dato origine allo stesso osservato ( Ϻ non è noto)
principio del campionamento ripetuto: il modello Ϻ governa il processo generatore dei dati x-> studio di Ϻ a partire da x è da effettuarsi replicando + volte il processo generatore valutando come cambiano caratteristiche (statistiche) di x (ex.media campionaria)
fare inferenza significa che identifico un criterio x definire qual è il modello + vero che ha definito X
individuare μ utilizzando i dati a disposizione equivale stimare il parametro ignoto del modello F-> necessita della teoria della stima che ci informa circa la correttezza, distorsione, incertezza di Ꝋ
Modelli Lineari
fissato Ϻ è possibile studiare Ꝋ rispetto ad altre informazioni note ex. relativamente a variabili concomitanti continue (covariate)-> tecnica x l'analisi delle relazioni tra fenomeni-> interpretano relazioni tra 2 gruppi di variabili
Modello Normale Multivariato/vettore Gaussiano
consideriamo un vettore di p variabili aleatorie x(x1,x2,...xp) si dice che x segue in legge il modello normale p variato se ogni combinazione lineare delle sue p componenti ha una distribuzione normale univariata
X ∼ Np(µ, Σ) -> µ vettore (dimensione px1) della nedia, Σ matrice (dimensione pxp) della varianza/covarianza del modello
matrice(tabella ordinata di elementi appartenenti allo stesso insieme): è simmetrica, diagonale matrice sono le varianze, se le p variabili sono tra loro indipendenti Σ diventa matrice diagonale (elementi fuori = 0)
il termine covarianza esprime l'associazione lineare tra la j-esima e la p-esima v.a.(> o < di 0) -> matrice di correlazione si ottiene x trasformazione da Σ-> è simmetrica, varianza (diagonale) = 1, elementi fuori da diagonale = 0 se p indipendenti ->intervallo reale [-1,1]
MODELLI PROBABILISTICI NOTEVOLI
diversi esperimenti aleatori possono essere rappresentati da = modelli probabilistici (ex. normale, binomiale): molti di questi appartengono alla stessa famiglia parametrica di modelli il cui comportamento è governato da un insieme di parametri a valore reale Ꝋ -> v.a. x si distribuisce secondo un certo modello F parametrizzato mediante Ꝋ (guardare modelli su appunti)
uniforme: caraterizzata 2 parametri(a,b)-> a<x<b: tutti i sottoinsiemi hanno la stessa probabilità di verificarsi
normale: si trova in tantissimi fenomeni reali e punto di riferimento x confronto-> parametri ( μ,σ^2)
chi quadrato: connesso alla normale_> somma di v.a. standardizzate -> parametri (k: gradi di libertà)
binomiale: n di successi che si verificano in una sequenza di n prove indipendenti nelle quali è costante la probabilità di successo
poisson: n di X eventi in un intervallo temporale