Please enable JavaScript.
Coggle requires JavaScript to display documents.
Statistik 02 (Wahrscheinlichkeitstheorie (Additionstheorem (Nicht disjunkt…
Statistik 02
Wahrscheinlichkeitstheorie
Zufallsexperiment
Elementarereignis
Ereignis = Ergebnis
Ergebnisraum (Ω)
Mengenoperationen
Vereinigung ( AuB )
Schnittmenge ( AnB )
Leere Menge {} --> disjunkt
Definition von W´keiten
: P(A) = A/Ω
Axiome d. W´keit
für disjunkte Teilmengen : P(AuB) = P(A) + P (B)
P(Ω) = 1
für A gilt : 0 ≤ P(A) ≤ 1
Additionstheorem
Nicht disjunkt
P(AuB) = P(A) + P(B) - P(AnB)
disjunkt
P(AuB) = P(A) + P(B)
"oder"
unbedingt
Multiplikationstheorem
bedingt
Theorem von Bayes
P(AnB) = ( P(B/A) * P(A) ) : P(B)
"und"
unbedingt
P(AnB) = P(B/A) * P(A)
Wahrscheinlichkeitsverteilung
Zufallsvariablen
--> Diskret und stetig
Realisierung
Verteilungsfunktion
Wahrscheinlichkeitsverteilung
Diskret
Stetig
nur über die Dichte (Integral) möglich
Wertebereiche
Verteilungen
Normalverteilung
Standardnormalverteilung
x2 Verteilung
t-Verteilung
F-Verteilung
Stichprobenverteilungen und Parameterschätzung
Populationsparameter anhand von Stichprobenparmetern schätzen
Kriterien
Erwartungstreue
Konsistenz
Intervallschätzung für Pop.parameter
Konfidenzkoeffizient (1-alpha)
Konfidenzintervall (bps. 95% : 1 - .05)
Ziehung
Zufallsstichprobe
Stichprobenkennwerteverteilung
Mittelwert
Standardabweichung (hier auch Standardfehler genannt)
Aus nicht normalverteilten Populationen
Zentrales Grenzwerttheorem
Statischtisches Hypothesentesten
Ebenen von Hypothesen
empirisch inhaltliche Hypothese
Operationalisierung und Messung
Erwartete Beziehung
Statistische Hypothese
Allgemeingültigkeit
Probabilistisch
Kennwerte (Tendenz)
W´keitsaussagen
Prinzipiell nicht falsifizierbar
Prinzipiell nicht verifizierbar
Theoretisch inhaltliche Hypothese
Art
Unterschiedshypothese
Veränderungshypothese
Zusammenhangshypothese
Nach Forschungsstand
Effektgröße
Richtung
Hintergrund
Signifikant
Signifikanztest
Hypothesentesten
PASSEND
Schritt 1
Aufstellung Hypothesenpaar
Nullhypothese
Alternativhypothese
Achtung auf gerichtet oder ungerichtet!
Schritt 2
Bestimmung stat. Kennwerte
Populationsmittelwert
Stichprobenergebnis
Schritt 3
Stichprobenkennwerteverteilung für H0
Populationsmittelwert
Stichprobenkennwerteverteilung für H0
Schritt 4
W´keit p(E/H0)
Stichprobenergebnis
Überführung in Standardnormalverteilung
W´keit für emp. z-Wert
Schritt 5
Deutung der W´keit
W´keit für p(E/H0) ≥ M?
Signifikanzniveau von alpha = .05
Signifikant oder nicht ?!
Bestimmung kritischer z-Wert
Annehmen oder Ablehnen der H0/H1.
Fehler
Alpha-Fehler
Beta-Fehler
Teststärke
1- beta
beta
Effektstärke = "Eta-Quadrat"
Standardisierung
Cohens d
0.5 mittlerer Effekt
0.8 großer Effekt
0.2 kleiner Effekt
Weitere Themen
Varianzanalyse (Unterschiedshypothesen)
Einfaktoriell
Variablen
Abhängig (AV)
Mind. intervallskalliert
Variable, die untersucht wird
Unabhängig (UV)
Auch Faktor/ Treatment
Mind. zweistufig und immer kategorial
Einfluss von mehr als einer UV untersuchbar (--> mehrfaktoriell)
UV bedingt AV
Gruppenbildung
Experiment
Zufällige Zuordnung von Personen zu Stufen der UV
Quasiexperiment
Möglichkeit 1 : Keine zufällige Zuordnung von Personen zu den Stufen der UV
Möglichkeit 2 : Stufen stellen unterschiedliche Kategorien eines natürlichen Merkmals dar
Quadratsummenzerlegung
QS total = QS zwischen + QS innerhalb
QS zwischen : Summe der quadrierten Abweichungen der Ausprägung des Faktors (quadrierter Mittelwert der Gruppe) minus des Grand Means
QS Innerhalb : Summe der individuellen/ unsystematischen Abweichungen der Einzelwerte innerhalb der Ausprägung des Faktors
Zweifaktoriell
Terminologie
UV
AV
Faktor 1: p Stufen
Faktor 2 : q Stufen
Design : p*q Stufen (ergibt Anzahl der Gruppen
Quadratsummenzerlegung
QS, die Variation zw. den Stufen des Faktors A ausdrückt
QS, die Variation zw. Stufen des Faktors B ausdrückt
QS, die Variation zw. den Kombinationen aus Stufen von Faktor A und B
QS, die Variation zw. den Messerwerten innerhalb der Stufen ausdrückt
Effektegröße
partiell
nicht partiell
Voraussetzungen
Unabhängigkeit der Fehler
Homoskedastizität
Normalverteilung
F-Test
Ist Ergebnis für B signifikant : signifikanter Haupteffekt von B
Ist Ergebnis für A und B signifikant : signifikanter Interaktionseffekt von A und B (Betrachtung der ZellenMW)
Ist Ergebnis für A signifikant : signifikanter Haupteffekt von A
Effekte (Interaktion)
Hybride Interaktion
Disordinale Interaktion
Ordinale Interkation
T-Test für unabhängige Stichproben - Unterschiedshypothesen
t-Test für eine Stichprobe
Voraussetzungen
Daten stammen aus einer Zufallsstichprobe
Merkmal ist in Population normalverteilt
Merkmale
N-1 FG
unimodal und symmetrisch
Perzentile als kritische Werte
Perzentile in Abhängigkeit von W´keit in Tabelle nachlesbar
t-Test für zwei unabhängige Stichproben
Hintergrund und Voraussetzung
Voneinander unabhängige Stichproben
aus unterschiedlichen Populationen
Experiment und Quasiexperiment
Pop.mittelwerte und Pop.streuung nicht bekannt
Gilt die H1 --> Unterschied zw. Pop.mittelwerten (Stichproben aus unterschiedlichen Population)
Gilt die H0 --> kein Unterschied zw. Pop.mittelwerten (Stichproben aus der gleichen Population)
Varianzen der beiden Populationen sind gleich
Merkmal in beiden Populationen normalverteilt (Robust gegenüber Verletzungen)
einfache Zufallsstichproben
Eigenschaften
N-2 FG
Perzentile als kritische Werte
unimodal und symmetrisch
bei ungleichen Varianzen
Ausdruck nicht mehr t-Verteilt
Korrekturformel
PASSEND- Unterschiede
Schritt 4 : p(E/HO) anhand t-Verteilung
Schritt 2: kein Pop.kennwert vorhanden
Schätzung d. Standardfehlers anhand von Standardabweichung d. Stichprobe
Schritt 3 : t-Verteilung anhand verschiedener Freiheitsgrade
Weitere Themen
Messwiederholungsanalyse (Veränderungsh.)
Einfaktorielle Varianzanalyse mit Messwiederholung
Eigenschaften
Kovarianz
Sequenzeffekte
Quadratsummenzerlegung
QS tot = QS zwBedinungen + QS zwPersonen + QS residuen
QS tot teilt sich auf in innerhalb von Personen (dann noch mal in zwischen Bedingungen und Residuum) und zwischen Personen
Inferenzstatistik
H0: Die PopulationsMW sind identisch
Überprüfung der H0 mit dem F-Test
H1: Mind. zwei der Populatiosnemittelwerte sind nicht identisch
F-Test
MW Unterschiede
je größer F, desto kleiner die Fehler
Überschreitet der emp. F-Wert den kritischen, ist das Ergebnis signifikant
Voraussetzungen
zufällige Stichprobe
Normalverteilung des Merkmals
Homogene Kovarianzen
Verletzungen der Voraussetzungen
Mauchlytest
Korrekturen
Greenhouse-Geisser-Korrektur
Huynh-Feldt-Korrektur
Einfaktorielle Varianzanalyse ohne Messwiederholung
Quadratsummenzerlegung
QS tot = QS zw + QS inn
Bezieht sich auf Bedingungen
Regressionsanalyse (Zusammenhangs.)
Begriffe
Kriterium : Varible Y (über die Vorhersage getroffen wird)
Prädiktor : Varible X (auf deren Grundlage Vorhersage getroffen wird) meist zeitlich vor dem Kriterium
Regression von X auf Y
Streudiagramm und Regressionsgerade
Daten in Streudiagrammen in x und y Wertepaare
I.d.R: Wertepaare liegen nicht auf einer Graden
Regressionsgerade kann durch Punktewolke gelegt werden
Regressionsgerade
y(i)=b*x(i)+a
Residuum: e(i)=y(i)- y^(i)
(Eigenschaften der) Regressionsgleichung
(1) Regressionssteigung und Korrelation
(2) Vorhersage der empirischen MW
(3) z-standardiesierte Werte
Beta ist standardisiertes b
Entspricht Korrelation zwischen x und y
Ziel: Summe aller quadrierten Fehler möglichst gering
Modellgüte
Zerlegung in erklärbaren Anteil
Zerlegbar in nicht erklärbaren Anteil
Determinatiosnkoeffizient
Je genauer der vorhergesagte Anteil, desto größer der Determinatiosnkoeffizient
Inferenzstatistik
H0 : beta=0
H1 : beat ≠ 0
t-test
Stichprobenkennwerteverteilung für Regressionskoeffizienten b
N-2 FG
Vergleich des empirischen mit kritischem t-Wert