WS 05: Methodologie - Planung & Durchführung (3. Stufe)

Operationalisierung (3. Stufe)

Konstruktvalidität

Ausgewählte Probleme

4 Problembereiche beim Messen

Skalenniveaus

Beispiele aus der Differentiellen Psychologie

Erhebungsmethode

Erhebungsintrumente

Art der Informationsaufbereitung

Ideal = normierte und standardisierte Messinstrumente

= Güte der Operationalisierung

z.B. Spendenbetrag/Einkommen vs. nur Spendenbetrag

Test

Verhaltensbeobachtung

Verhaltensspurenanalyse

Befragung

Apparative Methoden

Inhaltsvalidität (OP)

repräsentative Abbildung des Konstrukts (alle Verhaltensbereiche)?

ideal = viele unterschiedliche OPs einer latenten Variable

Problem: alpha-Kumulierungsgefahr

Ökologische Validität (OP)

Schlüsse auf alltägliches Erleben/Verhalten möglich?

Grundlagenforschung oder nur angewandte Forschung im Laborkontext?

Spezifität vs. Globalität (UV)

globale UV --> Konfundierung vieler Variablen (z.B. Computerlernen vs. Frontalunterricht)

Sicherung der isolierten Bedingungsvariation durch Spezifität

Beispiel Mountainbike vs. Rennrad

Konvergente/diskriminante Validität (AV)

Was sichert Validität der Referenz-Operationalisierungen? (unendlicher regress)

Konvergente Validität als Maß für Testredundanz?

Kriteriumsvalidität (AV)

Angemessenheit der AV Auswahl

AV-Menge

je höher, desto höher Wkeit zufälliger signifikanter Unterschiede

Demand Characteristics

idealer Proband

guter Proband

negativer Proband

soziale Erwünschtheits-Proband

Effekt-Diagnostikum Fehlschluss (Konstruktvalidität)

Aus einem signifikanten Effekt (von A auf B) lässt sich nicht unmittelbar diagnostische
Qualität (zuverlässiger Schluss von B auf A) ableiten!

Beispiel: hazard perception test diskriminiert nicht Unfallfahrer vs. unfallfreie Fahrer

Beispiel: reverse inference - Problematik

  1. Repräsentationsproblem
  1. Eindeutigkeitsproblem
  1. Bedeutsamkeitsproblem
  1. Skalierungsproblem

ist empirische Variable messbar (in Zahlen repräsentierbar)?

Freiheiten beim Zuordnen von Zahlen?

mathematische Transformation ohne Bedeutungsverlust

verschiedene Skalenniveaus (abhängig von Variable, OP-Technik, Skalierungsmethode)

Nominalskala

qualitative Variablen (Kategorisierung)

eindeutige Transformationen (werte müssen sich unterschieden)

nahezu unbegrenzte Freiheit beim Zuordnen von Zahlen

Ordinalskala

  • Unterscheidung größer/kleiner (nicht wie viel!)

alle Transformationen unter Beibehaltung der Ordnung

relative Position der Zahlen zueinander erhalten

Hyperordinalskala

bringt zusätzlich auch Abstände zwischen Rangplätzen in eine Rangreihe

Wichtig: keine Festlegung genauer Beträge

Intervallskala

  • Aussagen über Verhältnisse von Intervallen

jede lineare Transformation, die Einheit und/oder Nullpunkt verändert

additive und multiplikative Konstante

Rationalskala

  • Aussagen über das Verhältnis von Skalenwerten

Nullpunkt empirisch fundiert (natürlich)

alle Transformationen, die Einheit aber nicht Nullpunkt verändern

keine additive Konstante

Absolutskala

natürlicher Nullpunkt + natürliche Einheit

gar keine Transformation

Schlüsse auf Basis der Skalenwert?

statistisches Verfahren abhängig vom Skalenniveau

rangbasierte Pendants zu bekannten intervallskalenbasierten Verfahren

Validität (gemessen, was gemessen werden soll?

Konstruktvalidität

Augenschein & Kriteriumsvalidität

Reliabilität (wie zuverlässig misst Test?)

Split half Reliabilität

Retestreliabilität

Paralleltestreliabilität

Objektivität/Standardisierung

Normen

Standardisierung der Durchführung/Auswertung

Persönlichkeit

Ziel: Erfassung Unterschiede Menschen

Problem: Unterschiede betreffen vieeeele Eigenschaften

Lösung: Reduzierung von Komplexität (Zusammenfassung von Ähnlichen Typen, Eigenschaften, etc)

states vs. traits

Faktorenanalytischer/Lexikalischer Ansatz

Allport & Odbert

Annahme: alle relevanten Unterschiede sind auch sprachlich Manifest

Ergebnis = Klassen miteinander korrelierender Adjektive = Faktoren

Cattell 16

Eysenck 2-3

McCrae & Costa: Big Five

Probleme

Theorie bestimmt das Messergebnis

Mensch wird in Struktur eingeordnet --> jedoch evtl. ungeeignet?

Alternativen

Clusteranalysen

Projektive Verfahren

Gridanalysen?

Probleme objektiver Verfahren

Fälschbarkeit

überstülpen eines festgelegten Dimensionsmusters --> suggestiv

Erfassung unbewusster Motive schwierig

oft nicht valide, nicht reliabel, nicht objektiv

Als Lösung, Kombi aus objektiv und projektiv?

Grundprobleme

Situationsimus-Debatte (unterschiedliche Persönlichkeit je nach Bezugsperson/Situation?)

Konstruktionismus (keine Eigenschaften, sondern sprachlich-sozial konstruierte Zuschreibungen)

Intelligenzdiagnostik

Geschichte

Tests für Beamte im alten China (vor ca. 4000 Jahren)

Francis Galton (1869) --> IQ quantifizierbar, normalverteilt, messbar (auch Eugenik!!!)

Alfred Binet (1905) --> Intelligenzalter

USA: 20. Jhdt. Leistung Schulkinder, Messung Eignung Militär, später SAT --> flächendeckende Diagnostik

Intelligenztheorien

Spearman: g-factor

Cattell: flüssige vs. kristalline Intelligenz

Guildford: Intelligenzstrukturmodell

Gardner: 8 Intelligenzen

hohe Validität (Vorhersagekraft für schulische und berufliche Leistungen)

Speedtests vs. Powertests

Beobachterunabhängigkeit

auch: Interraterreliabilität!