Methodenlehre
& Statistik
Sprechstunde
jederzeit nach
Vereinbarung und
nach der Vorlesung
Mathematische und
statistische Methoden II
Wallstr. 3, 6. Stock,
Raum 06-206
Dr. Malte Persike
persike@uni-mainz.de
lordsofthebortz.de
lordsofthebortz.de/g+
facebook.com/methodenlehre
twitter.com/methodenlehre
youtube.com/methodenlehre
SoSe 2012
Folie 2
Psychologisches Institut
Johannes Gutenberg Universität Mainz
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Unsere Website
http://lordsofthebortz.de
Tutorien
Literatur
Software
Folie 3
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Der Kummerkasten
http://lordsofthebortz.de/box
Tutorien
Literatur
Software
Folie 4
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Soziale Netzwerke
http://lordsofthebortz.de/g+
Tutorien
Literatur
Blog der Abteilung auf Google+, Antworten auf statistische
Fragen und Einträge aus der Kommentarbox
http://twitter.com/methodenlehre
Neuigkeiten aus der Abteilung
Software
http://youtube.com/methodenlehre
Vorlesungen und Statistikhäppchen zum Nachschauen
http://facebook.com/methodenlehre
Tutorengruppe, Reposts von der Google+ Seite
Folie 5
Methodenlehre
& Statistik
Vorlesung
Tutorien
Organisatorisches
Der Gaussian Hangout
Sind Fragen übrig, die weder in der Vorlesung, im
Tutorium oder sonstwo geklärt werden konnten?
Literatur
Software
Dann besucht
uns im Hangout.
Jeden Donnerstag im
Semester von 18-19 Uhr
http://lordsofthebortz.de/g+
Folie 6
Einführung
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Organisatorisches
Aufbau des Moduls Methodenlehre
Semester 1
Semester 2
Statistik I/II
Literatur
Vorlesung
Statistik II/I
Software
Forschungsmethoden
Softwaremethoden
Tutorien
Vorlesung
Vorlesung
Seminar
(120 min.)
Modulabschlussklausur
Folie 7
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Organisatorisches
Probeklausur für Erstsemester – Ausblick
Semester 1
Semester 2
Statistik I/II
Literatur
Vorlesung
Statistik II/I
Software
Forschungsmethoden
Softwaremethoden
Tutorien
Vorlesung
Vorlesung
Seminar
(120 min.)
Probeklausur
Folie 8
Abschlussklausur
(60 min.)
Abschlussklausur
oder
(60 min.)
Methodenlehre
& Statistik
Vorlesung
Tutorien
Organisatorisches
Einführung
Organisatorisches
Probeklausur für Erstsemester – Disclaimer
Die Teilnahme an der Probeklausur nach dem ersten
Semester ist freiwillig, es findet keine Anmeldung im
Rahmen des BSc Studiums statt.
Literatur
Es entstehen daraus keine studienwirksamen
Konsequenzen für die Teilnahme an der
Modulabschlussklausur (z.B. Verlust eines Versuchs)
Software
Die Probeklausur wird nicht benotet
Es entsteht kein Anrecht auf Berücksichtigung des
erzielten Ergebnisses in der Modulabschlussklausur
(120 min.)
Probeklausur
Folie 9
Abschlussklausur
(60 min.)
Abschlussklausur
oder
(60 min.)
Methodenlehre
& Statistik
Vorlesung
Tutorien
Organisatorisches
Einführung
Organisatorisches
I.
Bestandteile der Veranstaltung
Vorlesung
wöchentliche Hausaufgaben
Tutorien (Übungen & Besprechung der HA)
II.
Leistungskriterium
Bestehen der Modulabschlussprüfung
Literatur
Software
III. Unser Qualitätsversprechen
Emails werden im Semester innerhalb von 24h
beantwortet (an Werktagen)
Folien sind ab 20:00 Uhr des Tages vor der
Veranstaltung herunterladbar
Klausuren werden innerhalb von 3 Wochen
nachgesehen
Folie 10
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Tutorien
Josephine Clausen
Tutorien
Einführung
Di
9 - 11 Uhr
Do
9 - 11 Uhr
Mo
14 - 16 Uhr
Mo
16 - 18 Uhr
(CIP Pool, Raum 01-236)
Josephine Clausen
(CIP Pool, Raum 01-236)
Literatur
Bernhard Both
(CIP Pool, Raum 01-236)
Software
Bernhard Both
(CIP Pool, Raum 01-236)
Die Tutorien beginnen ab dem 03.05.2012.
Bitte um gleichmäßige Verteilung auf die 4 Tutorien
Wenn möglich: eigenes Notebook mitbringen
Folie 11
Methodenlehre
& Statistik
Vorlesung
Tutorien
Organisatorisches
Einführung
Inhalte der Vorlesung im SoSe
Wahrscheinlichkeitstheorie
Einführung und zentrale Konzepte
Stichprobenverteilungen
Literatur
Deskriptive Statistik
Software
Tabellarische und grafische Möglichkeiten
der Ergebnisdarstellung
Kennwerte
Inferenzstatistik
Folie 12
Tests für Unterschiede (Differenzentests)
Tests für Zusammenhänge (Korrelationstests)
Methodenlehre
& Statistik
Vorlesung
Tutorien
Literatur
Organisatorisches
Literatur
Basiswerke
Bortz, J. & Schuster, C. (2010).
Statistik für Human- und
Sozialwissenschaftler (7. Aufl.).
Berlin: Springer-Verlag
Software
Fahrmeir, L., Künstler, R., Pigeot, I.
& Tutz, G. (2009). Statistik - Der
Weg zur Datenanalyse (6. Aufl.).
Berlin: Springer.
Folie 13
Einführung
Methodenlehre
& Statistik
Vorlesung
Tutorien
Organisatorisches
Literatur
Vorbereitung
Steland, A. (2003). Mathematische
Grundlagen der empirischen Forschung.
Heidelberg: Springer
Literatur
Software
Huber, O. (2009). Das
psychologische Experiment:
Eine Einführung.
Bern: Huber
Folie 14
Einführung
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Literatur
Arbeitsbücher
Tutorien
Literatur
Spiegel, M. R. (2008). Statistics.
Hamburg: Schaum‘s Outlines
Software
Bernstein, S. & Bernstein, R. (1999).
Elements of Statistics I & II
Hamburg: Schaum‘s Outlines
Folie 15
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Software
Datenerfassung
Tutorien
Datentransformation
Deskriptive Auswertung
Literatur
Darstellung & Visualisierung
Kennwertberechnung
Software
Einfache statistische Analysen
Einarbeitung und Mitarbeit erforderlich!
Statistik verstehen durch Arbeit an Daten!
Excel-basierte Klausuren
Folie 16
Methodenlehre
& Statistik
Organisatorisches
Einführung
Vorlesung
Exceleinführung
Tutorien
Termin 1 – Erste Schritte
Mittwoch,
Literatur
25.04. von 14-16 Uhr
(CIP Pool, Raum 01-236)
Termin 2 – Vertiefung
Software
Donnerstag, 26.04. von 9-11 Uhr
(CIP Pool, Raum 01-236)
Notebooks mitbringen!
Folie 17
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Folie 18
Organisatorisches
Einführung
Psychologie als Wissenschaft
„Wozu brauchen wir das?“
Gegenstand
Die Psychologie ist eine empirische Wissenschaft
über (menschliches) Verhalten und Erleben.
Empirische Wissenschaft
Auf Erfahrung beruhend, erfahrungswissenschaftlich
Prüfung von Hypothesen über Tatsachenbeobachtungen,
zumeist an Stichproben
Empirische Methoden: a) Prinzip der systematischen
Manipulation und Beobachtung; b) Aussagen werden
über die Regeln des logischen Schließens verknüpft
Verallgemeinerung durch statistischen Induktionsschluss: Was in der Stichprobe gilt, gilt auch in der
Population.
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Folie 19
Organisatorisches
Einführung
Psychologie als Wissenschaft
Grundbegriffe wissenschaftlicher Datensammlung
Merkmal: Isolierte Eigenschaft eines größeren Ganzen,
z.B. Intelligenz, Geschlecht, Depressivität
Ausprägung: Zustand des Merkmals,
z.B. IQ=115, Geschlecht=männlich, Depressivität=hoch
Merkmalsträger (auch: statistische Einheiten,
Beobachtungseinheiten):
„Objekte“ bei denen man die Ausprägung von
Merkmalen beobachten kann
In der Psychologie zumeist Menschen, aber auch
Tiere oder Aggregate wie z.B. Abteilungen in Firmen
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Psychologie als Wissenschaft
Grundbegriffe wissenschaftlicher Datensammlung
Beobachtungen: Feststellung der Ausprägung von
Merkmalen bei Merkmalsträgern
Beobachtungen im engeren Sinn (z.B.
Verhaltensbeobachtung, Bildgebende Verfahren)
Ergebnisse in einem Leistungstest, Selbstauskunft
Variablen
Statistik
Daten: Sämtliche Beobachtungen bei der
Informationssammlung
Statistik (im weiteren Sinn): Methoden zur Sammlung und
Analyse von Daten
Folie 20
Methodenlehre
& Statistik
Organisatorisches
Einführung
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Größen
auf die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 21
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Wissenschaftliche Aussagen
Anforderungen
Einfachheit (Ockham‘s Razor)
Variablen
Statistik
Eindeutigkeit
Logische Konsistenz (innere und äußere)
Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 22
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Wissenschaftliche Aussagen
„Interpersonale Hilfeperformanz nach der Konsumption
von interaktiven Telemedien wird durch
contentdeterminierte Affektlagen moduliert.“
Einfachheit (Ockham‘s Razor)
Variablen
Statistik
Eindeutigkeit
Logische Konsistenz (innere und äußere)
Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 23
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Einführung
Wissenschaftliche Aussagen
„Die Teilnahme an gewalthaltigen Computerspielen
verringert die Bereitschaft zu helfen.“
Wissenschaftl.
Aussagen
Einfachheit (Ockham‘s Razor)
Variablen
Statistik
Eindeutigkeit
Logische Konsistenz (innere und äußere)
Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 24
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Wissenschaftliche Aussagen
„Die Teilnahme an gewalthaltigen Computerspielen
verringert die Bereitschaft, anderen Menschen in einer
Notlage zu helfen.“
Einfachheit (Ockham‘s Razor)
Variablen
Statistik
Eindeutigkeit
Logische Konsistenz (innere und äußere)
Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 25
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Wissenschaftliche Aussagen
„Die Teilnahme an gewalthaltigen Computerspielen
verringert und erhöht die Bereitschaft, anderen
Menschen in einer Notlage zu helfen.“
Einfachheit (Ockham‘s Razor)
Variablen
Statistik
Eindeutigkeit
Logische Konsistenz (innere und äußere)
Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 26
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Wissenschaftliche Aussagen
„Die Teilnahme an gewalthaltigen Computerspielen
verringert oder erhöht die Bereitschaft, anderen
Menschen in einer Notlage zu helfen oder sie bleibt
gleich.“
Einfachheit (Ockham‘s Razor)
Variablen
Statistik
Eindeutigkeit
Logische Konsistenz (innere und äußere)
Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 27
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Psychologische Aussagen
Psychologische Aussagen orientieren sich an den 4
Anforderungen für wissenschaftliche Aussagen.
Hypothesen in der Psychologie sind üblicherweise
Aussagen über Gesetzmäßigkeiten, die als „WennDann“-Aussagen formuliert sind
Variablen
Statistik
„Wenn sich der Gewaltgehalt von Computerspielen
erhöht, dann verringert sich die Bereitschaft der Spieler,
anderen Personen in einer Notlage zu helfen.“
Folie 28
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Organisatorisches
Einführung
Psychologische Aussagen
Psychologische Aussagen orientieren sich an den 4
Anforderungen für wissenschaftliche Aussagen.
Hypothesen in der Psychologie sind üblicherweise
Aussagen über Gesetzmäßigkeiten, die als „WennDann“-Aussagen formuliert sind
Trifft eine Wenn-Dann-Aussage zu, so gilt immer, dass
„Wenn sich A verändert, verändert sich auch B“.
Statistik
„Die
„Wenn
Teilnahme
sich der an
Gewaltgehalt
gewalthaltigen
von Computerspielen (A)
verringert
erhöht, dann
dieverringert
Bereitschaft,
sichanderen
die Bereitschaft
Menschen
der
inSpieler,
einer
helfen (B).“
Notlage
anderenzu
Personen
helfen.“in einer Notlage zu helfen.“
Folie 29
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Folie 30
Organisatorisches
Einführung
Psychologische Aussagen
Psychologische Aussagen orientieren sich an den 4
Anforderungen für wissenschaftliche Aussagen.
Hypothesen in der Psychologie sind üblicherweise
Aussagen über Gesetzmäßigkeiten, die als „WennDann“-Aussagen formuliert sind
Trifft eine Wenn-Dann-Aussage zu, so gilt immer, dass
„Wenn sich A verändert, verändert sich auch B“.
Diese Kovariation zwischen Begriffen kann empirisch
über Beobachtung und Messung geprüft werden
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Organisatorisches
Einführung
Psychologische Aussagen
Das Kovariationsprinzip
Das Kovariationsprinzip ist eines der elementaren
Konzepte in der Statistik
Es vereinigt die zwei alltagssprachlich verschiedenen
Begriffe des Zusammenhangs und Unterschieds als
zwei Perspektiven desselben Prinzips:
Ein Unterschied ist ein Zusammenhang
Statistik
Ein Zusammenhang ist ein Unterschied
Für beide Perspektiven existieren statistische
Verfahren zur Feststellung und Überprüfung
Folie 31
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Organisatorisches
Psychologische Aussagen
Das Kovariationsprinzip
Beispiel: Mädchen rund um die Welt erleben ihre
Adoleszenz stressreicher als Jungen
(Persike und Seiffge-Krenke, 2011)
Der Unterschied liegt im verschiedenen
Stresserleben von Jungen und Mädchen.
Der Zusammenhang liegt in der Kovariation der
beiden Merkmale Geschlecht und Stresserleben.
Merkmal
Geschlecht
Merkmal
Mädchen
Stress
Folie 32
Einführung
W
Stress
M
>
Stress
Jungen
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Einführung
In der Praxis
Beispiel für psychologische Forschung
Forschungsvorhaben: Aversive Bilder & sportliche Leistung
Wissenschaftl.
Aussagen
Variablen
Selbstbeobachtung
„Ich jogge schneller, wenn ich mich vorher geärgert
habe.“
Alltagssprachliche Fragestellung
„Erhöht sich die sportliche Leistungsfähigkeit bei
stark negativen Gefühlszuständen?“
Statistik
Hypothese
„Wenn Menschen Stimuli mit hohem aversiven
Anregungsgehalt dargeboten bekommen, dann
erhöht sich ihre physiologische Aktivierung bei
sportlichen Tätigkeiten.“
Folie 33
Methodenlehre
& Statistik
Organisatorisches
Einführung
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Größen
auf die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 34
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Variablen
Vom Merkmal zur Variable
Bei den Merkmalsträgern werden anfangs immer
Merkmale beobachtet, z.B. Alter, IQ, libidinöse Erregung.
Die „Werte“, die ein Merkmal annehmen kann, heißen
Ausprägungen
Ein Merkmal hat mindestens zwei Ausprägungen, die
beliebig beschrieben sein können, z.B. verbal (jung/alt),
Wissenschaftl.
Aussagen
Variablen
numerisch (0/1), bildlich (
Statistik
Folie 35
Einführung
/
)
Der Begriff Beobachtung in der psychologischen
Forschung bezeichnet streng genommen nur die
Feststellung der Ausprägung eines Merkmals
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Variablen
Die Statistik als mathematische Disziplin muss mit
Zahlen arbeiten, nicht mit den beliebig kodierten
Ausprägungen eines Merkmals.
Man ordnet daher zunächst den Ausprägungen eines
Merkmals feste Zahlen zu. Ein zahlenmäßig kodiertes
Merkmal heißt dann Variable.
Variablen
Statistik
Folie 36
Merkmal
Variable
(Altersgruppe)
(Altersgruppe)
mit Ausprägungen
mit Ausprägungen
(jung, alt)
(0, 1)
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Variablen
Die Statistik als mathematische Disziplin muss mit
Zahlen arbeiten, nicht mit den beliebig kodierten
Ausprägungen eines Merkmals.
Sie ordnet daher zunächst den Ausprägungen eines
Merkmals feste Zahlen zu. Ein zahlenmäßig kodiertes
Merkmal heißt dann Variable.
Die Überführung der Beobachtung eines Merkmals in
den Zahlenwert einer Variable wird als Messung
bezeichnet.
Der festgestellte Zahlenwert ist der Messwert einer
Variablen.
Es gibt verschiedene Klassifikationssysteme, um Typen
von Variablen zu unterscheiden.
Variablen
Statistik
Folie 37
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Organisatorisches
Einführung
Variablen
Unterscheidung nach Art der Manipulation ihrer Werte
Eine unabhängige Variable (UV, IV) besitzt Werte,
die ein Versuchsleiter willkürlich hergestellt hat (z.B.
Dosis eines verabreichten Medikamentes, Einteilung
in Gruppen, die bestimmte Treatments bekommen)
Eine abhängige Variable (AV, DV) besitzt Werte, die
man erst über die Messung bei den Merkmalsträgern
gewinnt (z.B. Reaktionszeit, Fehlerquote,
Erregungsniveau, etc.)
Schema:
Unabhängige Variable
UV
Folie 38
Abhängige Variable
AV
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Variablen
Unterscheidung nach Art der Manipulation ihrer Werte
Einfache Merkregel
Unabhängige Variablen sind Variablen, deren
Ausprägungen der Versuchsleiter im Experiment
verändert/kontrolliert, die er also vorher kennt.
Abhängige Variablen sind Variablen, die im
Experiment an der Versuchsperson gemessen
werden.
Die Ausprägung der UV soll die Größe der AV
beeinflussen, niemals umgekehrt.
Dies ist wieder das Kovariationsprinzip
Variablen
Statistik
Folie 39
Einführung
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
In der Praxis
Beispiel für psychologische Forschung
Forschungsvorhaben: Aversive Bilder & sportliche Leistung
Variablen
Merkmale
Negativer Anregungsgehalt der Bilder
Physiologische Aktivierung
Statistik
Variablen
Festlegung numerischer Werte bzw. einer Messskala
für die Ausprägungen der Merkmale
Problem
Wie werden die Variablen überhaupt gemessen?
Folie 40
Methodenlehre
& Statistik
Organisatorisches
Einführung
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Größen
auf die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 41
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Organisatorisches
Einführung
Operationalisierung
In Hypothesen kommen theoretische Merkmale, sog.
Konstrukte vor, die nicht direkt messbar sind (z.B.
Intelligenz, Angst, Kreativität, Leistungsfähigkeit)
Einer Hypothese müssen somit beobachtbare Phänomene
zugeordnet werden. Die Vorschrift, wie ein Konstrukt durch
Beobachtung bzw. Messung festgestellt werden kann, nennt
man Operationalisierung.
Das beobachtbare Phänomen wird häufig auch als
Indikator die daraus erzeugt Variable als Indikatorvariable
bezeichnet.
Daten im Forschungsprozess sind also Informationen, die
mithilfe einer Operationalisierung gewonnen wurden
Folie 42
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Einführung
In der Praxis
Beispiel für psychologische Forschung
Forschungsvorhaben: Aversive Bilder & sportliche Leistung
Wissenschaftl.
Aussagen
Merkmale
Negativer Anregungsgehalt der Bilder
Physiologische Aktivierung beim Joggen
Variablen
Operationalisierung
Anregungsgehalt: Einschätzung einer Expertengruppe
Statistik
Physiologische Aktivierung: Herzrate und
Adrenalinkonzentration
Variablen
Anregungsgehalt: Einschätzung auf einer 7-PunkteSkala von 1=neutral bis 7 = stark negativ
Folie 43
Physiologische Aktivierung: bpm (Herzrate) und mmol/l
(Adrenalinkonzentration)
Methodenlehre
& Statistik
Organisatorisches
Einführung
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Gößen auf
die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 44
Methodenlehre
& Statistik
Organisatorisches
Einführung
Empirie
& Theorie
Ziele der Anwendung
statistischer Methoden
Wissenschaftl.
Aussagen
Design: Planung und Ausführung von Untersuchungen (Art
der Stichprobe, Wahl des Messinstrumentes, Kontrolle der
Messung etc.)
Variablen
Statistik
Folie 45
Deskription (Beschreibung) und Exploration (Entdecken):
Zusammenfassung, Darstellung und das Auffinden von
systematischen Strukturen in Daten der untersuchten
Stichprobe
Inferenz (schließende, induktive Statistik): Generalisierung
und Vorhersagen über gemachte Beobachtungen von der
untersuchten Stichprobe auf die Grundgesamtheit
(Population)
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Einführung
Daten und ihre Analyse
Daten werden in Matrizen
Festgehalten (Datenmatrix)
Wissenschaftl.
Aussagen
Variablen
Für jeden Merkmalsträger
wird in einer Zeile die
Ausprägung der UV(n) und
der AV(n) codiert
Statistik
Die Kodierung erfolgt über
Zahlen. Diese haben
vielfach unterschiedliche
Bedeutungen.
Folie 46
Matrixorganisation:
Personen x Merkmale
(Zeile)
(Spalten)
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Organisatorisches
Deskriptive statistische Methoden
Kennwerte
Kennwerte fassen die Eigenschaften der Verteilung der
gemessenen Variablen zusammen, z.B. Mittelwert
Berechnung, Darstellung und Vergleiche von Daten und
Kennwerten sind für statistische Entscheidungen
wichtig
Anregung Hoch
Mittelwert
Maximalpuls 181.58
Adrenalin
Niedrig Maximalpuls
Adrenalin
Folie 47
Einführung
Standardab Standardfehler
Median weichung des Mittelwerts Minimum Maximum
181.92
12.01
3.80
159.84
201.81
44
44
3
1
41
51
165.79
164.01
8.83
2.79
152.41
179.21
38
37
2
1
35
43
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Folie 48
Organisatorisches
Einführung
Deskriptive statistische Methoden
Diagramme
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Einführung
Korrelation & Regression
Zusammenhang zwischen zwei Variablen (bivariate Statistik)
50
Wissenschaftl.
Aussagen
48
Anregung hoch
46
Anregung niedrig
y = 0.2242x + 3.1538
R² = 0.78
Variablen
Adrenalin
44
42
40
38
36
Statistik
34
y = 0.2034x + 4.1835
R² = 0.6108
32
30
120
140
160
180
Maximalpuls
Folie 49
200
220
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Folie 50
Organisatorisches
Einführung
Inferenzstatistische Methoden
Zusammenhänge von Stichprobe und Grundgesamtheit
Was kann man mit Kennwerten, gewonnen aus
Stichproben, über die Kennwerte der Population aussagen?
Schätzen
Wie und wie genau kann man Kennwerte der Population
aus Stichproben schätzen?
Testen
Kann man etwas über die Gleichheit oder Ungleichheit von
aus Stichproben geschätzen Kennwerten mit einer
bestimmten statistischen Verlässlichkeit sagen?
Methodenlehre
& Statistik
Organisatorisches
Einführung
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Größen
auf die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 51
Methodenlehre
& Statistik
Organisatorisches
Einführung
Wahrheit in der Psychologie
Probabilistische Zusammenhänge
Problem: Wenn-Dann-Aussagen gelten in der
Psychologie niemals für alle Merkmalsträger und
Situationen
Seymour Epstein (1979)
On predicting most of the people much
of the time: The stability of behavior
Daryl Bem & Andrea Allen (1974)
On predicting some of the people some
of the time: The search for crosssituational consistencies in behavior
Folie 52
Also: Hypothesen werden statistisch immer
beantwortet im Sinne von „Wenn-Dann wahrscheinlich”
Aussagen (Probabilismus)
Methodenlehre
& Statistik
Organisatorisches
Einführung
Wahrheit in der Psychologie
Probabilistische Zusammenhänge
Problem: Wenn-Dann-Aussagen gelten in der
Psychologie niemals für alle Merkmalsträger und
Situationen
Gründe:
– Wirkung von Stör- bzw. unbekannten Variablen
– Nichtberücksichtigung komplexer Interaktionen
– Unbestimmtheit von Anfangsbedingungen in
komplexen Situationen
In der Psychologie gilt eine Gesetzmäßigkeit als
belegt, wenn sich die Kovariation von Variablen
statistisch als existent erweist
Folie 53
Sie gilt als bestätigt oder bewährt, wenn die
statistische Existenz mehrfach aufgewiesen werden
konnte.
Methodenlehre
& Statistik
Organisatorisches
Einführung
In der Praxis
Beispiel für psychologische Forschung
Forschungsvorhaben: Aversive Bilder & sportliche Leistung
Statistischer Schluss
Bei der Behauptung, dass mit steigendem negativen
Anregungsgehalt von Bildern die physiologische
Aktivierung bei sportlicher Betätigung steigt, beträgt
die Irrtumswahrscheinlichkeit 5%.
Inhaltlicher Schluss
Negativ erregt zu sein bringt den Körper beim Sport
stärker in Wallung.
Folie 54
Beantwortung der Fragestellung
Prinzipiell ist die Fragestellung beantwortet, aber:
– Laufe ich deshalb schneller?
– Gilt die Beobachtung bei allen Sportarten?
– …
Methodenlehre
& Statistik
Ende.
Anfang.
persike@uni-mainz.de
persike@uni-mainz.de
Folie 55
Methodenlehre
& Statistik
Inhalte
dieser Sitzung
Von Merkmalen zu Variablen
Von Variablen zu Zufallsvariablen – das Experiment
Das Sichere am Zufall: Ergebnisse und Ereignisse
Laplaces Antwort auf die Frage „Was ist eigentlich
Wahrscheinlichkeit?“
Folie 2
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Merkmale & Variablen
Grundlagen
Zufallsexperimente
Eigenschaften, deren Werte bei den statistischen
Einheiten beobachtet werden, heißen Merkmale
Die „Werte“, die ein Merkmal annehmen kann, heißen
Ausprägungen
Stichprobenraum
Die Ausprägungen eines Merkmals können beliebiger Art
sein (z.B. Worte, Formen, Farben etc.)
Eine Variable wird definiert, indem den Ausprägungen
des Merkmals Zahlen zugeordnet werden. Diese Zahlen
heißen Realisationen oder Werte.
Zufallsvariablen
„2“
„13“
Merkmal
Punkte auf Fläche
Folie 3
„5“
„36“
Variable
Zahlen
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Merkmale & Variablen
Notation
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Folie 4
Variablen werden mit Großbuchstaben
symbolisiert, häufig verwendet man X und Y
Die Realisationen einer Variablen werden dann
mit den entsprechenden Kleinbuchstaben
gekennzeichnet, also x und y
Die Menge aller möglichen Realisationen ist der
Wertebereich einer Variablen
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Variablen
Definition
Zufallsexperimente
Variablen werden immer über eine mathematische
Formulierung definiert, z.B.
Merkmal
Stichprobenraum
Zufallsvariablen
Variable
0, wenn
x1: 1,
x : 2,
2 1, wenn
X
x 6 : 6,
5, wenn
Die extensionale Definition zählt alle
Realisationen der Variablen auf und weist ihnen
Symbole zu (x1, x2, …).
Folie 5
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Variablen
Definition
Zufallsexperimente
Variablen werden immer über eine mathematische
Formulierung definiert, z.B.
Merkmal
Stichprobenraum
Variable
X 0
Zufallsvariablen
Die intensionale Definition gibt eine Vorschrift
an, die die Variable und ihre Realisationen
eindeutig spezifiziert.
Folie 6
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Zufallsexperimente
Frage: Wie werden Realisationen symbolisiert?
Stichprobenraum
Hat eine Variable X genau k mögliche Realisationen,
so werden diese fortlaufend mit x1, x2, …, xk indiziert
Zufallsvariablen
Folie 7
Ziel: Eine formale Schreibweise für „Der Wert der
vierten Ausprägung von X“ zu finden
Die Laufindizes dienen dazu, die einzelnen Realisationen eindeutig zu adressieren (Beginn bei 1).
x1: 1, wenn <18
Alter X x2 : 2, wenn <68
x : 3, wenn 68
3
y1: 0, wenn <18
Alter Y y2 : 18, wenn <68
y3 : 68, wenn 68
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Folie 8
Frage: Wie werden Realisationen symbolisiert?
Ziel: Eine formale Schreibweise für „Der Wert der
vierten Ausprägung von X“ zu finden
Hat eine Variable X genau k mögliche Realisationen,
so werden diese fortlaufend mit x1, x2, …, xk indiziert
Die Laufindizes dienen dazu, die einzelnen Realisationen eindeutig zu adressieren (Beginn bei 1)
Das Symbol xj mit j = 1…k bezeichnet dann die j-te
Realisation der Zufallsvariablen X.
Diese Indizierung ist nur für diskrete Variablen
sinnvoll, da stetige Variablen unendlich viele
Realisationen haben
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Frage: Wie werden Merkmalsträger symbolisiert?
Ziel: Eine formale Schreibweise für „Der Wert der
vierten Person in der Stichprobe“ zu finden
Konvention:
Für die Gesamtzahl von Personen wird nahezu
immer das Zeichen n (oder N) benutzt.
Für die Gesamtzahl von Realisationen werden
andere Kleinbuchstaben verwendet (z.B. k)
Dann dient wieder ein Laufindex dazu, die
einzelnen Personen zu adressieren
Folie 9
Das Symbol xi mit i = 1…n bezeichnet dann die i-te
Messung der Zufallsvariablen X.
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Zufallsexperimente
Problem: Das Symbol
x3
Stichprobenraum
Zufallsvariablen
Folie 10
kann „die dritte Realisation der Zufallsvariablen X“ sein
oder auch „der Wert der 3. Person in der Stichprobe“
Also: Es muss vorher definiert sein, was der Laufindex
bedeutet, z.B. „Die Variable X habe k Realisationen und
sei an n Personen gemessen worden“.
xi
xj
mit i = 1…n
mit j = 1…k
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Skalen
Nominalskala
Notation
In psychologischen Experimenten gibt es oft viele
Variablen, die als UV oder AV erhoben werden.
Beispiel: An einer Stichprobe von Personen verschiedenen Geschlechts wird der durchschnittliche
Alkoholkonsum über einen Monat hinweg gemessen.
Man hat hier offenbar 3 Variablen sowie mehrere
Messungen verschiedener Merkmalsträger
•
•
•
IQ als AV: (X)
Geschlecht als UV (Y)
Alkoholabhängigkeit als UV (Z)
Frage: Wie indiziert man z.B. „Die IQ-Messung des
4. Mannes in der Gruppe der Alkoholiker?“
Folie 11
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Skalen
Die Variable Geschlecht (Y) wird in k=2
Ausprägungen gemessen:
y1: 0 = männlich
y2: 1 = weiblich
Nominalskala
Notation
Die Variable Alkoholkonsum (Z) wird diskretisiert in
m=5 Ausprägungen (Jelinek, 1951) gemessen:
Z=
Folie 12
z1:
z2:
z3:
z4:
z5:
0
1
2
3
4
=
=
=
=
=
Kein Alkoholkonsum
Konflikt-/Erleichterungstrinker
Gelegenheitstrinken
Rauschtrinken (Alkoholiker)
Periodisches Trinken (Alkoholiker)
Es nehmen insgesamt n=220 Personen teil
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Skalen
Nominalskala
Notation
Die AV ist der IQ. Dies ist die Variable, deren
Realisation im Experiment bei den
Merkmalsträgern gemessen wird.
Die beiden anderen Variablen sind UVen, deren
Realisationen vor dem Experiment bereits
feststehen, bzw. erhoben werden.
Zur eindeutigen Indizierung des IQ eines
Merkmalsträgers werden nun mehrere
Laufindizes benötigt
Folie 13
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Skalen
Nominalskala
Notation
Eine Person fällt immer in eine der km = 25 = 10
Gruppen von Geschlecht und Alkoholkonsum
Der Laufindex für Geschlecht sei r = 1…k und für
Alkoholkonsum s = 1…m
Jede der 10 Gruppen hat also nrs Mitglieder
Jede Person kann eindeutig identifiziert werden über
xirs
Folie 14
mit i=1…nrs
r=1…k, s=1…m
So ist z.B. x4,1,3 der IQ des vierten Mannes unter den
Gelegenheitstrinkern
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Variablen
Typisierung von Merkmalen und Variablen
Zufallsexperimente
Stichprobenraum
Die wichtigste Typisierung unterscheidet
diskrete von stetigen (kontinuierlichen) Daten
Hierbei sind Typen von Merkmalen und Typen
von Variablen streng zu unterscheiden.
●
x1: 0, wenn <18
Alter X x 2 : 1, wenn <68
x : 2, wenn 68
3
Zufallsvariablen
●
Folie 15
Alter ist ein stetiges Merkmal. Eine Variable
„Alter“ kann aber diskret definiert werden als
Gleiches gilt z.B. für Intelligenz, Schulleistung,
Sehvermögen, Fahreignung
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Variablen & Messungen
Unterscheidung
Zufallsexperimente
Die empirische Feststellung der Realisation einer
Variablen wird als Messung bezeichnet
Stichprobenraum
Dabei ist zu unterscheiden zwischen der
Beobachtung der Ausprägung des Merkmals und
der Messung der Realisation der Variablen
Zufallsvariablen
Denn: Die Beobachtung kann eine Information in
beliebiger Form erheben (z.B. verbal, bildlich), die
Messung liefert immer eine Zahl.
Die gemessenen Zahlenwerte einer Variablen
heißen Messwerte
Folie 16
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Das Zufallsexperiment
Von Variablen zu Zufallsvariablen
Zufallsexperimente
Eine Variable wird zur Zufallsvariablen, wenn ihre
Realisation in einem Zufallsexperiment
festgestellt wird.
Stichprobenraum
(Zufalls-)Experiment = Ein Satz von Regeln,
unter denen eine bestimmte Handlung ausgeführt
wird (Bedingungskomplex Ξ, „Xi“)
Trial = Eine Durchführung des Experimentes
Zufallsvariablen
Ergebnis = Beobachtung am Ende des Trials
(in beliebiger Form, z.B. als Zahl, Bild, Symbol, Farbe etc.)
Ereignis = Jede beliebige Menge von Ergebnissen
Achtung: Ergebnisse & Ereignisse sind noch nicht
zwangsläufig Realisationen einer Zufallsvariablen
Folie 17
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Folie 18
Variablen
Zufallsvariablen
Das Zufallsexperiment
Von Variablen zu Zufallsvariablen
Beispiel I: Einmaliger Würfelwurf
Zufallsexperiment (Ξ): Ein 6-seitiger Würfel ist einmal
zu werfen. Er kann nicht auf einer Kante liegen bleiben.
Ergebnis ist die Augenzahl der oben liegenden Seite.
Ergebnisse: Jede mögliche Augenzahl (1, 2, 3, 4, 5, 6)
Ereignisse: „1“, „1 oder 6“, „Augenzahl ≤ 3“, „ungerade
Zahl“, „irgendeine Zahl“
Trial: Der einmalige Wurf des Würfels
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Folie 19
Variablen
Zufallsvariablen
Das Zufallsexperiment
Von Variablen zu Zufallsvariablen
Beispiel II: Zweimaliger Münzwurf
Zufallsexperiment (Ξ): Eine Münze ist zweimal zu
werfen. Sie kann nicht auf einer Kante liegen bleiben.
Ergebnis ist die oben liegende Seite.
Ergebnisse: Jede mögliche Kombination der zwei
Münzen (K+K, K+Z, Z+K, Z+Z)
Ereignisse: „zweimal dieselbe Seite“, „Kein Kopf“
Trial: Der zweimalige Wurf der Münze
Achtung: Die Durchführung von 2 Trials des
Zufallsexperimentes „Eine Münze wird einmal geworfen“
ist ein anderes Experiment.
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Folie 20
Variablen
Zufallsvariablen
Das Zufallsexperiment
Von Variablen zu Zufallsvariablen
Beispiel III: Zulassung zum Psychologiestudium
Zufallsexperiment (Ξ): Aus 782 Bewerbern werden 44
verschiedene Personen zufällig ausgewählt. Ergebnis ist
die Menge der 44 Personen.
Ergebnisse: Jede Menge von 44 Personen
Ereignisse: „die 44 Besten“, „die 44 Besten oder die 44
Schlechtesten“, „jede Auswahl von 44 Personen aus den
besten 391“
Trial: Die einmalige Auswahl von 44 Personen
Achtung: Die Durchführung von 44 Trials des
Zufallsexperimentes „Aus 742 Bewerbern wird 1 Person
ausgewählt“ ist ein anderes Experiment.
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Das Zufallsexperiment
Von Variablen zu Zufallsvariablen
Das Zufallsexperiment ist in weiten Teilen ein sehr
deterministisches Konzept, denn
der Ablauf eines Trials ist a-priori
vollständig bestimmt
die möglichen Ergebnisse sind a-priori
vollständig bestimmt
nur das konkrete Ergebnis (die
Beobachtung) ist a-priori unbestimmt
Daher kann sich die Statistik dem Verständnis des
Zufallsexperimentes über mathematische Hilfsmittel
nähern, nämlich der Mengenlehre
Folie 21
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Zufallsexperimente
Definition: Ergebnisse eines Zufallsexperimentes sind immer Mengen. Diese Mengen können
auch nur aus einem Element bestehen.
Stichprobenraum
Beispiel I: Einmaliger Würfelwurf
Zufallsvariablen
{1}, {2}, {3}, {4}, {5}, {6}
Beispiel II: Zweimaliger Münzwurf
{K, K}, {K, Z}, {Z, K}, {Z, Z}
Beispiel III: IQ-Test
{0}, {1}, {2}, …, {100}, {101}, …
Folie 22
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Zufallsexperimente
Es galt: Ereignis = Jede beliebige Menge
(Kombination) möglicher Ergebnisse eines Trials
Stichprobenraum
Elementarereignisse = die kleinste Menge
disjunkter Ereignisse, in die sich die möglichen
Ergebnisse eines Trials zerlegen lassen
Zufallsvariablen
Zwei Ereignisse E1 und E2 heißen disjunkt
(paarweise unvereinbar), wenn gilt
E1 E2
Schnittmenge
Folie 23
Unmögliches Ereignis
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Beispiel I:
Beim Wurf eines Würfels lauten die Elementarereignisse
{1}, {2}, {3}, {4}, {5}, {6},
Stichprobenraum
nicht aber {{2}, {4}, {6}} oder {{1},{ 5}}
Zufallsvariablen
Beispiel II:
Beim Wurf zweier Würfel sind die Elementarereignisse
(obwohl diese disjunkt sind)
{1,1} , {1,2} , {1,3},…, {6,5}, {6,6},
nicht aber {{1, 6}, {6, 1}} oder {{1, 1}, {3, 3}, {6, 6}}
(und vor allem nicht das Ereignis {1}, das überhaupt nicht vorkommen kann)
Folie 24
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Zufallsexperimente
Die vollständige Menge der Elementarereignisse
eines Zufallsexperimentes heißt
Stichprobenraum Ω.
Stichprobenraum
Der Stichprobenraum umfasst alle
Elementarereignisse (also alle möglichen
Ergebnisse) eines Zufallsexperimentes
Zufallsvariablen
Der Stichprobenraum ist eine Menge
Beispiel: Der Stichprobenraum beim einmaligen
Würfelwurf ist
Ω = {1, 2, 3, 4, 5, 6}
Hinweis: Eigentlich müsste man schreiben: Ω = {{1}, {2}, {3}, {4}, {5}, {6}}
Folie 25
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Partitionierung
Jedes Ereignis E teilt den gesamten
Stichprobenraum immer in zwei Untermengen
Ein Teil der Elementarereignisse gehört zum
Ereignis E, der andere Teil gehört nicht dazu
Diese Aufteilung nennt man Partitionierung
des Stichprobenraums
„Alle geraden Augenzahlen“
E = {2, 4, 6}
Folie 26
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Partitionierung
Jedes Ereignis E teilt den gesamten
Stichprobenraum immer in zwei Untermengen
Ein Teil der Elementarereignisse gehört zum
Ereignis E, der andere Teil gehört nicht dazu
Diese Aufteilung nennt man Partitionierung
des Stichprobenraums
„Eins oder Sechs“
E = {1, 6}
Folie 27
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Partitionierung
Jedes Ereignis E teilt den gesamten
Stichprobenraum immer in zwei Untermengen
Ein Teil der Elementarereignisse gehört zum
Ereignis E, der andere Teil gehört nicht dazu
Diese Aufteilung nennt man Partitionierung
des Stichprobenraums
„Drei“
E = {3}
Folie 28
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Partitionierung
Jedes Ereignis E teilt den gesamten
Stichprobenraum immer in zwei Untermengen
Ein Teil der Elementarereignisse gehört zum
Ereignis E, der andere Teil gehört nicht dazu
Diese Aufteilung nennt man Partitionierung
des Stichprobenraums
„Irgend eine Zahl“
E = {1, 2, 3, 4, 5, 6}
Folie 29
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Partitionierung
Jedes Ereignis E teilt den gesamten
Stichprobenraum immer in zwei Untermengen
Ein Teil der Elementarereignisse gehört zum
Ereignis E, der andere Teil gehört nicht dazu
Diese Aufteilung nennt man Partitionierung
des Stichprobenraums
„Keine Zahl“
E = {}
Folie 30
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Zufallsexperimente
Die Menge aller Kombinationen von Ereignissen
aus dem Stichprobenraum heißt SigmaAlgebra σ
Stichprobenraum
Zusätzlich enthält σ noch das unmögliche
Ereignis
Zufallsvariablen
Folie 31
σ umfasst also alle möglichen Kombinationen aus
den Elementarereignissen plus
Merksatz: σ enthält alle Kombinationen von
Ergebnissen eines Zufallsexperimentes, auf die
man wetten könnte
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Variablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Beispiel: Einmaliger Münzwurf
Elementarereignisse: K, Z, S
Stichprobenraum:
Stichprobenraum
Zufallsvariablen
Zufallsvariablen
Ω = {K, Z, S}
, K ,Z ,S ,K , Z ,K , S ,Z , S , K , Z , S
Ω
Die Anzahl der Elemente in der Sigma-Algebra
heißt Mächtigkeit
Achtung: Für die Mächtigkeit spielt die Reihenfolge der Elementarereignisse keine Rolle.
Frage: Was ist hier die Zufallsvariable?
Folie 32
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Zufallsvariablen
Definition
Zufallsexperimente
Eine Zufallsvariable ist eine 1:1 Abbildung
(„bijektiv“) der Elemente des Stichprobenraums auf eine Menge von Zahlen.
Stichprobenraum
Es gelten alle Regeln, die bereits für Variablen
eingeführt wurden.
Zufallsvariablen
Beispiel:
KK,,ZZ,,SS
Folie 33
0, wenn
wenn "K"
"K"
xx11:: -1,
XX
xx22:: 1, wenn "Z"
x : 0,
3 2, wenn "S"
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Zufallsvariablen
Prinzip
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Beispiel: Experiment = Eimaliger Münzwurf
Definition eines Zufallsexperimentes:
Mögliche Ergebnisse eines
Trials: Kopf, Zahl, Seite
Durchführung eines Trials
und Feststellung des
Ergebnisses: Zahl
Definition des
Stichprobenraums
und damit auch von
Definition einer Zufallsvariablen X()
Messung: X = 1
Frage: Was bedeutet „zufällig“?
Folie 34
Methodenlehre
& Statistik
Laplace
Kolmogoroff
Geschichte
Geschichte der WT
Definition
Anfänge Mitte des 17. Jh. (Cardano, Bernoulli, Huygens,
Pascal, Fermat). Aufgaben des Glücksspiels. Nur
Arithmetik und Kombinatorik.
Vererbung
Weiterentwicklungen im 18.-19. Jh. durch Laplace, Gauss,
Poisson: Fehlertheorie, Ballistik, Populationsstatistik.
Beispiele
Durchbruch zu Beginn des 20. Jh: Entwicklung der WTheorie, Fundament im axiomatischen Aufbau
(Kolmogoroff). Theorie der stochastischen Prozesse
(Wiener, Markov, Khintchin).
Heute zentraler Bestandteil empirischer Forschung:
Informationstheorie, Physik, Bevölkerungsstatistik,
Epidemiologie, Materialprüfung, Statik, Personalauswahl,
psychologische Testung, Versuchsplanung und
Stichprobentheorie.
Folie 35
Methodenlehre
& Statistik
Geschichte
Definition
Vererbung
Beispiele
Laplace
Kolmogoroff
Die Wahrscheinlichkeitsdefinition von Laplace
Wahrscheinlichkeiten im Stichprobenraum
Grundannahme: Alle Elementarereignisse („kleinomega“) im Stichprobenraum Ω sind gleichmöglich
Wenn der Stichprobenraum die k Elementarereignisse 1
bis k enthält, so ist die Wahrscheinlichkeit für jedes von
diesen einfach
1
p i
k
mit i 1 k
p() ist demnach eine auf dem Stichprobenraum definierte
mathematische Funktion (i.e. eine Konstante), die so
genannte Wahrscheinlichkeitsfunktion.
Folie 36
Methodenlehre
& Statistik
Geschichte
Definition
Vererbung
Beispiele
Laplace
Kolmogoroff
Die Wahrscheinlichkeitsdefinition von Laplace
Wahrscheinlichkeiten in der -Algebra
Jedem Ereignis E, welches der σ-Algebra angehört, kann
nun ebenfalls eine Wahrscheinlichkeit zugewiesen
werden.
m = Mächtigkeit der Menge an
gleichmöglichen Elementarereignissen aus Ω, die Teilereignis
von E sind.
m
p( E )
k
„Günstige durch
Mögliche“
k
= Mächtigkeit des Stichprobenraumes (also Anzahl aller
Elementarereignisse aus Ω)
p(E) ist wieder eine Wahrscheinlichkeitsfunktion,
diesmal definiert auf der -Algebra.
Folie 37
Methodenlehre
& Statistik
Geschichte
Definition
Vererbung
Laplace
Kolmogoroff
Die Wahrscheinlichkeitsdefinition von Laplace
Wahrscheinlichkeiten in der -Algebra
Laplaces Definition der Wahrscheinlichkeitsfunktion
p(E) beruht auf dem Prinzip der Partitionierung
Das Ereignis E partitioniert den Stichprobenraum in
Beispiele
● m Elementarereignisse, die Teil von E sind.
● k–m Elementarereignisse, die nicht Teil von E sind
Die Wahrscheinlichkeit p(E) ist also einfach die Summe der
Wahrscheinlichkeiten seiner m Elementarereignisse
1 1
1 m
p( E )
k k
k k
Folie 38
m-mal
Methodenlehre
& Statistik
Geschichte
Definition
Vererbung
Beispiele
Laplace
Die Wahrscheinlichkeitsdefinition von Laplace
Vererbung
Frage: Der Stichprobenraum ist noch nicht die Zufallsvariable X – wie erhält man deren Wahrscheinlichkeiten?
Definition: Die Zufallsvariable „erbt“ die Wahrscheinlichkeitsfunktion des Stichprobenraums, auf dem sie beruht.
Stichprobenraum:
Zufallsvariable:
Folie 39
Kolmogoroff
Bube, Dame, König , As
p 1 ,
4
1 ,
4
1 ,
4
1
4
X x1: 0, x2 : 1, x3: 2, x3 : 4
p x 1 ,
4
1 ,
4
1 ,
4
1
4
Methodenlehre
& Statistik
Geschichte
Definition
Vererbung
Laplace
Kolmogoroff
Die Wahrscheinlichkeitsdefinition von Laplace
Vererbung
Vollständige Schreibweise
für Zufallsvariable und deren
Wahrscheinlichkeitsfunktion:
x1: 0, wenn Bube
x : 1, wenn Dame
X 2
x3 : 2, wenn König
x3 : 4, wenn As
Beispiele
p X
p X
p x
p X
p X
Folie 40
x1 : 1
4
x2 : 1
4
x3 : 1
4
x4 : 1
4
Methodenlehre
& Statistik
Geschichte
Laplace
Kolmogoroff
Die Wahrscheinlichkeitsdefinition von Laplace
Definition
Beispiele
Vererbung
Summe von 2 Würfelwürfen
Beispiele
Anzahl von „Zahl“ bei 3 Münzwürfen
Frage des Landsknechts an Huygens
Folie 41
Methodenlehre
& Statistik
Relevante Excel Funktionen
Wahrscheinlichkeitsrechnung
• Grundrechenarten +, –, ×, /
• SUMME(), PRODUKT()
Folie 42
Methodenlehre
& Statistik
Inhalte
dieser Sitzung
Herumgedrückt: Die Wahrscheinlichkeitsdefinition
von Kolmogoroff
Wie misst man Wahrscheinlichkeiten – das Gesetz
der großen Zahl
Bedingte Wahrscheinlichkeiten: Wie wahrscheinlich
sind blaue Streifen bei Schwangerschaft – und wie
wahrscheinlich ist Schwangerschaft bei blauen
Streifen?
Der Satz von Bayes
Folie 2
Methodenlehre
& Statistik
Laplace
Kolmogoroff
Die axiomatische WkDefinition von Kolmogoroff
Probleme der Laplace‘schen Definition
Die Definition von p() ist zirkulär, da
„Gleichmöglichkeit“ nur ein Synonym für
Gleichwahrscheinlichkeit ist.
Die Klasse der enthaltenen Zufallsprozesse ist durch
das Konzept der Gleichmöglichkeit von
Elementarereignissen stark eingeschränkt.
Beispiel: Kopf, Zahl und Seite
Folie 3
Methodenlehre
& Statistik
VennDiagramme
Definition
Laplace
Kolmogoroff
Exkurs: Venn-Diagramme
Illustration von Ereignissen & Wahrscheinlichkeiten
Jedes Ereignis ist durch einen Kreis repräsentiert
Die Fläche des Kreises repräsentiert die
Wahrscheinlichkeit des Ereignisses
Folgerungen
Das umgebende Quadrat ist der Stichprobenraum
Poisson
A
B
Folie 4
A und B haben eine Schnittmenge, sind aber ungleich
A
B
A ist ein Teilereignis von B
Methodenlehre
& Statistik
Laplace
Kolmogoroff
VennDiagramme
Die axiomatische WkDefinition von Kolmogoroff
Definition
Die auf der σ–Algebra definierte Funktion p(E) besitzt
folgende Eigenschaften:
Folgerungen
1. Für jedes Ereignis E der σ–Algebra gilt:
p(E) 0
Poisson
2. Für das sichere Ereignis gilt:
p() = 1
3. Lässt sich das Ereignis E in die disjunkten
Teilereignisse A und B zerlegen, gilt:
(E, A, B σ; A B = )
4.
p(E) = p(A +B) = p(A) + p(B)
Additionssatz der Wahrscheinlichkeiten
Folie 5
Methodenlehre
& Statistik
VennDiagramme
Definition
Folgerungen
Poisson
Laplace
Kolmogoroff
Folgerungen aus den Axiomen
Der Erweiterte Additionssatz
Der Additionssatz kann beliebig weit verschachtelt
werden, wenn die Teilereignisse selbst wieder in
disjunkte Teilereignisse zerlegbar sind.
Konsequenz: Ist ein Ereignis E in k disjunkte
Teilereignisse e1 … ek zerlegbar, so folgt durch
vollständige Induktion:
p(E) = p(e1) + p(e2) + … + p(en)
Erweiterter Additionssatz
Folie 6
Methodenlehre
& Statistik
VennDiagramme
Definition
Laplace
Kolmogoroff
Folgerungen aus den Axiomen
Die Wahrscheinlichkeit des unmöglichen Ereignisses
p 0
Folgerungen
Wahrscheinlichkeit des unmöglichen
Ereignisses ist 0.
Poisson
Es gilt ja für den Stichprobenraum :
Und mit Axiom 3 (Additionssatz):
p () p p
Und mit Axiom 2 nun:
1 1 p()
Durch Umformen folgt der Satz.
Folie 7
Methodenlehre
& Statistik
VennDiagramme
Definition
Laplace
Kolmogoroff
Folgerungen aus den Axiomen
Die Wahrscheinlichkeit des Gegenereignisses
p( E ) 1 p E
E
E
Folgerungen
Wahrscheinlichkeit des Komplements
ist 1 minus die WK des Ereignisses
Poisson
Es gilt ja für den Stichprobenraum :
EE
Und mit Axiom 2 folglich:
1 pE E
Und mit Axiom 3 (Additionssatz) dann:
1 pE pE
Woraus der Satz folgt.
Folie 8
Methodenlehre
& Statistik
VennDiagramme
Definition
Folgerungen
Poisson
Laplace
Kolmogoroff
Folgerungen aus den Axiomen
Verbundwahrscheinlichkeiten
Merke: Wenn zwei Ereignisse aus einer -Algebra
eine Schnittmenge haben, so ist diese
Schnittmenge wieder ein Ereignis in .
A
Die Wahrscheinlichkeit
p(A dieser Schnittmenge ist immer gleich
oder größer 0
A
AB B
Man bezeichnet p(A auch als
Verbundwahrscheinlichkeit von A und B
Folie 9
Methodenlehre
& Statistik
VennDiagramme
Definition
Folgerungen
Laplace
Kolmogoroff
Folgerungen aus den Axiomen
Der Allgemeine Additionssatz
Problem: Wenn zwei Ereignisse nicht disjunkt sind, ist
der Additionssatz nicht
unmittelbar anwendbar:
A
AB B
p(A B) ≠ p(A) + p(B)
wenn p(A B) > 0
Poisson
Die Wahrscheinlichkeit der Schnittmenge, also die
Verbundwahrscheinlichkeit, geht dann doppelt ein.
Die Verbundwahrscheinlichkeit muss also einmal
subtrahiert werden.
p(A B) = p(A) + p(B) – p(A B)
Allgemeiner Additionssatz
Folie 10
Methodenlehre
& Statistik
VennDiagramme
Definition
Folgerungen
Poisson
Laplace
Kolmogoroff
Wahrscheinlichkeitsfunktionen
Notation für Wahrscheinlichkeiten
Genau wie bei Laplace kann nun auf den
Elementarereignissen des Stichprobenraums
und den Ereignissen der -Algebra eine
Wahrscheinlichkeitsfunktion definiert werden.
Dies geschieht einfach über die Zuweisung reeller
Zahlen, die die Kolmogoroff Axiome erfüllen
Die Zahlen können dann als Wahrscheinlichkeiten
für die Ereignisse E aufgefasst werden.
Jede auf oder definierte Zufallsvariable
„erbt“ wieder die Wahrscheinlichkeitsfunktion.
Folie 11
Methodenlehre
& Statistik
VennDiagramme
Laplace
Wahrscheinlichkeitsfunktionen
Notation für Wahrscheinlichkeiten
Definition
Folgerungen
Poisson
Folie 12
Kolmogoroff
Die Definition der Wahrscheinlichkeitsfunktion p(x)
entspricht der Definition der Zufallsvariablen
K , Z , S
p( ="K"): 0.49999
p p( ="Z"): 0.49999
p( ="S"): 0.00002
Methodenlehre
& Statistik
VennDiagramme
Laplace
Wahrscheinlichkeitsfunktionen
Notation für Wahrscheinlichkeiten
Definition
Folgerungen
Kolmogoroff
Die Definition der Wahrscheinlichkeitsfunktion p(x)
entspricht der Definition der Zufallsvariablen
K , Z , S
x1: 0, wenn "K"
X x 2 : 1, wenn "Z"
x : 2, wenn "S"
3
Poisson
p(X=x1 ): 0.49999
p x p(X=x 2 ): 0.49999
p(X=x ): 0.00002
2
Folie 13
Frage: Woher kennen wir die Wahrscheinlichkeiten p?
Methodenlehre
& Statistik
VennDiagramme
Definition
Laplace
Wahrscheinlichkeitsfunktionen
Häufigkeit und Wahrscheinlichkeit
Wenn ein Zufallsexperiment mehrmals wiederholt wird,
so wird die Anzahl der Trials oft mit n bezeichnet.
Man kann dann die Häufigkeiten zählen, mit denen jede
der möglichen Realisationen xi aufgetreten ist.
Diese werden als h(X=xi) oder h(xi) oder hi geschrieben
h(X=xi) wird auch als absolute Häufigkeit bezeichnet
Die relative Häufigkeit berechnet man nun als
Folgerungen
Poisson
Kolmogoroff
f X xi
Folie 14
h X xi
n
Methodenlehre
& Statistik
VennDiagramme
Laplace
Wahrscheinlichkeitsfunktionen
Häufigkeit und Wahrscheinlichkeit
Problem: Häufigkeiten sind keine Wahrscheinlichkeiten
Die Wahrscheinlichkeitsfunktion einer Zufallsvariablen
bestimmt lediglich, was bei einer realen Durchführung
des Zufallsexperimentes für die beobachteten
Häufigkeiten zu erwarten ist
Definition
Folgerungen
Poisson
Kolmogoroff
p(x1) = 0.2
p(x2) = 0.4
f(x1) ≈ 0.18
f(x2) ≈ 0.33
Folie 15
p(x3) = 0.1
…
Theorie
f(x3) ≈ 0.15
…
Empirie
Frage: Woher kennen wir die Wahrscheinlichkeiten p?
Methodenlehre
& Statistik
VennDiagramme
Laplace
Wahrscheinlichkeiten
Empirische Definition der Wahrscheinlichkeit
(Poisson, 1835) – The Law of Large Numbers
Definition
h( xi )
p X xi : lim
n
n
Folgerungen
h( xi ) : Häufigkeit des Ereignisses
n : Gesamtzahl aller Versuche
Poisson
Folie 16
Kolmogoroff
Beispiel: Relative
Häufigkeit für das
Würfeln einer „6“ in
Abhängigkeit von der
Anzahl der
Würfelversuche:
Bei unabhängigen Wiederholungen eines Zufallsexperiments
strebt die relative Häufigkeit für
das Auftreten eines Ereignisses xi
gegen die Wahrscheinlichkeit
p(X=xi).
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Bedingte Wahrscheinlichkeit
Einführendes Beispiel
Theoreme
Wk-Bäume
Unabhängigkeit
Bei den Bundesjugendspielen interessiert sich ein
Sportpsychologe für den Zusammenhang zwischen
unterirdischem Abschneiden in verschiedenen Disziplinen. Er
erhebt dazu
● Verfehlen (A) oder Erreichen (nicht A) des
Zeitkriteriums beim 100m Lauf
● Negative (B) bzw. positive (nicht B) Weite beim
Ballwurf.
Der Sportpsychologe beobachtet an n=100 Kindern
● p(A) = 0.12
● p(B) = 0.05
● p(A B) = 0.04
Folie 17
Methodenlehre
& Statistik
Definition
Bedingte Wk
Bedingte Wahrscheinlichkeit
p( A B)
p ( B | A)
p ( A)
Theoreme
Wk-Bäume
Unabhängigkeit
Satz von Bayes
Bedingte
Wahrscheinlichkeit
Grundwahrscheinlichkeit
Ist die Wahrscheinlichkeit für das Ereignis B, gegeben dass
das Ereignis A bereits eingetreten ist (lies: „B gegeben A“).
Im Venn Diagramm kann p(B | A)
als Anteil der Fläche
A B an der Fläche A
interpretiert werden (und nicht
mehr am gesamten
Stichprobenraum ).
Folie 18
(Unbedingte)
Verbundwahrscheinlichkeit
A AB B
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Bedingte Wahrscheinlichkeit
Im Laplace Ansatz
Theoreme
Es seien
n die Menge aller Elementarereignisse in .
Wk-Bäume
a die für das Ereignis A günstigen Elementarereignisse
b die für das Ereignis B günstigen Elementarereignisse
c die für das Ereignis A B günstigen Elementarereign.
Unabhängigkeit
100m Verfehler
negative Weite
a
p ( A)
n
b
p( B)
n
a
c
b
n
c
c
p( A B)
und p ( B | A)
n
a
Folie 19
c
und p ( A | B )
b
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Bedingte Wahrscheinlichkeit
Im Laplace Ansatz
Theoreme
Es seien
n die Menge aller Elementarereignisse in .
Wk-Bäume
a die für das Ereignis A günstigen Elementarereignisse
b die für das Ereignis B günstigen Elementarereignisse
c die für das Ereignis A B günstigen Elementarereign.
Unabhängigkeit
Es ist also zunächst
p(A) = a / n
p(B) = b / n
p(AB) = c / n
Aus dem Venn Diagramm sah man auch:
p(B | A) = c / a
Umformen und Kürzen ergibt
Folie 20
p ( B | A)
c p( A B)
a
p ( A)
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Bedingte Wahrscheinlichkeit
Im Kolmogoroff Ansatz
Theoreme
Wk-Bäume
Unabhängigkeit
In der axiomatischen Definition der Wahrscheinlichkeit kann
die Berechnungsvorschrift für bedingte Wahrscheinlichkeiten
nicht bewiesen werden.
Deshalb muss die bedingte Wahrscheinlichkeit hier definiert
werden:
! p( A B)
p ( B | A)
p ( A)
Folie 21
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Bedingte Wahrscheinlichkeit
Der Multiplikationssatz
Theoreme
Man sieht sofort dass gilt:
p(A B) = p(B A)
Wk-Bäume
Damit erhalten wir durch Umformen
Unabhängigkeit
p ( B | A)
p( A B)
p ( A)
p ( A B ) p( B | A) p( A)
p( A | B)
p( A B) p( A | B) p( B)
Multiplikationssatz
Folie 22
p( A B)
p( B)
Methodenlehre
& Statistik
Definition
Theoreme
Wk-Bäume
Bedingte Wk
Satz von Bayes
Satz der totalen
Wahrscheinlichkeit
Wenn die Ereignisse B1, B2, … Bk paarweise disjunkt sind und
das Ereignis A immer mit einem der Bi auftritt, gilt
A = (AB1) + (AB2) + … + (ABk)
Mit dem Additionsthorem erhalten wir
Unabhängigkeit
p ( A) p ( A B1 ) p ( A Bk )
Bk
…
B1 B2
… …
…
…
A
Und mit dem Multiplikationssatz wird daraus
p ( A) p ( B1 ) p ( A | B1 ) p ( B2 ) p ( A | B2 ) p ( Bk ) p ( A | Bk )
Folie 23
Satz der totalen Wahrscheinlichkeit
Methodenlehre
& Statistik
Bedingte Wk
Satz von Bayes
Definition
Wahrscheinlichkeitsbäume
Theoreme
Additions- und Multiplikationssatz für bedingte
Wahrscheinlichkeiten lassen sich gut an einem
Wahrscheinlichkeitsbaum veranschaulichen.
Wk-Bäume
Ereignis B,
gegeben A
Ereignis A
p(B1|A1)
A1
p(B2|A1)
Unabhängigkeit
p(A1)
p(B1|A2)
S
p(A2)
A2
B1
B2
B1
p(B1|A1)p(A1)
p(B2|A1)p(A1)
p(B1|A2)p(A2)
B2 p(B |A )p(A )
2 2
2
p(A3)
A3
B1
p(B1|A3)p(A3)
p(B2|A3)
B2
Folie 24
Man sieht
auch:
p(A1B1+A2B1 +A3B1)=
p(B2|A2)
p(B1|A3)
Multiplikationssatz
für Wahrsch.keiten
p(B2|A3)p(A3)
p(B1|A1)p(A1)+
p(B1|A2)p(A2)+
p(B1|A3)p(A3)
Satz der totalen
Wahrscheinlichkeit
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Stochastische Unabhängigkeit
Wenn gilt:
Theoreme
Wk-Bäume
Unabhängigkeit
p(B) = p(B | A)
werden die Ereignisse A und B stochastisch unabhängig
genannt, weil die Wahrscheinlichkeit des Auftretens des
Ereignisses B nicht vom Auftreten von A abhängt.
Setzen wir die rechte Seite der Gleichung in den
Multiplikationssatz ein, erhalten wir:
p(A B) = p(B | A) p(A) = p(A)·p(B)
Kurz:
Folie 25
p(A B) = p(A)·p(B)
Multiplikationssatz für stoch. unabh. Ereignisse
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Stochastische Unabhängigkeit
Verallgemeinerung des Multiplikationssatzes
Theoreme
Wk-Bäume
Unabhängigkeit
Wenn die Ereignisse A1, A2, … Ak insgesamt unabhängig
sind, so gilt
p(A1A2… Ak) = p(A1)·p(A2)·… ·p(Ak)
Achtung: Die Disjunktheit von Ereignissen hat mit der
stochastischen Unabhängigkeit nichts zu tun.
A und B sind disjunkt (A B = {}).
Wenn aber A eingetreten ist, reduziert
sich p(B|A) auf Null.
Folie 26
A
B
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Stochastische Unabhängigkeit
Wechselseitigkeit
Theoreme
Wk-Bäume
Für stochastisch unabhängige Ereignisse kann man
aus den Kolmogoroff Axiomen allgemeine Regeln
herleiten:
1. Ist A von B unabhängig, so ist es auch B von A
Unabhängigkeit
2. Sind A und B unabhängig, so sind es auch ihre
Gegenereignisse
3. Sind A und B unabhängig so sind es auch alle
Kombination von A und B mit ihren
Gegenereignissen
Folie 27
Methodenlehre
& Statistik
Beispiel
Bedingte Wk
Satz von Bayes
Satz von Bayes
Beispiel
Definition
Ein Statistikdozent in der Psychologie fragt sich, ob das
Bestehen seiner Fachprüfung überhaupt etwas über die
Eignung eines bereits immatrikulierten Psychologiestudierenden für das Studium aussagt. Er erhebt dazu in zwei
Semestern mehrere Wahrscheinlichkeiten:
● p(Klausurverfehler) = 0.05
● p(Studiumsgeeignete) = 0.95
● p(Klausurverfehler Studiumsgeeignete) = 0.045
in Semester I oder
● p(Klausurverfehler Studiumsgeeignete) = 0.005
in Semester II
Folie 28
Methodenlehre
& Statistik
Beispiel
Bedingte Wk
Satz von Bayes
Satz von Bayes
Beispiel
Definition
Studiumsgeeignete
Folie 29
Studiumsgeeignete Klausurverfehler
Klausurverfehler
Methodenlehre
& Statistik
Beispiel
Bedingte Wk
Satz von Bayes
Satz von Bayes
Beispiel
Definition
Studiumsgeeignete
Folie 30
Studiumsgeeignete Klausurverfehler
Klausurverfehler
Methodenlehre
& Statistik
Beispiel
Definition
Bedingte Wk
Satz von Bayes
Satz von Bayes
Wir sehen anhand des Multiplikationssatzes, dass
p(B | A) p(A) = p(A | B) p(B)
Damit gilt
p ( B | A)
p( A | B) p( B)
p ( A)
bzw.
p( A | B)
p ( B | A) p ( A)
p( B)
Die bedingte Wahrscheinlichkeit eines Ereignisses A
gegeben B ist zu berechnen aus der Wahrscheinlichkeit
für B gegeben A und den Grundwahrscheinlichkeiten von
A und B.
Diese Beziehung ist der Satz von Bayes.
Folie 31
Methodenlehre
& Statistik
Beispiel
Bedingte Wk
Satz von Bayes
Satz von Bayes
Verallgemeinerung
Definition
Hat man mehrere Ereignisse B1, B2, …, Bk gilt beim Satz
von Bayes
p ( A | Bi ) p( Bi )
p ( Bi | A)
p ( A)
vorausgesetzt, dass die Grundwahrscheinlichkeit für A
bekannt ist. Häufig kennt man aber nur alle p(A|Bi).
Mit dem Satz der totalen Wahrscheinlichkeit erhält man
aus dem Satz von Bayes diese allgemeine Bayes-Formel:
p ( Bi | A)
Folie 32
p ( A | Bi ) p ( Bi )
p ( A | B1 ) p ( B1 ) p ( A | B2 ) p ( B2 ) p ( A | Bk ) p ( Bk )
Methodenlehre
& Statistik
Relevante Excel Funktionen
Wahrscheinlichkeitsrechnung
• Zufallszahl(), Zufallsbereich()
Folie 33
Methodenlehre
& Statistik
Inhalte
dieser Sitzung
Theoretische Wahrscheinlichkeiten und empirische
Häufigkeiten
Bernoulli Experimente
Binomial- und Poisson-Verteilung
Folie 2
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Notation
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Eine Zufallsvariable, die abzählbar viele Werte
annehmen kann (in endlich oder unendlich vielen
Ausprägungen), wird als diskrete
Zufallsvariable bezeichnet
Das Ereignis, dass die diskrete Zufallsvariable X
eine bestimmte (die i-te) Ausprägung annimmt,
wird bezeichnet als X = xi
Die Wk für X = xi wird als p(X = xi) oder kürzer
p(xi) oder ganz kurz pi bezeichnet
p(X = xi) ist eine Punktwahrscheinlichkeit
Folie 3
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Wahrscheinlichkeitsverteilung
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Die Verteilung der p(X = xi) auf alle möglichen
Ausprägungen von X wird als diskrete
Wahrscheinlichkeitsverteilung bezeichnet.
Sie beschreibt theoretische Punktwahrscheinlichkeiten und wird definiert als
p ( X xi ) : falls x i x1 xk
p ( x)
0 sonst
Wert von X
p(X = xi)
Folie 4
x1
x2
p(x1) p(x2)
…
xi
p(xi)
…
xk
p(xk)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Verteilungsfunktion
Bernoulli
Experimente
Binomialvert.
Die Verteilung der p(X ≤ xm) wird als Verteilungsfunktion
der Zufallsvariablen X oder kumulierte Wahrscheinlichkeitsverteilung bezeichnet.
Sie beschreibt theoretische Intervallwahrscheinlichkeiten und wird definiert als
m
Poisson Vert.
P( x) p ( X xm ) p1 p2 pm pi
i 1
Wert von X
p(X ≤ xi)
Folie 5
x1
x2
p(x1)
p(x1) + p(x2)
…
xm
… p(x1) + p(x2) + … + p(xm)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Häufigkeit und Wahrscheinlichkeit
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Folie 6
Methodenlehre
& Statistik
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Häufigkeit und Wahrscheinlichkeit
Absolute Häufigkeit eines Wertes x:
Relative Häufigkeit eines Wertes x:
(n = Anzahl aller Werte)
Empirisch
Theoretisch
h x
h x
f x
n
p x
(Häufigkeitsverteilung)
Kumulierte absolute Häufigkeit
bis zu einer Schranke u:
Relative kumulierte Häufigkeit
bis zu einer Schranke u:
H x h xi xi u
P x p xi
i
F x f xi xi u
i
(Emp. Verteilungsfunktion)
Folie 7
(Wk.-Verteilung)
i
(Verteilungsfunktion)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Häufigkeit und Wahrscheinlichkeit
Bernoulli
Experimente
Die empirische Häufigkeitsverteilung f(x) und die
Wahrscheinlichkeitsverteilung p(x) einer Zufallsvariablen sind konzeptuell strikt zu trennen
Binomialvert.
Die empirische und theoretische Verteilungsfunktion sind ebenfalls strikt zu trennen
Poisson Vert.
Die theoretischen Verteilungen bedürfen keiner
Daten, denn sie sind gegeben
Die theoretische Verteilung bestimmt, was für die
empirische Verteilung zu erwarten ist
Aber: In der Notation wird oft einfach f(x) bzw.
F(x) geschrieben, gleichgültig, ob es um
Häufigkeiten oder Wahrscheinlichkeiten geht.
Folie 8
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Kann ein Zufallsexperiment mehrfach unter
demselben Komplex Ξ durchgeführt werden und
sind die einzelnen Versuche stochastisch
unabhängig, so spricht man von einem Bernoulli
Experiment.
Das Bernoulli Experiment ist ein Art MetaExperiment, dessen Trials aus der mehrfachen
Durchführung des zugrunde liegenden
Experimentes bestehen.
Der typische Stichprobenraum eines Bernoulli
Experimentes ergibt sich erst nach der sinnvollen
Definition einer Zufallsvariablen.
Folie 9
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Beispiel: Das Experiment Ξ sei der einmalige
Wurf einer fairen Münze, wobei die Münze nicht
auf der Kante liegen bleiben kann.
Binomialvert.
Der Stichprobenraum ist
Kopf , Zahl
Poisson Vert.
Als Zufallsvariable könnte man definieren
y1: 0, wenn Kopf
Y
mit
y2 : 1, wenn Zahl
Folie 10
p Y y1 : 0.5
p y
p Y y2 : 0.5
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Beispiel: Das Bernoulli Experiment bestehe nun
in der 20maligen Durchführung des Zufallsexperimentes Ξ
Binomialvert.
Sein Stichprobenraum umfasst alle möglichen
20elementigen Folgen von Kopf und Zahl, also
Poisson Vert.
K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K ,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
Z
' ,
K
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z
Folie 11
Ein Elementarereignis
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Auf dem Stichprobenraum eines solchen Bernoulli
Experimentes können viele verschiedene
Zufallsvariablen definiert werden.
Binomialvert.
Beispiel: Jedem möglichen der insgesamt k
Elemente des Stichprobenraumes wird eine
eindeutige Zahl zugewiesen:
Poisson Vert.
X x1 : 1, wenn K , K , , K
X x : 2, wenn K , K , , Z
2
X
X xk : 1048576, wenn Z , Z , , Z
Folie 12
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Auf dem Stichprobenraum eines solchen Bernoulli
Experimentes können viele verschiedene
Zufallsvariablen definiert werden.
Binomialvert.
Beispiel: Jedem möglichen der insgesamt k
Elemente des Stichprobenraumes wird eine
eindeutige Zahl zugewiesen:
Poisson Vert.
X x1 : 1, wenn y1 , y1 , , y1
X x : 2, wenn y , y , , y
2
1
1
2
X
X xk : 1048576, wenn y 2 , y2 , , y2
Folie 13
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Folie 14
Zur Definition der Wahrscheinlichkeitsverteilung dieser Zufallsvariablen kann der
Multiplikationssatz für stochastisch
unabhängige Ereignisse herangezogen werden
p X x1 : p y1 p y1 p y1
p X x2 : p y1 p y1 p y2
p x
p X x : p y p y p y
k
2
2
2
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Aber: Zu Zeiten Bernoullis wurde Wahrscheinlichkeitsrechnung vor allem zum besseren Verständnis
des Glücksspieles betrieben
Binomialvert.
Deshalb spielte die Ordnung der Ergebnisse aus den
Trials eines Bernoulli Experimentes eher keine Rolle
Poisson Vert.
Die Zufallsvariable eines Bernoulli Experimentes ist
per definitionem einfach die Summe der Realisationen aus den n durchgeführten Trials, also
n
X y1 y2 yn yi
i 1
mit n=20 in unserem Beispiel
Folie 15
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Im Beispiel mit n=20 ist dies aber gleichbedeutend
mit der Definition
X x1 : 0, wenn 0 Zahl
X x : 1, wenn 1 Zahl
2
X
X x21 : 1, wenn 20 Zahl
Wenn in der zugrunde liegenden Zufallsvariable Y
ein „Treffer“ (hier: Zahl) die 1 erhalten hat, liefert X
also einfach die Anzahl der Treffer in den n Trials
Achtung: Diese Übertragung ist nicht mehr gültig,
sobald die Zufallsvariable Y anders definiert wird
Folie 16
(z.B. mit umgekehrter Zuweisung von 0/1 zu Kopf/Zahl)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Frage: Angenommen, die Wahrscheinlichkeitsfunktion der Zufallsvariablen X aus dem zugrunde
liegenden Experiment ist bekannt – kann dann die
Wahrscheinlichkeitsfunktion von Y ermittelt werden?
Binomialvert.
Am Beispiel: Gibt es die mathematische Beziehung
Poisson Vert.
p Y y1 : 0.5
p y
p Y y2 : 0.5
Folie 17
?
p X x1
p X x2
p x
p X x
20
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
Der einfachste Fall eines Bernoulli Experimentes
beruht auf einem Experiment mit nur zwei
möglichen disjunkten Ergebnissen
Binomialvert.
Man definiere für dieses Experiment die folgende
Zufallsvariable und Wahrscheinlichkeitsfunktion:
Poisson Vert.
Y y1 : 0
Y
Y y2 : 1
p Y y1 : q
p y
p Y y2 : p
mit q = 1–p
Beispiel: Beim Münzwurf wäre z.B. p = q = 0.5
Folie 18
(p ist die so genannte „Treffer- oder Erfolgswahrscheinlichkeit“)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
Man hat
Y y1 : 0
Y
Y y2 :1
und kennt
p Y y1 : 1 p
p( y)
p Y y2 : p
Binomialvert.
Poisson Vert.
ist gesucht
p X x1 : ?
p X x2 : ?
p ( x)
pX x : ?
n 1
Folie 19
Bei n Trials
X x1 : 0
X x :1
2
X
X xn 1 : n
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
Wird ein dichotomes Experiment n mal durchgeführt,
kann die Wahrscheinlichkeitsfunktion der möglichen
Realisationen für das resultierende Bernoulli
Experiment mathematisch hergeleitet werden:
Binomialvert.
Poisson Vert.
n x n x
f ( x , n, p ) p q
x
mit n = Anzahl aller Trials
Dies ist die
Binomialverteilung
x = Anzahl günstiger Ergebnisse in den n Trials
p = Wk für jedes x
q = Wk der übrigen n-x Ergebnisse, also, q = 1–p
Folie 20
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
und kennt
Man hat
Y y1 : 0
Y
Y y2 :1
p Y y1 : 1 p
p( y)
p Y y2 : p
Binomialvert.
Poisson Vert.
ist gesucht
n
f ( x , n, p ) p x q n x
x
Bei n Trials
p X x1 : ?
p X x2 : ?
p ( x)
pX x : ?
n 1
Folie 21
X x1 : 0
X x :1
2
X
X xn 1 : n
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Exkurs: Fakultät und der Binomialkoeffizient
Bernoulli
Experimente
Der Binomialkoeffizient ist definiert als
n
n!
x x ! (n x)!
Binomialvert.
Poisson Vert.
Dabei ist
n ! 1 2 3 n
per definitionem mit 0! = 1
Folie 22
lies: „n über x“
lies: „n Fakultät“
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
Die Binomialverteilung ist eine diskrete
Wahrscheinlichkeitsverteilung, da sie nur endlich
viele verschiedene Werte annehmen kann
Binomialvert.
Die mathematische Funktion kann nur dann
angewandt werden, wenn die Zufallsvariable des
zugrunde liegenden Experimentes 0/1-kodiert ist
Poisson Vert.
Die Funktion f(x,n,p) gibt dann die Wahrscheinlichkeit
für jede mögliche Häufigkeit von 1en in den n
Versuchen an Anzahl der „Treffer“
Die Binomialverteilung ist die „Mutter aller
Verteilungen“, da aus ihr praktisch alle wichtigen
weiteren Verteilungen abgeleitet werden können
Folie 23
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
Die Wahrscheinlichkeitsfunktion f(x,n,p) liefert
die Punktwahrscheinlichkeiten für ein genau xmaliges Auftreten der Realisation 1 einer 0/1
kodierten Zufallsvariablen.
Binomialvert.
Zusätzlich existiert auch die Verteilungsfunktion
der Intervallwahrscheinlichkeiten für ein
maximal x-maliges Auftreten der Realisation 1
Poisson Vert.
Diese ist einfach die Summe aller Punktwahrscheinlichkeiten bis zur Realisation xi
k
F x, n, p f xi , n, p
i 1
Folie 24
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
Am Beispiel mit p=0.5 und n=20 ergäbe sich
x
Binomialvert.
Poisson Vert.
Folie 25
f(x)
F(x)
0
0.000
0.000
1
0.000
0.000
2
0.000
0.000
3
0.001
0.001
4
0.005
0.006
5
0.015
0.021
…
…
…
20
0.000
1.000
x
x
Methodenlehre
& Statistik
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Häufigkeit und Wahrscheinlichkeit
Absolute Häufigkeit eines Wertes x:
Relative Häufigkeit eines Wertes x:
(n = Anzahl aller Werte)
Empirisch
Theoretisch
h x
h x
f x
n
p x
(Häufigkeitsverteilung)
Kumulierte absolute Häufigkeit
bis zu einer Schranke u:
Relative kumulierte Häufigkeit
bis zu einer Schranke u:
H x h xi xi u
P x p xi
i
F x f xi xi u
i
(Emp. Verteilungsfunktion)
Folie 26
(Wk.-Verteilung)
i
(Verteilungsfunktion)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Poisson Verteilung
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Für ein Bernoulli Experiment mit 2 disjunkten Ergebnissen gelte
die Häufigkeit, mit dem ein Ereignis in einem bestimmten
Zeitintervall typischerweise auftritt, sei .
die Wahrscheinlichkeit des Eintretens von m Ereignissen
in einem Zeitintervall ist nur von der Länge des Intervalls
abhängig, nicht von seiner Lage auf der Zeitachse
die Ereignisse sind stochastisch unabhängig
Die Wahrscheinlichkeit für das Eintreten von m Ereignissen in
einem Zeitintervall ist dann
e x
f ( x, )
x!
Folie 27
Poisson Verteilung
(e = Eulersche Zahl; 2.718)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Poisson Verteilung
Bernoulli
Experimente
e x
f ( x, )
x!
Binomialvert.
Poisson Vert.
wird auch als Intensitätsparameter der PoissonVerteilung bezeichnet
Anders als die Binomialverteilung ist die PoissonVerteilung unendlich abzählbar.
Folie 28
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Poisson Verteilung als Approximation der Binomialvert.
Bernoulli
Experimente
Wenn n groß ist und p klein, ist die Bestimmung von
Wahrscheinlichkeiten aus der Binomialverteilung
mathematisch aufwändig
Binomialvert.
Die Poisson-Verteilung approximiert die Binomialverteilung für seltene Ereignisse sehr gut, wenn n ≥ 100
und np ≤ 10
Poisson Vert.
Dabei wird angenommen, dass λ = np
e n p ( n p ) x n x
f ( x, n p )
p (1 p ) n x f ( x, n, p )
x!
x
Poisson
Folie 29
Binomial
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Poisson Verteilung als Approximation der Binomialvert.
Bernoulli
Experimente
Die Poisson Verteilung geht mathematisch unmittelbar
aus der Binomialverteilung hervor
Binomialvert.
Die Poisson Verteilung wird häufig als Verteilung für
seltene Ereignisse bezeichnet.
Poisson Vert.
Hier ist streng zu unterscheiden zwischen einer kleinen
Wahrscheinlichkeit p und einer theoretisch recht großen
Anzahl n·p der unwahrscheinlichen Ereignisse.
Die Güte der Approximation bezieht sich auf den
relativen Approximationsfehler, d.h. den Quotienten
aus der Binomial-Wk und der Poisson-Wk
Folie 30
Methodenlehre
& Statistik
Relevante Excel Funktionen
Diskrete Wahrscheinlichkeitsverteilungen
• BINOM.VERT()
• POISSON.VERT()
oder EXP() und POTENZ() bzw. ^ („hoch“)
• FAKULTÄT(), KOMBINATIONEN()
Folie 31
Methodenlehre
& Statistik
Diskrete Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
Tabellarische Darstellung von
Wahrscheinlichkeitsverteilungen
Eine Zahl für Alles: Kennwerte
Bilder sagen mehr als Worte: Grafische Darstellung
Was ist eine große Zahl – Einführung in das
statistische Testen
Binomial- und Poisson-Test
Folie 2
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Recap
Kennwerte
Grafiken
Die Binomial- und Poissonverteilung beschreiben
die Auftretenswahrscheinlichkeiten einer 0/1kodierten Zufallsvariablen bei n Trials
Es wird immer angenommen, dass der
Stichprobenraum eines Trials definiert ist als
= {Misserfolg, Erfolg} X() = {0,1}
Ein Elementarereignis des gesamten BernoulliExperimentes mit n Trials ist so immer eine Folge
von n Nullen bzw. Einsen.
Folie 3
Die Anzahl von Erfolgen ist einfach die Summe der
Trialrealisationen.
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: univariate Kreuztabellen
Kennwerte
Grafiken
Die vollständige numerische Darstellung der
Wahrscheinlichkeitsverteilung oder
Verteilungsfunktion wird über so genannte
Kreuztabellen (oder Kontingenztabellen)
vorgenommen.
Wert von X
x1
x2
…
xi
…
xk
Folie 4
f(X = xi)
h(x1)
h(x2)
…
h(xi)
…
h(xk)
F(X = xi)
f(x1)
f(x2)
…
f(xi)
…
f(xk)
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: multivariate Kreuztabellen
Kennwerte
Grafiken
Oft betrachtet man Wahrscheinlichkeiten für das
gemeinsame Auftreten zweier Merkmale
(bivariat)
Beispiel: Frauen/Männer, die unter-/normal/übergewichtig sind
In diesem Fall werden 2 Variablen betrachtet:
X: Geschlecht (x1, x2)
Y: Gewichtsstatus (y1, y2, y3)
Die Wahrscheinlichkeiten sind Verbundwahrscheinlichkeiten, die das Vorkommen jeder
möglichen Kombination aus x und y beschreiben
Folie 5
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: multivariate Kreuztabellen
Kennwerte
Tabellarische Darstellung über bivariate
Kreuztabellen
Grafiken
Geschlecht
Männlich (x1) Weiblich (x2)
Unter (y1)
f(x1,y1)
f(x2,y1)
Gewicht Normal (y2)
f(x1,y2)
f(x2,y2)
Über (y3)
f(x1,y3)
f(x2,y3)
Σ
f(x1,●)
f(x2,●)
Folie 6
Randhäufigkeiten
Σ
f(●,y1)
f(●,y2)
f(●,y3)
f(●,●)
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: multivariate Kreuztabellen
Kennwerte
Tabellarische Darstellung über bivariate
Kreuztabellen
Grafiken
Varianten: Kreuztabellen der unbedingten
Verbundwahrscheinlichkeiten oder Kreuztabellen der
bedingten Wahrscheinlichkeiten.
Geschlecht
Männlich (x1) Weiblich (x2)
Unter (y1)
f(x1 | y1)
f(x2 | y1)
Gewicht Normal (y2)
f(x1 | y2)
f(x2 | y2)
Über (y3)
f(x1 | y3)
f(x2 | y3)
Σ
f(x1,●)
f(x2,●)
Folie 7
Σ
f(●,y1)
f(●,y2)
f(●,y3)
f(●,●)
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: multivariate Kreuztabellen
Kennwerte
Tabellarische Darstellung über bivariate
Kreuztabellen
Grafiken
Varianten: Kreuztabellen der unbedingten
Verbundwahrscheinlichkeiten oder Kreuztabellen der
bedingten Wahrscheinlichkeiten.
Geschlecht
Männlich (x1) Weiblich (x2)
Unter (y1)
f(y1 | x1)
f(y1 | x2)
Gewicht Normal (y2)
f(y2 | x1)
f(y2 | x2)
Über (y3)
f(y3 | x1)
f(y3 | x2)
Σ
f(x1,●)
f(x2,●)
Folie 8
Σ
f(●,y1)
f(●,y2)
f(●,y3)
f(●,●)
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Kennwerte
Kennwerte
Grafiken
Als Kennwert bezeichnet man ein statistisches
Maß, das eine Wahrscheinlichkeitsverteilung über
zumeist nur eine Zahl beschreibt
Kennwerte dienen der Informationsreduktion,
um die Eigenschaften einer Verteilung möglichst
sparsam zu beschreiben
Kennwerte charakterisieren immer nur bestimmte
Eigenschaften der gegebenen Verteilung, sie
bedeuten also einen Informationsverlust
Folie 9
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Erwartungswert
Kennwerte
Grafiken
Die Lage der Wahrscheinlichkeitsverteilung einer
Zufallsvariablen X wird durch den Erwartungswert von
X, geschrieben als E(X), charakterisiert.
Oft wird E(X) alternativ als („mü“) bezeichnet
Der Erwartungswert kann als Maß verstanden werden,
das den Schwerpunkt einer Verteilung kennzeichnet.
Der Erwartungswert ist für die theoretische
Wahrscheinlichkeitsverteilung das, was der Mittelwert
für die empirische Häufigkeitsverteilung ist.
Folie 10
Der Erwartungswert einer Zufallsvariablen erfordert
keine Beobachtungen, sondern bezieht sich auf die
theoretische Wahrscheinlichkeitsverteilung.
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Erwartungswert
Kennwerte
Grafiken
Für eine diskrete Zufallsvariable X mit endlich vielen
Ausprägungen x1,…, xk und Wahrscheinlichkeiten pi = p(X=xi)
ergibt sich der Erwartungswert über
k
E ( X ) pi xi
i 1
kann als gewichtetes Mittel der möglichen Realisationen
einer Zufallsvariablen aufgefasst werden, wobei die
Wahrscheinlichkeiten die Gewichte darstellen.
Dabei gilt:
Folie 11
E ( a X b) a E X b
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Varianz
Kennwerte
Grafiken
Die Breite der Wahrscheinlichkeitsverteilung einer
Zufallsvariablen X wird durch die Varianz von X,
geschrieben ²(X), charakterisiert.
Oft wird ²(X) abgekürzt zu ² („sigma Quadrat“).
Die Varianz kann als Maß verstanden werden, die die
Ausdehnung der Wahrscheinlichkeitsverteilung um den
Erwartungswert herum beschreibt.
Die Varianz einer Zufallsvariablen erfordert keine
Beobachtungen, sondern bezieht sich auf die
theoretische Wahrscheinlichkeitsverteilung.
Folie 12
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Varianz
Kennwerte
Grafiken
Für eine diskrete Zufallsvariable X mit endlich vielen
Ausprägungen x1,…, xk und Wahrscheinlichkeiten pi = p(X=xi)
ergibt sich die Varianz über
E X E X
2
k
2
X pi xi
2
i 1
²(X) kann als gewichtetes Mittel der quadrierten
Abweichungen der möglichen Realisationen einer
Zufallsvariablen zum Erwartungswert aufgefasst werden,
wobei die Wahrscheinlichkeiten die Gewichte darstellen.
Folie 13
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Standardabweichung
Kennwerte
Grafiken
Die Varianz erfüllt nicht die Forderung der Proportionalität
bei der Multiplikation der Zufallsvariablen mit einem festen
Wert a.
²(a X ) a 2 X
Es gilt also nicht
sondern statt dessen
²(a X ) a 2 2 X
Dieses Problem wird durch Wurzelziehen beseitigt. Man
erhält so die Standardabweichung (X), abgekürzt
einfach („sigma“).
X 2X
Folie 14
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Einfache Rechenregeln für Kennwerte
Kennwerte
Grafiken
Für eine binomialverteilte Zufallsvariable X mit der
Wahrscheinlichkeitsverteilung f(m, n, p) gilt
1. = n · p
Erwartungswert
2. ² = n · p · q
Varianz
3. =
Standardabweichung
n·p·q
Nur für X()={0,1}
Folie 15
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
Folie 16
Frage: Wie berechnet sich der Erwartungswert für
eine binomialverteilte, aber nicht 0/1-kodierte
Zufallsvariable?
Beispiel: Die Wahrscheinlichkeit, ohne
Mammografie an Brustkrebs zu erkanken, betrage
p=0.1. Eine Brustkrebspatientin verursacht Krankheitskosten von etwa 28.500€. Die regelmäßige
Brustkrebsvorsorge durch Mammografie kostet
9.000€, senkt aber das Brustkrebsrisiko auf
p=0.05. Eine Krankenversicherung beauftragt einen
Gesundheitspsychologen zu berechnen, ob sie
billiger wegkommt, wenn sie ihren weiblichen
Mitglieder kostenlose Mammografien verordnet.
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
Man hat hier zwei Zufallsvariablen mit eigentlich
folgenden Eigenschaften:
X = {0, 1}
Y = {0, 1}
p(X) = {0.9, 0.1}
p(Y) = {0.95, 0.05}
mit 0 = kein Brustkrebs, 1 = Brustkrebs.
Man geht nun davon aus, dass die neue
Zufallsvariable „Kosten“ nur eine mathematische
Transformation der Zufallsvariable „Häufigkeit“ ist.
Die neue Zufallsvariable erbt wieder die Wahrscheinlichkeitsverteilung der alten Zufallsvariablen.
Folie 17
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
Es gilt also für die neue Zufallsvariable „Kosten“:
X‘ = {0, 28.500}
Y‘ = {9.000, 37.500}
p(X‘) = {0.9, 0.1}
p(Y‘) = {0.95, 0.05}
Daraus lässt sich nun wie üblich der
Erwartungswert bestimmen als p‘ix‘i.
Und die Varianz ist dementsprechend
Man kann nun mathematische Beziehungen für die
Veränderung von Erwartungswert und Varianz bei
der Transformation von Zufallsvariablen herleiten
Folie 18
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
Voraussetzung: Die Wahrscheinlichkeitsverteilung einer Zufallsvariablen X mit beliebig
vielen Ausprägungen sei bekannt.
x1
x
2
X
xk
p1
p
2
p( X )
pk
k
X pi xi
i 1
k
pi xi X
2
X
2
i 1
Oder x und ² sind direkt
berechenbar (z.B. bei der
Binomialverteilung mit 0/1)
Folie 19
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Einfache Rechenregeln für Kennwerte
Kennwerte
Grafiken
Für eine poisssonverteilte Zufallsvariable X mit der
Wahrscheinlichkeitsverteilung f(, n) gilt
1. =
Erwartungswert
2. ² = · (1-/n)
Varianz
3. =
Standardabw.
für große
n (siehe 2.)
Nur für X()={0,1}
Folie 20
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
Variante 1: Die neue Zufallsvariable X‘ ist eine
einfache mathematische Transformation (Multiplikation und Addition) der alten Zufallsvariablen X.
X ' a X b
Dann gilt
Folie 21
X ' a X b
X2 ' a 2 X2
Der Erwartungswert verändert sich also genau so
wie die Zufallsvariable, die Varianz wächst mit dem
Quadrat des Multiplikators.
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
Variante 2: Die neue Zufallsvariable X‘ ist eine
beliebige Transformation der alten Zufallsvariablen X.
x '1
x '
2
X '
x 'k
p1
p
2
p ( X ')
pk
k
Dann muss neu
gerechnet werden:
X ' pi x 'i
i 1
k
X2 ' pi x 'i X '
i 1
Folie 22
2
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Grafische Beschreibung: Kreisdiagramm
Kennwerte
Grafiken
Das Kreis- oder Tortendiagramm stellt die
Wahrscheinlichkeiten von Ausprägungen einer
Zufallsvariablen als Kreissegmente eines Vollkreises
(„Tortenstücke“) dar.
Der Öffnungswinkel α eines Segmentes ist dabei durch
die Wahrscheinlichkeit der Ausprägung p(xi) definiert
360 p( xi )
Die Summe der Öffnungswinkel aller Kreissegmente
sollte wieder 360° ergeben
Folie 23
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Grafische Beschreibung: Kreisdiagramm
Kennwerte
Grafiken
Folie 24
Beispiel: Die Wahrscheinlichkeit, in einem Experiment zur
visuellen Wahrnehmung einen epileptischen Anfall zu
bekommen, betrage p=0.0017. An einem konkreten
Experiment sollen n=200 Personen teilnehmen.
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Grafische Beschreibung: Säulendiagramm
Kennwerte
Grafiken
Das Säulen- oder Balkendiagramm stellt die
Wahrscheinlichkeiten von Ausprägungen einer
Zufallsvariablen als Balken (waagerecht) oder
Säulen (senkrecht) dar.
Der Länge der Säulen bzw. Balken ist dabei
durch die Wahrscheinlichkeit p(xi) bestimmt.
Die Breite der Säulen bzw. Balken variiert i.d.R.
nicht innerhalb eines Diagramms
Zur Darstellung den Wahrscheinlichkeitsverteilung
bzw. Verteilungsfunktion wird zwischen den
Säulen bzw. Balken zumeist kein Raum gelassen
Folie 25
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Grafische Beschreibung: Säulendiagramm
Kennwerte
Grafiken
Beispiel: Das Neuroleptikum Tavor führt bei längerer
Einnahme mit einer Wahrscheinlichkeit von p=0.73 zu
Abhängigkeit. In einer Langzeittherapiestudie soll das
Medikament an n=10 Personen eingesetzt werden.
Verteilungsfunktion F(x, 10, 0.73)
Punktwahrscheinlichkeit p(x)
Intervallwahrscheinlichkeit P(x)
Wahrscheinlichkeitsverteilung f(x, 10, 0.73)
Anzahl Abhängigkeitsfälle x
Folie 26
Anzahl Abhängigkeitsfälle x
Methodenlehre
& Statistik
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Kreuztabellen
Grafische Beschreibung: Säulendiagramm
Kennwerte
Wahrscheinlichkeitsverteilung f(x, 10, 0.73)
Wahrscheinlichkeitsverteilung f(x, 10, 0.73)
Punktwahrscheinlichkeit p(x)
Punktwahrscheinlichkeit p(x)
Grafiken
Warum gleiche Säulenbreiten?
Anzahl Abhängigkeitsfälle x
Anzahl Abhängigkeitsfälle x
Menschen neigen zur Größenbewertung anhand der Fläche.
Folie 27
Methodenlehre
& Statistik
Einführung
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Beispiel
Testarten
Gustav Fechner, Urvater der Experimentellen Psychologie,
entwickelte zentrale Methoden der modernen Psychophysik
mit genau einem Ziel: den Beweis zu führen, dass Pflanzen
eine Seele haben.
Er perfektionierte eine Methode der Mikrostimulation, auf die
hin er eine biologische Reaktion und bei Pflanzen nachweisen
wollte. Eine solche Reaktion wäre der Beleg, dass Pflanzen
fühlen können. Damit wäre es zum Denken und schließlich
zur Seele nicht mehr weit.
Fechner führte insgesamt n=24576 Messungen von ReizReaktionsmusters bei Pflanzen durch.
Folie 28
Angenommen, Pflanzen zeigen die gewünschte Reaktion
auch ohne Stimulation (d.h. zufällig) mit einer
Wahrscheinlichkeit von p=.25. Fechner möge eine Reaktion in
x=6306 Fällen finden. Haben
Pflanzen
eineauf
Seele?
Reagieren
Pflanzen
die Stimulation?
Methodenlehre
& Statistik
Einführung
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Testarten
Das Ziel Fechners war die Beantwortung der Frage, ob
Pflanzen auf die Stimulation oder nur zufällig reagieren
Die Beantwortung sollte sich nach Möglichkeit auf die Population aller Pflanzen
beziehen, nicht nur auf die Stichprobe
der Pflanzen in Fechners Labor
Es sind also Methoden erforderlich, welche
die Verallgemeinerung von Beobachtungen
in einer Stichprobe auf die zugrunde
liegende Population erlauben
Diese Methoden stellt die Inferenzstatistik („schließende Statistik“) zur
Verfügung
Folie 29
Population
?
Daten
(beobachtet)
Methodenlehre
& Statistik
Einführung
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Testarten
Es existieren eine Vielzahl inferenzstatistischer Tests für
nahezu beliebige Arten von Hypothesen, z.B.
Gehört ein Messwert (und damit sein Merkmalsträger) zu
einer bestimmten Population?
Sind Häufigkeiten verschieden?
Sind die Mittelwerte von Messwerten zwischen Gruppen
unterschiedlich?
Sind die Varianzen von Messwerten zwischen Gruppen
unterschiedlich?
Hängt die Ausprägung eines Merkmals mit einer
bestimmten Intervention zusammen?
Folie 30
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
Stetige Verteilungen
Kennwerte und Darstellungen
z-Standardisierung und ihre Folgen
z-Test
Folie 2
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Definition
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Folie 3
Eine Zufallsvariable, die jeden Wert in einem Intervall
annehmen kann, ist eine stetige Zufallsvariable
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Definition
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Die Wahrscheinlichkeitsverteilung f(x) einer stetigen
Zufallsvariable X wird zumeist als mathematische
Funktion definiert. Sie wird bei stetigen Zufallsvariablen
auch als Dichtefunktion bezeichnet.
Die Verteilungsfunktion einer stetigen Zufallsvariablen
ist dann
k
P( x) p X xi
i 1
Diskret
Folie 4
F ( x)
xk
f x dx
x
Stetig
Die Verteilungsfunktion gibt wieder an, wie wahrscheinlich X einen Wert kleiner oder gleich x annimmt.
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Definition
Definition
Kennwerte &
Darstellung
Normalverteilung
Eine Funktion f(x) ist gemäß der Kolmogoroff Axiome
genau dann eine Dichtefunktion, wenn gilt
f ( x) 0
F ( x)
und
f ( x) dx 1
Dabei reicht der Wertebereich von f(x) nicht für jede
stetige Verteilung von - bis + (z.B. Reaktionszeit).
Standardnormalverteilung
Standardnormalverteilung
0.45
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
F(z,,)
f(z,,)
z-Werte
‐3
Folie 5
‐2
‐1
0
z‐Wert
1
2
3
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
‐3
‐2
‐1
0
z‐Wert
1
2
3
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Definition
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Für eine stetige Zufallsvariable ist die Punktwahrscheinlichkeit f(X = x) nicht definiert (bzw. immer 0).
Die Dichtefunktion f(x) liefert also nicht unmittelbar die
Wahrscheinlichkeiten für Ereignisse, die
Wahrscheinlichkeiten ergeben sich aus der Fläche unter
der Dichtefunktion
Es sind nur Wahrscheinlichkeiten für Intervalle von
Realisationen zu bestimmen, also F(xi X xj). Diese
werden dann berechnet als
xj
F ( xi X x j ) f ( x) dx F ( x j ) F ( xi )
xi
Folie 6
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Kennwerte
Kennwerte &
Darstellung
Der Erwartungswert einer stetigen Zufallsvariablen ist
ähnlich definiert wie im diskreten Fall
Normalverteilung
z-Werte
f x x dx
x
Auch Varianz und Standardabweichung werden
analog berechnet
2
x
x
Folie 7
x
f x x dx
2
2
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Definition
Darstellung
Die Darstellung der Dichtefunktion und
Verteilungsfunktion einer stetigen Zufallsvariablen findet
zumeist über kontinuierliche Graphen statt.
Normalverteilung
f(z,,)
z-Werte
Standardnormalverteilung
0.45
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
‐3
‐2
‐1
0
z‐Wert
Folie 8
Standardnormalverteilung
F(z,,)
Kennwerte &
Darstellung
1
2
3
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
‐3
‐2
‐1
0
z‐Wert
1
2
3
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Normalverteilung
Definition
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Im psychologischen Kontext ist die Normalverteilung die
wohl prominenteste Wahrscheinlichkeitsverteilung.
Sie ist theoretischer Natur, da sie (anders als z.B. die
Binomialverteilung) nicht direkt aus dem
Bedingungskomplex abgeleitet werden kann.
Die Normalverteilung ist durch zwei Parameter, und
definiert.
1
f ( x, , )
e
2
1 x
2
2
Ist eine Zufallsvariable X normalverteilt, wird dies häufig
geschrieben als X N(, )
Folie 9
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Normalverteilung
Kennwerte
Der Parameter ist direkt der Erwartungswert der Normalverteilung
²ist direkt die Varianz der Normalverteilung
Folie 10
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Normalverteilung
Warum die Normalverteilung - Zentraler Grenzwertsatz
Kennwerte &
Darstellung
Der Zentrale Grenzwertsatz (Central Limit Theorem):
Die Summe einer großen Zahl unabhängiger, identisch
verteilter Zufallsvariablen ist approximativ normalverteilt.
Normalverteilung
z-Werte
Folie 11
Dies veranlasste Sir Francis Galton (1889) zu der
enthusiasmierten Lobpreisung
„Ich kenne kaum etwas, das unsere Imaginationskraft so bewegen kann wie
die wundervolle Form kosmischer Ordnung, die sich im ‚Gesetz der
Verteilung von Fehlern‘ ausdrückt. Hätten die Griechen es gekannt, sie
hätten es personifiziert und als Gottheit angebetet. Es herrscht mit
bescheidener Gelassenheit in der wildesten Konfusion. Je gewaltiger die
Horde, je ärger die augenscheinliche Anarchie, um so souveräner ist seine
Herrschaft. Wann immer eine Menge chaotischer Elemente nach ihrer Größe
angeordnet wird, tritt es hinter dem Schleier des Chaos als unverhoffte und
wunderschöne Form der Regelmäßigkeit hervor.“
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Normalverteilung
Warum die Normalverteilung
Kennwerte &
Darstellung
1. Sie ergibt sich, wenn viele Zufallsprozesse bei der
Realisierung einer Zufallsvariablen additiv
zusammenwirken.
Normalverteilung
2. Sie ist die Verteilung des Mittelwerts aller Realisierungen
bei sehr häufiger Wiederholung eines Zufallsexperimentes
(„Zentraler Grenzwertsatz“).
z-Werte
3. Sie ist die Verteilung von Zufallsvariablen, wenn diese
eine messfehlerbehaftete Erfassung eines Merkmals
darstellen.
4. Sie ist mathematisch relativ leicht zu behandeln.
Folie 12
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Normalverteilung
Eigenschaften
Kennwerte &
Darstellung
Normalverteilung
Ist symmetrisch, eingipflig und glockenförmig
Verschiedene Normalverteilungen unterscheiden sich
bezüglich Erwartungswert (µ) und/oder
Standardabweichung ()
Der Wertebereich reicht von – bis +
Die Kurve berührt oder schneidet nie die x-Achse
z-Werte
Jedes Intervall mit einer Länge größer Null hat eine
Wahrscheinlichkeit größer Null
Die Verteilungsfunktion der Normalverteilung wird auch
als (x) (Phi) geschrieben.
Folie 13
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Exkurs: z-Standardisierung
Grundlagen
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Ziel: Angabe der relativen Lage von Werten in einer
Verteilung.
1. Angabe einer normierten Differenz eines Messwertes
zum Erwartungswert
2. Umwandlung einer Skala in eine andere mit
vorgegebenem und .
Berechnungsvorschrift: Jede Differenz eines Messwertes
wird durch die Standardabweichung aller Messwerte geteilt.
Die erhaltenen Werte werden als z-Werte bezeichnet.
z
Folie 14
x
x
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Exkurs: z-Standardisierung
Skalentransformation
Kennwerte &
Darstellung
Normalverteilung
Mithilfe der z-Transformation können Messdaten mit
beliebigem Mittelwert und Standardabweichung in
Daten transformiert werden, die einen definierten
Mittelwert und Standardabweichung aufweisen.
Schritt 1: z-Standardisierung jedes Datenpunktes
Schritt 2: Transformation jedes Datenpunktes in
die neue Skala
z-Werte
xneu z sneu xneu
Beispiele: Hamburg-Wechsler IQ-Test (MW=100,
s=15), IQ-Skala laut IST (MW=100, s=10), StanineSkala (MW=5, s=2),
Folie 15
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Exkurs: z-Standardisierung
Standardnormalverteilung
Kennwerte &
Darstellung
z-transformiert man eine normalverteilte Zufallsvariable
erhält man die Standardnormalverteilung.
Für die Standardnormalverteilung gilt: = 0, = 1
Normalverteilung
z-Werte
Die Formel der Normalverteilung reduziert sich damit auf
1 1 z2
f ( z)
e 2
2
Der Werte der Dichte- und Verteilungsfunktion hängen
also nur von z ab
Folie 16
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Standardnormalverteilung
Wichtige Punkte
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Folie 17
Inferenzstatistik
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Standardnormalverteilung
Wichtige Punkte – die 68-95-99 Regel
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Folie 18
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Standardnormalverteilung
Verteilungsfunktion
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Folie 19
Inferenzstatistik
Statistik &
Methodenlehre
Relevante Excel Funktionen
Normalverteilung, z-Transformation
• NORM.VERT(), NORM.S.VERT()
• NORM.INV(), NORM.S.INV()
• STANDARDISIERUNG()
Folie 20
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
Kann das wahr sein? Die statistische Formalisierung
des Hypothesentestens
Inferenzstatistik für Anfänger: der einfache z-Test
Folie 2
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Beispiel
Hypothesen &
Bestätigung
z-Test
Konfidenzintervalle
Ein Gesundheitspsychologe beschäftigt sich mit dem BurnoutSyndrom. Er möchte das Maslach Burnout Inventory (Maslach
& Jackson, 1981) verwenden, um Personen zu identifizieren,
die an Burnout leiden.
Der Psychologe hat herausgefunden, dass Normalpersonen
im MBI einen Erwartungswert von 11.4 Punkten erzielen. Die
Varianz beträgt 5.76. Zudem nimmt der Psychologe auf Basis
theoretischer Erwägungen an, dass der MBI Punktwert
normalverteilt ist.
Ein Patient hat einen MBI Punktwert von 16.3. Stammt er aus
der Verteilung der Normalpersonen? Welchen Wert müsste
ein Patient erreichen, damit er unter der gegebenen
Verteilungsannahme statistisch signifikant wird?
Folie 3
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Einführung
Hypothesen &
Bestätigung
Ziel: Prüfung, ob eine Beobachtung x aus einer
Population stammen kann, deren Wahrscheinlichkeitsverteilung eine Normalverteilung mit gegebenen und ist.
z-Test
Als „Beobachtung“ ist hier die Messung der Realisation
einer gegebenen Zufallsvariablen zu verstehen
Konfidenzintervalle
Folie 4
Weitere Beispiele: Ist ein Schüler zu intelligent, um der
Population normal intelligenter Kinder ( =100, =10)
anzugehören? Sind die Leistungen eines Bewerbers im AC
zu schlecht, um ihn der Population normal geeigneter
Bewerber zuzuordnen?
Statistik &
Methodenlehre
Diskrete Verteilungen
Inferenzstatistik
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Gößen auf
die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 5
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Inhaltliche Hypothesen
Hypothesen &
Bestätigung
z-Test
Die inhaltliche Hypothese im Beispiel könnte lauten:
Wenn eine Person einen MBI-Wert von 16.3 hat,
gehört sie zu den Gesunden.
Zu jeder wissenschaftlichen Hypothese existiert eine
Komplementärhypothese, in diesem Fall
Konfidenzintervalle
Wenn eine Person einen MBI-Wert von 16.3 hat,
gehört sie nicht mehr zu den Gesunden.
Das Ziel der inferenzstatistischen Analyse ist eine
Entscheidung für eine der beiden Hypothesen und das
Verwerfen der anderen
Folie 6
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Inhaltliche Hypothesen
Hypothesen &
Bestätigung
Zumeist ist es so, dass eine der beiden komplementären
Hypothesen den vom Wissenschaftler erwünschten
Zustand beschreibt, die andere den unerwünschten.
z-Test
Da es in der Wissenschaft darum geht, neue Erkenntnisse
über Wirkungen und Zusammenhänge zu gewinnen, lässt
sich die Frage nach erwünscht/unerwünscht neu fassen:
Konfidenzintervalle
Nullhypothese: Das Resultat des Experimentes ist der
bekannte/übliche/unveränderte Zustand
H0
Alternativhypothese:
H1
Das Resultat des Experimentes
ist ein neuer/veränderter Zustand
Diese inhaltliche Definition muss nun in statistische
Hypothesen überführt werden
Folie 7
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Inhaltliche Hypothesen
Hypothesen &
Bestätigung
Wenn die Nullhypothese eine bekannte, übliche Realisation einer Zufallsvariablen beschreibt, dürfte ebenfalls
bekannt sein, welche Wahrscheinlichkeitsverteilung die
Zufallsvariable im üblichen, bekannten Fall haben sollte.
z-Test
Tatsächlich ist die Nullhypothese statistischen gesehen
nicht mehr als die Annahme einer bestimmten
Wahrscheinlichkeitsverteilung für die Beobachtung
Konfidenzintervalle
Diese Annahme hat zwei Komponenten:
1. Die Vermutung, welche Form die
Wahrscheinlichkeitsverteilung im Fall der
Nullhypothese haben sollte (z.B. Normal)
2. Die Annahme, welche Parameter diese
Wahrscheinlichkeitsverteilung hat (z.B. μ und σ)
Folie 8
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Statistische Hypothesen
Hypothesen &
Bestätigung
Die Festlegung der Wahrscheinlichkeitsverteilung der
beobachteten Zufallsvariablen und ihrer Parameter wird
als Verteilungsannahme bezeichnet
z-Test
Ein statistischer Test zur Entscheidung für die H0/H1 kann
immer nur entweder die Form der Wahrscheinlichkeitsverteilung oder einen der Parameter prüfen
Konfidenzintervalle
Die anderen werden a-priori als korrekt hingenommen
Grundsätzlich gibt es nun 2 statistische Hypothesen:
Nullhypothese: Die angenommene Form/Parameter
sind zutreffend („wahr“)
H0
Alternativhypothese:
H1
Folie 9
Die angenommene Form/Parameter sind nicht zutreffend
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Statistische Hypothesen
Hypothesen &
Bestätigung
Um nun zu überprüfen, ob die angenommenen Parameter
zutreffend sein können, steht nun nur die konkrete
Beobachtung im Experiment zur Verfügung
Es wird einfach berechnet, wie wahrscheinlich die
Beobachtung wäre, wenn die unter der H0 angenommene
Wahrscheinlichkeitsverteilung auf die beobachtete
Zufallsvariablen zuträfe
z-Test
Konfidenzintervalle
Dann gilt die einfache Entscheidungsregel
Ist die Beobachtung eher wahrscheinlich, lehne
man die H1 ab und bleibe bei der H0
Ist die Beobachtung zu unwahrscheinlich, verwerfe
man die H0 und nehme die H1 an
Folie 10
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Statistische Hypothesen
Hypothesen &
Bestätigung
Schema: Der Weg von nur einer konkreten Beobachtung
zur Entscheidung über Annahme oder Ablehnung der
Verteilungsannahme:
Hypothesen:
H0: μ ist 11.4
H1: μ ist ein anderer Wert
z-Test
Konfidenzintervalle
Folie 11
Beobachtung:
x = 16.3
(gegeben Normalverteilung mit σ=2.4)
Entscheidung:
Ist die Wahrscheinlichkeit zu klein,
kann das μ nicht zutreffen
Berechnung:
Wahrscheinlichkeit
für Beobachtung x
H0 verwerfen, H1 annehmen
gegeben dass X ~ NV(μ, σ)
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Hypothesen &
Bestätigung
Problem: Aufgrund der zufälligen Ziehung wird das
beobachtete x immer schwanken (Stichprobenfehler)
Frage: Wie extrem muss das beobachtete x sein, damit
wir begründet annehmen können, dass diese
Beobachtung nicht passt „Wie wahrscheinlich ist zu
unwahrscheinlich?“
z-Test
Konfidenzintervalle
Hier haben sich in der Praxis zwei Cut-Off Werte
eingebürgert, die als α–Niveaus oder
Signifikanzniveaus bezeichnet werden.
Es gilt:
Folie 12
p 0.05
statistisch nicht signifikant
p 0.05
p 0.01
statistisch signifikant
statistisch hochsignifikant
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Hypothesen &
Bestätigung
Problem: Aufgrund der zufälligen Ziehung wird das
beobachtete x schwanken (Stichprobenfehler)
z-Test
Frage: Wie extrem muss das beobachtete x sein, damit
wir begründet annehmen können, dass diese
Beobachtung nicht passt Schreibe:
„Wie wahrscheinlich
ist zu auf
„Es wird getestet
unwahrscheinlich?“
einem Signifikanzniveau von …“
Konfidenzintervalle
α = .05 oder
Hier haben sich in der Praxis zwei Cut-Off Werte
α = .01
eingebürgert, die als α–Niveaus oder
Signifikanzniveaus bezeichnet werden.
Es gilt:
Folie 13
p 0.05
statistisch nicht signifikant
p 0.05
p 0.01
statistisch signifikant
statistisch hochsignifikant
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Hypothesen &
Bestätigung
Die Aussage, ein x sei statistisch signifikant, ist eine
Wahrscheinlichkeitsaussage bei der immer ein
Restirrtum verbleibt, die Irrtumswahrscheinlichkeit.
Diese Irrtumswahrscheinlichkeit hängt nicht von der
konkret erhaltenen Wahrscheinlichkeit p ab, sondern vom
gewählten Signifikanzniveau α.
z-Test
Konfidenzintervalle
Bei α=0.05 beträgt die Irrtumswahrscheinlichkeit also
5%, bei α=0.01 ist sie 1%.
In der Praxis wird das α-Niveau deshalb oft auch als
Irrtumswahrscheinlichkeit oder α-Fehler bezeichnet.
Folie 14
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Hypothesen &
Bestätigung
Bei der Entscheidung für die H0 oder H1 können je zwei
Arten richtiger/falscher Entscheidungen getroffen werden
In der Population gilt
z-Test
Konfidenzintervalle
H0
H0
H1
Correct
Rejection
Miss
Entscheidung für
H1
Folie 15
False Alarm
(-Fehler,
Fehler 1. Art)
(-Fehler,
Fehler 2. Art)
Hit
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Statistische Hypothesen und ihre Interpretation
Hypothesen &
Bestätigung
Die Hypothesenrichtung muss vor dem Experiment
festgelegt werden
z-Test
Ebenso muss das Signifikanzniveau vor dem
Experiment festgelegt werden
Konfidenzintervalle
Finden diese Festlegungen erst nach Ansehen der Daten
statt, wird Forschungsergebnis an die Daten angepasst
Data Snooping
Folie 16
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
z-Test
Soll die Größe eine gemessenen Wertes bewertet
werden, sind zunächst die Wahrscheinlichkeitsverteilung und ihre Parameter zu bestimmen, aus der
dieser Wert „normalerweise“ stammen sollte
Die Annahme der Form oder eines der Parameter ist die
Nullhypothese H0
Konfidenzintervalle
Die Nullhypothese bezeichnet im Allgemeinen den
Zustand, den der Forscher nicht beobachten möchte
Beispiele: Pflanzen sollten auf Fechners Stimulation
nicht zufällig antworten; ein auf Hochbegabung zu
testendes Kind sollte nicht aus der Normalpopulation
stammen; nach einer Exposition sollten die Patienten
nicht genau so höhenängstlich sein wie vorher
Folie 17
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
Dann wird theoriegeleitet festgelegt, in welche Richtung
der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte.
Diese Hypothesenrichtung definiert die Formulierung
der Alternativhypothese H1
z-Test
Die H0 ist somit einfach das Gegenteil der H1
Konfidenzintervalle
Folie 18
Dabei gibt es prinzipiell nur drei Möglichkeiten:
H 0 : x x0
H1 : x x0
H 0 : x x0
H 0 : x0i x x0 j
H1 : x x0
H1 : x x0i , x x0 j
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
Dann wird theoriegeleitet festgelegt, in welche Richtung
der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte.
Diese Hypothesenrichtung definiert die Formulierung
der Alternativhypothese H1
Lies: „Der gemessene Wert x ist größer als
sein angenommener
Wert xder
Die H0 ist somit
einfach das Gegenteil
0“ H1
z-Test
Konfidenzintervalle
Folie 19
Dabei gibt es prinzipiell nur drei Möglichkeiten:
H 0 : x x0
H1 : x x0
H 0 : x x0
H 0 : x0i x x0 j
H1 : x x0
H1 : x x0i , x x0 j
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
z-Test
Konfidenzintervalle
Folie 20
Dann wird theoriegeleitet festgelegt, in welche Richtung
der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte.
Diese Hypothesenrichtung definiert die Formulierung
der Alternativhypothese H1
Lies: „Der gemessene Wert x ist kleiner als
Die H0 ist somit einfach das Gegenteil der H1
sein angenommener Wert x0“
Dabei gibt es prinzipiell nur drei Möglichkeiten:
H 0 : x x0
H1 : x x0
H 0 : x x0
H 0 : x0i x x0 j
H1 : x x0
H1 : x x0i , x x0 j
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
Dann wird theoriegeleitet festgelegt, in welche Richtung
der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte.
Diese Hypothesenrichtung definiert die Formulierung
der Alternativhypothese H1
z-Test
Konfidenzintervalle
Folie 21
Lies: einfach
„Der gemessene
Wert der
x liegt
Die H0 ist somit
das Gegenteil
H1 außerhalb
des Bereiches von x0i bis x0j“
Dabei gibt es prinzipiell nur drei Möglichkeiten:
H 0 : x x0
H1 : x x0
H 0 : x x0
H 0 : x0i x x0 j
H1 : x x0
H1 : x x0i , x x0 j
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
Neben den Hypothesen wird das Signifikanzniveau
definiert, auf dem die berechnete Wahrscheinlichkeit
bewertet werden soll
z-Test
Schließlich werden diese Wahrscheinlichkeit p(x | H0)
bestimmt und die Signifikanzaussage getroffen
Konfidenzintervalle
Die Signifikanzaussage ist prinzipiell nichts anderes als
die Entscheidung für die H0 oder H1.
Die Logik dabei lautet: Wenn die H0 nicht gilt, dann muss
die H1 gelten
Aber: Bei dieser Entscheidung irrt man sich mit einer
Irrtumswahrscheinlichkeit von 100%.
Folie 22
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Einführung
Hypothesen &
Bestätigung
Am Beispiel: Im Experiment mit einer angenommenen
Normalverteilung f(x, =11.4, =2.4) beobachte man ein
x=16.4.
Es muss zunächst geklärt werden, welche der drei
Hypothesenkomponenten Gegenstand der Testung sein
soll: a) Normalverteilung, b) =11.4 oder c) =2.4.
z-Test
Konfidenzintervalle
Im Beispiel ist die Normalverteilung a-priori gesetzt. Per
Konvention wird die Lage einer Beobachtung über den
Erwartungswert geprüft, nicht über die Streuung.
Es ist also zu testen, ob =11.4 beibehalten werden kann
(H0) oder die H1 („ein anderes “) gewählt werden muss.
Folie 23
Zur Prüfung dieses Parameters dient der z-Test
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Einführung
Hypothesen &
Bestätigung
Der z-Test folgt exakt der bereits kennen gelernten Logik
des Hypothesentestens, allerdings mit einem weiteren
Zwischenschritt
1. Verteilungsannahme treffen: Normalverteilt mit den
gegebenen und
z-Test
Konfidenzintervalle
2. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
3. Signifikanzniveau festlegen
4. Prüfgröße z bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen Z)
5. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 24
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Das Konzept der Prüfgröße
Hypothesen &
Bestätigung
Beim z-Test wird nicht die Wahrscheinlichkeit für die
beobachtete Realisation x selbst, sondern für eine so
genannte Prüfgröße bestimmt
Eine Prüfgröße ist ein Zahlenwert, der durch mathematische Umformungen aus dem beobachteten x
berechnet wird (anders als z.B. beim Binomialtest)
z-Test
Konfidenzintervalle
Prüfgrößen sind also nichts anderes als neue Zufallsvariablen, die durch Transformation der alten entstehen
Prüfgrößen kommen immer dann zum Einsatz, wenn die
Wahrscheinlichkeitsfunktion der Zufallsvariablen X, aus
der die Beobachtung x stammt, nicht oder nicht
einfach bestimmt werden kann – diejenige der
Prüfgröße aber sehr wohl
Folie 25
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Das Konzept der Prüfgröße
Hypothesen &
Bestätigung
Beim z-Test lautet die Prüfgröße
z
z-Test
Konfidenzintervalle
x
Aus der Zufallsvariablen X wird über eine mathematische
Transformation eine neue Zufallsvariable Z erzeugt
Deren Wahrscheinlichkeitsverteilung ist bekannt, nämlich
die Standardnormalverteilung
Damit kann auch jede Intervallwahrscheinlichkeit bei der
Hypothesenprüfung, z.B. p(Z≤z), bestimmt werden
Folie 26
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Hypothesen
Hypothesen &
Bestätigung
Beim z-Test sind weitaus häufiger als z.B. beim
Binomialtest alle drei möglichen Hypothesenrichtungen
von Interesse.
z-Test
Konfidenzintervalle
H 0 : 0 Verwerfen der Verteilungsannahme
H1 : 0 bei einem zu großen Wert
H 0 : 0 Verwerfen der Verteilungsannahme
H1 : 0 bei einem zu kleinen Wert
„Einseitige“ oder „gerichtete“ Hypothese
Der unter der H0 angenommene Wert für
(hier: 0 = 11.4)
Folie 27
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Hypothesen
Hypothesen &
Bestätigung
Beim z-Test sind weitaus häufiger als z.B. beim
Binomialtest alle drei möglichen Hypothesenrichtungen
von Interesse.
z-Test
Konfidenzintervalle
H 0 : 0 Verwerfen der Verteilungsannahme
H1 : 0 bei einem zu großen Wert
H 0 : 0 Verwerfen der Verteilungsannahme
H1 : 0 bei einem zu kleinen Wert
„Einseitige“ oder „gerichtete“ Hypothese
Folie 28
H 0 : 0
Verwerfen der Verteilungsannahme
H1 : 0 , 0 bei einem zu extremen Wert
„Zweiseitige“ oder „ungerichtete“ Hypothese
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Durchführung
Hypothesen &
Bestätigung
Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
Dazu berechnet man
z-Test
Konfidenzintervalle
pZ z
für die H 0 : 0
pZ z
für die H 0 : 0
p Z z
p Z z
für die H 0 : 0
Verwerfen der H0 bei einer
zu großen Beobachtung
Verwerfen der H0 bei einer
zu kleinen Beobachtung
Verwerfen der H0 bei einer
zu extremen Beobachtung
und vergleicht p mit dem Signifikanzniveau
Folie 29
Das p(…) wird aus der Verteilungsfunktion der
Normalverteilung berechnet
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Zusammenfassung
Hypothesen &
Bestätigung
Beobachtung im Experiment: X=x
Frage: Kann x aus einer Normalverteilung mit =0 stammen?
Geht die Höhe des Wertes x auf einen Stichprobenfehler zurück?
(1) Bestimmung der Verteilung der Zufallsvariablen Z
z-Test
(2) Festlegung des Signifikanzniveaus α
Konfidenzintervalle
(3) Berechnung der Prüfgröße z
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter
Annahme der H0, z. B. p(Z≥z)
Folie 30
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Zwei Perspektiven
Ist die Verteilungsfunktion einer Zufallsvariablen bekannt,
a) kann die Überschreitungswahrscheinlichkeit
für einen gegebenen Wert ermittelt werden
b) kann ein so genannter kritischer Wert zu einer
gegebenen Überschreitungswahrscheinlichkeit
(i.e. Signifikanzniveau) gefunden werden
z-Test
Konfidenzintervalle
Folie 31
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
z-Test
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Zwei Perspektiven
Frage 1: Unterschreitet die Wahrscheinlichkeit für eine
so extreme oder noch extremere Abweichung der
Beobachtung von der Erwartung, gegebenen dass die H0
gilt, ein Signifikanzniveau ?
Diese Frage wird über inferenzstatistische Tests
beantwortet.
Konfidenzintervalle
Frage 2: Welches Intervall um den Erwartungswert
überdeckt typische Beobachtungen mit einer
Wahrscheinlichkeit von 1-.
Diese Frage wird über Konfidenzintervalle
beantwortet
Folie 32
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Die inverse Verteilungsfunktion
Für die Ermittlung des kritischen Wertes ist es wichtig, die
Inverse der Verteilungsfunktion der Normalverteilung
zu kennen.
z-Test
Erst dann kann für eine gegebene Wahrscheinlichkeit der
kritische Wert berechnet werden.
Konfidenzintervalle
Die Inverse der Verteilungsfunktion einer normalverteilten
Zufallsvariablen wird geschrieben als F-1(x) oder -1(x).
Sowohl die Verteilungsfunktion der Normalverteilung (x)
als auch deren Inverse -1(x) sind mathematisch nicht als
einfacher Formelausdruck zu beschreiben (anders als die
Dichtefunktion).
Folie 33
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
z-Test
Konfidenzintervalle
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Bestimmung der Grenzen
x
Die Prüfgröße im z-Test lautet
z
Diese Gleichung lässt sich umstellen zu
x z
Mit einem kritischen Wert wird daraus
x z
z ist dabei der kritische Wert zu einem Signifkanzniveau , der aus einer Normalverteilung mit den
Parametern und ermittelt wurde.
Folie 34
Das berechnete x ist dann der Wert, den ein Datum
unterschreiten müsste, um signifikant zu werden
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Beispiel
Konfidenzintervalle
Hypothesen &
Bestätigung
Mithilfe des Vorzeichens lassen sich nun zwei Grenzen
bestimmen
Bestimmung der Grenzen
xUG z ˆ X
z-Test
Konfidenzintervalle
Folie 35
xOG z1 ˆ X
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Beispiel
Konfidenzintervalle
Hypothesen &
Bestätigung
Beim Konfidenzintervall interessiert der Bereich, der
die typischen Werte überdeckt, nicht der Bereich
außerhalb.
Bestimmung der Grenzen
Für die symmetrische Normalverteilung spielt dies
aber keine Rolle, da F(-z) = F(z).
z-Test
xUG z1 ˆ X
Konfidenzintervalle
Folie 36
xOG z ˆ X
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Bestimmung der Grenzen
Einseitige Konfidenzintervalle sind möglich, allerdings
ist die zweiseitige Variante wesentlich verbreiteter
Man veranschaulicht dies, in dem man den kritischen
Wert mit /2 kennzeichnet.
z 2 ˆ X x z1 2 ˆ X
z-Test
Konfidenzintervalle
Folie 37
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Normalverteilte Prüfgrößen – Zusammenfassung
Für Konfidenzintervalle für normalverteilte Daten wird
zunächst ein kritischer Wert z bzw. z/2 bestimmt.
Die Bestimmung verläuft über die
Standardnormalverteilung
z-Test
Die Grenzen der einseitigen Konfidenzintervalle sind dann
Konfidenzintervalle
z ;
bzw.
; z1
Das zweiseitige Konfidenzintervall ist
z 2 ; z1 2
Folie 38
Statistik &
Methodenlehre
Relevante Excel Funktionen
Normalverteilung, z-Test, z-Transformation
• NORM.VERT(), NORM.S.VERT()
• NORM.INV(), NORM.S.INV()
• STANDARDISIERUNG()
Folie 39
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
Welche Münze soll man werfen? Vergleich von
Häufigkeiten über den Binomialtest für 2
unabhängige Stichproben.
Hinterher besser als Vorher? Vergleich von
Häufigkeiten über den McNemar Test für 2
abhängige Stichproben
Was ist typisch? Der ²-Test für zwei unabhängige
Merkmale.
Folie 2
Statistik &
Methodenlehre
Binomialtest
Inferenzstatistik
Testarten und Skalenniveau
McNemar Test
Bisher haben wird inferenzstatistische Tests für eine
Beobachtung kennen gelernt
²-Test
Beispiele: Binomial- und Poissontest für eine Häufigkeit,
z-Test für einen Datenwert
Oft erhebt man aber in einer oder mehreren Stichproben
mehrere Daten- oder Kennwerte
Zur Bewertung solcher Werte gibt es verschiedene Tests,
abhängig vom Skalenniveau der Messwerte, z.B.
1. Nominalskala (i.e. Häufigkeiten): Binomialtest,
²-Test, McNemar-Test.
2. Ordinalskala: U-Test, Vorzeichenrangtest
Folie 3
3. Intervallskala: t-Test, F-Test, Zusammenhangstests
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
McNemar Test
Ein Personalpsychologe des Psychologischen Instituts wird
beauftragt, die Gleichstellungsbeauftragte der Universität
Mainz bei einer statistischen Analyse zu unterstützen.
²-Test
Es soll geprüft werden, ob die Einstellungsquoten zwischen
weiblichen und männlichen Bewerbern unterschiedlich sind.
Von 300 männlichen Bewerbern wurden 50 eingestellt, von
170 weiblichen Bewerbern wurden 40 eingestellt.
Gibt es hinsichtlich der Einstellungsquoten Handlungsbedarf
für die Gleichstellungsbeauftragte?
Folie 4
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
McNemar Test
Ziel: Prüfung, ob die in zwei unabhängigen Gruppen
beobachteten Häufigkeiten einer dichotomen
Zufallsvariablen aus derselben Population (mit identischer
Wahrscheinlichkeitsverteilung) stammen können.
²-Test
Definition: Stichproben gelten als unabhängig, wenn
unterschiedliche Personen in ihnen vorhanden sind.
Weitere Beispiele: Ist die Wahrscheinlichkeit für ein
Todesurteil bei farbigen und weißen Angeklagten
unterschiedlich? Sind Heilungsquoten bei massierter
Konfrontation besser als bei gradueller Konfrontation?
Folie 5
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
McNemar Test
Man habe 2 dichotome
Zufallsvariablen A und X.
²-Test
Man beobachte nun bei N
Merkmalsträgern die
Ausprägung beider Variablen
und ermittle die absoluten
Verbundhäufigkeiten hij.
a1
a2
x1
h11
h12
h1
x2
h21
h22
h2
h1
h2
N
Eine der ZV (hier: A) unterscheide 2 Gruppen, die andere
repräsentiere das interessierende Merkmal (hier: X)
Am Beispiel: A sei das Geschlecht (a1 = männlich, a2 =
weiblich), X die Einladung zum Vorstellungsgespräch
(x1 = abgelehnt, x2 = eingeladen)
Folie 6
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Die Prüfung solcher Fragen erfordert die Berechnung
bedingter Häufigkeiten, nämlich
Binomialtest für 2 unabhängige Stichproben
f1 f ( x | a1 )
²-Test
f 2 f ( x | a2 )
z.B. x = Einladung
a1 = männlich
a2 = weiblich
Welche der beiden Realisationen von X gewählt wird (z.B.
0 oder 1), spielt dabei keine Rolle
Inhaltlich soll nun geprüft werden, ob f1 und f2 gleich sein
können oder ob sie unterschiedlich sind.
Frage: Man hat hier mehrere Zufallsvariablen – wie lautet
die Verteilungsannahme unter der Nullhypothese?
Folie 7
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
Die Trefferhäufigkeiten f1 und f2 sind nichts anderes als die
Realisationen von transformierten Zufallsvariablen
aus einem Bernoulli-Experiment
Xi
Fi
ni
Xi = Absolute Trefferhäufigkeit in Gruppe i
mit ni = Anzahl der Trials in Gruppe i
Fi = Relative Trefferhäufigkeit in Gruppe i
Die Nullhypothese kann also formuliert werden als:
„Die absoluten Trefferhäufigkeiten x1 und x2, die zu den
relativen Trefferhäufigkeiten f1 und f2 geführt haben,
stammen aus derselben Wahrscheinlichkeitsverteilung“
Die Alternativhypothese ist wie üblich das genaue
Gegenteil
Folie 8
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
Wären die Wahrscheinlichkeitsverteilungen der Zufallsvariablen Xi (absolute Trefferhäufigkeiten) in beiden
Gruppen bekannt, könnten diese unmittelbar auch für die
Zufallsvariablen Fi (relative Trefferhäufigkeiten)
zugrunde gelegt werden Vererbung
Probleme: Die Wahrscheinlichkeitsverteilungen sind nicht
bekannt. Zudem erwartet die Nullhypothese eine
Wahrscheinlichkeitsverteilung, nicht zwei.
Solche Probleme löst die Statistik oft über die
Transformation der vorhanden Zufallsvariablen in eine
neue Zufallsvariable.
Folie 9
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
Ansatz: Die zwei Zufallsvariablen F1 und F2 werden zu
einer einzigen neuen Zufallsvariablen verknüpft, indem
man einfach die Differenz aus beiden berechnet
F1 F2
Für einen Hypothesentest ist nun die Wahrscheinlichkeitsverteilung von unter der Nullhypothese zu bestimmen
Es lässt sich zeigen, dass normalverteilt ist, wenn
jede der absoluten Häufigkeiten in der Kreuztabelle A × X
mindestens 5 ist (alle nij > 5)
Frage: Wie lauten und für die Normalverteilung des
Wertes unter Annahme der Nullhypothese?
Folie 10
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Für die Erwartungswerte der beiden Fi gilt gemäß unserer
Transformationsregeln
Binomialtest für 2 unabhängige Stichproben
²-Test
F
X
i
n
i
Die Rechenregeln für Erwartungswerte besagen, dass bei
F1 F2
unmittelbar gilt
F F
1
Folie 11
2
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
Idee: Wenn die beobachteten Treffer X in beiden
Gruppen aus derselben Wahrscheinlichkeitsverteilung
stammen, müssen sie denselben Erwartungswert
haben
X X
1
2
F1 F2 F
Damit ergibt sich für die soeben aufgestellte Beziehung
F F F F 0
1
2
Der Erwartungswert der Normalverteilung des ist also 0
Folie 12
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
Die Herleitung der Standardabweichung des ist
etwas aufwändiger: für zwei Gruppen der Umfänge n1 und
n2 und des Gesamtumfangs N = n1+n2 zeigt sich, dass
mit
f12 (1 f12 ) (1 n1 1 n2 )
n1
n2
f12 f1 f 2
N
N
Damit liegt die Wahrscheinlichkeitsverteilung der Differenz
der beiden Fi unter der Nullhypothese fest und der
statistische Test kann durchgeführt werden.
Folie 13
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
Der Binomialtest folgt exakt der bereits kennen gelernten
Logik des Hypothesentestens, allerdings mit einem
weiteren Zwischenschritt
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: Normalverteilt mit den
berechneten und
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße z bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen Z)
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 14
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Prüfgröße bei zwei unabhängigen Stichproben der
Umfänge n1 und n2 und des Gesamtumfangs N = n1+n2
Binomialtest für 2 unabhängige Stichproben
z
²-Test
mit
d
f1 f 2
f12 (1 f12 ) (1 n1 1 n2 )
n1
n2
f12 f1 f 2
N
N
Unter der Nullhypothese ist die Prüfgröße standardnormalverteilt, wenn in der 2×2 Kreuztabelle der
beobachteten absoluten Häufigkeiten alle nij > 5 sind.
Folie 15
Der Binomialtest wird also zu einem einfachen z-Test
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
Beim Binomialtest sind wie beim z-Test potentiell alle drei
möglichen Hypothesenrichtungen von Interesse.
²-Test
H 0 : f1 f 2 Verwerfen der Verteilungsannahme
H1 : f1 f 2 bei einer zu positiven Differenz
H 0 : f1 f 2 Verwerfen der Verteilungsannahme
H1 : f1 f 2 bei einer zu negativen Differenz
„Einseitige“ oder „gerichtete“ Hypothese
H 0 : f1 f 2
Verwerfen der Verteilungsannahme
H1 : f1 f 2 ; f1 f 2 ) bei einer zu extremen Differenz
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 16
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
Formuliert man die H0/H1 bezogen auf die Prüfgröße mit
ihrem Erwartungswert =0, ist dies gleichbedeutend zu
²-Test
H 0 : 0 Verwerfen der Verteilungsannahme
H1 : 0 bei einer zu positiven Differenz
H 0 : 0 Verwerfen der Verteilungsannahme
H1 : 0 bei einer zu negativen Differenz
„Einseitige“ oder „gerichtete“ Hypothese
H0 : 0
Verwerfen der Verteilungsannahme
H1 : 0, 0) bei einer zu extremen Differenz
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 17
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
McNemar Test
Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
²-Test
Dazu berechnet man
pZ z
für die H 0 : f1 f 2
Verwerfen der H0 bei einer
zu positiven Differenz
pZ z
für die H 0 : f1 f 2
Verwerfen der H0 bei einer
zu negativen Differenz
p Z z
p Z z
für die H 0 : f1 f 2
Verwerfen der H0 bei einer
zu extremen Differenz
und vergleicht p mit dem Signifikanzniveau
Folie 18
Das p(…) wird aus der Verteilungsfunktion der
Normalverteilung berechnet
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
Wichtig: In die Prüfung der Hypothese, ob f1 = f2 gehen
ausschließlich empirisch gemessene Werte aus der
Stichprobe ein.
Eigentlich möchte man aber im Rahmen der
Inferenzstatistik prüfen, ob sich (theoretische)
Populationen unterscheiden.
Hier behilft man sich mit dem inferenzstatistischen
Schluss: Dieser besagt, dass die gemessenen Werte
erwartungstreue (sprich: gute) Schätzungen für die
wahren Werte sind
Lies: „f dach“
empirisch
Folie 19
fi fˆi
theoretisch geschätzt
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Beobachtung im Experiment: f1 und f2
Binomialtest für 2 unabhängige Stichproben
Frage: Können die Stichproben aus einer Population stammen?
Geht die Unterschiedlichkeit der Häufigkeiten auf einen Stichprobenfehler zurück?
²-Test
(1) Bestimmung der Verteilung der Zufallsvariablen Z
(2) Festlegung d. Signifikanzniveaus α
(3) Berechnung der Prüfgröße z
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter
Annahme der H0, z. B. p(Z≤z)
Folie 20
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Achtung: Vorher
immer Prüfung der
Voraussetzungen!
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
McNemar Test
Voraussetzung 1: Die Messungen müssen unabhängig
sein.
²-Test
Voraussetzung 2: Die Zufallsvariablen müssen
dichotom sein
Voraussetzung 3: In der Kreuztabelle der beobachteten absoluten Häufigkeiten müssen alle nij > 5 sein
Folie 21
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
Eine Sexualpsychologin untersucht die sexuelle Aktivität von
Paaren. Sie befragt hierzu Paare mit dem Fragebogen zur
sexuellen Zufriedenheit (FSZ, Christmann & Hoyndorf, 1988)
einen Monat nach dem Beginn der Beziehung sowie noch
einmal zwölf Monate nach dem Beginn.
Sie wertet zunächst nur eines der Items aus, in dem gefragt
wird, ob die Paare in der vergangenen Woche intime
Kontakte miteinander hatten.
Sie ermittelt, dass von 70 Paaren nach einem Monat 15 keine
intimen Kontakte angeben, nach zwölf Monaten 27. Nur 7
Paare geben zu beiden Zeitpunkten keine Intimkontakte an.
Folie 22
Die Psychologin möchte ermitteln, ob sich das Sexualverhalten der Personen über die Beziehungszeit verändert hat.
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
Ziel: Prüfung, ob die zu zwei Messzeitpunkten
beobachteten Häufigkeiten eines Wertes x aus derselben
Population mit identischer Wahrscheinlichkeitsverteilung
stammen können.
Definition: Stichproben gelten als abhängig, wenn
dieselben Personen in beiden Stichproben vorhanden sind.
Weitere Beispiele: Steigt das Ausmaß aggressiven
Verhaltens nach Erleben entsprechender Verhaltensmodelle? Sinkt die Rückfallwahrscheinlichkeit nach einem
Rauchentwöhnungstraining durch die Teilnahme an einem
speziellen Rückfallprophylaxeprogramm?
Folie 23
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
Man habe für 2 abhängige
Stichproben folgende
Kontingenztabelle der
Zufallsvariable X erhalten:
Gibt es systematische
Veränderungen zwischen
den Stichproben, so müssen
die Randhäufigkeiten
unterschiedlich sein
Messung 1
Messung 2
Statistik &
Methodenlehre
x1
x2
x1
h11
h12
h1
x2
h21
h22
h2
h1
h2
N
Unter der Nullhypothese sollte also gelten
h1 h1 h11 h12 h11 h21
h2 h2 h22 h12 h22 h21
Folie 24
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
McNemar Test
Hier haben wir es mit vier Zufallsvariablen zu tun, die H0
ist noch schwieriger zu formulieren als beim Binomialtest.
²-Test
Ansatz: Die inhaltlichen Hypothesen
H 0 : h1 h1 , h2 h2
H1 : h1 h1 , h2 h2
lassen sich
kombinieren zu
H 0 : h12 h21
H1 : h12 h21
Damit liegen ähnlich wie beim Binomialtest zwei absolute
Trefferhäufigkeiten h12 und h21 vor, die unter der
Nullhypothese aus derselben Wahrscheinlichkeitsverteilung
kommen sollen
Folie 25
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
Wieder können die zugrunde liegenden zwei Zufallsvariablen H1 und H2 per Differenzenbildung zu einer
einzigen neuen Zufallsvariablen verknüpft werden
H1 H 2
Die Wahrscheinlichkeitsverteilung des ist beim McNemar
Test schwieriger zu ermitteln als beim Binomialtest
Nach einer weiteren mathematischen Transformation des
in eine neue Zufallsvariable („Chi“) ergibt sich für
diese aber eine einfache Wahrscheinlichkeitsverteilung
Die neue Zufallsvariable wird deshalb als Prüfgröße
verwendet.
Folie 26
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Folie 27
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Exkurs: Die ²-Verteilung
1
f x, df
x df /21e x /2
2df /2 (df / 2)
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
Der McNemar Test folgt exakt der bereits kennen
gelernten Logik des Hypothesentestens, allerdings mit
einem weiteren Zwischenschritt
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: ²-verteilt mit den
gegebenen df
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße ² bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen )
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 28
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Die Prüfgröße beim McNemar Test wird berechnet als
²-Test
McNemar Test für 2 abhängige Stichproben
2
h
12
h21 0.5
2
h12 h21
Unter der Nullhypothese ist die Prüfgröße ²-verteilt
ist, wenn in der 2×2 Kreuztabelle h12 + h21 > 25 gilt
Die ²-Verteilung hat einen Parameter, die so genannten
Freiheitsgrade df.
Für den McNemar Test gilt immer df = 1.
Folie 29
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
Beim McNemar Test können prinzipiell alle drei
Hypothesenrichtungen geprüft werden
²-Test
H 0 : h12 h21 Verwerfen der Verteilungsannahme
H1 : h12 h21 bei einer zu positiven Differenz
H 0 : h12 h21 Verwerfen der Verteilungsannahme
H1 : h12 h21 bei einer zu negativen Differenz
„Einseitige“ oder „gerichtete“ Hypothese
H 0 : h12 h21
Verwerfen der Verteilungsannahme
H1 : h12 h21 , h12 h21 bei einer zu extremen Differenz
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 30
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
Aufgrund der speziellen Prüfgröße ist beim McNemar Test
jedoch nur eine Hypothesenrichtung relevant, da der
Zähler immer größer ist als der Nenner
H 0 : p ( 2 ) Verwerfen der Verteilungsannahme
H1 : p ( 2 ) bei einem noch größeren Wert
„Einseitige“ oder „gerichtete“ Hypothese
Wichtig: In die Prüfung der Hypothese h12 = h21 gehen
wieder nur empirisch gemessene Werte ein.
Bei der Übertragung auf die Population behilft man sich
wieder mit dem inferenzstatistischen Schluss:
empirisch
Folie 31
hi hˆi
theoretisch geschätzt
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Beobachtung im Experiment: h12 und h21
McNemar Test für 2 abhängige Stichproben
Frage: Können die Messungen aus einer Population stammen?
Geht die Unterschiedlichkeit der Häufigkeiten auf einen Stichprobenfehler zurück?
²-Test
(1) Bestimmung der Verteilung der Zufallsvariablen
(2) Festlegung d. Signifikanzniveaus α
(3) Berechnung der Prüfgröße ²
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter Annahme der H0, z. B. p( ≤ ²)
Folie 32
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Achtung: Vorher
immer Prüfung der
Voraussetzungen!
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
McNemar Test
Voraussetzung 1: Die Messungen müssen abhängig
sein.
²-Test
Voraussetzung 2: Die Zufallsvariablen müssen
dichotom sein
Voraussetzung 3: In der Kreuztabelle der beobachteten absoluten Häufigkeiten sollte h12 + h21 > 25 sein
Folie 33
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
McNemar Test
Eine weit verbreitete Vermutung in der klinischen Psychologie
bezieht sich auf den Zusammenhang zwischen der Händigkeit
einer Person und der Entwicklung psychischer Störungen. So
sollen Linkshändige eher als Rechtshändige zu
Persönlichkeitsstörungen (z.B. Schizophrenie) neigen.
²-Test
Eine Forschergruppe möchte diese Annahme überprüfen. Sie
stellen bei 1546 Patienten einer psychiatrischen Einrichtung
die Variablen Händigkeit und Primärdiagnose fest.
Die Forschergruppe möchte herausfinden, ob Händigkeit und
psychische Störung tatsächlich zusammenhängen.
Folie 34
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
Ziel: Prüfung, ob die in beliebig vielen unabhängigen
Gruppen beobachteten Häufigkeiten einer polytomen
Zufallsvariablen aus derselben Population (mit
identischer Wahrscheinlichkeitsverteilung) stammen
Um zu prüfen, ob die Merkmale unabhängig
voneinander sind wird der χ²-Test verwendet.
Weitere Beispiele: Wählen Frauen Parteien in
anderen Häufigkeiten als Männer? Kommen bei
endogen Depressiven andere Komorbiditäten vor als
bei reaktiv Depressiven?
Folie 35
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
Man habe folgende Kontingenztafel für die
beobachteten Zufallsvariablen A und X:
²-Test
Folie 36
Inferenzstatistik
a1
a2
ak
x1
h11
h12
…
h1k
h1
x2
h21
h22
…
…
h2
…
…
…
…
…
…
xm
hm1
hm2
…
hmk
hm
h1
h2
…
hk
N
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
McNemar Test
Wenn zwei Merkmale A und X unabhängig sind,
beeinflusst die Ausprägung in einem Merkmal nicht die
Auftretenswahrscheinlichkeiten im anderen Merkmal
²-Test
Unabhängigkeit zweier ZV im ²-Test meint also nichts
anderes als stochastische Unabhängigkeit.
Für solche Zufallsvariablen gilt der Multiplikationssatz:
p( A X ) p( A) p( X )
Ist N die Gesamtzahl der Beobachtungen, lassen sich
daraus auch erwartete absolute Häufigkeiten schätzen
h( A) h( X )
hˆ( A X )
N
Folie 37
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Die inhaltlichen Hypothesen sind also
χ²-Test für k unabhängige Stichproben
H 0 : h A X hˆ A X
²-Test
für alle Kombinationen von ai und xj
H 0 : h A X hˆ A X
für mind. eine Kombination von ai und xj
Es ist zu prüfen, ob die einzelnen Verbundhäufigkeiten
vereinbar mit Wahrscheinlichkeitsverteilungen sind, die
bei Unabhängigkeit der Zufallsvariablen erwartet
würden.
Folie 38
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
Hier liegen eine Vielzahl von Verteilungen vor, die zur
statistischen Prüfung in einer Zufallsvariable integriert
werden müssen
Wie beim McNemar Test können die zugrunde liegenden
Zufallsvariablen H und Ĥ per Differenzenbildung zu einer
einzigen neuen Zufallsvariablen verknüpft werden
H1 Hˆ 2
Auch hier ergibt eine weitere mathematische
Transformation eine neue ²-verteilte Zufallsvariable
Folie 39
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
Der ² Test folgt exakt der bereits beim McNemar Test
kennen gelernten Logik des Hypothesentestens
1. Voraussetzungen prüfen
²-Test
2. Verteilungsannahme treffen: ²-verteilt mit den
gegebenen df
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße ² bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen )
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 40
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Die Prüfgröße wird aus der km Kontingenztabelle wie
folgt berechnet.
²-Test
χ²-Test für k unabhängige Stichproben
m
k
2
i 1 j 1
hij hˆij
hˆij
2
mit
ˆh hi h j
ij
N
Die einzelnen Terme der Prüfgröße sind also immer
aufgebaut als
beobachtet erwartet
erwartet
Folie 41
2
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Die Prüfgröße wird aus der km Kontingenztabelle wie
folgt berechnet.
²-Test
χ²-Test für k unabhängige Stichproben
m
k
2
i 1 j 1
hij hˆij
hˆij
2
mit
ˆh hi h j
ij
N
Die Prüfgröße ist χ²-verteilt, wenn in der Kontingenztabelle der beobachteten absoluten Häufigkeiten alle
hij ≥ 5 sind.
Die ²-Verteilung hat df=(k-1)·(m-1) Freiheitsgrade
Folie 42
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
Beim ² Test ist wie bereits beim McNemar Test nur eine
Hypothesenrichtung von Interesse
H 0 : hij hˆij
für alle Kombinationen i, j
H1 : hij hˆij , hij hˆij für mind. eine Kombination i, j
Verwerfen der Verteilungsannahme
„Zweiseitige“ oder
„ungerichtete“ Hypothese
bei einer zu extremen Differenz
Die Hypothese umfasst also die Vergleich aller unter
Unabhängigkeit geschätzten mit allen beobachteten
Häufigkeiten
Folie 43
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
Durch die spezielle Berechnung der Prüfgröße im ² Test
wird daraus die Prüfung der Hypothese
H 0 : p ( 2 ) Verwerfen der Verteilungsannahme
H1 : p ( 2 ) bei einem noch größeren Wert
²-Test
„Einseitige“ oder „gerichtete“ Hypothese
Wichtig: In die Prüfung der Hypothese gehen erneut nur
empirisch an einer Stichprobe gemessene Werte ein.
Bei der Übertragung auf die Population behilft man sich
wieder mit dem inferenzstatistischen Schluss:
empirisch
Folie 44
h hˆ
theoretisch geschätzt
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Beobachtung im Experiment: diverse hij
χ²-Test für k unabhängige Stichproben
Frage: Sind die Merkmale unabhängig voneinander?
Gehen die Schwankungen der Häufigkeiten auf einen Stichprobenfehler zurück?
²-Test
(1) Bestimmung der Verteilung der Zufallsvariablen
(2) Festlegung d. Signifikanzniveaus α
(3) Berechnung der Prüfgröße ²
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter Annahme der H0, z. B. p( ≤ ²)
Folie 45
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Achtung: Vorher
immer Prüfung der
Voraussetzungen!
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
McNemar Test
Voraussetzung 1: Die Messungen müssen unabhängig
sein.
²-Test
Voraussetzung 2: Die Zufallsvariablen müssen polytom
sein
Voraussetzung 3: In der Kreuztabelle der erwarteten
absoluten Häufigkeiten müssen alle nij > 5 sein
Folie 46
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Tests für k abhängige Stichproben
McNemar Test
Sollen multinomiale Merkmale oder mehr als 2
abhängige Stichproben auf Unterschiedlichkeit
geprüft werden, müssen andere Tests verwendet
werden
²-Test
Diese Tests (u.a. Cochran-Test, Stuart-Maxwell-Test,
Bhapkar-Test) haben z.T. sehr spezifische
Anwendungsbereiche, sind mathematisch aufwändiger
und werden daher hier nicht behandelt.
Folie 47
Statistik &
Methodenlehre
Relevante Excel Funktionen
Tests für Nominaldaten
• CHIQU.VERT()
• ABS()
Folie 48
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
Welche Gruppe ist besser? Vergleich von 2
unabhängigen Stichproben.
Hinterher besser als Vorher? Vergleich von 2
abhängigen Stichproben.
Folie 2
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Eine Bildungswissenschaftlerin hat den Verdacht, dass
Studierende mit Migrationshintergrund in mündlichen
Prüfungen systematisch schlechter beurteilt werden als
solche mit deutscher Herkunft.
Sie lässt exakt dieselbe Prüfung wortgleich von zwei
Schauspielerinnen nachstellen. Rike hat erkennbar
deutsche Wurzeln, Reyhan hingegen ist offensichtlich
arabischer Herkunft. Beide sprechen fehlerfreies Deutsch,
jedoch mit hörbarem Akzent – hanseatisch auf der einen
und türkisch auf der anderen Seite.
Die Prüfungen werden von 20 Universitätsdozenten per
Video angesehen und anschließend auf einer
Oberstufenskala von 0-15 Punkten beurteilt.
Folie 3
Erzielt Rike bessere Noten als Reyhan?
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Ziel: Test, ob sich zwei unabhängige Stichproben in
ihrer Ausprägung auf einem ordinalskalierten
Merkmal unterscheiden.
U-Test nach Mann-Whitney für unabh. Stichpr.
Definition: Ordinalskala = Eine nach der Größe
geordnete Wertereihe für die Realisationen einer
Zufallsvarialben, wobei der numerische Betrag der
Skalenwerte in keiner Weise interpretierbar ist
Weitere Beispiele: Ist das Kindeswohl nach einer
Scheidung stärker beeinträchtigt als nach dem Tod
eines Elternteils? Sind junge Frauen anders mit einem
bestimmten Produkt zufrieden als ältere Frauen?
Folie 4
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Datenlage: Man hat an zwei unabhängigen
Stichproben der Größen n1 und n2 ein ordinalskaliertes
Merkmal erhoben.
U-Test nach Mann-Whitney für unabh. Stichpr.
Bewertet worden sei die Prüfungsleistung von Rike
(X, nX=11) und Reyhan (Y, nY=9) auf einer Punkteskala
von 0 – 15.
X:
13, 9, 11, 14, 13, 8, 10, 11, 7, 12, 10
Y:
11, 9, 6, 5, 8, 10, 12, 7, 8
Frage: Erreichen die Kandidatinnen unterschiedliche
Punktzahlen?
Folie 5
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Für Ordinaldaten können prinzipiell keine
theoretischen Wahrscheinlichkeitsverteilungen
formal abgeleitet werden, da die Werte beliebig sind
U-Test nach Mann-Whitney für unabh. Stichpr.
Aber: Wenn zwei Stichproben aus derselben Population stammen, sollten ihre Wahrscheinlichkeitsverteilungen f(X) gleich sein (wenn auch unbekannt)
In diesem Fall sollte gelten: vergleicht man paarweise
alle gemessenen Realisationen von X mit denen von
Y, so wird man finden dass xi < yj etwa gleich häufig
vorkommt wie xi > yj, also
h xi y j h xi y j
Folie 6
Dies ist die
inhaltliche
Nullhypothese
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Problem: Die Anzahl der notwendigen paarweisen
Vergleiche wird sehr schnell sehr groß
Sei nX die Anzahl der Werte in Stichprobe 1 und nY die
Anzahl der Werte in Stichprobe 2, so gilt für die
Anzahl aller paarweisen Vergleiche
C paarweise nX nY
Comparisons
Gesucht ist also ein Verfahren, mit dem h(xi < yj) bzw.
h(xi > yj) schnell ermittelt werden können
Folie 7
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Statistische Methoden für Ordinaldaten greifen oft auf das
Verfahren der Rangbildung zurück, da hier die Größe der
betrachteten Werte keine Rolle mehr spielt
U-Test nach Mann-Whitney für unabh. Stichpr.
Statt also für eine Datenreihe zu prüfen, ob
Fall 1: X Y
Fall 2 : X Y
Fall 3 : X Y
kann äquivalent geprüft werden, ob
Fall 1: rg ( X ) rg (Y )
Fall 2 : rg ( X ) rg (Y )
Fall 2 : rg ( X ) rg (Y )
Folie 8
Niedrigere
Zahl,
niedrigerer
Rang
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Methode: Das Verfahren der Rangbildung beim U-Test
Es werden Ränge für die Vereinigung der Datentabelle
von X und Y gebildet, bei der die Zugehörigkeit eines
Wertes keine Rolle mehr spielt
X
Folie 9
X
Rang(X)
Rang(Y)
13
11
18.5
14
9
9
8.5
8.5
11
6
14
2
14
5
20
1
13
8
18.5
6
8
10
6
11
10
12
11
16.5
11
7
14
3.5
7
8
3.5
6
12
16.5
10
11
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Achtung: Datei erhält die kleinste Zahl den kleinsten
Rang.
Bei Ties (Rangbindungen) wird ein mittlerer Rang
vergeben
X
Folie 10
X
Rang(X)
Rang(Y)
13
11
18.5
14
9
9
8.5
8.5
11
6
14
2
14
5
20
1
13
8
18.5
6
8
10
6
11
10
12
11
16.5
11
7
14
3.5
7
8
3.5
6
12
16.5
10
11
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Nach der Rangbildung für die vereinigte Stichprobe
können drei Werte berechnet werden
U h rg X rg Y Summe d. Rangunterschreitungen
U ' h rg X rg Y Summe d. Rangüberschreitungen
Tie h rg X rg Y Summe d. Rangbindungen
U ist also die Menge aller Vergleiche zwischen Werten
aus X mit Werten aus Y, bei denen xi < yj
U‘ ist die Menge aller Vergleiche, für die xi > yj
Problem: Damit ist noch nicht viel gewonnen – statt des
paarweisen Vergleichs aller Werte sind nun alle Ränge
paarweise zu vergleichen
Folie 11
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Idee: Würde man die Ränge in den Stichproben separat
bilden, gäbe es für Stichprobe 1 genau nX Ränge und für
Stichprobe 2 genau nY
U-Test nach Mann-Whitney für unabh. Stichpr.
Der U-Test beginnt mit der Bildung von Rangsummen
RX 1 2 n X
und
RY 1 2 nY
Für die jeweilige Rangsumme gilt gemäß der Lösung des
9jährigen Carl Friedrich Gauß
nX (nX 1)
RX
2
Folie 12
und
nY (nY 1)
RY
2
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Daraus lassen sich Berechnungsformeln für Anzahl der
Rangunter-/-überschreitungen herleiten. Es gilt:
U-Test nach Mann-Whitney für unabh. Stichpr.
U C RX S X
U ' C RY SY
Gesamtzahl
aller Vergleiche zwischen
X und Y
C nX nY
Folie 13
Rangsumme
für die
separaten
Stichproben
Tatsächliche
Rangsumme
für die
Vereinigung
n (n 1)
R
2
S rg x
bzw.
rg y
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Unter der Nullhypothese sollte von allen Vergleichen
etwa die Hälfte eine Rangunter- und die andere Hälfte
eine Rangüberschreitung sein
U-Test nach Mann-Whitney für unabh. Stichpr.
Es sollte unter der H0 also gelten
U U '
Somit ist es gleichgültig, mit welchem der beiden Werte
der statistische Test durchgeführt wird
Es ist lediglich zu klären, welche Wahrscheinlichkeitsverteilung den Zufallsvariablen U und U‘ zugrunde liegt
Folie 14
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Die exakte Wahrscheinlichkeitsverteilung des U oder U‘
ist nur schwer zu bestimmen
U-Test nach Mann-Whitney für unabh. Stichpr.
Sie ist mit einigen Voraussetzungen belegt und liegt für
kleine n tabelliert in Büchern vor
Es zeigt sich aber, dass bei größeren Stichproben
(mindestens ein n > 10) das U oder U‘ approximativ
normalverteilt ist
Frage: Wie lauten und für die Normalverteilung der
Werte U oder U‘ unter Annahme der Nullhypothese?
Folie 15
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Unter der Nullhypothese sollte von allen Vergleichen C
etwa die Hälfte eine Rangunter- und die andere Hälfte
eine Rangüberschreitung sein
U-Test nach Mann-Whitney für unabh. Stichpr.
Der Erwartungswert für Rangunter- und
Rangüberschreitungen muss also der Hälfte aller
Vergleiche entsprechen
C nX nY
U
2
2
Folie 16
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Die Herleitung der Standardabweichung U des U oder
U‘ ist etwas aufwändiger: für zwei Gruppen der Umfänge
nX und nY zeigt sich, dass
nX nY nX nY 1
U
12
„Magic Number“
Damit liegt die Wahrscheinlichkeitsverteilung der
Differenz von U und U‘ unter der Nullhypothese fest und
der statistische Test kann durchgeführt werden.
Folie 17
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Der U-Test folgt exakt der üblichen Logik des
Hypothesentestens
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: Normalverteilt mit den
berechneten und
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße z bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen Z)
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 18
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Prüfgröße bei zwei unabhängigen Stichproben der
Umfänge nX und nY.
z
U U 0.5
U
U
nX nY
0.5
2
nX nY nX nY 1
12
Dabei ist U einer der beiden Werte U oder U‘.
z ist standardnormalverteilt
Liegen viele Ties vor, empfiehlt sich eine Korrektur der
Standardabweichung, die von Statistikprogrammen
automatisch vorgenommen wird
Folie 19
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Beim U-Test sind wie beim z-Test potentiell alle drei
möglichen Hypothesenrichtungen von Interesse.
H 0 : U U ' Verwerfen der Verteilungsannahme
H1 : U U ' bei höheren Werten in X
H 0 : U U ' Verwerfen der Verteilungsannahme
H1 : U U ' bei niedrigeren Werten in X
„Einseitige“ oder „gerichtete“ Hypothese
H0 : U U '
Verwerfen der Verteilungsannahme
H1 : U U ';U U ') bei extremeren Werten in X
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 20
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
Dazu berechnet man
pZ z
p Z z
p Z z
für die H 0 : U U '
und die H 0 : U U '
für die H 0 : U U '
Verwerfen der H0 bei höheren/niedrigeren Werten in X
(wegen der Betragsbildung)
Verwerfen der H0 bei einer
zu extremen Differenz
und vergleicht p mit dem Signifikanzniveau
Das p(…) wird aus der Verteilungsfunktion der
Normalverteilung berechnet
Folie 21
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Beobachtung im Experiment: U und U‘
Frage: Können die Stichproben aus einer Population stammen?
Geht die Abweichung der Rangunter-/-überschreitungen auf einen Stichprobenfehler zurück?
(1) Bestimmung der Verteilung der Zufallsvariablen Z
(2) Festlegung d. Signifikanzniveaus α
(3) Berechnung der Prüfgröße z
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter
Annahme der H0, z. B. p(Z≤z)
Folie 22
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Achtung: Vorher
immer Prüfung der
Voraussetzungen!
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Voraussetzung 1: Die Messungen müssen unabhängig
sein.
Voraussetzung 2: Die Zufallsvariablen müssen
mindestens ordinalskaliert sein
Voraussetzung 3: Für mindestens eine der
Stichprobengrößen soll n > 10 gelten
Folie 23
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test und Wilcoxon Rangsummentest
Wilcoxon
Vorzeichenrangtest
Hinweis: Der U-Test nach Mann-Whitney ist
mathematisch äquivalent zum so genannten Wilcoxon
Rangsummentest, der von einer ähnlichen Testidee
ausgeht.
Der U-Test wird daher manchmal auch als MWW-Test
(Mann-Whitney-Wilcoxon Test) bezeichnet.
Er ist nicht zu verwechseln mit dem Wilcoxon
Vorzeichenrangtest für abhängige Stichproben.
Folie 24
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Die Lufthansa hat Probleme mit der Freundlichkeit des
Servicepersonals auf einzelnen Linien. Eine
Arbeitspsychologin wird beauftragt, eine Schulung in Sachen
Kundenorientierung durchzuführen.
Es nehmen insgesamt n=13 FlugbegleiterInnen teil, die
sowohl vor als auch nach dem Training hinsichtlich ihrer
Servicequalität von einer Expertengruppen beurteilt werden.
Die dabei verwendete Skala reicht von 0 = Ein Reinfall bis
30 = Ein Träumchen.
Die für die Lufthansa einzig entscheidende Frage lautet: Hat
sich die Servicequalität verbessert?
Folie 25
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Ziel: Test, ob sich zwei abhängige Stichproben in ihrer
Ausprägung auf einem ordinalskalierten Merkmal
unterscheiden
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Hinweis: Abhängigkeit bedeutet wieder, dass die
Stichproben dieselben Merkmalsträger oder eindeutige
Paare von gleichartigen Merkmalsträgern enthalten.
Beispiele: Verbessert sich die Leistung in mündlichen
Prüfungen nach einem Rhetorik-Training? Sinkt das
subjektive Laustärke-Empfinden von Bewohnern in der
Einflugschneise des Frankfurter Flughafens nach einem
Volkshochschulkurs Zen-Meditation?
Folie 26
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Datenlage: Man hat an zwei abhängigen Stichproben
der Größe n ein ordinalskaliertes Merkmal erhoben.
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Es werden die Leistungen von n=13
FlugbegleiterInnen vor und nach einen
Serviceorientierungstraining von einer Expertengruppe
auf einer Ratinskala von 0 – 30 eingeschätzt.
X1: 18, 21, 15, 10, 11, 16, 14, 6, 9, 20, 7, 22, 14
X2: 13, 18, 17, 22, 24, 20, 25, 21, 27, 19, 17, 22, 21
Frage: Werden die Leistungen zum Zeitpunkt t2
besser beurteilt als zum Zeitpunkt t1?
Folie 27
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Wie beim U-Test können für Ordinaldaten keine
theoretischen Wahrscheinlichkeitsverteilungen formal
abgeleitet werden, da die Werte beliebig sind
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Testidee: Für jede Beobachtungseinheit können
Differenzen zwischen den beiden Stichproben berechnet
werden ( = X – Y).
Zwar ist der absolute Betrag dieser Differenzen nicht
interpretierbar, die Differenzen sind aber weiterhin
ordinalskaliert. Größere Differenzen bedeuten also
größere Veränderungen zwischen den Stichproben.
Das Vorkommen von positiven und negativen Vorzeichen
bei verschiedenen Differenzen sollte ungefähr gleich sein
Folie 28
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Folie 29
Methode: Zur Durchführung des Wilcoxon
Vorzeichenrangtests werden also zunächst die
Differenzen di zwischen beiden Stichproben gebildet.
Nr.
t1
t2
d
1
18
13
-5
2
21
18
-3
3
15
17
2
4
10
22
12
5
11
24
13
6
16
20
4
7
14
25
11
8
6
21
15
9
9
27
18
10
20
19
-1
11
7
17
10
12
22
22
0
13
14
21
7
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Folie 30
Dann werden die Absolutwerte |di| dieser Differenzen
gebildet.
Nr.
t1
t2
d
|d|
1
18
13
-5
5
2
21
18
-3
3
3
15
17
2
2
4
10
22
12
12
5
11
24
13
13
6
16
20
4
4
7
14
25
11
11
8
6
21
15
15
9
9
27
18
18
10
20
19
-1
1
11
7
17
10
10
12
22
22
0
0
13
14
21
7
7
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Folie 31
Nun erhalten diesen Absolutwerte Rangplätze rg(|di|).
Achtung: Dabei gilt kleinste Differenz = kleinster Rang
Nr.
t1
t2
d
|d|
Rang(|d|)
1
18
13
-5
5
6
2
21
18
-3
3
4
3
15
17
2
2
3
4
10
22
12
12
10
5
11
24
13
13
11
6
16
20
4
4
5
7
14
25
11
11
9
8
6
21
15
15
12
9
9
27
18
18
13
10
20
19
-1
1
2
11
7
17
10
10
8
12
22
22
0
0
1
13
14
21
7
7
7
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Folie 32
Schließlich werden die Ränge korrigiert, indem die
Anzahl der Nulldifferenzen abgezogen wird.
Nr.
t1
t2
d
|d|
Rang(d)
Rang(d)korr
1
18
13
-5
5
6
5
2
21
18
-3
3
4
3
3
15
17
2
2
3
2
4
10
22
12
12
10
9
5
11
24
13
13
11
10
6
16
20
4
4
5
4
7
14
25
11
11
9
8
8
6
21
15
15
12
11
9
9
27
18
18
13
12
10
20
19
-1
1
2
1
11
7
17
10
10
8
7
12
22
22
0
0
1
0
13
14
21
7
7
7
6
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Folie 33
Schließlich werden die Vorzeichen der Differenzen
festgestellt.
Nr.
t1
t2
d
|d|
Rang(d)
Rang(d)korr
Vorzeichen
1
18
13
-5
5
6
5
-1
2
21
18
-3
3
4
3
-1
3
15
17
2
2
3
2
1
4
10
22
12
12
10
9
1
5
11
24
13
13
11
10
1
6
16
20
4
4
5
4
1
7
14
25
11
11
9
8
1
8
6
21
15
15
12
11
1
9
9
27
18
18
13
12
1
10
20
19
-1
1
2
1
-1
11
7
17
10
10
8
7
1
12
22
22
0
0
1
0
0
13
14
21
7
7
7
6
1
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Nulldifferenzen (Anzahl: m) werden a priori von der
Rangplatzvergabe ausgeschlossen. Damit reduziert sich
die Anzahl zu berücksichtigender Differenzen auf
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
n* n m
Nach der Rangbildung sind zwei Werte zu berechnen:
T Summe der Ränge mit negativem Vorzeichen
T Summe der Ränge mit positivem Vorzeichen
Beide Summen zusammen müssen wieder die gesamte
Rangsumme ergeben
Folie 34
n* (n* 1)
R T T
2
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Unter der Nullhypothese sollte von allen Vergleichen
etwa die Hälfte eine Rangunter- und die andere Hälfte
eine Rangüberschreitung sein
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Es sollte unter der H0 also gelten
T T
Somit ist es gleichgültig, mit welchem der beiden Werte
der statistische Test durchgeführt wird
Es ist lediglich zu klären, welche Wahrscheinlichkeitsverteilung den Zufallsvariablen T+ und T– zugrunde liegt
Folie 35
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Die exakte Wahrscheinlichkeitsverteilung des T+ und T–
ist nur schwer zu bestimmen
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Sie ist mit einigen Voraussetzungen belegt und liegt für
kleine n tabelliert in Büchern vor
Es zeigt sich aber, dass bei größeren Stichproben (n > 25)
das T+ oder T– approximativ normalverteilt ist
Frage: Wie lauten und für die Normalverteilung der
Werte T+ und T– unter Annahme der Nullhypothese?
Folie 36
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Unter der Nullhypothese sollten sich Ränge gleichmäßig
auf positive und negative Differenzen aufteilen
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Der Erwartungswert für negative und positive
Rangsummen muss also der Hälfte aller Ränge
entsprechen
n* n* 1
1
T R
2
4
Folie 37
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
Die Herleitung der Standardabweichung T des T+ oder
T– ist etwas aufwändiger: es zeigt sich aber, dass
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
T
n* 2n* 1 n* 1
24
„Magic Number“
Damit liegt die Wahrscheinlichkeitsverteilung der
Differenz von T+ und T– unter der Nullhypothese fest und
der statistische Test kann durchgeführt werden.
Folie 38
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Der U-Test folgt exakt der üblichen Logik des
Hypothesentestens
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: Normalverteilt mit den
berechneten und
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße z bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen Z)
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 39
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Prüfgröße bei abhängigen Stichproben des Umfangs n.
z
T T 0.5
T
T
n* n* 1
4
0.5
n* 2n* 1 n* 1
24
Dabei ist T einer der beiden Werte T+ oder T–.
z ist standardnormalverteilt
Liegen viele Ties vor, empfiehlt sich eine Korrektur der
Standardabweichung, die von Statistikprogrammen
automatisch vorgenommen wird
Folie 40
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Beim Vorzeichenrangtest sind wie beim U-Test potentiell
alle drei möglichen Hypothesenrichtungen von Interesse.
H 0 : T T Verwerfen der Verteilungsannahme
H1 : T T bei höheren Werten in X
H 0 : T T Verwerfen der Verteilungsannahme
H1 : T T bei niedrigeren Werten in X
„Einseitige“ oder „gerichtete“ Hypothese
H 0 : T T
Verwerfen der Verteilungsannahme
H1 : T T ; T T ) bei extremeren Werten in X
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 41
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
Dazu berechnet man
pZ z
p Z z
p Z z
für die H 0 : T T
und die H 0 : T T
für die H 0 : T T
Verwerfen der H0 bei höheren/niedrigeren Werten in X
(wegen der Betragsbildung)
Verwerfen der H0 bei einer
zu extremen Differenz
und vergleicht p mit dem Signifikanzniveau
Folie 42
Das p(…) wird aus der Verteilungsfunktion der
Normalverteilung berechnet
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Beobachtung im Experiment: T+ und T–
Frage: Können die Stichproben aus einer Population stammen?
Geht die Abweichung der Ränge der Differenzen auf einen Stichprobenfehler zurück?
(1) Bestimmung der Verteilung der Zufallsvariablen Z
(2) Festlegung d. Signifikanzniveaus α
(3) Berechnung der Prüfgröße z
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter
Annahme der H0, z. B. p(Z≤z)
Folie 43
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Achtung: Vorher
immer Prüfung der
Voraussetzungen!
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Voraussetzung 1: Die Messungen müssen abhängig
sein.
Voraussetzung 2: Die Zufallsvariablen müssen
mindestens ordinalskaliert sein
Voraussetzung 3: Für die Stichprobengröße soll n > 25
gelten
Folie 44
Statistik &
Methodenlehre
Relevante Excel Funktionen
Tests für Nominal- und Ordinaldaten
•
•
•
•
•
•
Folie 45
ANZAHL2()
SUMMEWENN()
ZÄHLENWENN()
ABS()
VORZEICHEN()
RANG.MITTELW()
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
Kennwerte in Theorie und Empirie
Das Schätzproblem: von der Stichprobe zur
Population
Der 1-Stichproben t-Test
Folie 2
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Kennwerte in Theorie & Empirie
Numerische Beschreibung: relative Häufigkeit
Schätzen
Die Wahrscheinlichkeit für die Realisation i einer
Zufallsvariablen X ist
p xi
Theorie
Das Äquivalent bei n empirisch an einer Stichprobe
erhobenen Realisationen einer Zufallsvariablen X ist die
relative Häufigkeit, berechnet als
h xi
f xi
n
Empirie
Folie 3
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Kennwerte in Theorie & Empirie
Numerische Beschreibung: Mittelwert
Schätzen
Der Erwartungswert einer Zufallsvariablen X ist
k
E ( X ) pi xi
i 1
Theorie (diskreter Fall)
Das Äquivalent für empirisch an einer Stichprobe
erhobene Daten einer Zufallsvariablen X ist der
Mittelwert, berechnet als
1 n
x xi
n i 1
Empirie
Folie 4
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Kennwerte in Theorie & Empirie
Numerische Beschreibung: Mittelwert
Schätzen
Ausgeschrieben lautet die Formel für den Mittelwert bei
n Beobachtungen x1 … xn
1
1 n
x ( x1 x2 xN ) xi
n
n i 1
Der Mittelwert ist durch „extreme“ Werte beeinflussbar
(ausreißerempfindlich)
Er ist der Schwerpunkt der Beobachtungen, d.h.
n
x x 0
i 1
Folie 5
i
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Intervalldaten
Numerische Beschreibung: Mittelwert
Schätzen
Der Mittelwert stimmt häufig mit keiner beobachteten
Realisation überein
Der Mittelwert ist wie der Erwartungswert äquivariant
gegenüber gewissen (z.B. linearen) Transformationen
Insbesondere
1. Addition einer Konstanten a zu allen n
Beobachtungen x1 … xn
xa x a
2. Multiplikation aller n Beobachtungen x1 … xn mit
einer Konstanten c
Folie 6
ax ax
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Intervalldaten
Numerische Beschreibung: Varianz
Schätzen
Die Varianz einer Zufallsvariablen X ist definiert als
E X E X
2
k
2
X pi xi
2
i 1
Theorie (diskreter Fall)
Das Äquivalent für empirisch an einer Stichprobe
erhobene Daten einer Zufallsvariablen X heißt ebenfalls
Varianz und wird berechnet als
n
1
2
2
s x xi x
n i 1
Empirie
Folie 7
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Intervalldaten
Numerische Beschreibung: Varianz
Schätzen
Die Varianz ist das mittlere Abweichungsquadrat aller
n Beobachtungen x1 … xn vom Mittelwert.
n
1
2
2
s x xi x
n i 1
Erfasst die mittlere Streuung um den Mittelwert
Nur falls keine Streuung besteht, ist s² = 0, d.h. alle
beobachteten Werte sind gleich. Sonst: s² > 0
Je größer die Streuung um den Mittelwert, desto
größer ist die Varianz
Ist anfällig gegenüber Ausreißern
Folie 8
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Intervalldaten
Numerische Beschreibung: Standardabweichung
Schätzen
Problem: Auch die empirische Varianz ist nicht
äquivariant zu erlaubten Skalentransformationen
s 2 (a x) a 2 s 2 ( x)
(mit a = const.)
Wie bei der theoretischen Varianz erhält man durch
Wurzelziehen die Standardabweichung (SD,
standard deviation)
n
1
2
2
s x s x
xi x
n i 1
Die Standardabweichung ist äquivariant zu den
erlaubten Skalentransformationen
Folie 9
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population
Schätzen
Problem: Beim inferenzstatistischen Test ist immer der
Schluss von den Daten einer Stichprobe auf einen
Sachverhalt in der Population gefragt.
Beispiel: Beim Binomialtest wird anhand von empirisch
in einer Stichprobe erhobenen relativen Häufigkeiten auf
die Gleichheit oder Ungleichheit von theoretischen
Wahrscheinlichkeiten in der Population geschlossen
Dies ist der inferenzstatistische Schluss
Der inferenzstatistische Schluss steht und fällt mit der
Annahme, dass die Verwendung gemessener Kennwerte
(z.B. relative Häufigkeit) als Schätzung für den
theoretischen Populationskennwert gerechtfertigt ist
Folie 10
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population
Schätzen
Dieses so genannte Schätzproblem lässt sich in einer
einzigen Frage zusammenfassen
Wann ist eine Schätzung eine gute Schätzung?
Das wesentliche statistische Merkmal einer guten
Schätzung ist die Erwartungstreue
Eine Schätzung ist dann erwartungstreu, wenn
bei unendlichen vielen Wiederholungen des
Zufallsexperimentes der dabei gemessene
Stichprobenkennwert im Mittel gleich dem
theoretischen Populationskennwert ist
Folie 11
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population: p
Schätzen
Es zeigt sich, dass die relative Häufigkeit eine
erwartungstreue Schätzung für die Wahrscheinlichkeit in der Population ist
sprich: „dach“
Es gilt also
f xi
Stichprobenkennwert
(bekannt)
pˆ xi
Schätzung
(bekannt)
p xi
Populationskennwert
(unbekannt)
Dieser Zusammenhang wurde bereits im Gesetz der
Großen Zahl (law of large numbers) formuliert
Folie 12
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population:
Schätzen
Es zeigt sich, dass der Mittelwert eine
erwartungstreue Schätzung für den Erwartungswert
in der Population ist
Es gilt also
x
Stichprobenkennwert
(bekannt)
ˆ
Schätzung
(bekannt)
Populationskennwert
(unbekannt)
Dieser Zusammenhang berechtigt Wissenschaftler, aus
Stichprobendaten einen Erwartungswert für eine
Zufallsvariable zu behaupten (z.B. mittlerer IQ = 100)
Folie 13
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population: ²
Schätzen
Es zeigt sich, dass die Varianz der Stichprobe keine
erwartungstreue Schätzung für die Varianz in der
Population ist
Es ist also
s2
Stichprobenkennwert
(bekannt)
ˆ 2
Schätzung
(unbekannt)
2
Populationskennwert
(unbekannt)
Man kann also aus der anhand von Stichprobendaten
gemessenen Varianz nicht auf die Varianz der
Zufallsvariable in der Population schließen
Folie 14
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population: ²
Schätzen
Man kann aber beweisen, dass die Stichprobenvarianz
die Populationsvarianz systematisch unterschätzt, dass
sie also einen Bias (= systematischer Fehler) hat
Für diesen Bias gibt es eine einfache Korrektur
n
s2
n 1
Stichprobenkennwert
(bekannt)
ˆ 2
Schätzung
(berechenbar)
2
Populationskennwert
(unbekannt)
Diese korrigierte Stichprobenvarianz ist eine erwartungstreue Schätzung der Populationsvarianz, so dass man
aus Daten behaupten kann, dass z.B. des IQ = 10
Folie 15
Statistik &
Methodenlehre
Kennwerte
Schätzen
Stetige Verteilungen
Schätzen
Übersicht
Wahrscheinlichkeit:
Mittelwert:
Varianz:
Standardabweichung:
Folie 16
Inferenzstatistik
Empirisch
Theoretisch
f x
p̂ x f x
1 n
x xi
n i 1
ˆ x
n
1
2
n
2
2
s xi x ˆ
s2
n i 1
n 1
s s
2
2
n
ˆ
s
n 1
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Mittelwertevergleiche
In der empirischen Forschung ist zumeist nicht die
Prüfung eines Einzeldatums gefragt, sondern von
Mittelwerten bzw. von Unterschieden zwischen
solchen in mehreren Gruppen
Beispiele: „Verbessert sich die Schulleistung von
Kindern durch Förderunterricht?“, „Wirkt VT bei
Schizophrenen?“, „Sind Frauen sprachbegabter als
Männer?“
Für Ordinaldaten haben wir den U-Test sowie den
Wilcoxon Vorzeichenrangtest kennen gelernt
Für Intervalldaten stehen bessere (i.e. teststärkere)
Tests zur Verfügung
Folie 17
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Mittelwertevergleiche
Inferenzstatistische Tests für Mittelwerte sollen anhand
von Stichprobendaten Aussagen über die Unterschiedlichkeit von Erwartungswerten in der
Population treffen.
Für einen solchen Test müssen mehrere Dinge bekannt
sein:
• Die Erwartungswerte selbst
• Ihre Verteilungsform bzw. die Verteilungsform
der berechneten Prüfgröße
• Die Parameter dieser Verteilung
All diese sind zunächst unbekannt, so dass genau wie
bei den bisher behandelten Tests Schätzungen
erforderlich sind
Folie 18
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Folie 19
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Grundlagen
Der 1-Stichproben t-Test beantwortet die Frage, ob ein aus
einer Stichprobe geschätzter Erwartungswert mit
einem bekannten Erwartungswert übereinstimmt.
Keiner der Merkmalsträger darf mehr als einmal in der
Stichprobe vertreten sein.
Beispiele: „Ist der IQ von Psychologiestudierenden im
Mittel 100?“, „Sind Geburtsraten in Deutschland so hoch
wie der europäische Durchschnitt?“, „Erreichen Teilnehmer
eines Assessment Centers im Mittel einen bestimmten CutOff-Wert?“
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Einführung
Tests für Intervalldaten
Prüfgröße
Unbekannte Population
Der 1-Stichproben t-Test – Grundlagen
Stichprobe (n)
x
Hypothesen
Voraussetzungen
Ist der Erwartungswert der
Stichprobe
gleich μ: H0
Bekannte Population
oder
verschieden: H1
und
Folie 20
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Grundlagen
Grundfrage: Wie üblich kann man fragen, ob der
beobachtete Mittelwert zu extrem ist, um anzunehmen,
dass die Stichprobe noch aus einer Population mit dem
Erwartungswert μ stammt.
Ansatz: Um diese Frage zu beantworten, müssen wir
zwei Dinge wissen:
1. Die Wahrscheinlichkeitsverteilung
dieser Mittelwerte
2. Die Parameter dieser Verteilung
Folie 21
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Grundlagen
Prüfgröße
Problem: Die Wahrscheinlichkeitsverteilung von
Mittelwerten ist ein sehr theoretisches Konstrukt
Hypothesen
Sie ergäbe sich, wenn ein Experiment mit immer neuen
Stichprobe aus derselben Population wieder und wieder
durchgeführt würde und bei jeder Durchführung der
Mittelwert berechnet würde
Voraussetzungen
Folie 22
Erkenntnis: Ein Herr „Student“ (aka William Sealy
Gossett, Statistiker bei Guinnes) konnte herleiten, dass die
Wahrscheinlichkeitsverteilung von Mittelwerten
mathematisch sehr gut zu beschreiben ist
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Tests für Intervalldaten
Der 1-Stichproben t-Test – Grundlagen
Wenn die Zufallsvariable einen Erwartungswert von μ
der Differenzen besitzt, so hat der Mittelwert für
Stichproben dieser Zufallsvariablen den Erwartungswert
Hypothesen
Voraussetzungen
x
Wenn die Zufallsvariable eine Standardabweichung
von σ bzw. eine Varianz von σ² besitzt, so streuen die
Mittelwerte mit
x
Folie 23
Inferenzstatistik
n
bzw.
x2
2
n
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Prüfgröße
Prüfgröße
„Student“ musste nur noch ermitteln, welche Form die
Wahrscheinlichkeitsverteilung von Mittelwerten hat
Hypothesen
Er definierte zunächst eine Prüfgröße
t
Voraussetzungen
x x
x
für die ja gemäß der bisherigen Erkenntnisse gilt:
x
Folie 24
und
x
n
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Prüfgröße
Prüfgröße
Die erste Vermutung, dass t wie üblich normalverteilt sei,
bestätigte sich nicht
Hypothesen
„Student“ konnte zeigen, dass die Prüfgröße die Form
einer so genannten t-Verteilung hat
Voraussetzungen
Die t-Verteilung hat nur einen Parameter, nämlich die so
genannten Freiheitsgrade df (degrees of freedom)
Diese Freiheitsgrade ergeben sich direkt aus der Größe
der Stichprobe n, deren Mittelwert getestet wird
df n 1
Folie 25
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Die t-Verteilung von Student
Prüfgröße
StandardNormalverteilung
0.4
0.3
Hypothesen
0.2
Voraussetzungen
t- Verteilung mit df = 10
0.1
-3
-2
-1
1
Kritische Werte sind bei der tVerteilung im Vergleich zur
Normalverteilung größer
Folie 26
2
3
t.99 2.76
z.99 2.33
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Die t-Verteilung von Student
Prüfgröße
Standardnormal- und t-Verteilung sind sich also offenbar
sehr ähnlich, aber nicht identisch
Hypothesen
Je größer n (und damit auch die Freiheitsgrade), desto
mehr gleichen sich die Wahrscheinlichkeitsverteilungen an
Voraussetzungen
Da die Standardnormalverteilung einfacher zu tabellieren
ist – es gibt nur eine – wurde früher oft diese verwendet,
um die Größe der Prüfgröße zu berechnen.
Da die t-Verteilung heute sehr einfach bestimmt werden
kann, ist dieses approximative Vorgehen nicht mehr
notwendig
Merke: Für t immer die t-Verteilung!
Folie 27
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Ablauf
Der t-Test folgt nun exakt der üblichen Vorgehensweise
des Hypothesentestens
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: t-verteilt mit den
berechneten df
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße t bestimmen
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 28
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Folie 29
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Hypothesen
Erkenntnis: Jede Stichprobe stammt aus irgendeiner
Population mit einem bestimmten, aber unbekannten
Erwartungswert μX
Wenn der beobachtete Mittelwert zu extrem ist, dann
stammt die Stichprobe offenbar nicht aus der gegebenen
Population mit dem Erwartungswert μ
Die Bewertung der Prüfgröße läuft also auf den Test
hinaus, ob der beobachtete Mittelwert der Stichprobe aus
einer Population mit dem bekannten μ oder dem
unbekannten μX stammt
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Hypothesen
Beim t-Test sind wie beim z-Test potentiell alle drei
möglichen Hypothesenrichtungen von Interesse.
Hypothesen
Voraussetzungen
H 0 : x Verwerfen der Verteilungsannahme
H1 : x bei zu hohem x
H 0 : x Verwerfen der Verteilungsannahme
H1 : x bei zu niedrigem x
„Einseitige“ oder „gerichtete“ Hypothese
H0 : X
Verwerfen der Verteilungsannahme
H1 : X , X bei einem zu extremen Wert
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 30
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Hypothesen
Prüfgröße
Man ermittelt nun die Auftretenswahrscheinlichkeit
p(t|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
Hypothesen
Dazu berechnet man
Voraussetzungen
p T t
für die H 0 : X
Verwerfen der H0 bei einem
zu positiven Mittelwert
p T t
für die H 0 : X
Verwerfen der H0 bei einem
zu negativen Mittelwert
p T t
für die H 0 : X
p T t
Verwerfen der H0 bei einem
zu extremen Mittelwert
und vergleicht p mit dem Signifikanzniveau
Folie 31
Das p(…) wird aus der Verteilungsfunktion der t-Verteilung
berechnet
Statistik &
Methodenlehre
Tests für Ordinaldaten
Intervalldaten
Tests für
Einführung
Tests für Intervalldaten
Prüfgröße
Beobachtung im Experiment: x
Der 1-Stichproben t-Test – Hypothesen
Frage: Stammt die Stichprobe aus einer Population mit ?
Geht die Größe des Mittelwertes auf einen Stichprobenfehler zurück?
Hypothesen
Voraussetzungen
(1) Festlegung von Signifikanzniveau α Achtung: Vorher
und Gerichtetheit
immer Prüfung der
Voraussetzungen!
(2) Berechnung der Prüfgröße t
(3) Berechnung der Wahrscheinlichkeit für dieses oder ein
extremeres z: z. B. p(T≥ t)
(4) Vergleich von p mit α und
Treffen der Signifikanzaussage
Folie 32
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Einführung
Tests für Ordinaldaten
Intervalldaten
Tests für
Tests für Intervalldaten
Der 1-Stichproben t-Test – Voraussetzungen
Prüfgröße
Die Zufallsvariable muss intervallskaliert sein
Hypothesen
Bei n < 30 sollten die Daten normalverteilt sein
Voraussetzungen
Folie 33
Statistik &
Methodenlehre
Relevante Excel Funktionen
Tests für Intervalldaten
• T.VERT()
Folie 34
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
Der t-Test für 2 abhängige Stichproben
Der t-Test für 2 unabhängige Stichproben
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Mittelwertevergleiche
In der empirischen Forschung ist zumeist nicht die
Prüfung eines Einzeldatums gefragt, sondern von
Mittelwerten bzw. von Unterschieden zwischen
solchen in mehreren Gruppen
Beispiele: „Verbessert sich die Schulleistung von
Kindern durch Förderunterricht?“, „Wirkt VT bei
Schizophrenen?“, „Sind Frauen sprachbegabter als
Männer?“
Für Ordinaldaten haben wir den U-Test sowie den
Wilcoxon Vorzeichenrangtest kennen gelernt
Für Intervalldaten stehen bessere (i.e. teststärkere)
Tests zur Verfügung
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Mittelwertevergleiche
Inferenzstatistische Tests für Mittelwerte sollen anhand
von Stichprobendaten Aussagen über die Unterschiedlichkeit von Erwartungswerten in der
Population treffen.
Für einen solchen Test müssen mehrere Dinge bekannt
sein:
• Die Erwartungswerte selbst
• Ihre Verteilungsform bzw. die Verteilungsform
der berechneten Prüfgröße
• Die Parameter dieser Verteilung
All diese sind zunächst unbekannt, so dass genau wie
bei den bisher behandelten Tests Schätzungen
erforderlich sind
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Der 2-Stichproben t-Test für abhängige Stichproben
beantwortet die Frage, ob zwei Messungen an einer
Stichprobe aus einer Population mit demselben
Erwartungswert stammen können.
Die Stichproben müssen dieselben (bzw. gepaarte)
Merkmalsträger enthalten.
Beispiele: Verschlechtert sich die Konzentrationsleistung
von Personen nach Alkoholgabe? Verringert sich der Grad
einer psychischen Erkrankung durch Verhaltenstherapie?
Ist die Hörschwelle 24h nach einem Diskobesuch noch
verändert?
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Einführung
Tests für Intervalldaten
Prüfgröße
Population zu Messzeitpunkt 1
Der abhängige 2-Stichproben t-Test – Grundlagen
Stichprobe (n)
x
Hypothesen
Voraussetzungen
X
Sind die Erwartungswerte
gleich: H0
oder
Population zu Messzeitpunkt 2
verschieden: H1
y
Y
Stichprobe (n)
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
Ansatz: Wie beim Wilcoxon Vorzeichenrangrest sind die
Werte der beiden Stichproben paarweise zuordenbar
Hypothesen
Für jede Person kann nun die Differenz zwischen beiden
Messzeitpunkten berechnet werden
Voraussetzungen
XY X Y
Man hat also eine neue Zufallsvariable XY gebildet
Für die konkreten Werte in der Stichprobe können
Mittelwert und Varianz berechnet werden.
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Der Mittelwert der Differenzen zwischen den
Messzeitpunkten wird berechnet als
XY
Voraussetzungen
1 n
xi yi
n i 1
Die Varianz der Differenzen ist damit
s2 XY
2
1 n
XY XY
n i 1
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Der Erwartungswert der Differenzen zwischen den
Messzeitpunkten kann nun direkt geschätzt werden
ˆ XY
Hypothesen
XY
Voraussetzungen
Die Populationsvarianz der Differenzen kann mit der
Korrekturformel geschätzt werden, ebenso wie die
Standardabweichung
ˆ
2
XY
n
s2 XY
n 1
und
ˆ
XY
n
s XY
n 1
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
x
und
sX
Messzeitpunkt 1
Differenzen
XY
Messzeitpunkt 2
y
und
und
sY
Daten
(beobachtet)
Daten
(berechnet)
s XY
ˆ
XY
und
ˆ
XY
Population
(geschätzt)
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
Aus den Stichprobendaten lassen sich also
Erwartungswert und Varianz der Differenzen schätzen
Hypothesen
Problem: Die Schätzungen dieser Populationskennwerte
charakterisieren immer noch „Individualdaten“, nämlich
Erwartungswert und Varianz für die Differenzen der
einzelnen Merkmalsträger in der Population
Voraussetzungen
Man könnte damit lediglich Tests für einzelne Differenzen
durchführen und prüfen, ob diese zur geschätzten
Populationen der Differenzen gehören
(ähnlich wie beim z-Test)
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
Problem: Das Ziel beim t-Test ist nicht die Bewertung
von Einzeldaten, sondern des Gruppenunterschiedes
zwischen den Messzeitpunkten.
Hypothesen
Also: Der t-Test fragt nicht nach einzelnen Differenzen,
sondern nach dem Mittelwert der Differenzen
Voraussetzungen
XY
1 n
xi yi
n i 1
Über die Größe dieses Wertes sollen Hypothesen
formuliert und geprüft werden
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Um die Größe des Wertes XY prüfen zu können, sind wie
üblich 2 Angaben nötig
1. Die Form der Wahrscheinlichkeitsverteilung, dem
dieser Wert bei vielen Wiederholungen des
Zufallsexperimentes folgen sollte
2. Die Parameter dieser Wahrscheinlichkeitsverteilung
Sind diese Angaben bekannt, kann die gewohnte Testlogik
angewandt werden
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
x
und
sX
Messzeitpunkt 1
Differenzen
?
XY
Messzeitpunkt 2
y
und
und
s XY
ˆ
XY
und
ˆ
XY
sY
Daten
(beobachtet)
ˆ
Daten
(berechnet)
Population
der Differenzen
(geschätzt)
XY
und
ˆ
XY
Population
der Mittelwerte
von Differenzen
(geschätzt)
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Frage 1: Wie ist die Verteilung des Mittelwertes der
Differenzen zweier Zufallsvariablen X und Y?
Die Differenz ist nichts anderes als eine Summe von
Summen von Zufallsvariablen und sollte gemäß des ZGS
normalverteilt sein.
Frage 2: Wie ist der Erwartungswert?
Wenn beide Zufallsvariablen eigentlich dieselbe Population
abbilden (H0), so sollte gelten
0
XY
denn der Mittelwert von Differenzen ist gleich der
Differenz von Mittelwerten.
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
Frage 3: Wie ist die Varianz?
Hypothesen
Die einzige zur Verfügung stehende Information über die
Streuung der Mittelwerte kann aus der Streuung der
Daten bzw. ihrer Differenzen gewonnen werden
Voraussetzungen
Zunächst kann aus der Varianz der Datendifferenzen die
Populationsvarianz der Differenzen geschätzt werden
ˆ 2
XY
n
s2 XY
n 1
mit
s
2
XY
1 n
xi yi XY
n i 1
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Gefragt ist aber nicht die geschätzte Populationsvarianz
der Datendifferenzen, sondern die geschätzte Populationsvarianz des Mittelwerts der Differenzen, also
Hypothesen
Voraussetzungen
Inferenzstatistik
2
ˆ
anstatt
XY
ˆ 2
XY
Es zeigt sich, dass die Populationsvarianz des Mittelwerts
der Differenzen direkt aus der Populationsvarianz der
Datendifferenzen berechnen lässt
ˆ
2
XY
1 2
ˆ XY
n
und damit
ˆ
XY
1
ˆ XY
n
„Standardfehler“
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Damit liegt die Wahrscheinlichkeitsverteilung des
Mittelwerts der Differenzen unter der Nullhypothese fest
Sie lautet
XY ~ NV XY , ˆ XY
Voraussetzungen
mit
0
XY
und
ˆ
XY
1
ˆ XY
n
Nun kann die gewohnte Testlogik angewandt werden
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
Man sollte nun eine standardnormalverteilte Prüfgröße
berechnen können gemäß
t
XY 0
ˆ
XY
Voraussetzungen
Aber: W. S. Gosset (1908) zeigte, dass die Wahrscheinlichkeitsverteilung von t nur für Stichproben mit
großen Umfängen n gegen die Normalverteilung geht
Die tatsächliche Verteilung von t ist eine t-Verteilung
Die t-Verteilung hat genau einen Parameter, die so
genannten Freiheitsgrade (df)
Dieser ist df = n - 1
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
Prüfgröße
StandardNormalverteilung
0.4
0.3
Hypothesen
0.2
Voraussetzungen
t- Verteilung mit df = 10
0.1
-3
-2
-1
1
Kritische Werte sind bei der tVerteilung im Vergleich zur
Normalverteilung größer
2
3
t.99 2.76
z.99 2.33
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Der t-Test folgt exakt der üblichen Vorgehensweise des
Hypothesentestens
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: t-verteilt mit den
berechneten df
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße t bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen T)
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
Beim t-Test sind wie beim z-Test potentiell alle drei
möglichen Hypothesenrichtungen von Interesse.
Hypothesen
Voraussetzungen
H 0 : XY 0 Verwerfen der Verteilungsannahme
H1 : XY 0 bei höheren Werten in XY
H 0 : XY 0 Verwerfen der Verteilungsannahme
H1 : XY 0 bei niedrigeren Werten in XY
„Einseitige“ oder „gerichtete“ Hypothese
H 0 : XY 0 Verwerfen der Verteilungsannahme
H1 : XY 0 bei extremeren Werten in XY
„Zweiseitige“ oder „ungerichtete“ Hypothese
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
Weil man einfach zeigen kann, dass gilt XY x y ,
können die Hypothesen umformuliert werden zu
„Der Mittelwert von
Differenzen ist gleich
der Differenz von
Mittelwerten“
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
Weil man einfach zeigen kann, dass gilt XY x y ,
können die Hypothesen umformuliert werden zu
Hypothesen
Voraussetzungen
H 0 : X Y Verwerfen der Verteilungsannahme
H1 : X Y bei höheren Werten in XY
H 0 : X Y Verwerfen der Verteilungsannahme
H1 : X Y bei niedrigeren Werten in XY
„Einseitige“ oder „gerichtete“ Hypothese
H 0 : X Y Verwerfen der Verteilungsannahme
H1 : X Y bei extremeren Werten in XY
„Zweiseitige“ oder „ungerichtete“ Hypothese
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
Prüfgröße
Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
Hypothesen
Dazu berechnet man
Voraussetzungen
p T t
für die H 0 : X Y
Verwerfen der H0 bei einer
zu positiven Differenz
p T t
für die H 0 : X Y
Verwerfen der H0 bei einer
zu negativen Differenz
p T t
für die H 0 : X Y
p T t
Verwerfen der H0 bei einer
zu extremen Differenz
und vergleicht p mit dem Signifikanzniveau
Das p(…) wird aus der Verteilungsfunktion der t-Verteilung
berechnet
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Einführung
Tests für Intervalldaten
Prüfgröße
Beobachtung im Experiment:
Der abhängige 2-Stichproben t-Test
x, y
Frage: Stammen die Stichproben aus derselben Population?
Geht die Größe des Mittelwerts der Differenz auf einen Stichprobenfehler zurück?
Hypothesen
Voraussetzungen
(1) Festlegung von Signifikanzniveau α Achtung: Vorher
und Gerichtetheit
immer Prüfung der
Voraussetzungen!
(2) Berechnung der Prüfgröße t
(3) Berechnung der Wahrscheinlichkeit für dieses oder ein
extremeres z: z. B. p(X≥ t)
(4) Vergleich von p mit α und
Treffen der Signifikanzaussage
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
Prüfgröße
Intervallskalenniveau der betrachteten Zufallsvariable
Hypothesen
Voraussetzungen
Normalverteilung des Merkmals in der Population für
Stichprobengrößen von n ≤ 30.
Abhängigkeit der Stichproben bzw. der
Merkmalsträger darin, so dass diese paarweise
zugeordnet werden können.
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Der 2-Stichproben t-Test für unabhängige Stichproben
beantwortet die Frage, ob zwei verschiedene Stichproben
aus einer Population mit demselben
Erwartungswert stammen können.
Die Stichproben müssen unterschiedliche Merkmalsträger
enthalten.
Beispiele: Ist die Effektivität von Verhaltenstherapie
anders als von Psychotherapie? Zeigen Jugendliche
bessere Leistungen bei der Erkennung emotionaler
Gesichtsausdrücke als Kinder? Haben Arbeitslose ein
höheres Aggressionspotential als Arbeitnehmer?
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Einführung
Tests für Intervalldaten
Prüfgröße
Stichprobe 1
Der unabhängige 2-Stichproben t-Test – Grundlagen
Stichprobe (nX)
x
Hypothesen
Voraussetzungen
X
Sind die Erwartungswerte
gleich: H0
oder
Population zu Messzeitpunkt 2
verschieden: H1
y
Y
Stichprobe (nY)
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
Ansatz: Anders als beim t-Test für abhängige Stichproben
sind für die Daten nicht sinnvoll Differenzen zu bilden
Hypothesen
Man kann lediglich die Differenz der Mittelwerte
berechnen
Voraussetzungen
XY x y
Dies erzeugt wieder eine neue Zufallsvariable
Auf die neue Zufallsvariable kann die gewohnte Testlogik
angewandt werden
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Um die Größe des Wertes XY prüfen zu können, sind wie
üblich 2 Angaben nötig
1. Die Form der Wahrscheinlichkeitsverteilung, dem
dieser Wert bei vielen Wiederholungen des
Zufallsexperimentes folgen sollte
2. Die Parameter dieser Wahrscheinlichkeitsverteilung
Sind diese Angaben bekannt, kann die gewohnte Testlogik
angewandt werden
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
x
Prüfgröße
Hypothesen
Voraussetzungen
Inferenzstatistik
Stichprobe 1
Differenz der
Mittelwerte
?
XY
Stichprobe 2
y
Daten
(beobachtet)
ˆ
Daten
(berechnet)
XY
und
ˆ
XY
Population
der Differenz
von Mittelwerten
(geschätzt)
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
Frage 1: Wie ist die Verteilung der Differenz von
Mittelwerten zweier Zufallsvariablen X und Y?
Hypothesen
Die Differenz ist nichts anderes als eine Summe von
Summen von Zufallsvariablen und sollte gemäß des ZGS
normalverteilt sein.
Voraussetzungen
Frage 2: Wie ist der Erwartungswert?
Wenn beide Zufallsvariablen eigentlich dieselbe Population
abbilden (H0), so sollte gelten
0
XY
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
Frage 3: Wie ist die Varianz?
Hypothesen
Die einzige zur Verfügung stehende Information über die
Streuung der Mittelwerte kann aus der Streuung der
Daten bzw. ihrer Differenzen gewonnen werden
Voraussetzungen
Lösung: Man wirft die Stichproben zusammen („Pooling“)
und schätzt daraus eine gemeinsame Populationsvarianz der Daten:
2
ˆ XY
nX s X2 nY sY2
nX nY 2
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Gefragt ist aber nicht die geschätzte Populationsvarianz
der Daten, sondern die geschätzte Populationsvarianz
des Mittelwerts der Differenzen, also
Hypothesen
Voraussetzungen
Inferenzstatistik
2
ˆ
XY
anstatt
ˆ 2
XY
Dies ist wieder der Standardfehler, berechnet über
ˆ 2
XY
1
1 und damit
1
1
2
ˆ
XY
ˆ XY
ˆ XY
nX nY
nX nY
„Standardfehler“
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Damit liegt die Wahrscheinlichkeitsverteilung der Differenz
von Mittelwerten unter der Nullhypothese fest
Sie lautet
XY ~ NV XY , ˆ XY
Voraussetzungen
mit
0
XY
und
ˆ
XY
1
1
ˆ XY
nX nY
Nun kann die gewohnte Testlogik angewandt werden
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test
Man sollte nun eine standardnormalverteilte Prüfgröße
berechnen können gemäß
XY 0
t
ˆ
XY
Voraussetzungen
Wieder zeigte W. S. Gosset (1908), dass die Wahrscheinlichkeitsverteilung von t nur für Stichproben mit
großen Umfängen n gegen die Normalverteilung geht
Die tatsächliche Verteilung von t ist eine t-Verteilung
Die t-Verteilung hat genau einen Parameter, die so
genannten Freiheitsgrade (df)
Dieser ist hier df = nX + nY – 2
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Der t-Test folgt exakt der üblichen Vorgehensweise des
Hypothesentestens
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: t-verteilt mit den
berechneten df
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße t bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen T)
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test
Beim t-Test sind wie beim z-Test potentiell alle drei
möglichen Hypothesenrichtungen von Interesse.
Hypothesen
Voraussetzungen
H 0 : XY 0 Verwerfen der Verteilungsannahme
H1 : XY 0 bei höheren Werten in XY
H 0 : XY 0 Verwerfen der Verteilungsannahme
H1 : XY 0 bei niedrigeren Werten in XY
„Einseitige“ oder „gerichtete“ Hypothese
H 0 : XY 0 Verwerfen der Verteilungsannahme
H1 : XY 0 bei extremeren Werten in XY
„Zweiseitige“ oder „ungerichtete“ Hypothese
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test
Wie beim t-Test für abhängige Stichproben können die
Hypothesen umformuliert werden zu
Hypothesen
Voraussetzungen
H 0 : X Y Verwerfen der Verteilungsannahme
H1 : X Y bei höheren Werten in XY
H 0 : X Y Verwerfen der Verteilungsannahme
H1 : X Y bei niedrigeren Werten in XY
„Einseitige“ oder „gerichtete“ Hypothese
H 0 : X Y Verwerfen der Verteilungsannahme
H1 : X Y bei extremeren Werten in XY
„Zweiseitige“ oder „ungerichtete“ Hypothese
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test
Prüfgröße
Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
Hypothesen
Dazu berechnet man
Voraussetzungen
p T t
für die H 0 : X Y
Verwerfen der H0 bei einer
zu positiven Differenz
p T t
für die H 0 : X Y
Verwerfen der H0 bei einer
zu negativen Differenz
p T t
für die H 0 : X Y
p T t
Verwerfen der H0 bei einer
zu extremen Differenz
und vergleicht p mit dem Signifikanzniveau
Das p(…) wird aus der Verteilungsfunktion der t-Verteilung
berechnet
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Einführung
Tests für Intervalldaten
Prüfgröße
Beobachtung im Experiment:
Der unabhängige 2-Stichproben t-Test
x, y
Frage: Stammen die Stichproben aus derselben Population?
Geht die Größe des Mittelwerts der Differenz auf einen Stichprobenfehler zurück?
Hypothesen
Voraussetzungen
(1) Festlegung von Signifikanzniveau α Achtung: Vorher
und Gerichtetheit
immer Prüfung der
Voraussetzungen!
(2) Berechnung der Prüfgröße t
(3) Berechnung der Wahrscheinlichkeit für dieses oder ein
extremeres z: z. B. p(X≥ t)
(4) Vergleich von p mit α und
Treffen der Signifikanzaussage
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test
Prüfgröße
Intervallskalenniveau der betrachteten Zufallsvariable
Hypothesen
Voraussetzungen
Normalverteilung des Merkmals in der Population für
Stichprobengrößen von nX + nY ≤ 50.
Homogenität der Populationsvarianzen
(automatisch erfüllt, wenn H0 gilt; über verschiedene Tests prüfbar, z.B.
den Levène Test auf Varianzgleichheit)
Unabhängigkeit der Stichproben, so dass ein
Merkmalsträger nur in einer Stichprobe vorhanden ist.
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Unabhängig vs. abhängig
Frage: Sollte ein Experimentaldesign eher auf einen tTest für unabhängige Stichproben oder für abhängige
Stichproben abzielen?
Der t-Test für unabhängige Stichproben scheint zunächst
testschärfer, weil seine Prüfgröße einer Verteilung mit
doppelt so vielen Freiheitsgraden folgt, die damit
schmaler ist.
Dieser Unterschied wirkt sich jedoch bei üblichen
Stichprobengrößen (n>30) kaum mehr aus
Wesentlich relevanter ist die Höhe des
Standardfehlers, der beim t-Test für abhängige
Stichproben kleiner ist, sobald die Kovarianz größer 0 ist.
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Unabhängig vs. abhängig
In der Praxis ist der abhängige Fall dem unabhängigen
Fall hinsichtlich der Teststärke deshalb zumeist klar
überlegen.
Aber: Für jedes Untersuchungsdesign mit abhängigen
Stichproben gelten dieselben kritische Punkte, u.a.
•
Carry-Over Effekte zwischen den
Messzeitpunkten (z.B. Lerneffekte)
•
Drop-Outs zu späteren Messzeitpunkten
reduzieren die gesamte Stichprobe
•
Das Untersuchungsdesign sollte nicht auf eine
negative Kovarianz zwischen den Messzeitpunkten
abzielen
Statistik &
Methodenlehre
Relevante Excel Funktionen
Tests für Intervalldaten
•
•
•
•
MITTELWERT()
STABW.S(), STABW.N()
VAR.S(), VAR.P()
T.VERT()
Statistik &
Methodenlehre
Multiples
Testen
Korrekturen
Stetige Verteilungen
Inferenzstatistik
Multiples Testen
Problemstellung
Die Irrtumswahrscheinlichkeit α sagt nicht, dass die
getroffene Entscheidung für eine der Hypothesen mit
α·100%iger Wahrscheinlichkeit falsch ist
(sie ist entweder zutreffend oder nicht)
Die Irrtumswahrscheinlichkeit α charakterisiert die
Wahrscheinlichkeit, dass man einen beobachteten
(Kenn-)Wert (oder einen noch extremeren) erhält unter
der Annahme, dass H0 zutrifft
Sie lässt sich alltagssprachlich übersetzen in die Aussage
„Werden für multiple Stichprobenziehungen aus
derselben Population k Signifikanztests durchgeführt,
werden von diesen Tests α·k allein durch Zufallsfehler bei
der Stichprobenziehung signifikant.“
Statistik &
Methodenlehre
Multiples
Testen
Korrekturen
Stetige Verteilungen
Inferenzstatistik
Multiples Testen
α-Fehler Kumulierung beim statistischen Testen
In der empirischen Praxis hat man häufig nicht nur zwei
Stichproben bzw. Gruppen, sondern mehr als zwei
Beispiele: Mittleres Einkommen verschiedener
Wählergruppen (SPD, CDU, FDP, Grüne); multiple
Befragungen von Patienten während des
Therapieprozesses
Sollen alle Gruppen mithilfe des t-Tests miteinander
verglichen werden, sind multiple t-Tests notwendig.
Jeder von diesen besitzt eine Irrtumswahrscheinlichkeit
von α bei vielen Tests kommt es zur so genannten αFehler Kumulierung
(„von k Tests sollten mindestens α100% signifikant werden“)
Statistik &
Methodenlehre
Multiples
Testen
Korrekturen
Stetige Verteilungen
Inferenzstatistik
Multiples Testen
Bonferroni-Korrektur und Dunn-Sidak Korrektur
Die Bonferroni-Korrektur nimmt an, dass bei k Tests
das α-Niveau um 1/k verringert werden muss, um die
erhöhte Irrtumswahrscheinlichkeit auszugleichen
'
k
Die Dunn-Sidak Korrektur geht von unabhängigen
Stichproben aus und berechnet das neue α-Niveau
über die komplementäre Wahrscheinlichkeit, dass bei k
Stichproben nur α·k signifikant werden.
' 1 (1 )
1
k
Die Bonferroni-Korrektur ist (marginal) konservativer als
Dunn-Sidak
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Das klassische Hypothesentesten
Der Test gilt dann als signifkant, wenn die
Wahrscheinlichkeit für den konkreten Wert der
Prüfgröße unter der H0 zu niedrig ist.
In diesem Fall wird die H0 verworfen und
angenommen, dass die H1 gilt.
Die Prüfgröße bzw. die ihr zugrunde liegenden
Beobachtungen stammen dann nicht aus der
Population, die mit der H0 beschrieben wird.
Problem: Aus welcher Population stammen sie dann?
Oder auch: Gibt es überhaupt die Population für die
H0?
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Das klassische Hypothesentesten
Die Annahme einer feststehenden Population ist eine
Idealisierung und praktisch nicht zu halten.
Gründe: Mortalität, Fluktuation, Maturation (i.e.
Veränderungen der Merkmalsträger zwischen
Zeitpunkten).
Damit ist der Erwartungswert (kleinsten)
Schwankungen unterworfen, die sich auch in den
Stichprobenbeobachtungen niederschlagen werden.
Mit genügend hohem Stichprobenumfang werden
solch kleinste Schwankungen zu Signifikanzen führen.
Mit großen n kann jede H0 verworfen werden.
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke
Damit stellt sich die Frage nach der praktischen
Bedeutsamkeit signifikanter Ergebnisse.
Beispiel: Mit genügend hohem n wird sich ein IQUnterschied von 0.05 Punkten zwischen farbigen und
weißen Personen signifikant testen lassen. Hat aber
dieser Unterschied irgend eine praktische Bedeutung?
Cohen (1988) schlägt daher das Konzept der
Effektstärke als Ergänzung zum Signifikanztest vor.
Die Effektstärke soll die Größe eines Unterschiedes
oder Zusammenhangs relativ zur Streuung von
Daten wiedergeben – und nicht zur Streuung von
Mittelwerten oder anderer von n abhängiger Maße.
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke – Cohen‘s d
Cohen‘s d drückt einen Unterschied zwischen
Erwartungswerten (bzw. beobachteten Mittelwerten)
in Einheiten der Streuung der beobachteten
Zufallsvariablen aus.
Je größer die Varianz der Zufallsvariablen, desto
kleiner wird die Effektstärke, unabhängig von der
Stichprobengröße.
Cohen gibt verschiedene Daumenregeln für die
Interpretation von d an:
d .2 kleiner Effekt
d .5 mittlerer Effekt
d .8 großer Effekt
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke – Cohen‘s d
Cohen‘s d drückt einen Unterschied zwischen
Erwartungswerten (bzw. beobachteten Mittelwerten)
in Einheiten der Streuung der beobachteten
Zufallsvariablen aus.
Je größer die Varianz der Zufallsvariablen, desto
kleiner wird die Effektstärke, unabhängig von der
Stichprobengröße.
Wolf (1986) vereinfachte diese Regeln noch weiter:
d .25 akademisch relevant
("something was learned")
d .50 praktisch/klinisch relevant
("something happened")
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke – Cohen‘s d
Die mathematische Definition der Effektstärke nach
Cohen ist sehr allgemein, je nach Anwendungsfall
existieren verschiedene konkrete Formeln.
Für den 1-Stichproben t-Test:
x
d
ˆ
mit
ˆ
n
s
n 1
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke – Cohen‘s d
Die mathematische Definition der Effektstärke nach
Cohen ist sehr allgemein, je nach Anwendungsfall
existieren verschiedene konkrete Formeln.
Für den 2-Stichproben t-Test für abhängige
Stichproben:
d
mit
ˆ
XY
XY
ˆ XY
n
s XY
n 1
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke – Cohen‘s d
Die mathematische Definition der Effektstärke nach
Cohen ist sehr allgemein, je nach Anwendungsfall
existieren verschiedene konkrete Formeln.
Für den 2-Stichproben t-Test für unabhängige
Stichproben:
xy
d
ˆ XY
mit
ˆ
XY
nX s X2 nY sY2
nX nY 2
Statistik &
Methodenlehre
Class
dismissed.