wst
Wahrscheinlichkeitstheorie und Statistik
Dr. D. Adams
Fachhochschule Nordwestschweiz
Hochschule für Technik
IMN
FS 2017
donat.adams@fhnw.ch
wst
1/119
wst
Bibliographie
Lothar Papula.
Mathematik für Ingenieure und Naturwissenschaftler – Ein
Lehr- und ArbeitsBuch für das Grundstudium, volume 2.
Vieweg + Teubner, Wiesbaden, 2009.
T. Sigg.
Grundlagen der Differentialgleichungen für Dummies.
Für Dummies Series. Wiley VCH Verlag GmbH, 2012.
ISBN 9783527707959.
donat.adams@fhnw.ch
wst
2/119
wst
Griechisches Alphabet
Grossbuchst.
A
B
Γ
∆
E
Z
H
Θ
I
K
Kleinbuchst.
α
β
γ
δ
, ε
ζ
η
θ, ϑ
ι
κ, κ
donat.adams@fhnw.ch
Λ
M
N
Alpha Ξ
Beta
O
Gamma Π
Delta P
Epsilon Σ
Zeta
T
Eta
Y
Theta Φ
Iota
X
Kappa Ψ
Ω
λ
µ
ν
ξ
o
π, $
ρ, %
σ, ς
τ
υ
φ, ϕ
χ
ψ
ω
wst
Lambda
My
Ny
Xi
Omikron
Pi
Rho
Sigma
Tau
Ypsilon
Phi
Chi
Psi
Omega
3/119
wst
Beschreibende Statistik
Beschreibende Statistik
donat.adams@fhnw.ch
wst
4/119
wst
Beschreibende Statistik
Was ist Stochastik
Definition (Stochastik)
Beschreibung und Untersuchung
von Ereignissen, die vom Zufall
beeinflusst werden.
Wahrscheinlichkeitstheorie +
Statistik
Einsatzgebiete Statistik:
Technik, Physik
Meteorologie
Ökonomie
Definition (Statistik)
Analyse von Daten, die durch
Zufall beeinfluss sind
donat.adams@fhnw.ch
wst
5/119
wst
Beschreibende Statistik
Arbeitsweise Statistik
Formulierung Problem
Planung Experiment
Ausführung Experiment
Beschreibung experimentelle
Daten
Schluss von Stichprobe auf
Grundgesamtheit
donat.adams@fhnw.ch
wst
6/119
wst
Beschreibende Statistik
Beispiel Neonröhren
Formulierung Problem:
Wie gross ist Lebensdauer der Neonröhren, die an FHNW
verwendet werden?
Planung Experiment:
Test einer Röhre genügt nicht. Alle können nicht getestet
werden. Wir testen 11 Röhren.
Ausführung Experiment:
x1 x2 x3 x4 x5 x6
24 39 45 51 55 62
Angaben in Monaten
x7
64
x8
65
x9
67
x10
76
x11
123
Beschreibung experimentelle Daten:
Lageparameter: Durchschnitt und Standartabweichung
x = 61 ± 25.25
Schluss von Stichprobe auf Grundgesamtheit:
Durchschnittliche Lebensdauer 61 Monate
donat.adams@fhnw.ch
wst
7/119
wst
Beschreibende Statistik
b
x1
b
b
b
b
x2 x3 x4 x5
x6 x8
b bb b
x7 x9
b
b
x10
x11
b
|
|
0 Aunten = 22
|
Q0.25 = 45
donat.adams@fhnw.ch
x
e = 62
| |
Q0.75 = 67
|
Aoben = 100
Ausreisser
|
wst
8/119
wst
Beschreibende Statistik
Definition (Mittelwert)
Pn
xi
x = i=1
n
Stichprobenumfang: n
Definition
(Standart-Abweichung)
sP
n
2
i=1 (xi − x)
s=
n−1
donat.adams@fhnw.ch
Definition (Grundgesamtheit)
Menge der Elemente, die
untersucht werden soll.
Definition (Stichprobe)
Teilmenge der Grundgesamtheit,
die untersucht wird.
wst
9/119
wst
Beschreibende Statistik
Metrische vs. diskrete Grössen
Quantitative Merkmale unterteilt in diskrete und metrische
diskrete Merkmale werden meistens von mehreren
Merkmalsträgern angenommen
bei diskreten Merkmalen ist es sinnvoll zu zählen wie of eine
Merkmals-Ausprägung angenommen wird
bei metrischen Grössen gibt es zu fast jedem Merkmalsträger
eine eine, von anderen verschiedene Merkmal-Ausprägung
(sogar bei grossen Stichproben)
donat.adams@fhnw.ch
wst
10/119
wst
Beschreibende Statistik
Metrische (stetige) Grössen (m), diskrete Grössen (d),
qualitative Merkmale (q)
Ordnen sie zu:
Windgeschwindigkeit
Sonnenschein-Dauer am letzten Tag im Monat
Anzahl Regentage im April
Luftdruck
Stau-Stunden am Gotthard
Anzahl Lastwagen durch Belchentunnnel
Zivilstand
steuerbares Einkommen
abgeschlossene Diplome.
donat.adams@fhnw.ch
wst
11/119
wst
Beschreibende Statistik
Metrische (stetige) Grössen (m), diskrete Grössen (d),
qualitative Merkmale (q)
Ordnen sie zu:
Windgeschwindigkeit (m)
Sonnenschein-Dauer am letzten Tag im Monat (m)
Anzahl Regentage im April (d)
Luftdruck (m)
Stau-Stunden am Gotthard (m)
Anzahl Lastwagen durch Belchentunnnel (d/m)
Zivilstand (q)
steuerbares Einkommen (m)
abgeschlossene Diplome (q)
donat.adams@fhnw.ch
wst
12/119
wst
Beschreibende Statistik
Darstellung von Daten
Häufigkeitstabellen:
Graphische Darstellung
Häufigkeitstabellen (Tabelle,
m/d)
Histogramme (Plot, m/d)
Kreisdiagramme (q)
donat.adams@fhnw.ch
Anzahl Klassen (Richtwert)
√
k≈ n
Klassenbreite d ≈
xmax −xmin
k
Intervalle [ai , ai+1 [ (Daten
auf Grenzen konsistent zu
rechten Klasse gezählt)
wst
13/119
wst
Beschreibende Statistik
Häufigkeitsverteilungen
Erstellen Sie ein Histogramm zu den Anzahl Betriebsstörungen an
Baumaschinen.
i
hi
0
48
1
38
2
10
3
4
Erstellen Sie ein Diagramm zum Verhältnis Studentinnen zu
Studenten in der Klasse
Erstellen Sie eine Häufigkeitstabelle und ein Histogramm zu den
Daten der Zugfestigkeit (Walzdraht, S. 6)
donat.adams@fhnw.ch
wst
14/119
wst
Beschreibende Statistik
Lageparameter
Definition (Arithmetisches Mittel)
n
x=
1X
xi
n
i=1
Definition (Harmonisches Mittel)
x h = n/
n
X
1
xi
i=1
Definition (Geometrisches Mittel)
x g = (x1 · x2 . . . xn )1/n =
donat.adams@fhnw.ch
n
Y
i=1
xi
!1/n
wst
15/119
wst
Beschreibende Statistik
Lageparameter
Definition (Median)
x n+1
( 2 )h
i
x̃ =
1/2 · x n + x n
( )
( +1)
2
n gerade
n ungerade
2
Definition (Quartile Q0.25 , Q0.75 )
Oberhalb von Q0.75 , liegt 1/4 der Messungen, unterhalb von Q0.25
liegt 1/4 der Messungen
Definition (Ausreissergrenzen)
Aunten = Q0.25 − 1.5 · dQ und Aoben = Q0.75 + 1.5 · dQ
Quartilsweite: dQ = Q0.75 − Q0.25
donat.adams@fhnw.ch
wst
16/119
wst
Beschreibende Statistik
Mittlere Geschwindigkeit?
Strecke [km]
Geschwindigkeit [km/h]
20
40
20
120
20
80
Pn
Pn
si
i si
P
P
ṽ = n = ni si
t
i i
i vi
v h = 65.45 km/h
Mittlere Verzinsung?
Jahr
Zins %
1
8.5
2
12.2
3
-4.5
K = K0 · (1 + r1 ) · (1 + r2 ) · (1 + r3 )
v g = 5.15 %
donat.adams@fhnw.ch
wst
17/119
wst
Beschreibende Statistik
Median/Quartile/Ausreisser
5.3
3.8
4.0
19.5
3.1
3.8
4.0
5.0
4.9
2.2
4.1
3.1
5.5
Ordnen:
2.2
4.1
4.9
5.0
5.3
5.5
19.5
Mittelwert: x = 5.74
Median: x̃ = 12 (4.1 + 4.9) = 4.5
Quartile: Q0.25 = 3.8 und Q0.75 = 5.3
Aussreissergrenzen: Aunten = Q0.25 − 1.5 · dQ = 1.55 und
Aoben = Q0.75 + 1.5 · dQ = 7.55 ⇒ 19.5 ist Ausreisser
Erstelle Box- und Whiskperplot
Ohne Ausreisser (Mittelwert/Median):
Mittelwert: x = 4.2
Median: x̃ = 12 (4.1 + 4.9) = 4.1
donat.adams@fhnw.ch
wst
18/119
wst
Beschreibende Statistik
Mittelwert vs. Median
Median ist stabiler gegenüber Ausreissern.
donat.adams@fhnw.ch
wst
19/119
wst
Zufall und Ereignis
Zufall und Ereignis
donat.adams@fhnw.ch
wst
20/119
wst
Zufall und Ereignis
Definition (Zufallsexperiment)
Vorgang
beliebig oft wiederholbar und
Ausgang ungewiss
(innerhalb einer Menge möglicher Ergebnisse).
Definition (Stichprobenraum )
Menge S aller Ausfallsmöglichkeiten.
donat.adams@fhnw.ch
wst
21/119
wst
Zufall und Ereignis
Geben Sie den Stichprobenraum an
Werfen einer Münze
Werfen eines Würfels
Ziehung einer Lottozahl
Kontrolle eines (unangemeldeten) Haushalts durch die Bilag
Werfen einer Münze S = {K , Z }
Werfen eines Würfels S = {1, 2, 3, 4, 5, 6}
Ziehung einer Lottozahl S = {1, 2, 3, . . . , 44, 45}
Bilag S = {Fernseher, Radio, 0}
donat.adams@fhnw.ch
wst
22/119
wst
Zufall und Ereignis
S
A∩B
B
A
Definition (Verknüpfung von
Ereignissen)
S
und-Verknüpfung A ∩ B
A∪B
oder-Verknüpfung A ∪ B
B
A
Gegenereignis A
S
A
donat.adams@fhnw.ch
A̅
wst
23/119
wst
Zufall und Ereignis
Theorem (Morgansche Regeln)
A∪B =A∩B
A∩B =A∪B
donat.adams@fhnw.ch
wst
24/119
wst
Zufall und Ereignis
Beschreiben Sie in Worten und Mengen
S = {1, 2, 3, 4, 5, 6}, A = {1, 3, 5}, B = {2, 4, 6}, C = {3, 6}
A= {2, 4, 6} = B, Würfeln einer geraden Zahl
B= {1, 3, 5} = A, Würfeln einer ungeraden Zahl
A ∪ B ={1, 2, 3, 4, 5, 6} = S, Sicheres Ereignis
A ∩ B =∅, unmögliches Ereignis
A ∩ C ={3}, Würfeln der 3
donat.adams@fhnw.ch
wst
25/119
wst
Zufall und Ereignis
Er eignisbaum
.
1 . Teilversuch
K
2. Teilversuch
3. Teilversuch
4. Teilversuch
Z
K
K
K
Z
Z
K
Z
K
K
Z
K
Z
Z
K
Z
K
Z
K
Z
Z
K
K
Z
K
Z
Z
K
Z
Theorem (Produktregel)
Besteht ein zusammengesetzter Versuch aus m unabhängigen
Teilversuchen mit jeweils [n1 , n2 , n3 , n4 , . . . , nm
Ausfallsmöglichkeiten, dann besitzt der Versuch
n1 · n2 . . . · nm Ausfälle.
donat.adams@fhnw.ch
wst
26/119
wst
Zufall und Ereignis
Permutationen der Ziffern 1 bis 5?
P(5) = 5 · 4 · 3 · 2 · 1 = 720
Variation 3-ter Ordnung mit Zurücklegen.
donat.adams@fhnw.ch
wst
27/119
wst
Zufall und Ereignis
Anzahl mögliche dreistellige Zahlen?
Ziffern 1 bis 9.
V (9; 3) = 93 = 729
Variation 3-ter Ordnung mit Zurücklegen.
donat.adams@fhnw.ch
wst
28/119
wst
Zufall und Ereignis
Anzahl mögliche Schaltungen
5 verschiedene Widerstände R1 , . . . , R5
Jeder Widerstand nur ein Mal verwenden
5!
5
C (5; 3) =
=
= 10
3
3! · 2!
Kombination 3-ter Ordnung ohne Zurücklegen.
donat.adams@fhnw.ch
wst
29/119
wst
Zufall und Ereignis
Anzahl mögliche Stichproben einer Lieferung von Batterien?
Gelieferte Batterien: 100, Stichprobe: 10
100!
100
C (12; 3) =
=
= 17 310 309 456 440
10
10! · 90!
Kombination 10-ter Ordnung ohne Zurücklegen.
donat.adams@fhnw.ch
wst
30/119
wst
Zufall und Ereignis
Anzahl mögliche dreistellige Zahlen?
Ziffern 1 bis 9. Jeder Ziffer nur ein Mal verwenden. (Ziffern 1 bis 9:
kein Probleme mit führenden 0)
V (9; 3) =
9!
= 7 · 8 · 9 = 504
(9 − 3)!
Variation 3-ter Ordnung ohne Zurücklegen.
donat.adams@fhnw.ch
wst
31/119
wst
Zufall und Ereignis
Pferdetoto
Dreierwette: Zieleinflauf der ersten drei Pferde. Anzahl
Möglichkeiten bei 10 Pferden?
V (10; 3) =
10!
= 720
(10 − 3)!
Variation 3-ter Ordnung ohne Wiederholungen.
donat.adams@fhnw.ch
wst
32/119
wst
Zufall und Ereignis
Anzahl mögliche Schaltungen
5 verschiedene Widerstände R1 , . . . , R5
Jeder Widerstand bis zu 3 Mal verwenden
7!
5+3−1
Cw (5; 3) =
=
= 35
3
4! · 3!
Kombination 3-ter Ordnung mit Zurücklegen.
donat.adams@fhnw.ch
wst
33/119
wst
Zufall und Ereignis
Kombination
k-ter
Ordnung
Variation
k-ter
Ordnung
ohne
Wiederholung
n
C (n; k) =
k
V (n; k) =
n!
(n−k)!
Ziehung
ohne
Zurücklegen
mit
Wiederholung
n+k −1
Cw (n; k) =
k
Vw (n; k) = nk
ungeordnete
Stichproben
geordnet
Stichproben
Ziehung
mit
Zurücklegen
Definition (Binomialkoeffizient)
n!
n
=
k
k! · (n − k)!
donat.adams@fhnw.ch
wst
34/119
wst
Wahrscheinlichkeit
Definition (Wahrscheinlichkeit (theoretisch))
g
p=
m
g : Anzahl günstige Fälle
m: Anzahl mögliche Fälle
Wahrscheinlichkeit 6 beim Würfeln?
m = 6,
g =1 ⇒ p=
1
6
Wahrscheinlichkeit Kopf beim Werfen Münze?
m = 2,
donat.adams@fhnw.ch
g =1 ⇒ p=
1
2
wst
35/119
wst
Wahrscheinlichkeit
6 Richtige Zahlen beim Lotto (6 mal 45 Zahlen)?
45
m=
= 8 145 060
6
g =1 ⇒ p=
1
= 0.000 000 123
m
Vergleiche Wahrscheinlichkeit mit Strecke Brugg-Paris
Strecke: 611 000 m.
0.07
p≈
611 000
ca. 7 cm!
donat.adams@fhnw.ch
wst
36/119
wst
Wahrscheinlichkeit
10 Nüsse davon 3 verdorben.
Wahrscheinlichkeit mit einem Griff 2 gute Nüsse zu finden.
10
m=
= 45
2
7
g=
= 21
2
Hier ist es einfacher mit geordneten Stichproben zu rechnen,
obwohl eine ungeordnete Stichprobe !
Geordnete Stichprobe vs. ungeordnete Stichprobe
Bei vielen Experimenten können geordnete Stichproben betrachtet
werden. Das vereinfach oft die Rechnungen. Dabei muss m und g
konsequent für geordnete Stichproben berechnet werden
donat.adams@fhnw.ch
wst
37/119
wst
Wahrscheinlichkeit
Definition (Wahrscheinlichkeit (experimentell))
h(si ) =
Anz.desAuftretensvonsi
ni
=
Anz.Versuche
N
Für Wahrscheinlichkeiten p(si ) (oder h(si ) gilt:)
Theorem ( Axiome der Wahrscheinlichkeit )
Sei S = {s1 , s2 , . . . sn } der Stichprobenraum des Versuchs (d.h.
si ∪ sj = 0 für i 6= j):
0 ≤ p(si ) ≤ 1
p(s1 ) + p(s2 ) + . . . + p(sn ) = 1
Spezielles Ereignis, z.B A = {s1 , s2 , s3 }:
p(A) = p(s1 ) + p(s2 ) + p(s3 )
donat.adams@fhnw.ch
wst
38/119
wst
Experimentelle Wahrscheinlichkeit
Experimentelle Wahrscheinlichkeit (Simulation)
Führen Sie mit matlab folgenden Versuch durch: Mit einem Würfel
wird 1000 mal gewürfelt. Bei jedem Wurf wird notiert, wie viele
mal insgesamt eine 3 gewürfelt wurde.
Befehle: for i=1:mmax ... end, r>0, randi([1 3])
mmax=10ˆ3;
s t a =(1:mmax+1)∗0; % l e e r e L i s t e
f o r i =1:mmax
r = randi ([1 6]);
% W ü r f e l n
s t a ( i +1)=( s t a ( i )+( r ==3));
end
initialisieren
Berechnen und plotten Sie die Wahrscheinlichkeit, dass eine 3
gewürfelt wird als Funktion der Versuchsnummer.
Gegen welchen Wert konvergiert die relative Häufigkeit? Befehle:
plot, ./ , end
donat.adams@fhnw.ch
wst
39/119
wst
Experimentelle Wahrscheinlichkeit
Experimentelle Wahrscheinlichkeit forts.
r e l h=s t a . / ( 1 : mmax+1);
p l o t ( ( 1 : mmax+1) , r e l h )
r e l h ( end −2: end )
donat.adams@fhnw.ch
wst
40/119
wst
Experimentelle Wahrscheinlichkeit
Theorem (Additionssatz)
allgemein:
p(A ∪ B) = p(A) + p(B) − p(A ∩ B)
also für A und B elementfremd:
p(A ∪ B) = p(A) + p(B)
Wahrscheinlich Gegenereignis
q = p(A) = 1 − p(A)
S
A∪B
A
donat.adams@fhnw.ch
B
wst
41/119
wst
Experimentelle Wahrscheinlichkeit
Theorem (Multiplikationssatz)
A und B beziehen sich auf Teilversuche:
p(A ∩ B) = p(A) · p(B)
donat.adams@fhnw.ch
wst
42/119
wst
Experimentelle Wahrscheinlichkeit
Würfel
A = {1, 3, 5} und B = {3, 4, 5, 6}. Berechnen Sie p(A ∪ B).
p(A ∪ B) = p(A) + p(B) − p(A ∩ B)
1 1 1
1 1 1 1
1 1
=
+ +
+
+ + +
−
+
6 6 6
6 6 6 6
6 6
5
=
6
Wahrscheinlichkeit drei mal hintereinander Sechs zu würfeln.
1 1 1
1
p(A1 ∩ A2 ∩ A3 ) = · · = 3 = 0.00463
6 6 6
6
donat.adams@fhnw.ch
wst
43/119
wst
Experimentelle Wahrscheinlichkeit
Beispiel Versuch mit p und q
p Wahrscheinlichkeit für Erfolg, q = 1 − p Wahrscheinlichkeit für
MissErfolg. Für n Versuche berechnen Sie
Wahrsch. für n Erfolge p n
Wahrsch. für n Misserfolge q n = (1 − p)n
Wahrsch. mind. ein Erfolg 1 − q n
Wahrsch. erster Erfolg beim letzten Versuch: q n−1 · p
donat.adams@fhnw.ch
wst
44/119
wst
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen: Münze
Versucht: zwei unabhängige Münzwürfe.
Erstellen Sie eine Tabelle (Resultat ungeordnet notiert):
Ausgang Experiment
Wahrscheinlichkeit
Aufsummieren
donat.adams@fhnw.ch
(K,K)
0.25
0.25
(K,Z)
0.5
0.75
wst
(Z,Z)
0.25
1
45/119
wst
Wahrscheinlichkeitsverteilungen
Definition (Zufallsgrösse)
X :S
si
→ R
7→ X (si ) = xi
S = {s1 , s2 , . . . }: Stichprobenraum Zufallsgrösse X kann Werte xi
annehmen.
Definition (Wahrscheinlichkeitsverteilung: )
Jedem Ausfall si wird eine Wahrscheinlichkeit zugeordnet:
P(xi ) = pi .
Definition (Verteilfunktion)
Summe der Wahrscheinlichkeiten
von links
P
P(X ≤ xi ) = kxi P(X = xi ) Synonym: Summenfunktion
donat.adams@fhnw.ch
wst
46/119
wst
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen: Münze
Versucht: zwei unabhängige Münzwürfe. Resultat geordnet
notiert. Erstellen Sie eine Tabelle mit dem Stichprobenraum, der
Wahrscheinlichkeitsverteilung und Verteilfunktion des
Stichprobenraums.
Stichprobenraum
Wahrscheinlichkeitv.
Verteilf.
donat.adams@fhnw.ch
(K,K)
0.25
0.25
(K,Z)
0.25
0.5
(Z,K)
0.25
0.75
wst
(Z,Z)
0.25
1
47/119
wst
Wahrscheinlichkeitsverteilungen
Wahrsch.-Vert.
Visualisieren Sie für die Beispiele Wahrscheinlichkeitsverteilung und
die Verteilfunktion.
Geordnet:
0.25
(K,K) (K,Z) (Z,K) (Z,Z)
1.0
0.20
0.8
0.15
0.6
0.10
0.4
0.05
0.00
(K,K) (K,Z) (Z,K)
(Z,Z)
0.5
0.4
0.3
0.2
0.1
0.0
0.2
(K,K) (K,Z) (Z,K) (Z,Z)
0.0
(K,K) (K,Z) (Z,K)
(Z,Z)
(K,K) (K,Z) (Z,K) (Z,Z)
(K,K) (K,Z) (Z,K) (Z,Z)
1.0
0.8
0.6
0.4
0.2
0.0
(K,K) (K,Z) (Z,K) (Z,Z)
(K,K) (K,Z) (Z,K) (Z,Z)
Ungeordnet:
0.5
(K,K)
(K,Z)
(Z,Z)
1.0
0.4
0.8
0.3
0.6
0.2
0.4
0.1
0.0
(K,K)
(K,Z)
(Z,Z)
0.5
0.4
0.3
0.2
0.1
0.0
0.2
(K,K)
(K,Z)
(Z,Z)
donat.adams@fhnw.ch
0.0
(K,K)
(K,Z)
(Z,Z)
(K,K)
(K,Z)
(Z,Z)
(K,K)
(K,Z)
(Z,Z)
wst
1.0
0.8
0.6
0.4
0.2
0.0
(K,K)
(K,Z)
(Z,Z)
(K,K)
(K,Z)
(Z,Z)
48/119
wst
Erwartungswert und Varianz
Erwartungswert Münze
Max wirft einen Würfel und gewinnt Geld, falls er mehr als 3
würfelt. Wieviel Geld gewinnt er pro Wurf durchschnittlich?
Resultat
Gewinn (CHF)
µ = E (X ) =
1
0
2
0
3
0
4
4
5
5
6
6
1
1
1
· 4 + · 5 + · 6 = 2.5
6
6
6
Streuung des Gewinns?
σ
2
=
n
X
i=1
pi (xi − µ)2 = (−2.5)2 ·
+1.52 ·
≈ 6.58
donat.adams@fhnw.ch
1
1
+ (−2.5)2 · + (−2.5)2
6
6
1
1
1
+ 2.52 · + 3.52 ·
6
6
6
wst
49/119
wst
Erwartungswert und Varianz
Definition (Erwartungswert)
µ = E (X ) =
n
X
i=1
pi · xi
Definition (Varianz)
2
2
σ = Var (X ) = E ((X − µ) ) =
Standardabweichung: σ =
donat.adams@fhnw.ch
√
n
X
i=1
pi · (xi − µ)2
σ2
wst
50/119
wst
Erwartungswert und Varianz
Varianz: Zeigen Sie dass gilt
σ2 =
=
=
n
X
i=1
n
X
i=1
n
X
i=1
Pn
i=1 pi (xi
− µ)2 =
Pn
2
i=1 pi (xi )
− µ2
n
X
pi (xi )2 − 2xi µ + µ2 =
pi (xi )2 − 2xi pi µ + pi µ2
i=1
pi (xi )2 − 2µ
n
X
i=1
xi · pi + µ2
n
X
pi
i=1
pi (xi )2 − 2µµ + µ2 · 1
σ 2 = −µ2 +
donat.adams@fhnw.ch
n
X
pi (xi )2
i=1
wst
51/119
wst
Binomialverteilung
Definition ( Binomialverteilung)
n x
P(X = x) =
p · (1 − p)n−x
x
Oft auch q := (1 − p)
p
p
p
q
q
q
p
p
q
p
q
q
p
p3 p2q p2q pq2 p2q pq2 pq2
donat.adams@fhnw.ch
q
q
wst
52/119
wst
Binomialverteilung
Glücksrad (Simulation)
Führen Sie mit matlab folgenden Versuch durch. Am Glücksrad
werden 10 zufällige Zahlen zwischen 1 und 3 erzeugt. Der
Hellseher gibt vor der Ziehung jeweils seinen Tip ab. Zählen Sie die
richtigen Tips.
Befehle: 1:10, randi([1 5],1,6), sum
n=10
r= r a n d i ( [ 1 3 ] , 1 , n ) % Z a h l e n vom Rad
t= r a n d i ( [ 1 3 ] , 1 , n ) % T i p s von H e l l s e h e r
i n x=sum ( r==t )
% Anz r i c h t i g e T i p s
Notieren Sie in einer Liste (0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0), dass ein
richtiger Tipp abgegeben wurde (hier also 2 richtige Tipps).
Führen sie dann den Versuch 1000 mal durch (jedes Mal richtige
Tips in Liste hinzufügen!). Erstellen Sie so eine
Häufigkeitsverteilung. Befehle: for i=1:mmax ... end
donat.adams@fhnw.ch
wst
53/119
wst
Binomialverteilung
Glücksrad forts.
n=10 ; mmax=10ˆ3;
s t a =(1: n +1)∗0; %
f o r i =1:mmax
r= r a n d i ( [ 1 3 ] , 1 , n ) ;
t= r a n d i ( [ 1 3 ] , 1 , n ) ;
i n x=sum ( r==t ) ;
s t a ( i n x +1)= s t a ( i n x +1)+1;
end
donat.adams@fhnw.ch
wst
54/119
wst
Binomialverteilung
Glücksrad forts.
Berechnen Sie die Summenfunktion. Notieren Sie die
Wahrscheinlichkeitsverteilung und die Summenfunktion in einer
Tabelle und stellen Sie die Daten graphisch dar.
Befehle: sum, plot, hold on/off
x i =(1: n+1)−1;
% Legende f ü r
s t a : Anzahl der T r e f f e r
pp=s t a /sum ( s t a ) ; % p r o b a b b i l i t y d i s t r i b u t i o n from e
p l o t ( x i , pp )
ppv =[ pp ( 1 ) , sum ( pp ( 1 : 2 ) ) , . . . , sum ( pp ( 1 : 1 1 ) ) ]
h o l d on
p l o t ( x i , ppv )
hold o f f
Treffer
W.verteil.
Summenf.
0
0.014
0.014
1
0.076
0.090
donat.adams@fhnw.ch
2
0.210
0.300
3
0.265
0.565
4
0.216
0.781
5
0.141
0.922
6
0.054
0.976
wst
7
0.021
0.997
8
0.003
1.0
9
0
1.0
10
0
1.0
55/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
Benutzen Sie das Model für das Glücksrad. Berechnen Sie den
Erwartungswert der Anzahl Treffer und die Varianz. Befehle: * ’
mu=x i ∗pp ’
% mean
%mu =
3.3120
s i g =( x i −mu ) . ˆ 2 ∗ pp ’ % s t a n d a r d dev
%s i g =
2.2707
Ändern Sie nun das Spiel: Am Glücksrad werden n zufällige Zahlen
zwischen 1 und 3 erzeugt (mit n=10,20,50,100). Machen Sie
wieder 1000 Durchläufe und notieren Sie Erwartungswert und
Varianz der Treffer.
n
µ
σ2
10
3.3120
2.2707
20
6.7150
4.3518
50
16.5310
11.2490
100
33.3400
23.9944
donat.adams@fhnw.ch
wst
Stellen
Sie die Tabelle grafisch dar und formulieren
Sie eine
56/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
Vermutung:
µ(n) ∝ n und σ 2 (n) ∝ n
donat.adams@fhnw.ch
wst
57/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
Ändern Sie nun das Spiel: Am Glücksrad werden 10 zufällige
Zahlen zwischen 1 und l erzeugt (mit l=2,3,5,10,20). Machen Sie
wieder 1000 Durchläufe und notieren Sie Erwartungswert und
Varianz der Treffer.
l
µ
σ2
p
2
2.4133
5.0260
0.5
3
2.1275
3.3500
0.33
5
1.6220
2.0550
0.2
10
0.9160
0.9940
0.1
20
0.4938
0.5140
0.02
Stellen Sie die Tabelle grafisch dar und formulieren Sie eine
Vermutung für µ(p) ( und evtl. σ 2 (p) in Abhängigkeit von
p · (1 − p)).
donat.adams@fhnw.ch
wst
58/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
p*q
Vermutung:
µ(n, p) ∝ n · p und σ 2 (n, p) ∝ n · p · (1 − p )
| {z }
q
donat.adams@fhnw.ch
wst
59/119
wst
Binomialverteilung
Theorem (Binomialverteilung: Erwartungswert und Varianz)
µ=n·p
2
σ =n·p·q
Berechnen Sie Erwartungswert und Varianz für die Punktesumme
bei 3 Würfen mit einem Würfel
µ = 3 · 0.5 = 1.5
σ 2 = 3 · 0.25 = 0.75
donat.adams@fhnw.ch
wst
60/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
Berechnen Sie die Wahrscheinlichkeitsverteilung und die
Summenfkt. für das Glücksrad (p = 1/3, n = 10) und vergleichen
Sie mit den Resultaten aus der Simulation.
Befehle : f a c t o r i a l ( n ) , nchoosek (n , x ) .∗ ./ .ˆ
Simulation:
Treffer
W.verteil.
Summenf.
0
0.014
0.014
1
0.076
0.090
2
0.210
0.300
3
0.265
0.565
4
0.216
0.781
5
0.141
0.922
6
0.054
0.976
7
0.021
0.997
8
0.003
1.0
9
0
1.0
10
0
1.0
Theorie:
Treffer
W.verteil.
Summenf.
0
0.0173
0.0173
1
0.0867
0.1040
donat.adams@fhnw.ch
2
0.1951
0.2991
3
0.2601
0.5593
4
0.2276
0.7869
5
0.1366
0.9234
6
0.0569
0.9803
wst
7
0.0163
0.9966
8
0.0030
0.9996
9
0.0003
1.0000
61/119
wst
Binomialverteilung
Herleitung µ und σ Binomialverteilung: wichtige Ausdrücke
Vereinfache:
n n−x x
P(X = x) =
q
·p
x
n
X
µ =
x · P(X = x)
x=1
n
X
(xi )2 P(X = xi ) = σ 2 + µ2
x=1
p+q = 1
X
g 0 (t) =
4k 2 · t k−1
k=1
donat.adams@fhnw.ch
wst
62/119
wst
Binomialverteilung
Herleitung Erwartungswert µ
f (t) = (q + p · t)
n
=
f 0 (t) = n · (q + p · t)n−1 · p =
f 0 (1) = n · (q + p)n−1 · p =
n · (q + p)n−1 ·p =
| {z }
=1
n X
n
x
x=0
n X
n
x
x=0
n X
n
x
x=0
n
X
x=0
|
q n−x · p x · x · t x−1
q n−x · p x · x
P(X = x) · x
µ = n·p
donat.adams@fhnw.ch
q n−x · p x · t x
{z
=µ
wst
}
63/119
wst
Binomialverteilung
Herleitung Varianz σ 2 : f (t) = (q + p · t)n =
Pn
x=0
n
x
q n−x · p x · t x
f 00 (t) = n · (n − 1) · (q + p · t)n−1 · p 2
P
n n−x x
= nx=0
q
· p · x · (x − 1) · t x−2
x
f 00 (1) = n · (n − 1) · p 2
=
x=0
n2 · p 2 − n · p 2
| {z } | {z }
=
µ2 − µ · p
=
n
X
x=0
=µ·p
=µ2
n X
n
−µ · p + µ =
| {z }
|
x
q n−x · p x · x · (x − 1)
P(X = x) · x 2 −
{z
+ µ2
| {z }
=σ
2
σ 2 + µ2 − µ
σ2
}
n
X
x=0
|
P(X = x) · x
{z
=µ
}
µ·(−p+1)
donat.adams@fhnw.ch
wst
64/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
Berechnen Sie Erwartungswert und Varianz das Glücksrad
(p = 1/3) und Vergleichen Sie mit den Resultaten aus der
Simulation.
Simulation:
n
µ
σ2
n
Theorie: µ
σ2
10
3.3120
2.2707
10
3.33333
2.1
donat.adams@fhnw.ch
20
6.7150
4.3518
20
6.66667
4.2
50
16.5310
11.2490
50
16.6667
10.5
100
33.3400
23.9944
100
33.3333
21
wst
65/119
wst
Binomialverteilung
Statitische Tests: Hühner
In Versuch kann Huhn Dreiecke oder Kreise picken. Es pickt 15
mal ein Dreieck und 5 mal einen Kreis. Zieht es Dreiecke vor?
Nullhypothese H0 : Es kann D/K nicht unterscheiden, p = 0.5.
Wahrscheinlichkeit, dass es 15 mal D pickt?
P(15 ≤ X ≤ 20) =
2
X
x=15
20 x 20−x
0
p ·q
= 0.020695
x
Signifikanzniveau: 5%
2% < 5% ⇒ Hühner können Dreiecke und Kreise unterscheiden
(und ziehen Dreiecke vor).
donat.adams@fhnw.ch
wst
66/119
wst
Binomialverteilung
Definition (Poissonverteilung)
µx −µ
e
x!
mit µ > 0 und x ∈ N0
P(X = x) =
Für die Poisson-Verteilung benutze
µ=n·p
Annäherung für diskrete Zufallgrössen und p ≤ 0.1 und n ≥ 100.
Theorem (Standart-Abweichung der Poissonverteilung)
σ2 = µ = n · p
donat.adams@fhnw.ch
wst
67/119
wst
Stetige Zufallsgrössen
y
y = f (x)
P
a
x1
x2 b
x
Definition (Verteilfunktion)
Die Wahrscheinlichkeit für das
Eintreten eines Ereignisses einer
stetigen Zufallgrösse X ist
gegeben durch die
Verteilfunktion F (x):
Z x
f (t)·dt .
F (x) = P(X ≤ x) =
Definition
(Wahrscheinlichkeitsdichte)
Die Funktion f (t), mit
Z x
P(X ≤ x) =
f (t) · dt
a
heisst
Wahrscheinlichkeitsdichte
a
donat.adams@fhnw.ch
wst
68/119
wst
Stetige Zufallsgrössen
Gleichverteilung
(
1/5
f (x) =
0
wenn 1 ≤ x ≤ 6
sonst
Zufallsgenerator für reelle Zahlen zwischen 1 und 6.
R∞
−∞ f (x)dx = 1
x <1
0
Rx
F (x) = −∞ f (t)dt = (x − 1)/5 1 ≤ x ≤ 6
1
sonst
F (−∞) = 0 und F (∞) = 1
d
dx F (x)
= F 0 (x) = f (x)
die Stellen, wo f (x) < 0 oder F 0 (x) < 0 gibt es nicht. Es gilt
f (x) ≥ 0
P(x1 ≤ X ≤ x2 ) = F (x2 ) − F (x1 )
donat.adams@fhnw.ch
wst
69/119
wst
Stetige Zufallsgrössen
y = f (x)
1
1
y = F (x)
P
x1
donat.adams@fhnw.ch
x2 1
1
wst
70/119
wst
Stetige Zufallsgrössen
Wahrscheinlichkeitsdichte/Verteilfunktion
Die Funktion F ist stetig, monoton wachsend, d.h.
f (x) = F 0 (x) ≥ 0
F (−∞) = 0 und F (∞) = 1
Der Gesamtflächeninhalt unter der
Wahrscheinlichkeitsdichtekurve
ist gleich 1, d.h.
R∞
f
(x)dx
=
1
−∞
d
dx F (x)
= f (x)
Die Wahrscheinlichkeit ein Ereignis zwischen x1 und x2 zu
erhalten, beträgt
Z x2
P(x1 ≤ X ≤ x2 ) =
f (t) · dt = F (x2 ) − F (x1 )
x1
donat.adams@fhnw.ch
wst
71/119
wst
Stetige Zufallsgrössen
Definition (Erwartungswert)
Definition (Varianz)
X sei stetige Zufallsgrösse:
Z ∞
µ = E (X ) =
x · f (x)dx
X sei stetige Zufallsgrösse:
Z ∞
2
2
σ = E (X −µ) =
(x−µ)2 f (x)dx
−∞
−∞
Integrationsgrenzen/praktische Berechnung
Bei einem beschränkten Intervall sind die Integrationsgrenzen
entsprechend abzuändern:
−∞ → a und ∞ → b
Ausserdem gilt:
2
σ =
Z
∞
−∞
donat.adams@fhnw.ch
x 2 · f (x)dx − µ2
wst
72/119
wst
Stetige Zufallsgrössen
1.0
e-
0.8
0.6
0.4
0.2
-1
1
2
3
4
Ein Elektron in einem Potentialkasten (mit unendlich hohen
Wänden)
donat.adams@fhnw.ch
wst
73/119
wst
Stetige Zufallsgrössen
Gleichverteilung
(
1/5
f (x) =
0
1
µ= ·
5
1
σ = ·
5
2
Z
1
donat.adams@fhnw.ch
6
Z
1
6
wenn 1 ≤ x ≤ 6
sonst
1 1 2 6 7
x · dx = · x
=
5 2
2
1
2
1 1 3 6 49
25
7
x · 1dx −
= · x
=
−
2
5 3
4
12
1
2
wst
74/119
wst
Normalverteilung
Funktionen verschieben und strecken
Berechnen Sie die Lage des Scheitelpunktes von
f (x) = x 2 , g (x) = (x −2)2 , h(x) = (x +1)2 −3, k(x) = (3+x)2 +1
f 0 (x) = 2x ⇒ f 0 (x) = 0 = 2x ⇒ x = 0 y = 0
g 0 (x) = 2(x − 2) ⇒ g 0 (x) = 0 = 2(x − 2) ⇒ x = 2 y = 0
h0 (x) = 2(x + 1) ⇒ h0 (x) = 0 = 2(x + 1) ⇒ x = −1 y = −3
k 0 (x) = 2(x + 3) ⇒ k 0 (x) = 0 = 2(x + 3) ⇒ x = −3 y = 1
Translationen
Die Transformation f (x) → f (x −l) +p verschiebt den Graphen
+l
der Funktion f (x) um den Vektor
in der x − y -Ebene
p
x
x +l
→
f (x)
f (x) + p
donat.adams@fhnw.ch
wst
75/119
wst
Normalverteilung
Funktionen verschieben und strecken
1
Skizzieren Sie die Funktion f (x) = x 21+4 − 16
auf dem Intervall
x ∈ [−15, 15] und bestimmen Sie die Schnittpunkte mit der
x-Achse.
Bestimmen Sie die Schnittpunkt mit der x-Achse der folgenden
Funktionen
g (x) =
1
2
( x8 )
+4
−
1
16 ,
h(x) =
1
(2x)2 +4
−
1
16 ,
k(x) =
1
( x2 )+4
−
1
16
g (x) = 0 ⇒ 768 = x 2 ⇒ x = ±27.712 (= 8 · 3.464)
h(x) = 0 ⇒ 3 = x 2 ⇒ x = ±1.732 (= 0.5 · 3.464)
k(x) = 0 ⇒ 48 = x 2 ⇒ x = ±6.928 (= 2 · 3.464)
donat.adams@fhnw.ch
wst
76/119
wst
Normalverteilung
R
0.15
g(x)
f(x)
0.10
0.05
k(x)
f(x)
0.00
-0.05
-15
-10
-5
h(x)
0
5
10
15
x
Streckung
Die Transformation f (x) → f (x/σ) streckt den Graphen der
Funktion f (x) um den Faktor σ entlang der x-Achse.
donat.adams@fhnw.ch
wst
77/119
wst
Normalverteilung
f(x)
Ordnen Sie zu
3
4
0
5 10 15
f(x)
x
1.0
0.8 B
0.6
0.4
0.2
0.0
-0.2
-15 -10 -5
0
5 10 15
x
f(x)
2
sin(x)
(A)
x
x+5
2 sin( 2 )
(D)
x+5
sin(2x)
− 5 (C)
2x
sin(3−x)
− x−3 (B)
-4.0
-4.2 C
-4.4
-4.6
-4.8
-5.0
-5.2
-15 -10 -5
0
5 10 15
x
f(x)
1
1.0
0.8 A
0.6
0.4
0.2
0.0
-0.2
-15 -10 -5
1.0
0.8 D
0.6
0.4
0.2
0.0
-0.2
-15 -10 -5
0
5 10 15
x
donat.adams@fhnw.ch
wst
78/119
wst
Normalverteilung
Integrieren
Berechnen Sie mit der Stammfunktion
ϕ(x) =
√
1
x2
+1
Z
p
2
Φ(x) = log x + x + 1 = ϕ(x)dx
Z
0
6
1
p
dx
(x/2)2 + 1
donat.adams@fhnw.ch
Z
5
1
p
dx = 2
(x/2)2 + 1
0
3
= 2 Φ(x) 0
= 2 Φ(3) − Φ(0) ≈ 3.637
=
wst
Z
0
3
√
1
z2
+1
dz
79/119
wst
Normalverteilung
Integrieren, forts.
Z
0
3
1
√
dx
4x 2 + 5
=
3
0
=
=
=
donat.adams@fhnw.ch
Z
1
√
5
p
Z
0
1
5 · (4/5 · x 2 + 1)
3
r
2x
√
5
1
2
dx
dx
+ 1)
√
2·3
Z √
5
1
5
1
√
√
dz
2
2
5 0
z +1
√6
1 · Φ(x) 0 5 ≈ 0.856615
2
wst
80/119
wst
Normalverteilung
Drücken Sie mit Hilfe der Stammfunktion aus F (x) =
Z
b
a
x −µ
)dx
f(
σ
=
Z
b−µ
σ
a−µ
σ
R
f (x)dx
f (z) · σ · dz
b−µ
σ
= σ F (x) a−µ
σ
Stammfunktion und Substitution
Sei F (x) die Stammfunktion von f (x). Dann gilt
Z
a
b
f(
b−µ
x −µ
a−µ )dx = σ F (
) − F(
)
σ
σ
σ
donat.adams@fhnw.ch
wst
81/119
wst
Normalverteilung
φ(z,0,1)
1
−1
φ(z,0,1)
ϕ(z,0,1)
1
0
1
z
z
0
z
Definition (Standardisierte Normalverteilung)
besitzt Wahrscheinlichkeitsdichte
z2
1
f (z) = ϕ(z, 0, 1) = √ e − 2
2π
und die Verteilungsfunktion
1
P(Z ≤ z) = Φ(z, 0, 1) = √
2π
donat.adams@fhnw.ch
Z
z
x2
e − 2 dx
−∞
wst
82/119
wst
Normalverteilung
Standardisierte Normalverteilung
R∞
−∞ f (z) = 1
Wir nennen die standartisierte Normalverteilung Φ(z, 0, 1)
auch N (0, 1) oder
1
1
x
+
Φ(z, 0, 1) = erf √
2
2
2
Φ(z, 0, 1) ist die Stammfunktion von ϕ(z, 0, 1), deshalb gilt
Z z2
x2
1
P(z1 ≤ Z ≤ z2 ) = √
e − 2 dx = Φ(z2 , 0, 1)−Φ(z1 , 0, 1)
2π z1
ϕ(z, 0, 1) hat keine Elementare Stammfunktion, Φ(z, 0, 1)
findet man aufgelistet in Tabellen (z.B. T.1)
donat.adams@fhnw.ch
wst
83/119
wst
Normalverteilung
Z ∼ N (0, 1)
Z 3.21
x2
1
√
e − 2 dx
2π 1
= Φ(3.21, 1, 0) − Φ(1, 1, 0) = 0.9993 − 0.8413
P(1 ≤ Z ≤ 3.21) =
P(Z ≤ 2) = Φ(2, 1, 0) − Φ(−∞, 1, 0) = 0.97725 − 0
P(0.11 ≤ Z ≤ 0.33) = Φ(0.33, 1, 0) − Φ(0.11, 1, 0) = 0.6293 − 0.5437
P(Z ≥ 0.33) = Φ(∞, 1, 0) − Φ(0.33, 1, 0) = 1 − 0.6293
donat.adams@fhnw.ch
wst
84/119
wst
Normalverteilung
φ(x,μ, σ2)
σ
φ(x,μ, σ2 )
σ
ϕ(x,μ, σ2)
μ-σ
μ μ+σ
x2
x
x
Definition (Normalverteilung mit den Parametern µ und σ 2 )
besitzt Wahrscheinlichkeitsdichte (−∞ < x < ∞):
f (x) = ϕ(x, µ, σ 2 ) = √
1
2πσ 2
e−
(z−µ)2
2σ 2
und die Verteilungsfunktion
2
P(Z ≤ x) = Φ(x, µ, σ ) = √
1
2πσ 2
Z
x
e−
(t−µ)2
2σ 2
dt
−∞
Kurvendiskussion: Maximum, Symmetrien, Wendepunkt
donat.adams@fhnw.ch
wst
85/119
wst
Normalverteilung
Normalverteilung
Maximum von f (x) bei x = µ, f (µ) =
√ 1
2πσ 2
Symmetrisch bezüglich Maximum
Wendepunkte bei x = µ ± σ
Je grösser σ desto breiter f (x)
donat.adams@fhnw.ch
wst
86/119
wst
Normalverteilung
Für Normalverteilung gilt
(x−µ)2
R∞
E(X ) = √ 1 2 −∞ xe − 2σ2 dx = µ
2πσ
Var(X ) =
√ 1
2πσ 2
R∞
2 −
−∞ x e
(x−µ)2
2σ 2
dx = σ 2
“Die Parameter der Normalverteilung lassen sich damit leicht
deuten: µ ist der Erwartungswert der Zufallsgrösse X und σ 2 die
Varianz.”
donat.adams@fhnw.ch
wst
87/119
wst
Normalverteilung
Transformation auf die standardisierte Normalverteilung
Führen sie die Transformation z = t−µ
σ für das Integral aus und
drücken sie den Wert mit der standardisierte Normalverteilung aus:
Z x2
(t−µ)2
1
P(x1 ≤ X ≤ x2 ) = √
e − 2σ2 dt
2πσ 2 x1
Wir erhalten dt = dz · σ und also
P(x1 ≤ X ≤ x2 ) =
√
1
Z
x2 −µ
σ
−z 2
2
· σ · dz
2πσ 2 x1σ−µ
x2 − µ
x1 − µ
= Φ(
, 0, 1) − Φ(
, 0, 1)
σ
σ
donat.adams@fhnw.ch
e
wst
88/119
wst
Normalverteilung
Standardisierte Normalverteilung
Drücke P mit Φ(z, 0, 1) aus.
x2 − µ
x2 − µ
, 0, 1) − Φ(−∞, 0, 1) = Φ(
, 0, 1)
σ
σ
x1 − µ
x1 − µ
P(x1 ≤ X ) = Φ(∞, 0, 1) − Φ(
, 0, 1) = 1 − Φ(
, 0, 1)
σ
σ
P(X ≤ x2 ) = Φ(
φ(x,μ, σ2 )
φ(x,μ, σ2 )
φ(x,μ, σ2 )
ϕ(x,μ, σ2)=P(X≤x2)
x2
donat.adams@fhnw.ch
P (x1 ≤ X)
x
x1
P (x1 ≤ X ≤ x2 )
x
x1
wst
x2
x
89/119
wst
Normalverteilung
Theorem ( Grenzwertsatz von de Moivre und Laplace)
Eine binomialverteilte Zufallsgrösse X mit Erwartungswert
E (X ) = np und Varianz Var (X ) = np(1 − p) ist näherungsweise
normalverteilt mit den Parametern µ = n · p und σ 2 = n · p · (1 − p)
Gültigkeit
Annäherung nur zulässig für
n · p · (1 − p) > 9
donat.adams@fhnw.ch
wst
90/119
wst
Normalverteilung
Näherung der Binomialverteilung
= x)
0.15
P (X = x)
p=q=0.5
n=50
p=0.75, q=0.25
n=50
0.15
0.10
0.10
0.05
0.05
5
10
15
20
25
30
35
40
45
50
x
5
10
15
20
25
30
35
40
45
50
x
Ist die Näherung durch die Normalverteilung zulässig?
n · p · (1 − p) = 12.5 > 9
n · p · (1 − p) = 9.375 > 9
donat.adams@fhnw.ch
wst
91/119
wst
Statitische Tests
Werden Sechsen bevorzugt gewürfelt?
12000 Würfe, x = 2107 Sechsen.
1
Nullhypothese H0 , und Alternativhypothese H1
2
Näherung durch Normalverteilung?
3
Darstellung mit x, Darstellung mit z, (vorausgesetzt H0 )
4
Statistischer Schluss (Signifikanzniveau α = 0.01).
5
Irrtumswahrscheinlichkeit
H0 : p(X = 6) = 1/6
H1 : p(X = 6) > 1/6
Einseitiger Test (>)
n · p · (1 − p) = 1666.6 > 9
Näherung mit Binomialverteilung zulässig
donat.adams@fhnw.ch
wst
92/119
wst
Statitische Tests
Werden Sechsen bevorzugt gewürfelt? (forts.)
12000 Würfe, x = 2107 Sechsen. Näherung mit Binomialverteilung:
µ = n · p = 2000, σ 2 = n · p(1 − p) = 1666.6
Annahmebereich für H0 auslesen aus Tabelle T.2:
z(P = 0.99) = 2.326
x = 2107 “übersetzen” in z:
z=
2107 − 2000
√
= 2.621
1666.6
Liegt ausserhalb Annahmebereich ⇒ H0 verwerfen.
Irrtumswahrscheinlichkeit:
P(X ≥ 2107) = 1 − Φ(2.621, 0, 1) = 0.0044
donat.adams@fhnw.ch
wst
93/119
wst
Statitische Tests
Werden Sechsen bevorzugt gewürfelt? (forts.)
φ
Annahmebereich
1%
x
μ = 2000
x=2107
φ
1%
μ=0
donat.adams@fhnw.ch
z
z=2.326
z=2.621
wst
94/119
wst
Statitische Tests
Weniger/mehr Halbtax-Abos?
2016: 75%
2017: 270 von 350 Befragte
1
Nullhypothese H0 , und Alternativhypothese H1
2
Näherung durch Normalverteilung?
3
Darstellung mit x, Darstellung mit z, (vorausgesetzt H0 )
4
Statistischer Schluss (Signifikanzniveau α = 0.1).
H0 : p(X = HA) = 0.75
H1 : p(X = HA) 6= 0.75
Zweiseitiger Test (6=)
n · p · (1 − p) = 218.75 > 9
Näherung mit Binomialverteilung zulässig
donat.adams@fhnw.ch
wst
95/119
wst
Statitische Tests
Weniger/mehr Halbtax-Abos? (forts.)
2016: 75%
2017: 270 von 350 Befragte Näherung mit Binomialverteilung:
µ = n · p = 262.5, σ 2 = n · p(1 − p) = 218.75
Annahmebereich für H0 auslesen aus Tabelle T.2 (α, symmetrisch
verteilen):
z(P = 0.95) = 1.645
x = 270 “übersetzen” in z:
z=
270 − 262.5
√
= 0.92582
218.75
Liegt innerhalb Annahmebereich ⇒ H0 annehmen.
donat.adams@fhnw.ch
wst
96/119
wst
Statitische Tests
Weniger/mehr Halbtax-Abos? (forts.)
φ
0.5 %
0.5 %
x
μ = 262.5
x= 270
φ
0.5 %
0.5 %
z1= -1.645 μ = 0
z2= 1.645
z= 0.92582
donat.adams@fhnw.ch
wst
z
97/119
wst
Statitische Tests
Weniger/mehr Halbtax-Abos? (forts.)
σ 2 = 218.75, µ = 262.5
z1 = −1.645, z2 = 1.645
Annahmebereich ausgedrück in x
x1 = z1 · σ + µ = 250, x2 = z2 · σ + µ = 276,
donat.adams@fhnw.ch
wst
98/119
wst
Statitische Tests
Stichproben aus normalverteilten Grundgesamtheit
P
geschätzer Mittelwert x̄ = N1 N
i=1 xi
1 PN
2
geschätze Varianz s = N−1 i=1 (xi − x̄)2
√
N
Testgrösse t = x̄−µ
s
Testgrösse ist verteilt nach Student t-Verteilung mit n = N − 1
Freiheitsgraden.
fn (t)
1 −α
α
2
α
2
tn, α2 = −tn,1− α2
Ablehnungsbereich
donat.adams@fhnw.ch
tn,1− α2
Annahmebereich
t
Ablehnungsbereich
wst
99/119
wst
Statitische Tests
Stichprobe N = 10, Student-t-Verteilung
5 −5 7 4 15 −7 5 10 18 16
Aus Grundgesamtheit mit µ =P0? Signifikanzniveau α = 0.05.
geschätzer Mittelwert x̄ = N1 N
i=1 xi = 6.80
1 PN
2
geschätze Varianz s = N−1 i=1 (xi − x̄)2 = 70.18
√
Testgrösse t = x̄−µ
N = 2.567
s
Krititsche Grösse aus T.3 auslesen (n = N − 1 = 9, zweiseitig: 0.05
symmetrisch verteilen):
t9;0.975 = 2.262
Schluss: Abweichung ist grösser als kritische Grösse, d.h.
Stichprobe hat µ 6= 0
donat.adams@fhnw.ch
wst
100/119
wst
Allgemeine Regression
Repetition LinAlg
Repetition LinAlg
Matrix-Multiplikation, Transponierte
Lineares Gleichungssystem geschrieben als erweiterte
Koeffizienten-Matrix
Lineares Gleichungssystem (LGS) lösen mit Gauss-Elimination
LGS lösen mit Cramerschen-Regel
Linalg mit Matlab
Matlab Funktionen plotten
donat.adams@fhnw.ch
wst
101/119
wst
Allgemeine Regression
Repetition LinAlg
Matrix-Multiplikation, berechnen Sie die Matrix-Produkte (falls
möglich)
2 −1
M = −3 4 ,
6 −5
40 50 32
N=
,
39 64 19
0 3 0
P=
1 0 5
N M, P M| ; M M, P N|
122 0
NM=
0 122
150 192
|
PN =
200 134
donat.adams@fhnw.ch
wst
102/119
wst
Allgemeine Regression
Repetition LinAlg
Lösungen Sie die linearen Gleichungssysteme mit dem
Gauss-Verfahren
2x − y
−3x + y
= 2
= 1
Schreibe das LGS mit einer erweiterten Koeffizienten-Matrix,
eliminiere und setze von unten nach oben ein.
x
2
=
y
1
donat.adams@fhnw.ch
wst
103/119
wst
Allgemeine Regression
Repetition LinAlg
Lösungen Sie die linearen Gleichungssysteme mit der Cramerschen
Regel
2x − y = 2
−3x + y = 1
x
2
=
y
1
donat.adams@fhnw.ch
wst
104/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression
f (x) = a1 · f1 (x) + a2 · f2 (x) soll möglichst nahe durch die
gemessenen Punkte verlaufen.
x2 x3 x1
y1 ,
y2 ,
y3
Stellen sie das überbestimmte Gleichungssystem auf.
bei
bei
bei
x1 :
x2 :
x3 :
a1 · f1 (x1 )
a1 · f1 (x2 )
a1 · f1 (x3 )
+
+
+
a2 · f2 (x1 )
a2 · f2 (x2 )
a2 · f2 (x3 )
=
=
=
y1
y2
y3
Bei x1 : quadrieren Sie den Abstand von f (x1 ) von y1 . Fahren Sie
mit x2 und x3 fort und addieren Sie die Abstandsquadrate.
[a1 · f1 (x1 ) + a2 · f2 (x1 ) − y1 ]2 + [a1 · f1 (x2 ) + a2 · f2 (x2 ) − y2 ]2
+ [a1 · f1 (x3 ) + a2 · f2 (x3 ) − y3 ]2
donat.adams@fhnw.ch
wst
105/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression (forts.)
Wir benennen den letzten Ausdruck mit S. Leiten Sie S nach a1 ab
∂S
∂a1
=
2 · [a1 · f1 (x1 ) + a2 · f2 (x1 ) − y1 ] · f1 (x1 )
+ 2 · [a1 · f1 (x2 ) + a2 · f2 (x2 ) − y2 ] · f1 (x2 )
+ 2 · [a1 · f1 (x3 ) + a2 · f2 (x3 ) − y3 ] · f1 (x3 )
Leiten Sie S nach a2 ab
∂S
∂a2
=
2 · [a1 · f1 (x1 ) + a2 · f2 (x1 ) − y1 ] · f2 (x1 )
+ 2 · [a1 · f1 (x2 ) + a2 · f2 (x2 ) − y2 ] · f2 (x2 )
+ 2 · [a1 · f1 (x3 ) + a2 · f2 (x3 ) − y3 ] · f2 (x3 )
donat.adams@fhnw.ch
wst
106/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression (forts.)
∂S
∂S
= 0 und ∂a
= 0.
Da wir S minimieren wollen, setzen wir ∂a
1
2
Multiplizieren Sie die beiden vorherigen Ausdrücke aus, teilen Sie
durch 2 und stellen Sie das lineare Gleichungssystem auf
(Koeffizienten a1 und a2 links und Inhomogenität rechts):
+
+
a1 · f1 (x1 ) · f1 (x1 ) + a2 · f2 (x1 ) · f1 (x1 ) − y1 · f1 (x1 )
a1 · f1 (x2 ) · f1 (x2 ) + a2 · f2 (x2 ) · f1 (x2 ) − y2 · f1 (x2 )
a1 · f1 (x3 ) · f1 (x3 ) + a2 · f2 (x3 ) · f1 (x3 ) − y3 · f1 (x3 )
also
+
a1 · [f1 (x1 ) · f1 (x1 ) + f1 (x2 ) · f1 (x2 ) + f1 (x3 ) · f1 (x3 )]
a2 · [f2 (x1 ) · f1 (x1 ) + f2 (x2 ) · f1 (x2 ) + f2 (x3 ) · f1 (x3 )]
= y1 · f1 (x1 ) + y2 · f1 (x2 ) + y3 · f1 (x3 )
und genau gleich
+
a1 · [f1 (x1 ) · f2 (x1 ) + f1 (x2 ) · f2 (x2 ) + f1 (x3 ) · f2 (x3 )]
a2 · [f2 (x1 ) · f2 (x1 ) + f2 (x2 ) · f2 (x2 ) + f2 (x3 ) · f2 (x3 )]
donat.adams@fhnw.ch
= y1 · f2 (x1 ) + y2 · f2 (x2 ) + y3 · f2 (x3 )
wst
107/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression (forts.)
Schreiben Sie das lineare Gleichungssystem mit einer
Koeffizientenmatrix
f1 (x1 ) f1 (x1 ) + f1 (x2 ) f1 (x2 ) + f1 (x3 ) f1 (x3 ) f2 (x1 ) f1 (x1 ) + f2 (x2 ) f1 (x2 ) + f2 (x3 ) f1 (x3 ) a1 f1 (x1 ) f2 (x1 ) + f1 (x2 ) f2 (x2 ) + f1 (x3 ) f2 (x3 )
f2 (x1 )f2 (x1 ) + f2 (x2 ) f2 (x2 ) + f2 (x3 ) f2 (x3 )
a2
y1 f1 (x1 ) + y2 f1 (x2 ) + y3 f1 (x3 )
=
y1 f2 (x1 ) + y2 f2 (x2 ) + y3 f2 (x3 )
P
Verallgemeinern Sie das Resultat für f (x) = m
i=1 ai · fi (x) und die
Punkte P1 (x1 , y1 ), . . . , Pn (xn , yn )
Pn
Pn
" Pn
#
a1
i=1 f1 (xi ) f1 (xi ) . . .
i=1 fm (xi ) f1 (xi )
i=1 yi f1 (xi )
..
..
..
.
. = P ..
.
.
n
Pn
Pn
i=1 yi fm (xi )
am
i=1 fm (xi ) fm (xi )
i=1 f1 (xi ) fm (xi ) . . .
donat.adams@fhnw.ch
wst
108/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression (forts.)
Multiplizieren Sie die die Transponierte der Koeffizientenmatrix F|
mit dem Messvektor ~y
x1 :
x2 :
x3 :
f1 (x) f2 (x)
f1 (x1 ) f2 (x1 )
f1 (x2 ) f2 (x2 )
f1 (x3 ) f2 (x3 )
y1
~y = y2
y3
y1 · f1 (x1 ) + y2 · f1 (x2 ) + y3 · f1 (x3 )
F ~y =
y1 · f2 (x1 ) + y2 · f2 (x2 ) + y3 · f2 (x3 )
|
donat.adams@fhnw.ch
wst
109/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression (forts.)
Multiplizieren Sie die die Transponierte der Koeffizientenmatrix F|
mit der Koeffizientenmatrix F
f1 (x1 ) f2 (x1 )
F = f1 (x2 ) f2 (x2 )
f1 (x3 ) f2 (x3 )
F| F =
f1 (x1 ) · f1 (x1 ) + f1 (x2 ) · f1 (x2 ) + f1 (x3 ) · f1 (x3 )
f1 (x1 ) · f2 (x1 ) + f1 (x2 ) · f2 (x2 ) + f1 (x3 ) · f2 (x3 )
donat.adams@fhnw.ch
f2 (x1 ) · f1 (x1 ) + f2 (x2 ) · f1 (x2 ) + f2 (x3 ) · f1 (x3 )
f2 (x1 )f2 (x1 ) + f2 (x2 ) · f2 (x2 ) + f2 (x3 ) · f2 (x3 )
wst
110/119
wst
Korrelation
Theorem (Korrelationskoeffizient)
Der Korrelationskoeffizient zwischen den Datensätzen ~x und ~y ist
rxy = ~x 00 ~y 00 .
Zu seiner Berechnung wird ein Datensatz mit Erwartunswert 0
erzeugt:
~x 0 = ~x − µx und ~y 0 = ~y − µy .
Und dieser Datensatz wird normiert:
~x 00 =
~y 0
~x 0
00
~
und
y
=
.
|~x 0 |
|~y 0 |
Hinweise
Negative Korrelation: rxy < 0, wenn x wächst, nimmt y ab
Positive Korrelation: rxy > 0, wenn x wächst, nimmt auch y zu
donat.adams@fhnw.ch
wst
111/119
wst
Korrelation
Theorem (Signifikante Korrelation)
Die Korrelation zwischen den Datensätzen ~x und ~y ist signifikant ,
falls die Testgrösse
√
rxy · n − 2
.
treg = p
1 − (rxy )2
im Betrag grösser ist als die kritische Grösse
tn−2;1−α/2
der Student-t-Verteilung.
Korrelation 6= Kausalität
Korrelation entsteht nur durch einen kausalen Zusammenhang. Oft
besteht eine Korrelation durch einen Zusammenhang mit einer
versteckten dritten Grösse.
donat.adams@fhnw.ch
wst
112/119
wst
Fehlerfortpflanzung
Theorem (Fehlerfortpflanzung)
Fehler bei funktionaler Abhängigkeit
∂F (a) F (a) ⇒ ∆F =
· ∆a
∂a a=a
Mehrere Veränderliche F (a, b)
s
2 2 ∂F (b)
∂F (a)
∆F =
· ∆a +
· ∆b ∂a
∂b
a=a; b=b
donat.adams@fhnw.ch
wst
113/119
wst
Fehlerfortpflanzung
Theorem (Fehlerfortpflanzung (forts.))
Fehler bei Summe/Differenz S(a, b) = a + b oder
S(a, b) = a − b
q
|∆S| = (∆a)2 + (∆b)2
Relativer Fehler bei Produkt/Quotient P(a, b) = aα · b β und
α, β ∈ Z
s
∆P ∆a 2
∆b 2
=
α
+ β
P a
b
donat.adams@fhnw.ch
wst
114/119
wst
Fehlerfortpflanzung
Oberfläche eines Zylinders
r = 10.5 ± 0.2 cm; r = 15.5 ± 0.3 cm
Berechne Standardabweichung der Oberfläche A = 2πr 2 + 2πr · h
∂A
∂A
= 4πr + 2πh;
= 2πr
∂r
∂h
Mittelwerte einsetzen:
∂A
∂A
= 4πr + 2πh = 226.19 cm;
= 2πr = 65.97 cm
∂r
∂h
∆A =
q
(226.19 cm · 0.2 cm)2 + (65.97 cm · 0.3 cm)2
= 49 cm2
donat.adams@fhnw.ch
wst
115/119
wst
Fehlerfortpflanzung
Federkonstante c = 4π 2 Tm2
Berechne Standardabweichung der Federkonstante
m = 200 ± 0.68 g; T = 2, 00 ± 0.0105 s
∂c
∂m
∂c
∂T
m
= 9.8696 s−2
T2
m
= −8π 2 · 3 = −1973.9 g/s3
T
q
= 4π 2 ·
∆c =
(9.8696 s−2 · 0.68 g)2 + (−1973.9 g/s3 · 0.0105 s)2
= 21.79 g/s2 = 0.022 N/m
Federkonstante:
c = 1.974 ± 0.022 N/m
donat.adams@fhnw.ch
wst
116/119
wst
Fehlerfortpflanzung
Federkonstante (kurzer Weg)
c = 4π 2
m
T2
m = 200 ± 0.68 g; T = 2, 00 ± 0.0105 s
Berechne Standardabweichung der Federkonstante
q
∆c = c · (1 · 0.68/200)2 + (−2 · 0.0105/2)2
= 0.022
Federkonstante:
c = 1.974 ± 0.022 N/m
donat.adams@fhnw.ch
wst
117/119
wst
Fehlerfortpflanzung
Reihenschaltung Widerstände
R1 = 100 ± 2Ω; R2 = 150 ± 2Ω; R3 = 50 ± 1Ω
Gesamtwiderstand?
Rtot = 100 + 150 + 50 = 300
Fehler:
∆Rtot =
donat.adams@fhnw.ch
q
(2Ω)2 + (2Ω)2 + (1Ω)2 = 3 Ω
Rtot = 300 ± 3 Ω
wst
118/119
wst
Fehlerfortpflanzung
Fehler der Regressions-Koeffizienten
Theorem (Fehler der Regressions-Koeffizienten)
Für den Datensatz (xi , yi ) mit n Punkten und den linearen
Regressions-Koeffizienten a und b (y = a · x + b und
i = a · xi − b), sind die Standard-Fehler der
Regressions-Koeffizienten
v
s
Pn
u n
1
2
u1 X
·
(
)
i=1 i
n−2
t
P
;
s
=
s
(xi )2
sa =
a
b
n
2
n
i=1 (xi − x)
i=1
und die Konfidez-Intervalle zur Irrtums-Wahrscheinlichkeit α und
dem Quantil tn−2; 1−α/2 sind
a ∈ [a − sa · tn−2; 1−α/2 , a + sa · tn−2; 1−α/2 ]
b ∈ [b − sb · tn−2; 1−α/2 , b + sb · tn−2; 1−α/2 ]
donat.adams@fhnw.ch
wst
119/119