Datenanalyse
(PHY231)
Herbstsemester 2014
Olaf Steinkamp
Physik-Institut der Universität Zürich
Winterthurerstrasse 190
CH-8057 Zürich
olafs@physik.uzh.ch
Büro: 36-J-22
Tel.: 044-635.57.63
Vorlesungsprogramm
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
●
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Korrelation, Kovarianzmatrix
●
Fehlerfortpflanzungsgesetz
●
Wahrscheinlichkeitsverteilungen I
- Verteilungen einer Variablen
- zentraler Grenzwertsatz
●
Monte-Carlo Methode
●
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
●
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
●
Interpretation von Messergebnissen
Beispielprogramme im Verzeichnis
/disk/puma/da/vorl/vert
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse
Verteilungen (2/36)
PHY231 - HS 14
O.Steinkamp
Einfaches Beispiel: Kopf oder Zahl
Werfe eine Münze
●
gleiche Wahrscheinlichkeit für Ergebnis Kopf und Zahl:
P(K) = P(Z) = 1/2
Werfe gleichzeitig vier Münzen
●
Wahrscheinlichkeit für ein bestimmtes Ergebnis (zB. ZKZZ) = (1/2)4 = 1/16
●
Wahrscheinlichkeit P(k) für k × Kopf:
●
●
k=4: 1 Möglichkeit (KKKK)
⇒ P(4) = 1/16
●
k=3: 4 Möglichkeiten (KKKZ,KKZK,KZKK,ZKKK)
⇒ P(3) = 4/16
●
k=2: 6 Möglichkeiten (KKZZ,KZKZ,KZZK,ZKKZ,ZKZK,ZZKK)
⇒ P(2) = 6/16
●
k=1: 4 Möglichkeiten (KZZZ,ZKZZ,ZZKZ,ZZZK)
⇒ P(1) = 4/16
●
k=0: 1 Möglichkeit (ZZZZ)
⇒ P(0) = 1/16
Wahrscheinlichkeit dafür, dass “irgendetwas” passiert:
4
∑k=0 P(k) = 16 /16
P(k) Wahrscheinlichkeitsverteilung einer diskreten Zufallsvariablen k
Datenanalyse
PHY231 - HS 14
Verteilungen (3/36)
O.Steinkamp
Diskrete Wahrscheinlichkeitsverteilungen
Definitionen:
●
Wahrscheinlichkeit muss normiert sein
∑ P(k)
= 1
k
●
Erwartungswert der Zufallsvariablen k und einer Funktion f(k)
〈k 〉 =
∑ k⋅P(k)
k
●
Varianz der Zufallsvariablen k und einer Funktion f(k)
2
2
V(k) = 〈k 〉 − 〈k〉 =
2
2
(∑ k ⋅P(k)) − (∑ k⋅P(k))
k
●
k
genauso für eine Funktion f(k) der Zufallsvariablen
〈 f(k)〉 =
Datenanalyse
PHY231 - HS 14
∑ f(k)⋅P(k)
;
V( f) = 〈 f2 〉 − 〈 f〉 2
k
Verteilungen (4/36)
O.Steinkamp
Gesetz grosser Zahlen
Beispiel: werfe N × 4 Münzen
(Monte-Carlo Simulation)
k = 0
k = 1
k = 2
k = 3
k = 4
N = 16
erwarte
beobachte
1
1
4
7
6
2
4
5
1
1
N = 160
erwarte
beobachte
10
8
40
48
60
46
40
48
10
10
N = 1600
erwarte
beobachte
100
84
400
438
600
584
400
378
100
116
N = 16000
erwarte
beobachte
1000
1021
4000
4004
6000
5977
4000
3960
1000
1038
Datenanalyse
PHY231 - HS 14
Verteilungen (5/36)
O.Steinkamp
Einschub: Gesetz grosser Zahlen
Die relative Häufigkeit eines Zufallsergebnisses nähert sich der
theoretischen Wahrscheinlichkeit dieses Ergebnisses immer mehr an,
je häufiger das Zufallsexperiment durchgeführt wird.
Mittelwert und Erwartungswert:
●
●
●
Erwartungswert der Wahrscheinlichkeitsverteilung:
Mittelwert der gemessenen Häufigkeitsverteilung:
Gesetz grosser Zahlen:
k → 〈k〉
N→∞
●
〈k〉 = ∑k k ⋅P k
k=
1
N
N
⋅∑i=1 ki
(N = Anzahl Wiederholungen)
Varianzen der Häufigkeitsverteilung und der Wahrscheinlichkeitsverteilung
k2 − k 2 →
N→∞
Datenanalyse
PHY231 - HS 14
〈k2 〉 − 〈k 〉2
(N = Anzahl Wiederholungen)
Verteilungen (6/36)
O.Steinkamp
Binomialverteilung
Experiment mit zwei möglichen Ergebnissen
(Beispiel: Kopf oder Zahl)
●
konstante Wahrscheinlichkeit p für “positives” Ergebnis
●
konstante Wahrscheinlichkeit (1–p) für “negatives” Ergebnis
warum ?
Führe das Experiment n-mal aus (“n Versuche”)
●
Wahrscheinlichkeit für insgesamt k “positive” Ergebnisse aus n Versuchen
P (k ∣ p ,n) =
●
()
p k (1−p)n −k
mit
n
k
()
=
n!
k ! (n−k)!
Normierung:
n
∑
P(k ∣ p ,n) =
k=0
●
n
k
n
∑(
k=0
n
k
)
k
n−k
p (1−p)
Erwartungswert:
●
n
= ( p+ (1−p) ) = 1 = 1
Varianz:
〈k〉 = n ⋅p
Datenanalyse
PHY231 - HS 14
n
Verteilungen (7/36)
V (k) = n ⋅p ⋅(1−p)
O.Steinkamp
Beweise: Erwartungswert und Varianz
der Binomialverteilung
Erwartungswert:
n
∑
〈k 〉 =
k⋅
k=0
n
= n ⋅p⋅ ∑
k=1
n!
k!(n−k )!
k
(n−1)!
(k−1)!(n−k)!
n'
(n ')!
= n ⋅p⋅ ∑
n−k
p (1−p)
p
k−1
n−k
(1−p)
∣
k ' = k−1
n ' = n−1
∣
k ' = k−2
n ' = n−2
pk ' (1−p)n'−k ' = n ⋅p
(k ')!(n '−k ')!
⏟
k '=0
= (p+(1−p))n ' = 1
Varianz:
n
n!
k
n−k
p (1−p)
∑ k⋅(k−1)⋅ k!(n−k)!
〈k⋅(k−1)〉 =
k=0
2
n'
= n⋅(n−1)⋅p ⋅ ∑
(n')!
k'
n '−k '
p (1−p)
(k ')!(n '−k ')!
⏟
k '=0
= (p+(1−p))n ' = 1
⇒
2
2
V (k) = 〈k 〉−〈k 〉 =
2
〈k −k〉
+ 〈k 〉 − 〈k 〉
2
= n ⋅(n−1)⋅p2 + n ⋅p − (n ⋅p)2 = n ⋅p⋅(1−p)
Datenanalyse
PHY231 - HS 14
Verteilungen (8/36)
O.Steinkamp
Beispiele Binomialverteilung
Datenanalyse
PHY231 - HS 14
Verteilungen (9/36)
O.Steinkamp
Beispiel Effizienz einer Funkenkammer
Messe Spuren geladener Elementarteilchen (z.B. kosmische Strahlung)
●
parallele Metallplatten in Gasvolumen, dazwischen
elektrische Spannung kurz unterhalb Durchbruchspannung
●
geladenes Teilchen ionisiert Gas und löst Funken aus
●
Annahmen für Rechenbeispiel:
●
●
95% Wahrscheinlichkeit, dass in einer Detektorlage ein Funken ausgelöst wird
●
benötige Funken in mindestens drei Detektorlagen um eine Spur nachzuweisen
Funkenkammer mit drei Detektorlagen: benötige 3 von 3 möglichen Treffern
3
P 3∣ 0.95 ,3 = 0.95 = 0.857
●
vier Detektorlagen: benötige 3 oder 4 von 4 möglichen Treffern
P 4 ∣ 0.95 , 4 P 3 ∣ 0.95 , 4 = 0.8150.171 = 0.986
●
fünf Detektorlagen: benötige 3, 4 oder 5 von 5 möglichen Treffern
P 5 ∣ 0.95 , 5 P 4 ∣ 0.95 , 5 P 3∣ 0.95 , 5 = 0.7740.2040.021 = 0.999
Datenanalyse
PHY231 - HS 14
Verteilungen (10/36)
O.Steinkamp
Poissonverteilung
Näherung der Binomialverteilung für sehr große Anzahl Versuche n
●
Erwartungswert: μ = n·p => p = μ/n
μ
P(k∣ , n) =
n
●
μ
k! (n−k)! n
k
μ
( ) (1− n )
n−k
=
n!
1
μk
⋅ k ⋅ ⋅ 1− μ
(n−k )! n
k!
n
(
)
n−k
für n → ∞:
(
●
n!
1−
μ
n
n−k
)
→ 1−
(
μ
n
n
)
→ e
−μ
und
n!
(n−k )!
→ n
k
⇒
P (k∣μ) =
μk
k!
⋅e −μ
benutze Poisson, wenn nur Erwartungswert μ bekannt ist, aber nicht n und p
●
Anzahl Kernzerfälle pro Zeitintervall in einer radioaktiven Quelle
●
Anzahl Studierende beim Mittagessen in der Mensa
●
Anzahl Druckfeller pro Folie einer Vorlesung
●
Anzahl Einträge in einem Histogramm
Datenanalyse
PHY231 - HS 14
Verteilungen (11/36)
Voraussetzungen:
n >> μ
p konstant
O.Steinkamp
●
Erwartungswert und Varianz
der Poissonverteilung
Erwartungswert
〈k 〉 = μ
vgl. Binomialverteilung:
〈k 〉 = n ⋅p
Varianz
V (k) = 〈k 2 〉 − 〈k〉 2 = μ
●
vgl. Binomialverteilung:
V (k) = n ⋅p ⋅(1−p)
n ≫ μ
Datenanalyse
PHY231 - HS 14
⇒
p ≪ 1 ⇒ (1−p) ≈ 1 ⇒ V (k) ≈ n ⋅p
Verteilungen (12/36)
O.Steinkamp
Beweise Poissonverteilung
●
Normierung
∞
∑
P(k∣μ) =
k=0
●
∑
k=0
μk
k!
e
= e
−μ
−μ
∞
∑
μk
k=0
k!
= e−μ e +μ = 1
Erwartungswert
∞
〈k 〉 = ∑ k ⋅
k=0
●
∞
μk
k!
e
−μ
=μe
−μ
∞
∑
k=1
μ k−1
(k −1)!
=μe
∞
−μ
∑
k '=0
μk'
(k ')!
= μ e −μ e +μ = μ
Varianz
∞
〈k (k−1)〉 = ∑ k (k−1)⋅
k=0
⇒
Datenanalyse
PHY231 - HS 14
μk
k!
e
−μ
2
=μ e
−μ
∞
∑
k=2
μ k−2
(k−2)!
= μ 2 e −μ e +μ = μ 2
〈k 2 〉−〈k〉 2 = 〈k 2−k〉 + 〈K〉−〈k 〉2 = μ 2 + μ − μ 2 = μ
Verteilungen (13/36)
O.Steinkamp
Beispiele Poissonverteilung
Poisson
Datenanalyse
PHY231 - HS 14
Binomial
Verteilungen (14/36)
Binomial
O.Steinkamp
Beispiel tödliche Pferdetritte
Klassiker, seit 1898 in vielen Statistik-Textbüchern:
●
●
beobachte über 20 Jahre 10 Regimenter der preussischen Kavalerie
●
registriere insgesamt 122 Todesfälle durch Pferdetritte
●
im Mittel 122 / (20·10) = 0.61 Todesfälle pro Regiment pro Jahr
aus Poissonverteilung mit Erwartungswert μ = 0.61
N(k) = 200 × P(k) = 200 ×
●
●
0.61k
k!
⋅e−0.61
beobachtete Häufigkeitsverteilung pro Regiment pro Jahr:
k
0
1
2
3
4
≥5
Poisson (μ=0.6)
108.7
66.3
20.2
4.1
0.63
0.07
beobachtet
109
65
22
3
1
0
Varianz der beobachteten Verteilung (Poisson: V(k) = μ)
2
2
V (k) = k − k =
Datenanalyse
PHY231 - HS 14
1
200
4
⋅ ∑ k 2⋅N(k) − 0.612 = 0.608
k=1
Verteilungen (15/36)
O.Steinkamp
Überlagerung zweier Poissonverteilungen
Beispiel: radioaktive Quelle mit zwei instabilen Isotopen A und B
●
●
erwarte im Mittel μA Zerfälle des Isotops A und μB Zerfälle des Isotops B
●
Anzahl Zerfälle kA des Isotops A poissonverteilt mit Erwartungswert μA
●
Anzahl Zerfälle kB des Isotops B poissonverteilt mit Erwartungswert μB
Wahrscheinlichkeitsverteilung für die gesamte Anzahl Zerfälle k = kA + kB
P (k) =
k
∑
kA=0
k
=
∑
P(k A ∣μ A ) ⋅ P((k−k A)∣μ B )
kA
(μ A )
kA !
kA=0
k
=
{
e
−μ A
k−kA
⋅
(μ B )
(k−k A )!
k!
e
−μ B
kA
μA
( kB = k - kA )
k−k A
μB
}
∑ k ! (k−k )! ⋅( μ + μ ) ⋅( μ + μ ) ⋅
k =0
⏟
μ
μ
=
+
(μ + μ μ + μ ) = 1
A
A
A
A
A
A
B
A
B
k!
⋅e
−(μ A + μ B )
k
B
B
A
(μ A + μ B )k
B
⇒ k = kA + kB poissonverteilt mit Erwartungswert μ = μA + μB
Datenanalyse
PHY231 - HS 14
Verteilungen (16/36)
O.Steinkamp
Kontinuierliche Wahrscheinlichkeitsverteilungen
Kontinuierliche Zufallsvariable x => Wahrscheinlichkeitsdichte p(x)
p(x) =
●
Wahrscheinlichkeit f ü r Wert zwischen x und x+dx
dx
Wahrscheinlichkeit für einen Wert x zwischen x1 und x2:
P (x 1 ≤ x ≤ x 2) =
●
f ür dx → 0
Normierung:
x2
∫ p( x) dx
x1
∞
P (−∞ ≤ x ≤ ∞) =
∫
p (x) dx = 1
−∞
●
Erwartungswert der Zufallsvariablen x und einer Funktion f(x):
〈x〉 =
∞
∫
x ⋅ p(x) dx
∞
〈f(x)〉 =
−∞
●
∫
f(x)⋅ p(x) dx
−∞
Varianz der Zufallsvariablen x und einer Funktion f(x):
V (x) = 〈 x 2 〉 − 〈 x 〉 2
Datenanalyse
PHY231 - HS 14
V( f) = 〈 f2 (x)〉 − 〈 f(x)〉 2
Verteilungen (17/36)
O.Steinkamp
Kumulative Verteilungsfunktion
Integral über die Wahrscheinlichkeitsdichte
P (x 0 ) =
x0
p (x) dx
∫
−∞
●
P(x0) gibt die Wahrscheinlichkeit an, dass x einen Wert < x 0 annimmt
●
Wahrscheinlichkeit, dass x einen Wert zwischen x 1 und x2 annimmt:
P( x 1 < x ≤ x 2 ) =
●
x=x2
∫
p(x) dx
⇔
x=x1
P(x 1 < x ≤ x 2 ) = P(x 2 ) − P(x 1 )
Beispiel Exponentialverteilung
P x2
P x1 x ≤ x 2
Datenanalyse
PHY231 - HS 14
P x1
Verteilungen (18/36)
O.Steinkamp
Exponentialverteilung
Wahrscheinlichkeitsdichte
p (x ∣ λ ) = λ ⋅e−λ⋅x
●
Erwartungswert
〈x〉 =
∞
∫
0
●
für x ≥ 0
1
x ⋅ λ ⋅e−λ⋅x dx = λ
Varianz
V (x) =
∞
∫
0
1 2
1
−λ⋅x
(x− λ ) ⋅λ ⋅e
dx = 2
λ
Kumulative Verteilungsfunktion
P x =
x
∫ ⋅e−⋅x ' dx '
= 1−e
−⋅x
0
Datenanalyse
PHY231 - HS 14
Verteilungen (19/36)
O.Steinkamp
Gaußverteilung
Wahrscheinlichkeitsdichte:
p x ∣ , =
●
−
1
2
2
⋅e
x− 2
2 2
Erwartungswert:
σ
∞
〈x〉 =
∫
x ⋅ p x ∣ , dx =
FWHM
−∞
●
Varianz:
∞
V x =
∫ x− 2 ⋅p x ∣ , dx
= 2
−∞
Full Width at Half Maximum (FWHM):
●
p(x) bei x = μ ± √ 2 ln 2⋅σ auf Hälfte des Wertes im Maximum abgefallen
⇒
Datenanalyse
PHY231 - HS 14
FWHM = 2 2 ln 2⋅ ≈ 2.355
Verteilungen (20/36)
O.Steinkamp
Beweise Gaußverteilung
Normierung
∞
∫
−∞
−x−2
1
2
2
e
2 2
1
dx =
−x'2
∞
2
⋅∫ e
2
2 2
dx ' =
−∞
1
2
2
⋅
2
= 1
2
Erwartungswert
∞
〈x 〉 =
∫
−∞
−x− 2
x
2
2
e
22
−x− 2
∞
dx =
∞
22
x−
−x−2
1
22
dx ⋅ ∫
e
dx
∫ 2 e
2
−∞
−∞
2
2
=0
=
=1
Varianz
∞
2
V x = 〈 x− 〉 =
∫
−∞
x− 2
2
2
−x− 2
e
22
dx =
1
2
−x '2
∞
2
⋅∫ x ' e
2
22
dx = 2
−∞
Dabei verwendete bestimmte Integrale
∞
−a x2
∫ e
dx =
−∞
Datenanalyse
PHY231 - HS 14
a
∞
∫ x
2n−1
−a x
e
2
dx = 0
−∞
Verteilungen (21/36)
∞
2
−a x 2
∫ x e
−∞
dx =
1
2a
⋅
a
O.Steinkamp
“Errorfunction”
Kumulative Verteilungsfunktion der Gaußverteilung
●
unbestimmtes Integral der Gaußfunktion analytisch nicht lösbar
●
●
berechne kumulative Verteilungsfunktion durch numerische Integration
Python: stats.norm.cdf
P (x) =
●
1
2
(
1 + erf
(benötigt from scipy import stats)
x−μ
(√ ) )
2σ
mit
erf(x) =
2
√π
x
−x '2
⋅∫ e
dx '
0
wichtige Werte zum merken:
P (|x - μ| ≤ 1σ)
= 68.27 % (≈ 2/3)
P (|x - μ| ≤ 2σ)
= 95.45 %
P (|x - μ| ≤ 3σ)
= 99.73 %
P (|x - μ| ≤ 1.645σ) = 90 %
P (|x - μ| ≤ 1.960σ) = 95 %
P (|x - μ| ≤ 2.576σ) = 99 %
Datenanalyse
PHY231 - HS 14
Verteilungen (22/36)
O.Steinkamp
“Errorfunction”
Kumulative Verteilungsfunktion der Gaußverteilung
●
unbestimmtes Integral der Gaußfunktion analytisch nicht lösbar
●
berechne kumulative Verteilungsfunktion durch numerische Integration
P (x) =
1
2
x−μ
( 1 + erf ( √ ) )
2σ
●
Python: stats.norm.cdf
●
wichtige Werte zum merken:
P (μ-σ ≤ x ≤ μ+σ)
mit
erf(x) =
2
√π
x
−x '
⋅∫ e
2
dx '
0
(benötigt from scipy import stats)
= 68.27 % (≈ 2/3)
P (μ-2σ ≤ x ≤ μ+2σ) = 95.45 %
P (μ-3σ ≤ x ≤ μ+3σ) = 99.73 %
P (μ-1.645σ ≤ x ≤ μ+1.645σ)
= 90 %
P (μ-1.960σ ≤ x ≤ μ+1.960σ)
= 95 %
P (μ-2.576σ ≤ x ≤ μ+2.576σ)
= 99 %
Datenanalyse
PHY231 - HS 14
Verteilungen (23/36)
O.Steinkamp
Exponential- und Poissonverteilung
Variable t exponentialverteilt Anzahl Ereignisse in ∆t Poissonverteilt
●
Beipiel: radioaktives Präparat mit mittlerer Lebensdauer
1
●
−t / τ
Zerfallszeiten sind exponentialverteilt: p( t) → τ ⋅e
●
Anzahl Zerfälle in Zeitintervall t poissonverteilt mit Erwartungswert ·t:
Δt
(Δ t / τ)k −(Δ t / τ )
P(k ∣ τ , Δ t) = P(k ∣ τ ) =
e
k!
●
Beweis (“rückwärts”):
●
Wahrscheinlichkeit p(t) dt für genau einen Zerfall im Intervall [t,t+dt]
= kein Zerfall im Intervall [0,t] und ein Zerfall im Intervall [t,t+dt]
●
Annahme: Anzahl Ereignisse in t poissonverteilt mit Erwartungswert ·t
t
dt
dt
p( t) dt = P( 0 ∣ τ ) × P(1∣ τ ) = e−t / τ × τ ⋅e−dt / τ
●
für dt → 0
e−dt / τ → 1
Datenanalyse
PHY231 - HS 14
⇒
1
p( t) dt → τ ⋅e−t/ τ dt
Verteilungen (24/36)
⇒
1
p( t) → τ ⋅e−t / τ
O.Steinkamp
Ausflug II: Totzeit eines Detektors
Nach Nachweis eines Ereignisses ist ein Detektor für Zeitspanne ∆t
nicht in der Lage, weitere Ereignisse nachzuweisen (Detektor “tot”)
●
Δt bestimmt z.B. durch Signalerzeugung im Detektor, Ausleseelektronik
●
Ereignisse während der Totzeit werden nicht nachgewiesen und
●
entweder: erzeugen selbst keine Totzeit (“nicht paralysierbare Totzeit”)
●
oder: erzeugen trotzdem auch wieder Totzeit (“paralysierbare Totzeit”)
Beispiel (Simulation):
∆t
●
Totzeit, nicht paralysierbar
●
Ereignisse
●
Totzeit, paralysierbar
∆t
Datenanalyse
PHY231 - HS 14
Verteilungen (25/36)
O.Steinkamp
Ausflug II: Totzeit eines Detektors
Nicht paralysierbare Totzeit
●
●
messe N Ereignisse in Messzeit t
gemessene Ereignisrate:
R = N / t
Paralysierbare Totzeit
●
tatsächliche Ereignisrate sei r
●
ein Ereignis wird nur nachgewiesen,
wenn im Zeitintervall ∆t vorher kein
●
N Ereignisse erzeugen Totzeit N·Δt
●
effektive Messzeit
anderes Ereignis stattgefunden hat
●
Wahrscheinlichkeit dafür:
t eff = t − N⋅ t = t ⋅1−R ⋅ t
●
tatsächliche Ereignisrate r:
P 0 ∣ r⋅ t = e−r⋅ t
●
r = N / t eff
●
⇔
●
R = r ⋅e
R ⋅t = r ⋅t eff ⇒ R = r ⋅1 − R ⋅ t
R =
für r → ∞
Datenanalyse
PHY231 - HS 14
r
1 r ⋅ t
gemessene Ereignisrate:
●
−r⋅ t
für r → ∞
R 0
R 1/ t
Verteilungen (26/36)
O.Steinkamp
Ausflug II: Totzeit eines Detektors
Gemessene Ereignisrate als Funktion der tatsächlichen Ereignisrate
●
Symbole: beim SINDRUM-II Experiment am PSI gemessen
●
Kurven: nach obigen Formeln berechnet (mit Totzeit ∆t = 1 ms)
keine Totzeit
nicht paralysierbare Totzeit
paralysierbare Totzeit
R → 1/∆t
R→0
Datenanalyse
PHY231 - HS 14
Verteilungen (27/36)
O.Steinkamp
Weitere wichtige Verteilungen
Gleichverteilung
p x =
{
1
b−a
●
Erwartungswert:
●
Varianz:
0
f ü r a≤x≤b
sonst
〈 x 〉 = a b / 2
V x = b − a2 / 12
Breit-Wigner Verteilung (Resonanz-Kurve)
px ∣M, =
mit gleichem FWHM
1
/2
⋅
x−M2 /22
●
Erwartungswert: 〈 x 〉 = M
●
Varianz nicht definiert (∫ x p(x) dx divergiert)
●
Full Width at Half Maximum: FWHM =
2
Datenanalyse
PHY231 - HS 14
Gaußverteilung
Verteilungen (28/36)
FWHM
O.Steinkamp
Python: from scipy import stats
Für kontinuierliche Verteilungen (Beispiel Exponentialverteilung):
●
stats.expon.pdf
- Wahrscheinlichkeitsdichte
●
stats.expon.cdf
- kumulative Verteilungsfunktion
●
stats.expon.ppf
- inverse kumulative Verteilungsfunktion
Für diskrete Verteilungen (Beispiel Poissonverteilung):
●
stats.poisson.pmf - Wahrscheinlichkeit
●
stats.poisson.cdf / stats.poisson.ppf
Weitere wichtige Verteilungen
●
stats.binom.*
- Binomialverteilung
●
stats.norm.*
- Gaußverteilung (“normal distribution”)
●
stats.uniform.*
- Gleichverteilung (“uniform distribution”)
●
stats.cauchy.*
- Breit-Wigner Verteilung (“Cauchyverteilung”)
●
stats.chi2.*
- ²-Verteilung
… und viele mehr: siehe docs.scipy.org/doc/scipy/reference/stats.html
Datenanalyse
Verteilungen (29/36)
O.Steinkamp
PHY231 - HS 14
Vorlesungsprogramm
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
●
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Korrelation, Kovarianzmatrix
●
Fehlerfortpflanzungsgesetz
●
Wahrscheinlichkeitsverteilungen I
- Verteilungen einer Variablen
- zentraler Grenzwertsatz
●
Monte-Carlo Methode
●
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
●
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
●
Interpretation von Messergebnissen
Beispielprogramme im Verzeichnis
/disk/puma/da/vorl/vert
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse
Verteilungen (30/36)
PHY231 - HS 14
O.Steinkamp
Zentraler Grenzwertsatz
Betrachte N voneinander unabhängige Zufallsvariablen xi (i = 1, ..., N)
●
Zufallsverteilung für xi habe Erwartungswert μ i und Varianz σ i²
●
definiere neue Zufallsvariable X ≡ ∑Ni=1 x i
●
Zufallsverteilung für X:
●
●
●
●
hat die Varianz V X =
∑Ni=1 2i
strebt für N → ∞ einer Gaußverteilung entgegen
gilt für beliebige Zufallsverteilungen der xi
●
●
hat den Erwartungswert 〈 X 〉 = ∑Ni=1 i
gilt auch, wenn verschiedene xi unterschiedlichen Zufallsverteilungen folgen
aber: gilt nur wenn die xi statistisch voneinander unabhängig sind !!!!!
Datenanalyse
PHY231 - HS 14
Verteilungen (31/36)
O.Steinkamp
Beweise zentraler Grenzwertsatz
Erwartungswert
〈 X 〉 = 〈 ∑ xi〉 =
∑ 〈 xi 〉
i
=
i
∑ i
i
Varianz
V X =
2
〈 X − 〈X〉 〉
2
〈 ∑x −∑ 〉
=
〈 ∑ x − 〉
=
i
i
i
i
2
i
=
i
i
x i− i 2
∑
〈
〉
∑
〈 xi− i 2 〉
i
=
i
2
〈 ∑ ∑ x − ⋅x − 〉
i
j≠i
i
i
j
j
∑∑
〈 x i− i ⋅x j− j 〉
i
j≠i
i
cov x i , x j
xi, xj statistisch voneinander unabhängig ⇒ cov (xi,xj) = 0
Datenanalyse
PHY231 - HS 14
Verteilungen (32/36)
O.Steinkamp
Beispiel zentraler Grenzwertsatz
Summe von N Zufallsvariablen, jede zwischen 0 und 1 gleichverteilt
---- Gaussverteilung mit μ = N/2 und σ =
√N/12
warum ?
Datenanalyse
PHY231 - HS 14
Verteilungen (33/36)
gleichverteilte Zufallszahlen mit
“Monte Carlo”-Methode erzeugt
O.Steinkamp
Anwendungen zentraler Grenzwertsatz
Gaußverteilung als Näherung der Poissonverteilung
●
großer Erwartungswert : Poissonverteilung nähert sich Gaußverteilung
mit Erwartungswert μ = und Standardabweichung σ =
●
√
Näherung in der Praxis meist gut genug für > 5~10
Gaußverteilung als Näherung der Binomialverteilung
●
große Anzahl Versuche n: Binomialverteilung nähert sich Gaußverteilung
mit Erwartungswert μ = n·p und Standardabweichung σ =
●
√n·p·(1-p)
Näherung am schnellsten für p ≈ 0.5 (symmetrische Verteilung)
Datenanalyse
PHY231 - HS 14
Verteilungen (34/36)
O.Steinkamp
Gaußverteilte Messfehler
Unsicherheit auf einer Messung hat meistens viele Beiträge
●
●
z.B. Rauschsignal in Messelektronik
●
viele Bauteile (Widerstände, Kondensatoren,…)
●
zufällige Spannungs-/Stromfluktuationen in jedem dieser Bauteile
●
gesamtes Rauschsignal ist Summe aller dieser Beiträge
wenn diese Beiträge statistisch unabhängig voneinander sind:
zentraler Grenzwertsatz
Abweichungen der Messwerte vom wahren Wert Gaußverteilt
●
aber AUFGEPASST !!!!!
●
gilt NICHT, wenn die Einzelbeiträge nicht statistisch unabhängig sind
●
gilt NICHT, wenn Messunsicherheit durch einen Einzelbeitrag dominiert ist
Datenanalyse
PHY231 - HS 14
Verteilungen (35/36)
O.Steinkamp
Gaußverteilte Messfehler
Fehlerbalken geben ± 1 Standardabweichung um den Messwert an
●
●
für gaußverteilte Messunsicherheiten
●
sollten 68 % der Messwerte innnerhalb ±1·σ um den wahren Wert liegen
●
sollten ~1/3 der Fehlerbalken den wahren Wert nicht enthalten
erlaubt grobe Kontrolle, ob Messunsicherheiten korrekt bestimmt sind
Unsicherheiten
unterschätzt
Datenanalyse
PHY231 - HS 14
Unsicherheiten
korrekt
Verteilungen (36/36)
Unsicherheiten
überschätzt
O.Steinkamp