Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Normal-Approximation – Wikipedia
Normal-Approximation – Wikipedia
aus Wikipedia, der freien Enzyklopädie

Die Normal-Approximation ist eine Methode der Wahrscheinlichkeitsrechnung, um die Binomialverteilung für große Stichproben durch die Normalverteilung anzunähern. Hierbei handelt es sich um eine Anwendung des Satzes von Moivre-Laplace und damit auch um eine Anwendung des Zentralen Grenzwertsatzes.

Formulierung

[Bearbeiten | Quelltext bearbeiten]

Für eine binomialverteilte Zufallsvariable S n ∼ B i n ( n , p ) {\displaystyle S_{n}\sim \mathrm {Bin} (n,p)} {\displaystyle S_{n}\sim \mathrm {Bin} (n,p)} mit dem Erwartungswert μ n := E [ S n ] = n p {\displaystyle \mu _{n}:=\mathbb {E} [S_{n}]=np} {\displaystyle \mu _{n}:=\mathbb {E} [S_{n}]=np} und der Standardabweichung σ n := V a r [ S n ] = n p ( 1 − p ) > 0 {\displaystyle \sigma _{n}:={\sqrt {\mathrm {Var} [S_{n}]}}={\sqrt {np(1-p)}}>0} {\displaystyle \sigma _{n}:={\sqrt {\mathrm {Var} [S_{n}]}}={\sqrt {np(1-p)}}>0} gilt nach dem Satz von Moivre-Laplace

lim n → ∞ ( P ⁡ ( S n ≤ x ) − Φ ( x − μ n σ n ) ) = 0 , x ∈ R , {\displaystyle \lim _{n\to \infty }\left(\operatorname {P} (S_{n}\leq x)-\Phi \left({\frac {x-\mu _{n}}{\sigma _{n}}}\right)\right)=0,\quad x\in \mathbb {R} \;,} {\displaystyle \lim _{n\to \infty }\left(\operatorname {P} (S_{n}\leq x)-\Phi \left({\frac {x-\mu _{n}}{\sigma _{n}}}\right)\right)=0,\quad x\in \mathbb {R} \;,},

wobei Φ {\displaystyle \Phi } {\displaystyle \Phi } die Wahrscheinlichkeitsverteilungsfunktion der Standardnormalverteilung bezeichnet.

Diesen asymptotischen Zusammenhang verwendet man zur Rechtfertigung der Approximation der Verteilungsfunktion von S n {\displaystyle S_{n}} {\displaystyle S_{n}} durch die Verteilungsfunktion der Normalverteilung N ( μ n , σ n 2 ) {\displaystyle {\mathcal {N}}(\mu _{n},\sigma _{n}^{2})} {\displaystyle {\mathcal {N}}(\mu _{n},\sigma _{n}^{2})} für endliches, aber hinreichend große n {\displaystyle n} {\displaystyle n}, d. h.

P ⁡ ( S n ≤ x ) ≈ Φ ( x − μ n σ n ) , x ∈ R . {\displaystyle \operatorname {P} (S_{n}\leq x)\approx \Phi \left({\frac {x-\mu _{n}}{\sigma _{n}}}\right),\quad x\in \mathbb {R} \,.} {\displaystyle \operatorname {P} (S_{n}\leq x)\approx \Phi \left({\frac {x-\mu _{n}}{\sigma _{n}}}\right),\quad x\in \mathbb {R} \,.}

Mit dieser Approximation der Verteilungsfunktion erhält man für k 1 , k 2 ∈ { 0 , 1 , … , n } {\displaystyle k_{1},k_{2}\in \{0,1,\dots ,n\}} {\displaystyle k_{1},k_{2}\in \{0,1,\dots ,n\}} mit k 1 < k 2 {\displaystyle k_{1}<k_{2}} {\displaystyle k_{1}<k_{2}}

P ⁡ ( k 1 < S n ≤ k 2 ) = P ⁡ ( S n ≤ k 2 ) − P ⁡ ( S n ≤ k 1 ) ⏟ Binomialverteilung ≈ Φ ( k 2 − μ n σ n ) − Φ ( k 1 − μ n σ n ) ⏟ Normalverteilung . {\displaystyle {\begin{aligned}\operatorname {P} (k_{1}<S_{n}\leq k_{2})&=\underbrace {\operatorname {P} (S_{n}\leq k_{2})-\operatorname {P} (S_{n}\leq k_{1})} _{\text{Binomialverteilung}}\\&\approx \underbrace {\Phi {\left({\frac {k_{2}-\mu _{n}}{\sigma _{n}}}\right)}-\Phi {\left({\frac {k_{1}-\mu _{n}}{\sigma _{n}}}\right)}} _{\text{Normalverteilung}}.\end{aligned}}} {\displaystyle {\begin{aligned}\operatorname {P} (k_{1}<S_{n}\leq k_{2})&=\underbrace {\operatorname {P} (S_{n}\leq k_{2})-\operatorname {P} (S_{n}\leq k_{1})} _{\text{Binomialverteilung}}\\&\approx \underbrace {\Phi {\left({\frac {k_{2}-\mu _{n}}{\sigma _{n}}}\right)}-\Phi {\left({\frac {k_{1}-\mu _{n}}{\sigma _{n}}}\right)}} _{\text{Normalverteilung}}.\end{aligned}}}

Eine exakte Berechnung der Wahrscheinlichkeit würde dagegen durch

P ⁡ ( k 1 < S n ≤ k 2 ) = ∑ k = k 1 + 1 k 2 ( n k ) p k ( 1 − p ) n − k {\displaystyle \operatorname {P} (k_{1}<S_{n}\leq k_{2})=\sum _{k=k_{1}+1}^{k_{2}}{\binom {n}{k}}p^{k}(1-p)^{n-k}} {\displaystyle \operatorname {P} (k_{1}<S_{n}\leq k_{2})=\sum _{k=k_{1}+1}^{k_{2}}{\binom {n}{k}}p^{k}(1-p)^{n-k}}

erfolgen.

Güte der Approximation

[Bearbeiten | Quelltext bearbeiten]

Für viele Anwendungen gilt die Näherung als hinreichend gut, falls n p ( 1 − p ) ≥ 9 {\displaystyle np(1-p)\geq 9} {\displaystyle np(1-p)\geq 9} gilt.[1][2][3] Falls dies nicht gilt, so sollte zumindest n p ≥ 5 {\displaystyle np\geq 5} {\displaystyle np\geq 5} und n ( 1 − p ) ≥ 5 {\displaystyle n(1-p)\geq 5} {\displaystyle n(1-p)\geq 5} gelten.[4][5] Je asymmetrischer die Binomialverteilung ist, d. h. je größer die Differenz zwischen p {\displaystyle p} {\displaystyle p} und 1 − p {\displaystyle 1-p} {\displaystyle 1-p} ist, umso größer sollte n {\displaystyle n} {\displaystyle n} sein.

Für p {\displaystyle p} {\displaystyle p} nahe an 0 ist zur Näherung die Poisson-Approximation besser geeignet. Dabei wird die Binomialverteilung B i n ( n , p ) {\displaystyle \mathrm {Bin} (n,p)} {\displaystyle \mathrm {Bin} (n,p)} durch eine Poissonverteilung mit dem Parameter n p {\displaystyle np} {\displaystyle np} approximiert. Für p {\displaystyle p} {\displaystyle p} nahe an 1 sind beide Approximationen schlecht, dann kann jedoch S n ′ = n − S n {\displaystyle S_{n}'=n-S_{n}} {\displaystyle S_{n}'=n-S_{n}} statt S n {\displaystyle S_{n}} {\displaystyle S_{n}} betrachtet werden, d. h. bei der Binomialverteilung werden Erfolge und Misserfolge vertauscht. S n ′ {\displaystyle S_{n}'} {\displaystyle S_{n}'} ist wieder binomialverteilt mit Parametern n {\displaystyle n} {\displaystyle n} und 1 − p {\displaystyle 1-p} {\displaystyle 1-p} und kann daher mit der Poisson-Approximation angenähert werden.

Stetigkeitskorrektur

[Bearbeiten | Quelltext bearbeiten]

Mit der Stetigkeitskorrektur wird eine verbesserte Approximation von Wahrscheinlichkeiten der Binomialverteilung B i n ( n , p ) {\displaystyle \mathrm {Bin} (n,p)} {\displaystyle \mathrm {Bin} (n,p)} berechneten Wahrscheinlichkeiten durch die Wahrscheinlichkeiten aus der Normalverteilungsapproximation N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} mit den Parametern μ = n p {\displaystyle \mu =np} {\displaystyle \mu =np} und σ 2 = n p ( 1 − p ) {\displaystyle \sigma ^{2}=np(1-p)} {\displaystyle \sigma ^{2}=np(1-p)} und der Verteilungsfunktion x ↦ Φ ( ( x − μ ) / σ ) {\displaystyle x\mapsto \Phi ((x-\mu )/\sigma )} {\displaystyle x\mapsto \Phi ((x-\mu )/\sigma )} angestrebt.

Die Grundidee ist, den n + 1 {\displaystyle n+1} {\displaystyle n+1} Stellen 0 , 1 , … , n {\displaystyle 0,1,\dots ,n} {\displaystyle 0,1,\dots ,n} der Binomialverteilung die Wahrscheinlichkeiten der Normalverteilung in den n + 1 {\displaystyle n+1} {\displaystyle n+1} Intervallen

I k = { ( − ∞ , k + 1 / 2 ) für  k = 0 ( k − 1 / 2 , k + 1 / 2 ) für  k = 1 , … , n − 1 ( k − 1 / 2 , ∞ ) für  k = n {\displaystyle I_{k}={\begin{cases}(-\infty ,k+1/2)&{\text{für }}k=0\\(k-1/2,k+1/2)&{\text{für }}k=1,\dots ,n-1\\(k-1/2,\infty )&{\text{für }}k=n\end{cases}}} {\displaystyle I_{k}={\begin{cases}(-\infty ,k+1/2)&{\text{für }}k=0\\(k-1/2,k+1/2)&{\text{für }}k=1,\dots ,n-1\\(k-1/2,\infty )&{\text{für }}k=n\end{cases}}}

zuzuordnen. Für X ∼ N ( μ , σ 2 ) {\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})} {\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})} gilt dann

P ( X ∈ I k ) = { Φ ( k + 1 / 2 − μ σ ) für  k = 0 Φ ( k + 1 / 2 − μ σ ) − Φ ( k − 1 / 2 − μ σ ) für  k = 1 , … , n − 1 1 − Φ ( k − 1 / 2 − μ σ ) für  k = n {\displaystyle P(X\in I_{k})={\begin{cases}\Phi \left({\frac {k+1/2-\mu }{\sigma }}\right)&{\text{für }}k=0\\\Phi \left({\frac {k+1/2-\mu }{\sigma }}\right)-\Phi \left({\frac {k-1/2-\mu }{\sigma }}\right)&{\text{für }}k=1,\dots ,n-1\\1-\Phi \left({\frac {k-1/2-\mu }{\sigma }}\right)&{\text{für }}k=n\end{cases}}} {\displaystyle P(X\in I_{k})={\begin{cases}\Phi \left({\frac {k+1/2-\mu }{\sigma }}\right)&{\text{für }}k=0\\\Phi \left({\frac {k+1/2-\mu }{\sigma }}\right)-\Phi \left({\frac {k-1/2-\mu }{\sigma }}\right)&{\text{für }}k=1,\dots ,n-1\\1-\Phi \left({\frac {k-1/2-\mu }{\sigma }}\right)&{\text{für }}k=n\end{cases}}}

Für einen Wert k ∈ { 0 , 1 , … , n } {\displaystyle k\in \{0,1,\dots ,n\}} {\displaystyle k\in \{0,1,\dots ,n\}} ergeben sich mit Verwendung der Stetigkeitskorrektur die Approximationen

P ( S n = k ) ≈ Φ ( k + 1 / 2 − μ σ ) − Φ ( k − 1 / 2 − μ σ ) , {\displaystyle P(S_{n}=k)\approx \Phi \left({\frac {k+1/2-\mu }{\sigma }}\right)-\Phi \left({\frac {k-1/2-\mu }{\sigma }}\right),} {\displaystyle P(S_{n}=k)\approx \Phi \left({\frac {k+1/2-\mu }{\sigma }}\right)-\Phi \left({\frac {k-1/2-\mu }{\sigma }}\right),}
P ( S n ≤ k ) ≈ Φ ( k + 1 / 2 − μ σ ) {\displaystyle P(S_{n}\leq k)\approx \Phi \left({\frac {k+1/2-\mu }{\sigma }}\right)} {\displaystyle P(S_{n}\leq k)\approx \Phi \left({\frac {k+1/2-\mu }{\sigma }}\right)}

und

P ( S n ≥ k ) ≈ 1 − Φ ( k − 1 / 2 − μ σ ) . {\displaystyle P(S_{n}\geq k)\approx 1-\Phi \left({\frac {k-1/2-\mu }{\sigma }}\right)\;.} {\displaystyle P(S_{n}\geq k)\approx 1-\Phi \left({\frac {k-1/2-\mu }{\sigma }}\right)\;.}

Für zwei Werte k 1 , k 2 ∈ { 0 , 1 , … , n } {\displaystyle k_{1},k_{2}\in \{0,1,\dots ,n\}} {\displaystyle k_{1},k_{2}\in \{0,1,\dots ,n\}} mit k 1 ≤ k 2 {\displaystyle k_{1}\leq k_{2}} {\displaystyle k_{1}\leq k_{2}} ergibt sich mit Verwendung der Stetigkeitskorrektur die Approximation

P ( k 1 ≤ S n ≤ k 2 ) ≈ Φ ( k 2 + 1 / 2 − μ σ ) − Φ ( k 1 − 1 / 2 − μ σ ) . {\displaystyle P(k_{1}\leq S_{n}\leq k_{2})\approx \Phi \left({\frac {k_{2}+1/2-\mu }{\sigma }}\right)-\Phi \left({\frac {k_{1}-1/2-\mu }{\sigma }}\right).} {\displaystyle P(k_{1}\leq S_{n}\leq k_{2})\approx \Phi \left({\frac {k_{2}+1/2-\mu }{\sigma }}\right)-\Phi \left({\frac {k_{1}-1/2-\mu }{\sigma }}\right).}

Beispiele

[Bearbeiten | Quelltext bearbeiten]

Beispiel 1

[Bearbeiten | Quelltext bearbeiten]

Ein fairer Würfel wird 1000 Mal geworfen. Gesucht ist die Wahrscheinlichkeit, dass mindestens 100 und höchstens 150 Mal die Sechs gewürfelt wird.

  • Berechnung mit Binomialverteilung
Die Zufallsvariable S 1000 {\displaystyle S_{1000}} {\displaystyle S_{1000}}, die die zufällige Anzahl der gewürfelten Sechsen bei 1000 {\displaystyle 1000} {\displaystyle 1000} Versuchen beschreibt, ist binomialverteilt mit den Parametern n = 1000 {\displaystyle n=1000} {\displaystyle n=1000} und p = 1 / 6 {\displaystyle p=1/6} {\displaystyle p=1/6}, es gilt also S 1000 ∼ B i n ( 1000 , 1 / 6 ) {\displaystyle S_{1000}\sim \mathrm {Bin} (1000,1/6)} {\displaystyle S_{1000}\sim \mathrm {Bin} (1000,1/6)}.[6] Die gesuchte Wahrscheinlichkeit ist daher
P ( 100 ≤ S 1000 ≤ 150 ) = ∑ k = 100 150 ( 1000 k ) ( 1 6 ) k ( 5 6 ) 1000 − k ≈ 0,083 7 . {\displaystyle P(100\leq S_{1000}\leq 150)=\sum _{k=100}^{150}{\binom {1000}{k}}\left({\frac {1}{6}}\right)^{k}\left({\frac {5}{6}}\right)^{1000-k}\approx 0{,}0837\;.} {\displaystyle P(100\leq S_{1000}\leq 150)=\sum _{k=100}^{150}{\binom {1000}{k}}\left({\frac {1}{6}}\right)^{k}\left({\frac {5}{6}}\right)^{1000-k}\approx 0{,}0837\;.}
Mit einer Wahrscheinlichkeit von ca. 8,4 % wird also bei 1000 Versuchen zwischen 100 und 150 Mal die Sechs gewürfelt.
  • Berechnung mit Normal-Approximation
Es ist n p ( 1 − p ) = 1000 1 6 5 6 = 138 , 8 ¯ > 9 {\displaystyle np(1-p)=1000{\frac {1}{6}}{\frac {5}{6}}=138{,}{\bar {8}}>9} {\displaystyle np(1-p)=1000{\frac {1}{6}}{\frac {5}{6}}=138{,}{\bar {8}}>9}. Entsprechend der Faustformel gilt die approximierte Lösung also ausreichend genau. Die beiden Parameter für die Approximation der Binomialverteilung durch eine Normalverteilung sind μ = n p = 1000 / 6 {\displaystyle \mu =np=1000/6} {\displaystyle \mu =np=1000/6} und σ = n p ( 1 − p ) = 5000 / 36 . {\displaystyle \sigma ={\sqrt {np(1-p)}}={\sqrt {5000/36}}\;.} {\displaystyle \sigma ={\sqrt {np(1-p)}}={\sqrt {5000/36}}\;.}
Die Approximation ohne Stetigkeitskorrektur, wobei die Verteilungsfunktion der Binomialverteilung durch die Verteilungsfunktion einer Normalverteilung mit denselben Parametern approximiert wird, ist
P ( 100 ≤ S 1000 ≤ 150 ) = P ( S 1000 ≤ 150 ) − P ( S 1000 ≤ 99 ) ≈ Φ ( 150 − μ σ ) − Φ ( 99 − μ σ ) ≈ Φ ( − 1,414 2 ) − Φ ( − 5,741 71 ) ≈ 1 − Φ ( 1,414 2 ) ≈ 0,078 6 {\displaystyle {\begin{aligned}P(100\leq S_{1000}\leq 150)&=P(S_{1000}\leq 150)-P(S_{1000}\leq 99)\\&\approx \Phi \left({\frac {150-\mu }{\sigma }}\right)-\Phi \left({\frac {99-\mu }{\sigma }}\right)\\&\approx \Phi (-1{,}4142)-\Phi (-5{,}74171)\approx 1-\Phi (1{,}4142)\approx 0{,}0786\end{aligned}}} {\displaystyle {\begin{aligned}P(100\leq S_{1000}\leq 150)&=P(S_{1000}\leq 150)-P(S_{1000}\leq 99)\\&\approx \Phi \left({\frac {150-\mu }{\sigma }}\right)-\Phi \left({\frac {99-\mu }{\sigma }}\right)\\&\approx \Phi (-1{,}4142)-\Phi (-5{,}74171)\approx 1-\Phi (1{,}4142)\approx 0{,}0786\end{aligned}}}
  • Berechnung mit Normal-Approximation und Stetigkeitskorrektur
Die Approximation mit Stetigkeitskorrektur ist
P ( 100 ≤ S 1000 ≤ 150 ) ≈ Φ ( 150 + 0 , 5 − μ σ ) − Φ ( 100 − 0 , 5 − μ σ ) ≈ Φ ( − 1,371 8 ) − Φ ( − 5,699 3 ) ≈ 1 − Φ ( 1,371 8 ) ≈ 0,085 1 {\displaystyle {\begin{aligned}P(100\leq S_{1000}\leq 150)&\approx \Phi \left({\frac {150+0{,}5-\mu }{\sigma }}\right)-\Phi \left({\frac {100-0{,}5-\mu }{\sigma }}\right)\\&\approx \Phi (-1{,}3718)-\Phi (-5{,}6993)\approx 1-\Phi (1{,}3718)\approx 0{,}0851\end{aligned}}} {\displaystyle {\begin{aligned}P(100\leq S_{1000}\leq 150)&\approx \Phi \left({\frac {150+0{,}5-\mu }{\sigma }}\right)-\Phi \left({\frac {100-0{,}5-\mu }{\sigma }}\right)\\&\approx \Phi (-1{,}3718)-\Phi (-5{,}6993)\approx 1-\Phi (1{,}3718)\approx 0{,}0851\end{aligned}}}

Die Werte Φ ( z ) {\displaystyle \Phi (z)} {\displaystyle \Phi (z)} können numerisch bestimmt werden oder aus Tabelle abgelesen werden, da keine explizite Stammfunktion existiert. Die approximierte Lösung ist häufig numerisch günstiger, da keine umfangreichen Berechnungen der Binomialkoeffizienten durchgeführt werden müssen.

Beispiel 2

[Bearbeiten | Quelltext bearbeiten]
Plot der Dichte der Normalverteilung mit μ = 12 und σ = 3 und der Binomialverteilung mit n = 48 und p = 1/4

Gegeben sei eine binomialverteilte Zufallsvariable X {\displaystyle X} {\displaystyle X} mit den Parametern n = 48 {\displaystyle n=48} {\displaystyle n=48} und p = 1 4 {\displaystyle p={\tfrac {1}{4}}} {\displaystyle p={\tfrac {1}{4}}}, dann hat X {\displaystyle X} {\displaystyle X} den Erwartungswert n p = 12 {\displaystyle np=12} {\displaystyle np=12} und die Varianz n p ( 1 − p ) = 9 {\displaystyle np(1-p)=9} {\displaystyle np(1-p)=9}. Die Binomialverteilung wird durch eine Normalverteilung N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} mit dem Mittelwert μ = n p = 12 {\displaystyle \mu =np=12} {\displaystyle \mu =np=12} und der Varianz σ 2 = n p ( 1 − p ) = 9 {\displaystyle \sigma ^{2}=np(1-p)=9} {\displaystyle \sigma ^{2}=np(1-p)=9} approximiert.

Nun suchen wir die Antwort auf die Frage: „Wie groß ist die Wahrscheinlichkeit, dass X {\displaystyle X} {\displaystyle X} Werte kleiner oder gleich 3 annimmt?“ bzw. „Wie groß ist die Wahrscheinlichkeit P ( 0 ≤ X ≤ 3 ) {\displaystyle P(0\leq X\leq 3)} {\displaystyle P(0\leq X\leq 3)}?“ Da 3 = μ − 3 σ {\displaystyle 3=\mu -3\sigma } {\displaystyle 3=\mu -3\sigma } ist, handelt es sich um eine kleine Wahrscheinlichkeit im linken Verteilungsende, die exakt mit Hilfe der Binomialverteilung oder approximativ aus der Normalverteilung berechnet werden kann. Für diese Fragestellung und Parameterkonstellation ergeben sich folgende Resultate:

  • Berechnung mit der Binomialverteilung
P ( 0 ≤ X ≤ 3 ) = ∑ k = 0 3 ( 48 k ) ⋅ ( 1 4 ) k ⋅ ( 3 4 ) 48 − k ≈ 0,000 7882 {\displaystyle P(0\leq X\leq 3)=\sum _{k=0}^{3}{\binom {48}{k}}\cdot {\bigg (}{\frac {1}{4}}{\bigg )}^{k}\cdot {\bigg (}{\frac {3}{4}}{\bigg )}^{48-k}\approx 0{,}0007882} {\displaystyle P(0\leq X\leq 3)=\sum _{k=0}^{3}{\binom {48}{k}}\cdot {\bigg (}{\frac {1}{4}}{\bigg )}^{k}\cdot {\bigg (}{\frac {3}{4}}{\bigg )}^{48-k}\approx 0{,}0007882}
  • Abschätzung mit der Normalverteilung
P ( 0 ≤ X ≤ 3 ) = P ( X ≤ 3 ) − P ( X ≤ − 1 ) ≈ Φ ( 3 − 12 3 ) − Φ ( − 1 − 12 3 ) = Φ ( − 3 ) − Φ ( − 13 / 3 ) ≈ 0,001 3499 − 0,000 0073 ≈ 0,001 343 {\displaystyle {\begin{aligned}P(0\leq X\leq 3)&=P(X\leq 3)-P(X\leq -1)\\&\approx \Phi \left({\tfrac {3-12}{3}}\right)-\Phi \left({\tfrac {-1-12}{3}}\right)\\&=\Phi \left(-3\right)-\Phi \left(-13/3\right)\\&\approx 0{,}0013499-0{,}0000073\approx 0{,}001343\end{aligned}}} {\displaystyle {\begin{aligned}P(0\leq X\leq 3)&=P(X\leq 3)-P(X\leq -1)\\&\approx \Phi \left({\tfrac {3-12}{3}}\right)-\Phi \left({\tfrac {-1-12}{3}}\right)\\&=\Phi \left(-3\right)-\Phi \left(-13/3\right)\\&\approx 0{,}0013499-0{,}0000073\approx 0{,}001343\end{aligned}}}
  • Abschätzung mit Normalverteilung und Stetigkeitskorrektur
P ( 0 ≤ X ≤ 3 ) ≈ Φ ( 3 + 0 , 5 − 12 3 ) − Φ ( 0 − 0 , 5 − 12 3 ) = Φ ( − 8 , 5 / 3 ) − Φ ( − 12 , 5 / 3 ) ≈ 0,002 303 − 0.0000015 ≈ 0,002 29 {\displaystyle {\begin{aligned}P(0\leq X\leq 3)&\approx \Phi \left({\tfrac {3+0{,}5-12}{3}}\right)-\Phi \left({\tfrac {0-0{,}5-12}{3}}\right)\\&=\Phi \left(-8{,}5/3\right)-\Phi \left(-12{,}5/3\right)\\&\approx 0{,}002303-0.0000015\approx 0{,}00229\end{aligned}}} {\displaystyle {\begin{aligned}P(0\leq X\leq 3)&\approx \Phi \left({\tfrac {3+0{,}5-12}{3}}\right)-\Phi \left({\tfrac {0-0{,}5-12}{3}}\right)\\&=\Phi \left(-8{,}5/3\right)-\Phi \left(-12{,}5/3\right)\\&\approx 0{,}002303-0.0000015\approx 0{,}00229\end{aligned}}}

Die Berechnung mit der Normalverteilung ohne Stetigkeitskorrektur überschätzt die Wahrscheinlichkeit. Dies ist darauf zurückzuführen, dass die Binomialverteilung bei dieser Parameterkonstellation eine Schiefe aufweist, die dazu führt, dass die Normalverteilung im linken Verteilungsende die entsprechenden Wahrscheinlichkeiten überschätzt und im rechten Verteilungsende überschätzt. Ob dieser Approximationsfehler akzeptabel ist, hängt von der Anwendung und Fragestellung ab. Der absolute Approximationsfehler 0,001343 - 0,0007882 liegt unter 0,001 und kann damit z. B. in solchen statistischen Anwendungsfällen akzeptabel sein, bei denen Konfidenz- und Signifikanzniveaus in einer der groben Stufen α ∈ { 10 % , 5 % , 1 % } {\displaystyle \alpha \in \{10\%,5\%,1\%\}} {\displaystyle \alpha \in \{10\%,5\%,1\%\}} festgelegt werden. Anderseits ist der relative Approximationsfehler (0,001343 - 0,0007882)/0,0007882 = 70,39 %. Dies kann bei anderen Anwendungen eine unakzeptable Ungenauigkeit der zu bestimmenden Wahrscheinlichkeit sein.

Die Verwendung der Stetigkeitskorrektur verschlechtert bei dieser Konstellation die Approximation durch die Normalverteilung, da durch die Berücksichtigung zusätzlicher Wahrscheinlichkeitsmasse die Überschätzung durch die Normalverteilung weiter verstärkt wird. Das Beispiel zeigt insofern die Problematik einer standardmäßigen Anwendung der Stetigkeitskorrektur, wenn damit die Vorstellung einer gleichmäßigen Verbesserung verbunden ist.

Literatur

[Bearbeiten | Quelltext bearbeiten]
  • Hans-Otto Georgii: Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik, 4. Auflage, de Gruyter, 2009, ISBN 978-3-11-021526-7, doi:10.1515/9783110215274.
  • Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Vieweg, Braunschweig 1988, ISBN 978-3-528-07259-9, doi:10.1007/978-3-322-96418-2.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, S. 304. 
  2. ↑ Michael Sachs: Wahrscheinlichkeitsrechnung und Statistik für Ingenieurstudenten an Fachhochschulen. Fachbuchverlag Leipzig, München 2003, ISBN 3-446-22202-2, S. 129–130
  3. ↑ Christian Hassold, Sven Knoth, Detlef Steuer; Formelsammlung Statistik I & II. Beschreibende Statistik - Wahrscheinlichkeitsrechnung - Schließende Statistik; Hamburg 2010, S. 25 (Memento vom 9. Februar 2016 im Internet Archive), zuletzt abgerufen am 9. Februar 2016.
  4. ↑ K.Zirkelbach, W.Schmid; Kommentierte Formelsammlung Statistik I und II. Deskriptive Statistik - Wahrscheinlichkeitsrechnung; Frankfurt(Oder) 2008, S. 29.
  5. ↑ Formelsammlung zur Vorlesung Statistik I/II für Statistiker, Mathematiker und Informatiker (WS 08/09); LMU München 2008, S.23, zuletzt abgerufen am 9. Februar 2016.
  6. ↑ Etwas "exakter": Zur Modellierung definiert man den Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} {\displaystyle (\Omega ,\Sigma ,P)} mit der Ergebnismenge Ω := { 0 , … , 1000 } {\displaystyle \Omega :=\{0,\dotsc ,1000\}} {\displaystyle \Omega :=\{0,\dotsc ,1000\}} der Anzahl der gewürfelten Sechsen. Die σ-Algebra ist dann kanonisch die Potenzmenge der Ergebnismenge Σ := P ( Ω ) {\displaystyle \Sigma :={\mathcal {P}}(\Omega )} {\displaystyle \Sigma :={\mathcal {P}}(\Omega )} und die Wahrscheinlichkeitsverteilung die Binomialverteilung P ( { k } ) := B n , p ( { k } ) {\displaystyle P(\{k\}):=B_{n,p}(\{k\})} {\displaystyle P(\{k\}):=B_{n,p}(\{k\})}, wobei n = 1000 {\displaystyle n=1000} {\displaystyle n=1000} ist und p = 1 / 6 {\displaystyle p=1/6} {\displaystyle p=1/6}.
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Normal-Approximation&oldid=254550603“
Kategorie:
  • Stochastik
Versteckte Kategorie:
  • Wikipedia:Seiten, die ein veraltetes Format des math-Tags verwenden

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id