Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Poisson-Approximation – Wikipedia
Poisson-Approximation – Wikipedia
aus Wikipedia, der freien Enzyklopädie
Vergleich der Poisson-Verteilung (schwarze Linien) und der Binomialverteilung mit n = 10 {\displaystyle n=10} {\displaystyle n=10} (rote Kreise), n = 20 {\displaystyle n=20} {\displaystyle n=20} (blaue Kreise), n = 1000 {\displaystyle n=1000} {\displaystyle n=1000} (grüne Kreise). Alle Verteilungen haben einen Erwartungswert von 5. Die horizontale Achse zeigt die Anzahl der eingetretenen Ereignisse k {\displaystyle k} {\displaystyle k}. Je größer n {\displaystyle n} {\displaystyle n} wird, umso besser ist die Approximation der Binomialverteilung durch die Poisson-Verteilung.

Die Poisson-Approximation ist in der Wahrscheinlichkeitsrechnung eine Möglichkeit, die Binomialverteilung und die verallgemeinerte Binomialverteilung für große Stichproben und kleine Wahrscheinlichkeiten durch die Poisson-Verteilung anzunähern. Durch den Grenzübergang nach unendlich erhält man dann die Konvergenz in Verteilung der beiden Binomialverteilungen gegen die Poisson-Verteilung.

Formulierung

[Bearbeiten | Quelltext bearbeiten]

Ist ( S n ) {\displaystyle (S_{n})} {\displaystyle (S_{n})} eine Folge binomialverteilter Zufallsvariablen mit Parametern n ∈ N {\displaystyle n\in \mathbb {N} } {\displaystyle n\in \mathbb {N} } und p n {\displaystyle p_{n}} {\displaystyle p_{n}}, sodass für die Erwartungswerte E ( S n ) = n ⋅ p n → λ > 0 {\displaystyle E(S_{n})=n\cdot p_{n}\to \lambda >0} {\displaystyle E(S_{n})=n\cdot p_{n}\to \lambda >0} für n → ∞ {\displaystyle n\to \infty } {\displaystyle n\to \infty } gilt, dann folgt

P ( S n = k ) = B n , p n ( { k } ) → λ k k ! e − λ = P λ ( { k } ) {\displaystyle P(S_{n}=k)=B_{n,p_{n}}(\{k\})\to \,{\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }=P_{\lambda }(\{k\})\quad } {\displaystyle P(S_{n}=k)=B_{n,p_{n}}(\{k\})\to \,{\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }=P_{\lambda }(\{k\})\quad }

für n → ∞ {\displaystyle n\to \infty } {\displaystyle n\to \infty }.

Beweis-Skizze

[Bearbeiten | Quelltext bearbeiten]

Der Wert einer Poisson-verteilten Zufallsvariable an der Stelle k {\displaystyle k} {\displaystyle k} ist der Grenzwert n → ∞ {\displaystyle n\to \infty } {\displaystyle n\to \infty } einer Binomialverteilung mit p = λ n {\displaystyle p={\tfrac {\lambda }{n}}} {\displaystyle p={\tfrac {\lambda }{n}}} an der Stelle k {\displaystyle k} {\displaystyle k}:

lim n → ∞ P ( S n = k ) = lim n → ∞ ( n k ) p k ( 1 − p ) n − k = lim n → ∞ n ! k ! ( n − k ) ! ( λ n ) k ( 1 − λ n ) n − k = lim n → ∞ ( λ k k ! ) ( n ( n − 1 ) ( n − 2 ) ⋯ ( n − k + 1 ) n k ) ( 1 − λ n ) n ( 1 − λ n ) − k = λ k k ! ⋅ lim n → ∞ ( n n ⋅ n − 1 n ⋅ n − 2 n ⋯ n − k + 1 n ) ⏟ → 1 ( 1 − λ n ) n ⏟ → e − λ ( 1 − λ n ) − k ⏟ → 1 = λ k e − λ k ! . {\displaystyle {\begin{aligned}\lim _{n\to \infty }P(S_{n}=k)&=\lim _{n\to \infty }{\binom {n}{k}}p^{k}(1-p)^{n-k}\\&=\lim _{n\to \infty }{\frac {n!}{k!\,(n-k)!}}\left({\frac {\lambda }{n}}\right)^{k}\left(1-{\frac {\lambda }{n}}\right)^{n-k}\\&=\lim _{n\to \infty }\left({\frac {\lambda ^{k}}{k!}}\right)\left({\frac {n(n-1)(n-2)\cdots (n-k+1)}{n^{k}}}\right)\left(1-{\frac {\lambda }{n}}\right)^{n}\left(1-{\frac {\lambda }{n}}\right)^{-k}\\&={\frac {\lambda ^{k}}{k!}}\cdot \lim _{n\to \infty }\underbrace {\left({\frac {n}{n}}\cdot {\frac {n-1}{n}}\cdot {\frac {n-2}{n}}\cdots {\frac {n-k+1}{n}}\right)} _{\to 1}\underbrace {\left(1-{\frac {\lambda }{n}}\right)^{n}} _{\to e^{-\lambda }}\underbrace {\left(1-{\frac {\lambda }{n}}\right)^{-k}} _{\to 1}\\&={\frac {\lambda ^{k}\mathrm {e} ^{-\lambda }}{k!}}.\end{aligned}}} {\displaystyle {\begin{aligned}\lim _{n\to \infty }P(S_{n}=k)&=\lim _{n\to \infty }{\binom {n}{k}}p^{k}(1-p)^{n-k}\\&=\lim _{n\to \infty }{\frac {n!}{k!\,(n-k)!}}\left({\frac {\lambda }{n}}\right)^{k}\left(1-{\frac {\lambda }{n}}\right)^{n-k}\\&=\lim _{n\to \infty }\left({\frac {\lambda ^{k}}{k!}}\right)\left({\frac {n(n-1)(n-2)\cdots (n-k+1)}{n^{k}}}\right)\left(1-{\frac {\lambda }{n}}\right)^{n}\left(1-{\frac {\lambda }{n}}\right)^{-k}\\&={\frac {\lambda ^{k}}{k!}}\cdot \lim _{n\to \infty }\underbrace {\left({\frac {n}{n}}\cdot {\frac {n-1}{n}}\cdot {\frac {n-2}{n}}\cdots {\frac {n-k+1}{n}}\right)} _{\to 1}\underbrace {\left(1-{\frac {\lambda }{n}}\right)^{n}} _{\to e^{-\lambda }}\underbrace {\left(1-{\frac {\lambda }{n}}\right)^{-k}} _{\to 1}\\&={\frac {\lambda ^{k}\mathrm {e} ^{-\lambda }}{k!}}.\end{aligned}}}

Bei großen Stichproben und kleinem p {\displaystyle p} {\displaystyle p} lässt sich folglich die Binomialverteilung gut durch die Poisson-Verteilung approximieren.

Die Darstellung als Grenzwert der Binomialverteilung erlaubt eine alternative Berechnung von Erwartungswert und Varianz der Poisson-Verteilung. Seien X 1 , … , X n n {\displaystyle X_{1},\dotsc ,X_{n}\,n} {\displaystyle X_{1},\dotsc ,X_{n}\,n} unabhängige bernoulliverteilte Zufallsvariablen mit p = λ / n {\displaystyle \,p=\lambda /n} {\displaystyle \,p=\lambda /n} und sei S n := X 1 + ⋯ + X n {\displaystyle S_{n}:=X_{1}+\dotsb +X_{n}} {\displaystyle S_{n}:=X_{1}+\dotsb +X_{n}}. Für n → ∞ {\displaystyle n\to \infty } {\displaystyle n\to \infty } gilt S n ∼ P λ {\displaystyle S_{n}\sim P_{\lambda }} {\displaystyle S_{n}\sim P_{\lambda }} und

E ⁡ ( S n ) = E ⁡ ( X 1 ) + ⋯ + E ⁡ ( X n ) = λ n + ⋯ + λ n ⏟ n m a l = λ → λ Var ⁡ ( S n ) = Var ⁡ ( X 1 ) + ⋯ + Var ⁡ ( X n ) = λ n ( 1 − λ n ) + ⋯ + λ n ( 1 − λ n ) ⏟ n m a l = λ ( 1 − λ n ) → λ . {\displaystyle {\begin{aligned}\operatorname {E} (S_{n})&=\operatorname {E} (X_{1})+\dotsb +\operatorname {E} (X_{n})=\underbrace {{\frac {\lambda }{n}}+\dotsb +{\frac {\lambda }{n}}} _{n\,\mathrm {mal} }=\lambda \to \lambda \\\operatorname {Var} (S_{n})&=\operatorname {Var} (X_{1})+\dotsb +\operatorname {Var} (X_{n})\\&=\underbrace {{\frac {\lambda }{n}}\left(1-{\frac {\lambda }{n}}\right)+\dotsb +{\frac {\lambda }{n}}\left(1-{\frac {\lambda }{n}}\right)} _{n\,\mathrm {mal} }=\lambda \left(1-{\frac {\lambda }{n}}\right)\to \lambda .\end{aligned}}} {\displaystyle {\begin{aligned}\operatorname {E} (S_{n})&=\operatorname {E} (X_{1})+\dotsb +\operatorname {E} (X_{n})=\underbrace {{\frac {\lambda }{n}}+\dotsb +{\frac {\lambda }{n}}} _{n\,\mathrm {mal} }=\lambda \to \lambda \\\operatorname {Var} (S_{n})&=\operatorname {Var} (X_{1})+\dotsb +\operatorname {Var} (X_{n})\\&=\underbrace {{\frac {\lambda }{n}}\left(1-{\frac {\lambda }{n}}\right)+\dotsb +{\frac {\lambda }{n}}\left(1-{\frac {\lambda }{n}}\right)} _{n\,\mathrm {mal} }=\lambda \left(1-{\frac {\lambda }{n}}\right)\to \lambda .\end{aligned}}}

Güte der Approximation

[Bearbeiten | Quelltext bearbeiten]
Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen (beispielsweise Einzelnachweisen) ausgestattet. Angaben ohne ausreichenden Beleg könnten demnächst entfernt werden. Bitte hilf Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst.
Es fehlen Belege für die Approximation und die Verallgemeinerung. Siehe auch Diskussion.

Für die Fehlerabschätzung gilt

∑ k ≥ 0 | B n , p ( { k } ) − P n ⋅ p ( { k } ) | ≤ 2 n p 2 {\displaystyle \sum _{k\geq 0}\left|B_{n,p}(\{k\})-P_{n\cdot p}(\{k\})\right|\leq 2np^{2}} {\displaystyle \sum _{k\geq 0}\left|B_{n,p}(\{k\})-P_{n\cdot p}(\{k\})\right|\leq 2np^{2}}.

Die Approximation einer Summe von Bernoulli-verteilten Zufallsvariablen (bzw. einer binomialverteilten Zufallsvariable) ist also insbesondere für kleine p {\displaystyle p} {\displaystyle p} gut. Als Faustregel gilt, dass die Approximation gut ist, wenn n ≥ 50 {\displaystyle n\geq 50} {\displaystyle n\geq 50} und p ≤ 0 , 05 {\displaystyle p\leq 0{,}05} {\displaystyle p\leq 0{,}05} gilt. Ist p ≈ 0 , 5 {\displaystyle p\approx 0{,}5} {\displaystyle p\approx 0{,}5}, so ist die Normal-Approximation besser geeignet.

Le Cams Verallgemeinerung

[Bearbeiten | Quelltext bearbeiten]

Allgemeiner lässt sich Folgendes zeigen: Seien X 1 , … , X n {\displaystyle X_{1},\dotsc ,X_{n}} {\displaystyle X_{1},\dotsc ,X_{n}} stochastisch unabhängige Zufallsvariablen mit P ( X i = 1 ) = p i = 1 − P ( X i = 0 ) {\displaystyle P(X_{i}=1)=p_{i}=1-P(X_{i}=0)} {\displaystyle P(X_{i}=1)=p_{i}=1-P(X_{i}=0)} (jede Zufallsvariable ist also Bernoulli-verteilt), dann ist

S := ∑ i = 1 n X i {\displaystyle S:=\sum _{i=1}^{n}X_{i}} {\displaystyle S:=\sum _{i=1}^{n}X_{i}}

verallgemeinert binomialverteilt. Definiere

λ := ∑ i = 1 n p i {\displaystyle \lambda :=\sum _{i=1}^{n}p_{i}} {\displaystyle \lambda :=\sum _{i=1}^{n}p_{i}},

dann gilt

∑ k = 0 ∞ | P ( S = k ) − exp ⁡ ( − λ ) λ k k ! | ≤ 2 ∑ i = 1 n p i 2 {\displaystyle \sum _{k=0}^{\infty }\left|P(S=k)-\exp(-\lambda ){\frac {\lambda ^{k}}{k!}}\right|\leq 2\sum _{i=1}^{n}p_{i}^{2}} {\displaystyle \sum _{k=0}^{\infty }\left|P(S=k)-\exp(-\lambda ){\frac {\lambda ^{k}}{k!}}\right|\leq 2\sum _{i=1}^{n}p_{i}^{2}}.

Im Englischen ist dieses Resultat als „Ungleichung von Le Cam“ (Le Cam’s Inequality) bekannt.[1]

Gilt p i = p j {\displaystyle p_{i}=p_{j}} {\displaystyle p_{i}=p_{j}} für alle 1 ≤ i , j ≤ n {\displaystyle 1\leq i,j\leq n} {\displaystyle 1\leq i,j\leq n}, so ist S {\displaystyle S} {\displaystyle S} binomialverteilt und das obige Ergebnis folgt sofort.

Beispiel

[Bearbeiten | Quelltext bearbeiten]

Ein Individuum einer Spezies zeugt n = 1000 {\displaystyle n=1000} {\displaystyle n=1000} Nachkommen, die alle stochastisch unabhängig voneinander mit einer Wahrscheinlichkeit von p i = 0,001 {\displaystyle p_{i}=0{,}001} {\displaystyle p_{i}=0{,}001} das geschlechtsreife Alter erreichen. Interessiert ist man nun an der Wahrscheinlichkeit, dass zwei oder mehr Nachkommen das geschlechtsreife Alter erreichen.

Exakte Lösung

[Bearbeiten | Quelltext bearbeiten]

Sei X i = 1 {\displaystyle X_{i}=1} {\displaystyle X_{i}=1} die Zufallsvariable „Der i {\displaystyle i} {\displaystyle i}-te Nachkomme erreicht das geschlechtsreife Alter“. Es gilt P ( X i = 1 ) = p i {\displaystyle P(X_{i}=1)=p_{i}} {\displaystyle P(X_{i}=1)=p_{i}} und P ( X i = 0 ) = 1 − p i {\displaystyle P(X_{i}=0)=1-p_{i}} {\displaystyle P(X_{i}=0)=1-p_{i}} für alle i {\displaystyle i} {\displaystyle i}. Dann ist die Anzahl der überlebenden Nachkommen S := ∑ i = 1 n X i {\displaystyle S:=\sum _{i=1}^{n}X_{i}} {\displaystyle S:=\sum _{i=1}^{n}X_{i}} aufgrund der stochastischen Unabhängigkeit B n , p {\displaystyle B_{n,p}} {\displaystyle B_{n,p}}-verteilt. Zur Modellierung definiert man den Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} {\displaystyle (\Omega ,\Sigma ,P)} mit der Ergebnismenge Ω := { 0 , … , n } {\displaystyle \Omega :=\{0,\dotsc ,n\}} {\displaystyle \Omega :=\{0,\dotsc ,n\}}, der Anzahl der überlebenden geschlechtsreifen Nachkommen. Die σ-Algebra ist dann kanonisch die Potenzmenge der Ergebnismenge: Σ := P ( Ω ) {\displaystyle \Sigma :={\mathcal {P}}(\Omega )} {\displaystyle \Sigma :={\mathcal {P}}(\Omega )} und als Wahrscheinlichkeitsverteilung die Binomialverteilung: P ( { k } ) := B n , p ( { k } ) {\displaystyle P(\{k\}):=B_{n,p}(\{k\})} {\displaystyle P(\{k\}):=B_{n,p}(\{k\})}. Gesucht ist P ( S ≥ 2 ) = 1 − P ( S = 1 ) − P ( S = 0 ) = 1 − B 1000 ; 0,001 ( { 0 } ) − B 1000 ; 0,001 ( { 1 } ) ≈ 0,264 2 {\displaystyle P(S\geq 2)=1-P(S=1)-P(S=0)=1-B_{1000;\,0{,}001}(\{0\})-B_{1000;\,0{,}001}(\{1\})\approx 0{,}2642} {\displaystyle P(S\geq 2)=1-P(S=1)-P(S=0)=1-B_{1000;\,0{,}001}(\{0\})-B_{1000;\,0{,}001}(\{1\})\approx 0{,}2642}. Es erreichen also mit einer Wahrscheinlichkeit von ca. 26 % mindestens zwei Individuen das geschlechtsreife Alter.

Approximierte Lösung

[Bearbeiten | Quelltext bearbeiten]

Da n {\displaystyle n} {\displaystyle n} ausreichend groß und p {\displaystyle p} {\displaystyle p} ausreichend klein ist, lässt sich die Binomialverteilung genügend genau mittels der Poisson-Verteilung annähern. Diesmal ist der Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} {\displaystyle (\Omega ,\Sigma ,P)} definiert mittels des Ergebnisraums Ω := N {\displaystyle \Omega :=\mathbb {N} } {\displaystyle \Omega :=\mathbb {N} }, der σ {\displaystyle \sigma } {\displaystyle \sigma }-Algebra Σ := P ( N ) {\displaystyle \Sigma :={\mathcal {P}}(\mathbb {N} )} {\displaystyle \Sigma :={\mathcal {P}}(\mathbb {N} )} und der Poisson-Verteilung als Wahrscheinlichkeitsverteilung P ( { k } ) := P λ ( { k } ) = λ k k ! e − λ {\displaystyle P(\{k\}):=P_{\lambda }(\{k\})={\frac {\lambda ^{k}}{k!}}\,\mathrm {e} ^{-\lambda }} {\displaystyle P(\{k\}):=P_{\lambda }(\{k\})={\frac {\lambda ^{k}}{k!}}\,\mathrm {e} ^{-\lambda }} mit dem Parameter λ = n ⋅ p = 1 {\displaystyle \lambda =n\cdot p=1} {\displaystyle \lambda =n\cdot p=1}. Man beachte hier, dass die beiden modellierten Wahrscheinlichkeitsräume unterschiedlich sind, da die Poisson-Verteilung auf einem endlichen Ergebnisraum keine Wahrscheinlichkeitsverteilung definiert. Die Wahrscheinlichkeit, dass mindestens zwei Individuen das geschlechtsreife Alter erreichen, ist also P ( S ≥ 2 ) ≈ 1 − P λ ( { 1 } ) − P λ ( { 0 } ) = 1 − λ 1 1 ! e − 1 − λ 0 0 ! e − 1 ≈ 0,264 2 {\displaystyle P(S\geq 2)\approx 1-P_{\lambda }(\{1\})-P_{\lambda }(\{0\})=1-{\frac {\lambda ^{1}}{1!}}e^{-1}-{\frac {\lambda ^{0}}{0!}}e^{-1}\approx 0{,}2642} {\displaystyle P(S\geq 2)\approx 1-P_{\lambda }(\{1\})-P_{\lambda }(\{0\})=1-{\frac {\lambda ^{1}}{1!}}e^{-1}-{\frac {\lambda ^{0}}{0!}}e^{-1}\approx 0{,}2642}.

Bis auf vier Nachkommastellen stimmt also die exakte Lösung mit der Poisson-Approximation überein.

Siehe auch

[Bearbeiten | Quelltext bearbeiten]
  • Zwei-Drittel-Gesetz (auch Gesetz der kleinen Zahlen genannt)

Weblinks

[Bearbeiten | Quelltext bearbeiten]
  • A.V. Prokhorov: Poisson theorem. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org). 
  • Eric W. Weisstein: Poisson theorem. In: MathWorld (englisch).

Literatur

[Bearbeiten | Quelltext bearbeiten]
  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3. 
  • Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Für Studium, Berufspraxis und Lehramt. 8. Auflage. Vieweg, Wiesbaden 2005, ISBN 3-8348-0063-5, doi:10.1007/978-3-663-09885-0. 
  • Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, doi:10.1515/9783110215274. 

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ Eric W. Weisstein: Le Cam's Inequality. In: Mathworld. Abgerufen am 18. November 2023. 
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Poisson-Approximation&oldid=255633330“
Kategorien:
  • Stochastik
  • Siméon Denis Poisson als Namensgeber
Versteckte Kategorie:
  • Wikipedia:Belege fehlen

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id