Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Likelihood-Funktion – Wikipedia
Likelihood-Funktion – Wikipedia
aus Wikipedia, der freien Enzyklopädie

Die Likelihood-Funktion (oft einfach nur Likelihood), gelegentlich auch Plausibilitätsfunktion oder Mutmaßlichkeitsfunktion genannt,[1] ist eine spezielle reellwertige Funktion in der mathematischen Statistik, die aus einer Wahrscheinlichkeitsdichtefunktion oder einer Zähldichte gewonnen wird, indem man einen Parameter der Dichte als Variable behandelt. Zentrale Verwendung der Likelihood-Funktion ist die Konstruktion von Schätzfunktionen durch die Maximum-Likelihood-Methode. Zudem werden aus ihr weitere Funktionen wie die Log-Likelihood-Funktion und die Score-Funktion abgeleitet, die beispielsweise als Hilfsfunktionen bei der Maximum-Likelihood-Methode oder zur Konstruktion von Optimalitätskriterien in der Schätztheorie verwendet werden.

Das Konzept stammt aus den 1920er Jahren von Ronald Aylmer Fisher,[2][3] der glaubte, es sei ein in sich geschlossenes Rahmenwerk für statistische Modellierung und Inferenz. Später führten George Alfred Barnard und Allan Birnbaum eine wissenschaftliche Schule an, die das Plausibilitätsprinzip vertrat, das postulierte, dass alle relevanten Informationen für die statistische Inferenz in der Likelihood-Funktion enthalten sind.

Definition

[Bearbeiten | Quelltext bearbeiten]

Gegeben sei eine Wahrscheinlichkeitsdichtefunktion oder eine Zähldichte

f : R n → R {\displaystyle f\colon \mathbb {R} ^{n}\to \mathbb {R} } {\displaystyle f\colon \mathbb {R} ^{n}\to \mathbb {R} },

welche noch zusätzlich von einem oder mehreren Parametern ϑ {\displaystyle \vartheta } {\displaystyle \vartheta } aus einer Parametermenge Θ {\displaystyle \Theta } {\displaystyle \Theta } abhängt. Es ist also f = f ϑ ( x ) {\displaystyle f=f_{\vartheta }(x)} {\displaystyle f=f_{\vartheta }(x)}. Dann heißt die Funktion

L : Θ → R {\displaystyle L\colon \Theta \to \mathbb {R} } {\displaystyle L\colon \Theta \to \mathbb {R} },

die durch

L x ( ϑ ) = f ϑ ( x ) {\displaystyle L_{x}(\vartheta )=f_{\vartheta }(x)} {\displaystyle L_{x}(\vartheta )=f_{\vartheta }(x)}

definiert wird, die Likelihood-Funktion.[4][5] Die Dichtefunktion wird somit zur Likelihood-Funktion, indem man den Parameter ϑ {\displaystyle \vartheta } {\displaystyle \vartheta } als Variable auffasst und die Variable x {\displaystyle x} {\displaystyle x} als Parameter behandelt. Wird ein konkretes x ~ ∈ R n {\displaystyle {\tilde {x}}\in \mathbb {R} ^{n}} {\displaystyle {\tilde {x}}\in \mathbb {R} ^{n}} fixiert, so nennt man auch L x ~ ( ϑ ) {\displaystyle L_{\tilde {x}}(\vartheta )} {\displaystyle L_{\tilde {x}}(\vartheta )} die Likelihood-Funktion zum Beobachtungswert x ~ {\displaystyle {\tilde {x}}} {\displaystyle {\tilde {x}}}.[1] Im Falle einer Zähldichte gibt L x ~ ( ϑ ) {\displaystyle L_{\tilde {x}}(\vartheta )} {\displaystyle L_{\tilde {x}}(\vartheta )} somit die Wahrscheinlichkeit von x ~ {\displaystyle {\tilde {x}}} {\displaystyle {\tilde {x}}} bei gegebenem Parameter ϑ {\displaystyle \vartheta } {\displaystyle \vartheta } an.

Beispiele

[Bearbeiten | Quelltext bearbeiten]

Wahrscheinlichkeitsdichte

[Bearbeiten | Quelltext bearbeiten]

Betrachtet man n {\displaystyle n} {\displaystyle n} unabhängig und identisch normalverteilte Zufallsvariablen X 1 , X 2 , … , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} {\displaystyle X_{1},X_{2},\dots ,X_{n}} mit unbekanntem Erwartungswert μ ∈ ( − ∞ , ∞ ) {\displaystyle \mu \in (-\infty ,\infty )} {\displaystyle \mu \in (-\infty ,\infty )} und unbekannter Varianz σ 2 > 0 {\displaystyle \sigma ^{2}>0} {\displaystyle \sigma ^{2}>0}, so besitzt X = ( X 1 , X 2 , … , X n ) {\displaystyle X=(X_{1},X_{2},\dots ,X_{n})} {\displaystyle X=(X_{1},X_{2},\dots ,X_{n})} aufgrund der Unabhängigkeitsannahme die Wahrscheinlichkeitsdichtefunktion

f μ ; σ 2 ( x 1 , x 2 , … , x n ) = ∏ i = 1 n 1 2 π σ 2 exp ⁡ ( − ( x i − μ ) 2 2 σ 2 ) = ( 2 π σ 2 ) − n / 2 exp ⁡ ( − 1 2 σ 2 ∑ i = 1 n ( x i − μ ) 2 ) {\displaystyle f_{\mu ;\sigma ^{2}}(x_{1},x_{2},\dots ,x_{n})=\prod _{i=1}^{n}{\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp {\left(-{\frac {(x_{i}-\mu )^{2}}{2\sigma ^{2}}}\right)}=\left(2\pi \sigma ^{2}\right)^{-n/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}\right)} {\displaystyle f_{\mu ;\sigma ^{2}}(x_{1},x_{2},\dots ,x_{n})=\prod _{i=1}^{n}{\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp {\left(-{\frac {(x_{i}-\mu )^{2}}{2\sigma ^{2}}}\right)}=\left(2\pi \sigma ^{2}\right)^{-n/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}\right)}

Somit ist der Parameter gegeben als ϑ = ( μ , σ 2 ) {\displaystyle \vartheta =(\mu ,\sigma ^{2})} {\displaystyle \vartheta =(\mu ,\sigma ^{2})} und stammt aus der Parametermenge Θ = R × ( 0 , ∞ ) {\displaystyle \Theta =\mathbb {R} \times (0,\infty )} {\displaystyle \Theta =\mathbb {R} \times (0,\infty )}. Folglich ist die Likelihood-Funktion

L x ( μ , σ 2 ) = ( 2 π σ 2 ) − n / 2 exp ⁡ ( − 1 2 σ 2 ∑ i = 1 n ( x i − μ ) 2 ) {\displaystyle L_{x}(\mu ,\sigma ^{2})=\left(2\pi \sigma ^{2}\right)^{-n/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}\right)} {\displaystyle L_{x}(\mu ,\sigma ^{2})=\left(2\pi \sigma ^{2}\right)^{-n/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}\right)},

sie stimmt also mit der Dichtefunktion überein, mit dem Unterschied, dass μ {\displaystyle \mu } {\displaystyle \mu } und σ 2 {\displaystyle \sigma ^{2}} {\displaystyle \sigma ^{2}} die Variablen sind und x = ( x 1 , x 2 , … , x n ) {\displaystyle x=(x_{1},x_{2},\dots ,x_{n})} {\displaystyle x=(x_{1},x_{2},\dots ,x_{n})} als Parameter behandelt wird. Für korrelierte Zufallsvariablen erhält man die Likelihood-Funktion nicht als einfaches Produkt und sie muss anders als oben dargestellt berechnet werden[6].

Setzt man n = 2 {\displaystyle n=2} {\displaystyle n=2} und x ~ = ( 1 , 2 ) {\displaystyle {\tilde {x}}=(1,2)} {\displaystyle {\tilde {x}}=(1,2)}, so ist die Likelihood-Funktion unter Annahme von Unabhängigkeit zum Beobachtungswert x ~ {\displaystyle {\tilde {x}}} {\displaystyle {\tilde {x}}}

L x ~ ( μ , σ 2 ) = ( 2 π σ 2 ) − 1 exp ⁡ ( − 1 2 σ 2 ( ( 1 − μ ) 2 + ( 2 − μ ) 2 ) ) {\displaystyle L_{\tilde {x}}(\mu ,\sigma ^{2})=\left(2\pi \sigma ^{2}\right)^{-1}\exp \left(-{\frac {1}{2\sigma ^{2}}}\left((1-\mu )^{2}+(2-\mu )^{2}\right)\right)} {\displaystyle L_{\tilde {x}}(\mu ,\sigma ^{2})=\left(2\pi \sigma ^{2}\right)^{-1}\exp \left(-{\frac {1}{2\sigma ^{2}}}\left((1-\mu )^{2}+(2-\mu )^{2}\right)\right)}.

Zähldichte

[Bearbeiten | Quelltext bearbeiten]

Ist X {\displaystyle X} {\displaystyle X} eine zum Parameter p {\displaystyle p} {\displaystyle p} binomialverteilte Zufallsvariable bei fixiertem n {\displaystyle n} {\displaystyle n}, also

X ∼ Bin n , p {\displaystyle X\sim \operatorname {Bin} _{n,p}} {\displaystyle X\sim \operatorname {Bin} _{n,p}},

so besitzt sie die Zähldichte

f p ( k ) = ( n k ) p k ( 1 − p ) n − k {\displaystyle f_{p}(k)={\binom {n}{k}}p^{k}(1-p)^{n-k}} {\displaystyle f_{p}(k)={\binom {n}{k}}p^{k}(1-p)^{n-k}}

für k = 0 , 1 , … , n {\displaystyle k=0,1,\dots ,n} {\displaystyle k=0,1,\dots ,n}. Folglich ist die Likelihood-Funktion von der Form

L k ( p ) = ( n k ) p k ( 1 − p ) n − k {\displaystyle L_{k}(p)={\binom {n}{k}}p^{k}(1-p)^{n-k}} {\displaystyle L_{k}(p)={\binom {n}{k}}p^{k}(1-p)^{n-k}}

mit ϑ = p {\displaystyle \vartheta =p} {\displaystyle \vartheta =p} und Θ = ( 0 , 1 ) {\displaystyle \Theta =(0,1)} {\displaystyle \Theta =(0,1)}. Die Likelihood-Funktion zum Beobachtungswert k = 2 {\displaystyle k=2} {\displaystyle k=2} ist dann gegeben durch

L 2 ( p ) = ( n 2 ) p 2 ( 1 − p ) n − 2 {\displaystyle L_{2}(p)={\binom {n}{2}}p^{2}(1-p)^{n-2}} {\displaystyle L_{2}(p)={\binom {n}{2}}p^{2}(1-p)^{n-2}}.

Verwendung

[Bearbeiten | Quelltext bearbeiten]
→ Hauptartikel: Maximum-Likelihood-Methode

Hauptverwendung findet die Likelihood-Funktion bei der Maximum-Likelihood-Methode, einer intuitiv gut zugänglichen Schätzmethode zur Schätzung eines unbekannten Parameters ϑ {\displaystyle \vartheta } {\displaystyle \vartheta }. Dabei geht man bei einem Beobachtungsergebnis x ~ = ( x 1 , x 2 , … , x n ) {\displaystyle {\tilde {x}}=(x_{1},x_{2},\dots ,x_{n})} {\displaystyle {\tilde {x}}=(x_{1},x_{2},\dots ,x_{n})} davon aus, dass dieses ein „typisches“ Beobachtungsergebnis ist in dem Sinne, dass es sehr wahrscheinlich ist, solch ein Ergebnis zu erhalten. Die Wahrscheinlichkeit dafür, x ~ {\displaystyle {\tilde {x}}} {\displaystyle {\tilde {x}}} zu erhalten hängt von der Wahrscheinlichkeitsdichtefunktion f ϑ {\displaystyle f_{\vartheta }} {\displaystyle f_{\vartheta }} und damit auch von ϑ {\displaystyle \vartheta } {\displaystyle \vartheta } ab. Daher gibt man als Schätzung für den unbekannten Parameter denjenigen Parameter ϑ {\displaystyle \vartheta } {\displaystyle \vartheta } an, für den die Wahrscheinlichkeit des Eintretens von x ~ {\displaystyle {\tilde {x}}} {\displaystyle {\tilde {x}}} maximal ist. Dafür betrachtet man die Likelihood-Funktion zum Beobachtungswert x ~ {\displaystyle {\tilde {x}}} {\displaystyle {\tilde {x}}} und sucht ein ϑ ~ {\displaystyle {\tilde {\vartheta }}} {\displaystyle {\tilde {\vartheta }}}, so dass

L x ~ ( ϑ ~ ) ≥ L x ~ ( ϑ ) f u ¨ r a l l e ϑ ∈ Θ {\displaystyle L_{\tilde {x}}({\tilde {\vartheta }})\geq L_{\tilde {x}}(\vartheta )\quad \mathrm {f{\ddot {u}}r\;alle\;} \vartheta \in \Theta } {\displaystyle L_{\tilde {x}}({\tilde {\vartheta }})\geq L_{\tilde {x}}(\vartheta )\quad \mathrm {f{\ddot {u}}r\;alle\;} \vartheta \in \Theta }.

Dies entspricht der Bestimmung einer Maximalstelle der Likelihood-Funktion, welche meist durch Nullsetzen der Ableitung bestimmt wird:

d d ϑ L x ~ ( ϑ ) = 0 {\displaystyle {\frac {\rm {d}}{{\rm {d}}\vartheta }}L_{\tilde {x}}(\vartheta )=0} {\displaystyle {\frac {\rm {d}}{{\rm {d}}\vartheta }}L_{\tilde {x}}(\vartheta )=0}.

Ist diese Gleichung schwer zu lösen, bietet sich die Log-Likelihood-Funktion als Hilfsmittel an.

Aufbauende Begriffe

[Bearbeiten | Quelltext bearbeiten]

Log-Likelihood-Funktion

[Bearbeiten | Quelltext bearbeiten]

Definition

[Bearbeiten | Quelltext bearbeiten]

Die Log-Likelihood-Funktion (auch logarithmische Plausibilitätsfunktion genannt[7]) L x {\displaystyle {\mathcal {L}}_{x}} {\displaystyle {\mathcal {L}}_{x}} ist definiert als der (natürliche) Logarithmus aus der Likelihood-Funktion,[5] also (beachte Kalligrafie in der Formel)

L x ( ϑ ) = ln ⁡ ( L x ( ϑ ) ) {\displaystyle {\mathcal {L}}_{x}(\vartheta )=\ln \left(L_{x}(\vartheta )\right)} {\displaystyle {\mathcal {L}}_{x}(\vartheta )=\ln \left(L_{x}(\vartheta )\right)}.

Teils wird die Log-Likelihood-Funktion auch mit ℓ {\displaystyle \ell } {\displaystyle \ell } oder l {\displaystyle l} {\displaystyle l} bezeichnet.[8]

Beispiele

[Bearbeiten | Quelltext bearbeiten]

Aufbauend auf den obigen beiden Beispielen für die Likelihood-Funktion gilt im Falle der unabhängig und identisch normalverteilten Zufallsvariablen für die Log-Likelihood-Funktion

L x ( μ , σ 2 ) = − n 2 ln ⁡ ( 2 π σ 2 ) − 1 2 σ 2 ∑ i = 1 n ( x i − μ ) 2 {\displaystyle {\mathcal {L}}_{x}(\mu ,\sigma ^{2})=-{\frac {n}{2}}\ln \left(2\pi \sigma ^{2}\right)-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}} {\displaystyle {\mathcal {L}}_{x}(\mu ,\sigma ^{2})=-{\frac {n}{2}}\ln \left(2\pi \sigma ^{2}\right)-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}}.

Im Falle der Binomialverteilung gilt für die Log-Likelihood-Funktion

L k ( p ) = ln ⁡ ( ( n k ) ) + k ln ⁡ ( p ) + ( n − k ) ln ⁡ ( 1 − p ) {\displaystyle {\mathcal {L}}_{k}(p)=\ln \left({\binom {n}{k}}\right)+k\ln(p)+(n-k)\ln(1-p)} {\displaystyle {\mathcal {L}}_{k}(p)=\ln \left({\binom {n}{k}}\right)+k\ln(p)+(n-k)\ln(1-p)}.

Beides folgt aus den Rechenregeln für den Logarithmus (siehe Logarithmengesetze).

Eigenschaften

[Bearbeiten | Quelltext bearbeiten]

Da der Logarithmus eine streng monoton wachsende Funktion ist, ist jedes Minimum der Log-Likelihood-Funktion auch ein Minimum der Likelihood-Funktion. Ebenso ist jedes Maximum der Log-Likelihood-Funktion auch ein Maximum der Likelihood-Funktion.

Außerdem ist die Log-Likelihood-Funktion bei unabhängig und identisch verteilten Zufallsvariablen additiv. Das bedeutet, dass wenn X 1 , X 2 , … , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} {\displaystyle X_{1},X_{2},\dots ,X_{n}} unabhängig und identisch verteilte Zufallsvariablen mit Dichte f ϑ ( x i ) {\displaystyle f_{\vartheta }(x_{i})} {\displaystyle f_{\vartheta }(x_{i})} und Log-Likelihood-Funktion L x i ( ϑ ) {\displaystyle {\mathcal {L}}_{x_{i}}(\vartheta )} {\displaystyle {\mathcal {L}}_{x_{i}}(\vartheta )} sind, so besitzt X = ( X 1 , X 2 , … , X n ) {\displaystyle X=(X_{1},X_{2},\dots ,X_{n})} {\displaystyle X=(X_{1},X_{2},\dots ,X_{n})} die Log-Likelihood-Funktion

L x X ( ϑ ) = ∑ i = 1 n L x i ( ϑ ) {\displaystyle {\mathcal {L}}_{x}^{X}(\vartheta )=\sum _{i=1}^{n}{\mathcal {L}}_{x_{i}}(\vartheta )} {\displaystyle {\mathcal {L}}_{x}^{X}(\vartheta )=\sum _{i=1}^{n}{\mathcal {L}}_{x_{i}}(\vartheta )}.

Dies folgt direkt aus der Tatsache, dass die Dichten von X {\displaystyle X} {\displaystyle X} als Produkt gebildet werden, und den Rechenregeln des Logarithmus.

Verwendung

[Bearbeiten | Quelltext bearbeiten]

Da die Log-Likelihood-Funktion dieselben Maximalstellen besitzt wie die Likelihood-Funktion, ist sie ein gängiges Hilfsmittel zur Lösung der Gleichung

d d ϑ L x ~ ( ϑ ) = 0 {\displaystyle {\frac {\rm {d}}{{\rm {d}}\vartheta }}L_{\tilde {x}}(\vartheta )=0} {\displaystyle {\frac {\rm {d}}{{\rm {d}}\vartheta }}L_{\tilde {x}}(\vartheta )=0},

welche bei der Maximum-Likelihood-Methode anfällt. Anstelle dieser Gleichung wird dann die Gleichung

d d ϑ L x ~ ( ϑ ) = 0 {\displaystyle {\frac {\rm {d}}{{\rm {d}}\vartheta }}{\mathcal {L}}_{\tilde {x}}(\vartheta )=0} {\displaystyle {\frac {\rm {d}}{{\rm {d}}\vartheta }}{\mathcal {L}}_{\tilde {x}}(\vartheta )=0}

gelöst. Insbesondere die Additivität der Log-Likelihood-Funktion bei unabhängig und identisch verteilten Zufallsvariablen erleichtert das Lösen der Gleichung in vielen Fällen.

Score-Funktion

[Bearbeiten | Quelltext bearbeiten]

Definition

[Bearbeiten | Quelltext bearbeiten]

In einparametrigen Modellen definiert man die Score-Funktion als erste Ableitung der Log-Likelihood-Funktion[9]

S ϑ ( x ) := ∂ ∂ ϑ ln ⁡ ( L x ( ϑ ) ) = 1 L x ( ϑ ) ⋅ d d ϑ L x ( ϑ ) {\displaystyle S_{\vartheta }(x):={\frac {\partial }{\partial \vartheta }}\ln(L_{x}(\vartheta ))={\frac {1}{L_{x}(\vartheta )}}\cdot {\frac {\rm {d}}{{\rm {d}}\vartheta }}L_{x}(\vartheta )} {\displaystyle S_{\vartheta }(x):={\frac {\partial }{\partial \vartheta }}\ln(L_{x}(\vartheta ))={\frac {1}{L_{x}(\vartheta )}}\cdot {\frac {\rm {d}}{{\rm {d}}\vartheta }}L_{x}(\vartheta )}

Sie ist also die logarithmische Ableitung der Likelihood-Funktion. Die Score-Funktion gibt die Steigung der Log-Likelihood-Funktion an der jeweiligen Stelle an und muss nicht immer existieren. Sie taucht ebenfalls bei der Fisher-Information auf.

Beispiel

[Bearbeiten | Quelltext bearbeiten]
Siehe auch: Scoring rule

Für die Binomialverteilung wurde oben bereits gezeigt, dass die Likelihood-Funktion von der Form

L k ( p ) = ( n k ) p k ( 1 − p ) n − k {\displaystyle L_{k}(p)={\binom {n}{k}}p^{k}(1-p)^{n-k}} {\displaystyle L_{k}(p)={\binom {n}{k}}p^{k}(1-p)^{n-k}}

ist. Daher ist

ln ⁡ ( L k ( p ) ) = L x ( p ) = ln ⁡ ( ( n k ) ) + k ln ⁡ ( p ) + ( n − k ) ln ⁡ ( 1 − p ) {\displaystyle \ln \left(L_{k}(p)\right)={\mathcal {L}}_{x}(p)=\ln \left({\binom {n}{k}}\right)+k\ln(p)+(n-k)\ln(1-p)} {\displaystyle \ln \left(L_{k}(p)\right)={\mathcal {L}}_{x}(p)=\ln \left({\binom {n}{k}}\right)+k\ln(p)+(n-k)\ln(1-p)}.

Leitet man diese Funktion nach p {\displaystyle p} {\displaystyle p} ab, so fällt der erste Term als Konstante weg und mit den Ableiteregeln für den Logarithmus (siehe Ableitung und Integral) folgt

S ( k ) = k ⋅ 1 p + ( n − k ) ⋅ − 1 1 − p = k − n p p ( 1 − p ) {\displaystyle S(k)=k\cdot {\frac {1}{p}}+(n-k)\cdot {\frac {-1}{1-p}}={\frac {k-np}{p(1-p)}}} {\displaystyle S(k)=k\cdot {\frac {1}{p}}+(n-k)\cdot {\frac {-1}{1-p}}={\frac {k-np}{p(1-p)}}}

für die Score-Funktion.

Verteilung

[Bearbeiten | Quelltext bearbeiten]

Die Score-Funktion ist asymptotisch normalverteilt mit Erwartungswert Null und Varianz als Erwartungswert der Fisher-Information F ( ϑ ) {\displaystyle F(\vartheta )} {\displaystyle F(\vartheta )} (auch Erwartete Fisher-Information genannt):[10]

S ( ϑ ) E ⁡ ( F ( ϑ ) ) ∼ a N ( 0 , 1 ) {\displaystyle {\frac {S(\vartheta )}{\sqrt {\operatorname {E} (F(\vartheta ))}}}\;{\stackrel {a}{\sim }}\;{\mathcal {N}}(0,1)\quad } {\displaystyle {\frac {S(\vartheta )}{\sqrt {\operatorname {E} (F(\vartheta ))}}}\;{\stackrel {a}{\sim }}\;{\mathcal {N}}(0,1)\quad } bzw. S ( ϑ ) ∼ a N ( 0 , E ⁡ ( F ( ϑ ) ) ) {\displaystyle \quad S(\vartheta )\;{\stackrel {a}{\sim }}\;{\mathcal {N}}(0,\operatorname {E} (F(\vartheta )))} {\displaystyle \quad S(\vartheta )\;{\stackrel {a}{\sim }}\;{\mathcal {N}}(0,\operatorname {E} (F(\vartheta )))}.

Pseudo-Likelihood-Funktion

[Bearbeiten | Quelltext bearbeiten]

Für die Lösung des Maximum-Likelihood-Problems ist nur das Auffinden des Maximums der Likelihood-Funktion von Belang. Dies ist einer der Gründe, warum die Maximum-Likelihood-Methode oft auch funktioniert, obwohl die Voraussetzungen nicht erfüllt sind. In den folgenden Fällen spricht man von einer Pseudo-Likelihood-Funktion:

  • die Verteilungsvoraussetzungen für die Maximum-Likelihood-Methode sind nicht erfüllt: Man nennt dann die Likelihood-Funktion eine Pseudo-Likelihood-Funktion und
  • die eigentliche Likelihood-Funktion oder Log-Likelihood-Funktion ist zu schwierig zu maximieren und wird z. B. durch eine geglättete Version ersetzt und diese Pseudo-Likelihood-Funktion wird dann maximiert.

Kern der Likelihood-Funktion

[Bearbeiten | Quelltext bearbeiten]

Den Kern der Likelihood-Funktion (Kern der Plausibilitätsfunktion) erhält man aus der Likelihood-Funktion, indem man alle multiplikativen Konstanten vernachlässigt. Für gewöhnlich wird mit L x ( ϑ ) {\displaystyle L_{x}(\vartheta )} {\displaystyle L_{x}(\vartheta )} sowohl die Likelihood-Funktion als auch deren Kern bezeichnet. Die Verwendung der Log-Likelihood-Funktion L x ( ϑ ) {\displaystyle {\mathcal {L}}_{x}(\vartheta )} {\displaystyle {\mathcal {L}}_{x}(\vartheta )} ist häufig numerisch sinnvoll. Multiplikative Konstanten in L x ( ϑ ) {\displaystyle L_{x}(\vartheta )} {\displaystyle L_{x}(\vartheta )} wandeln sich dann in additive Konstanten in L x ( ϑ ) {\displaystyle {\mathcal {L}}_{x}(\vartheta )} {\displaystyle {\mathcal {L}}_{x}(\vartheta )}, die wiederum häufig ignoriert werden können. Eine Log-Likelihood-Funktion ohne additive Konstanten wird Kern der Log-Likelihood-Funktion genannt. Auch hier wird gewöhnlich mit L x ( ϑ ) {\displaystyle {\mathcal {L}}_{x}(\vartheta )} {\displaystyle {\mathcal {L}}_{x}(\vartheta )} sowohl die Log-Likelihood-Funktion als auch deren Kern bezeichnet.[11] Beispielsweise wäre der Kern der Log-Likelihood-Funktion einer Normalverteilung mit unbekanntem Erwartungswert μ {\displaystyle \mu } {\displaystyle \mu } und bekannter Varianz σ 2 {\displaystyle \sigma ^{2}} {\displaystyle \sigma ^{2}}:[12]

L x ( μ ) = − 1 2 σ 2 ∑ i = 1 n ( x i − μ ) 2 {\displaystyle {\mathcal {L}}_{x}(\mu )=-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}} {\displaystyle {\mathcal {L}}_{x}(\mu )=-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}}.

Siehe auch

[Bearbeiten | Quelltext bearbeiten]
  • Pseudo-R-squared

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ a b Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 203, doi:10.1515/9783110215274. 
  2. ↑ Fisher, On the "probable error" of a coefficient of correlation deduced from a small sample, Metron, Band 1, 1921, S. 3–32.
  3. ↑ Fisher, On the mathematical foundations of theoretical statistics, Philosophical Transactions of the Royal Society A, Band 222, 1922, S. 309–368.
  4. ↑ Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, S. 162, doi:10.1007/978-3-642-41997-3. 
  5. ↑ a b Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Für Studium, Berufspraxis und Lehramt. 8. Auflage. Vieweg, Wiesbaden 2005, ISBN 3-8348-0063-5, S. 62, doi:10.1007/978-3-663-09885-0. 
  6. ↑ Joseph L. Neuringer, Alan Kaplan: Maximum likelihood equations for a correlated multivariate normal distribution. In: International Journal of Mathematical Education in Science and Technology. Band 14, Nr. 4, 1. Juli 1983, ISSN 0020-739X, S. 441–444, doi:10.1080/0020739830140408. 
  7. ↑ Reinhard Viertl: "Einführung in die Stochastik: mit Elementen der Bayes-Statistik und Ansätzen für die Analyse unscharfer Daten." Springer-Verlag, 2013, S. 110.
  8. ↑ Claudia Czado, Thorsten Schmidt: Mathematische Statistik. Springer-Verlag, Berlin Heidelberg 2011, ISBN 978-3-642-17260-1, S. 85, doi:10.1007/978-3-642-17261-8. 
  9. ↑ Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 201, doi:10.1515/9783110215274. 
  10. ↑ Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 87.
  11. ↑ Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 15.
  12. ↑ Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 27. ff.
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Likelihood-Funktion&oldid=238627072“
Kategorie:
  • Schätztheorie

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id