Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Devianz (Statistik) – Wikipedia
Devianz (Statistik) – Wikipedia 👆 Click Here!
aus Wikipedia, der freien Enzyklopädie

In der Statistik ist die Devianz (Abweichung vom Idealwert) ein zentrales Maß für die Bewertung der Anpassungsgüte von Schätzungen statistischen Modellen und wird oft beim Testen von Hypothesen verwendet. Die Devianz vergleicht die Log-Likelihood eines Modells mit einem gesättigten Modell (welches perfekt an die Daten angepasst ist).

Bei linearen Regressionsmodellen, deren Parameter mit der Methode der kleinsten Quadrate bestimmt werden, entspricht die Devianz der Summe der Abweichungsquadrate (SQ). Sie ist eine Verallgemeinerung des Konzepts der Residuenquadratsumme in der KQ-Regression auf Fälle, in denen die Modellanpassung durch eine Maximum-Likelihood-Schätzung erfolgt. Daher spielt die Devianz eine große Rolle in verallgemeinerten linearen Modellen.

Begriffsherkunft

[Bearbeiten | Quelltext bearbeiten]

Der Begriff Devianz (von lateinisch deviare, französisch dévier, deutsch abweichen) hat seinen Ursprung in der Soziologie und bezeichnet dort die Abweichung von allgemeinen Normen und Wertvorstellungen.[1]

Definition

[Bearbeiten | Quelltext bearbeiten]

Die Devianz ist eine Statistik, die verwendet wird, um angeben zu können, wie stark die Anpassung eines gerade betrachteten Modells von dem Modell abweicht, das eine perfekte Anpassung an die Daten liefert – einem sogenannten gesättigten Modell. Das gesättigte Modell erlaubt unterschiedliche Regressionsparameter für jedes Individuum. Die Devianz ist gegeben durch

D = − 2 ( log ⁡ L ^ a − log ⁡ L ^ g ) {\displaystyle D=-2\left(\log {\hat {\mathcal {L}}}_{a}-\log {\hat {\mathcal {L}}}_{g}\right)} {\displaystyle D=-2\left(\log {\hat {\mathcal {L}}}_{a}-\log {\hat {\mathcal {L}}}_{g}\right)},

wobei L ^ a {\displaystyle {\hat {\mathcal {L}}}_{a}} {\displaystyle {\hat {\mathcal {L}}}_{a}} die maximierte partielle Likelihoodfunktion (auch Plausibilitätsfunktion genannt) unter dem aktuellen Modell und L ^ g {\displaystyle {\hat {\mathcal {L}}}_{g}} {\displaystyle {\hat {\mathcal {L}}}_{g}} die maximierte partielle Likelihoodfunktion unter dem gesättigten Modell (dem Modell, in dem genauso viele Parameter wie Beobachtungspaare auftreten) ist. Unter Verwendung der Logarithmengesetze lässt sich die Devianz auch mithilfe eines Likelihood-Quotienten bzw. Plausibilitätsquotienten ausdrücken.[1]

D = − 2 log ⁡ ( L ^ a L ^ g ) = log ⁡ ( L ^ g L ^ a ) 2 {\displaystyle D=-2\log \left({\frac {{\hat {\mathcal {L}}}_{a}}{{\hat {\mathcal {L}}}_{g}}}\right)=\log \left({\frac {{\hat {\mathcal {L}}}_{g}}{{\hat {\mathcal {L}}}_{a}}}\right)^{2}} {\displaystyle D=-2\log \left({\frac {{\hat {\mathcal {L}}}_{a}}{{\hat {\mathcal {L}}}_{g}}}\right)=\log \left({\frac {{\hat {\mathcal {L}}}_{g}}{{\hat {\mathcal {L}}}_{a}}}\right)^{2}}

Der Vorfaktor − 2 {\displaystyle -2} {\displaystyle -2} ist notwendig, um eine Größe zu erhalten, die eine bekannte Verteilung besitzt und daher für Hypothesentests verwendet werden kann. Je kleiner der Wert der Devianz D {\displaystyle D} {\displaystyle D}, desto besser das Modell. Für das gesättigte Modell ist die Devianz log ⁡ 1 = 0 {\displaystyle \log 1=0} {\displaystyle \log 1=0}. Die Devianz kann als eine Verallgemeinerung der Residuenquadratsumme, die bei normalverteilten Daten verwendet wird (siehe Klassisches lineares Modell der Normalregression), aufgefasst werden – hin zur Analyse von nicht normalverteilten Daten in verallgemeinerten linearen Modellen. Zu beachten ist, dass ein Unterschied in der Devianz zwischen zwei alternativen Modellen dem Unterschied im Wert der Statistik − 2 log ⁡ L ^ {\displaystyle -2\log {\hat {\mathcal {L}}}} {\displaystyle -2\log {\hat {\mathcal {L}}}} entspricht.[2]

Eigenschaften

[Bearbeiten | Quelltext bearbeiten]

Betrachtet man zwei statistische Modelle mit Likelihood-Funktionen L θ j ( y ) {\displaystyle {\mathcal {L}}_{\theta _{j}}(y)} {\displaystyle {\mathcal {L}}_{\theta _{j}}(y)} für j = 1 , 2 {\displaystyle j=1,2} {\displaystyle j=1,2} und den Kullback-Leibler-Divergenzen

KL ⁡ ( P , L θ j ) = ∑ y ∈ Y P ( y ) ⋅ log ⁡ P ( y ) L θ j ( y ) , j = 1 , 2 , {\displaystyle \operatorname {KL} (P,{\mathcal {L}}_{\theta _{j}})=\sum _{y\in Y}P(y)\cdot \log {\frac {P(y)}{{\mathcal {L}}_{\theta _{j}}(y)}},\quad j=1,2\;,} {\displaystyle \operatorname {KL} (P,{\mathcal {L}}_{\theta _{j}})=\sum _{y\in Y}P(y)\cdot \log {\frac {P(y)}{{\mathcal {L}}_{\theta _{j}}(y)}},\quad j=1,2\;,}

mit Y ∼ P {\displaystyle Y\sim P} {\displaystyle Y\sim P}, so ist die Differenz der Kullback-Leibler-Divergenzen

KL ⁡ ( P , L θ 1 ) − KL ⁡ ( P , L θ 2 ) = ∑ y ∈ Y P ( y ) ⋅ log ⁡ L θ 2 ( y ) L θ 1 ( y ) = E y [ log ⁡ L θ 2 ( y ) ) − log ⁡ ( L θ 1 ( y ) ) ] , {\displaystyle \operatorname {KL} (P,{\mathcal {L}}_{\theta _{1}})-\operatorname {KL} (P,{\mathcal {L}}_{\theta _{2}})=\sum _{y\in Y}P(y)\cdot \log {\frac {{\mathcal {L}}_{\theta _{2}}(y)}{{\mathcal {L}}_{\theta _{1}}(y)}}=E_{y}\left[\log {\mathcal {L}}_{\theta _{2}}(y))-\log({\mathcal {L}}_{\theta _{1}}(y))\right],} {\displaystyle \operatorname {KL} (P,{\mathcal {L}}_{\theta _{1}})-\operatorname {KL} (P,{\mathcal {L}}_{\theta _{2}})=\sum _{y\in Y}P(y)\cdot \log {\frac {{\mathcal {L}}_{\theta _{2}}(y)}{{\mathcal {L}}_{\theta _{1}}(y)}}=E_{y}\left[\log {\mathcal {L}}_{\theta _{2}}(y))-\log({\mathcal {L}}_{\theta _{1}}(y))\right],}

welche als Erwartungswert der Differenz zweier Devianzen ausgedrückt werden kann[3]:

KL ⁡ ( P , L θ 1 ) − KL ⁡ ( P , L θ 2 ) = E y ⁡ [ − 1 2 D 2 ( y ) − ( − 1 2 D 1 ( y ) ) ] = − 1 2 E y [ D 2 ( y ) − D 1 ( y ) ] , {\displaystyle \operatorname {KL} (P,{\mathcal {L}}_{\theta _{1}})-\operatorname {KL} (P,{\mathcal {L}}_{\theta _{2}})=\operatorname {E} _{y}\left[-{\frac {1}{2}}D_{2}(y)-(-{\frac {1}{2}}D_{1}(y))\right]=-{\frac {1}{2}}E_{y}\left[D_{2}(y)-D_{1}(y)\right],} {\displaystyle \operatorname {KL} (P,{\mathcal {L}}_{\theta _{1}})-\operatorname {KL} (P,{\mathcal {L}}_{\theta _{2}})=\operatorname {E} _{y}\left[-{\frac {1}{2}}D_{2}(y)-(-{\frac {1}{2}}D_{1}(y))\right]=-{\frac {1}{2}}E_{y}\left[D_{2}(y)-D_{1}(y)\right],}

wobei der Index der Devianz das entsprechende Modell identifiziert.

Verwendung

[Bearbeiten | Quelltext bearbeiten]

Die Devianz wird von McFadden zur Definition eines Pseudo-Bestimmtheitsmaßes benutzt:

R M c F a d d e n 2 = 1 − D 1 D 0 . {\displaystyle \mathrm {R_{McFadden}^{2}} =1-{\frac {D_{1}}{D_{0}}}.} {\displaystyle \mathrm {R_{McFadden}^{2}} =1-{\frac {D_{1}}{D_{0}}}.}

Siehe auch

[Bearbeiten | Quelltext bearbeiten]
  • Deviance Information Criterion
  • Pseudo-Bestimmtheitsmaß
  • Robuste Schätzverfahren

Literatur

[Bearbeiten | Quelltext bearbeiten]
  • Trevor Hastie: A closer look at the deviance. In: The American Statistician. Band 41, Nr. 1, 1987, S. 16–20, doi:10.1080/00031305.1987.10475434. 

Weblinks

[Bearbeiten | Quelltext bearbeiten]
  • https://am207.github.io/2018fall/wiki/modelcomparison.html

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ a b Lothar Sachs, Jürgen Hedderich: Angewandte Statistik: Methodensammlung mit R. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2018, ISBN 978-3-662-56657-2, S. 834.
  2. ↑ David Collett: Modelling survival data in medical research. Chapman and Hall / CRC Texts in Statistical Science, 2015. S. 154 ff.
  3. ↑ Trevor Hastie: A closer look at the deviance. In: The American Statistician. Band 41, Nr. 1, 1987, S. 16–20, doi:10.1080/00031305.1987.10475434 (Beachte die um einen Faktor 2 modifizierte Definition der Kullback-Leibler-Divergenz). 
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Devianz_(Statistik)&oldid=256442632“
Kategorien:
  • Statistischer Grundbegriff
  • Globales Gütemaß

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id