Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Standardfehler der Regression – Wikipedia
Standardfehler der Regression – Wikipedia
aus Wikipedia, der freien Enzyklopädie

Der (geschätzte) Standardfehler der Regression (englisch (estimated) standard error of regression, kurz: SER), auch Standardschätzfehler, Standardfehler der Schätzung (englisch standard error of the estimate), oder Quadratwurzel des mittleren quadratischen Fehlers (englisch Root Mean Squared Error, kurz RMSE) ist in der Statistik und dort insbesondere in der Regressionsanalyse Maß für die Genauigkeit der Regression. Er ist definiert als Quadratwurzel des erwartungstreuen Schätzers für die unbekannte Varianz der Störgrößen (der Residualvarianz) und kann als Quadratwurzel des „durchschnittlichen Residuenquadrats“ (englisch root mean squared error, kurz RMSE) interpretiert werden, das bei der Verwendung der berechneten Regressionsgerade zur Vorhersage der Zielvariablen entsteht. Er misst also den durchschnittlichen Abstand der Datenpunkte von der Regressionsgerade. Der Standardfehler der Regression kann verwendet werden, um die Varianzen der Regressionsparameter zu schätzen, da diese von der unbekannten Standardabweichung σ {\displaystyle \sigma } {\displaystyle \sigma } abhängen. Der Standardfehler der Regression und das Bestimmtheitsmaß sind die in der Regressionsanalyse am häufigsten angewendeten Maßzahlen. Allerdings folgt der Standardfehler der Regression einer anderen Philosophie als das Bestimmtheitsmaß. Im Gegensatz zum Bestimmtheitsmaß, das den Erklärungsgehalt des Modells quantifiziert, gibt der Standardfehler der Regression eine Schätzung der Standardabweichung der unbeobachtbaren Effekte, die die Zielgröße beeinflussen (oder äquivalent eine Schätzung der Standardabweichung der unbeobachtbaren Effekte, die die Zielgröße beeinflussen, nachdem die Effekte der erklärenden Variablen herausgenommen wurden). Der Standardfehler der Regression wird meist mit σ ^ {\displaystyle {\hat {\sigma }}} {\displaystyle {\hat {\sigma }}} bzw. SER {\displaystyle {\text{SER}}} {\displaystyle {\text{SER}}} notiert. Gelegentlich wird er auch mit s {\displaystyle s} {\displaystyle s} notiert.[1]

Einführung in die Problemstellung

[Bearbeiten | Quelltext bearbeiten]

Die „Qualität“ der Regression kann mithilfe des geschätzten Standardfehlers der Residuen (engl. residual standard error) beurteilt werden, der zum Standardoutput der meisten statistischen Programmpakete gehört. Der geschätzte Standardfehler der Residuen gibt an, mit welcher Sicherheit die Residuen ε ^ i {\displaystyle {\hat {\varepsilon }}_{i}} {\displaystyle {\hat {\varepsilon }}_{i}} den wahren Störgrößen ε i {\displaystyle \varepsilon _{i}} {\displaystyle \varepsilon _{i}} näherkommen. Die Residuen sind somit eine Approximation der Störgrößen ε i ≈ ε ^ i {\displaystyle \varepsilon _{i}\approx {\hat {\varepsilon }}_{i}} {\displaystyle \varepsilon _{i}\approx {\hat {\varepsilon }}_{i}}. Der geschätzte Standardfehler der Residuen ist mit dem Bestimmtheitsmaß und dem adjustierten Bestimmtheitsmaß vergleichbar und ähnlich zu interpretieren. Der geschätzte Residualstandardfehler ist definiert durch

s ~ = 1 n ∑ i = 1 n ε ^ i 2 {\displaystyle {\tilde {s}}={\sqrt {{\tfrac {1}{n}}\sum \nolimits _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}}}} {\displaystyle {\tilde {s}}={\sqrt {{\tfrac {1}{n}}\sum \nolimits _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}}}}.

Es ist jedoch zu beachten, dass s ~ 2 {\displaystyle {\tilde {s}}^{2}} {\displaystyle {\tilde {s}}^{2}} eine verzerrte Schätzung der wahren Varianz der Störgrößen σ ε 2 = σ 2 {\displaystyle \sigma _{\varepsilon }^{2}=\sigma ^{2}} {\displaystyle \sigma _{\varepsilon }^{2}=\sigma ^{2}} ist, da der verwendete Varianzschätzer nicht erwartungstreu ist. Wenn man berücksichtigt, dass man durch die Schätzung der beiden Regressionsparameter β 0 {\displaystyle \beta _{0}} {\displaystyle \beta _{0}} und β 1 {\displaystyle \beta _{1}} {\displaystyle \beta _{1}} zwei Freiheitsgrade verliert, und dies kompensiert, indem man statt durch den Stichprobenumfang n {\displaystyle n} {\displaystyle n} durch die Anzahl der Freiheitsgrade ( n − 2 ) {\displaystyle (n-2)} {\displaystyle (n-2)} dividiert, erhält man das „mittlere Residuenquadrat“ (Mittlere Quadratsumme der Residuen, kurz: MQR) M Q R = S Q R / ( n − 2 ) {\displaystyle MQR=SQR/(n-2)} {\displaystyle MQR=SQR/(n-2)} und damit die unverzerrte Darstellung. Die Wurzel dieser unverzerrten Darstellung ist als Standardfehler der Regression bekannt.

Definition

[Bearbeiten | Quelltext bearbeiten]

Der Standardfehler der Regression ist definiert als Quadratwurzel der erwartungstreuen Schätzung für die Varianz der Störgrößen, der sogenannten Residualvarianz

σ ^ = + σ ^ 2 {\displaystyle {\hat {\sigma }}=+{\sqrt {{\hat {\sigma }}^{2}}}} {\displaystyle {\hat {\sigma }}=+{\sqrt {{\hat {\sigma }}^{2}}}}.

Der Standardfehler der Regression besitzt die gleiche Einheit wie die Zielgröße. Der Standardfehler der Regression ist in der Regel kleiner als der Standardfehler der y {\displaystyle y} {\displaystyle y}-Werte. Es ist zu beachten, dass der Standardfehler der Regression entweder abnehmen oder zunehmen kann, wenn (für eine bestimmte Stichprobe) eine weitere erklärende Variable dem Regressionsmodell hinzugefügt wird. Dies liegt daran, dass die Residuenquadratsumme stets sinkt, wenn eine andere erklärende Variable dem Regressionsmodell hinzugefügt wird, aber auch die Freiheitsgrade um eins bzw. p fallen. Da die Residuenquadratsumme im Zähler und die Anzahl der Freiheitsgrade im Nenner ist, kann man nicht vorhersagen, welcher Effekt dominiert.[2] Für die Herleitung des Standardfehlers der Regression nimmt man für gewöhnlich an, dass die Residuen unkorreliert sind, einen Erwartungswert von Null und eine homogene Varianz aufweisen (Gauß-Markow-Annahmen). Ist mindestens eine dieser Annahmen verletzt wird der nach obiger Formel berechnete Standardfehler der Regression im Mittel nicht den wahren Wert schätzen liefern, d. h. ein verzerrter Schätzer für die unbekannte Standardabweichung sein.

Einfache lineare Regression

[Bearbeiten | Quelltext bearbeiten]

In der einfachen linearen Regression ist der Standardfehler der Regression definiert durch[3]

σ ^ = + S Q R / ( n − 2 ) = + 1 n − 2 ∑ i = 1 n ε ^ i 2 = + 1 n − 2 ∑ i = 1 n ( y i − b 0 − b 1 x i ) 2 {\displaystyle {\hat {\sigma }}=+{\sqrt {SQR/(n-2)}}=+{\sqrt {{\frac {1}{n-2}}\sum \limits _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}}}=+{\sqrt {{\frac {1}{n-2}}\sum \limits _{i=1}^{n}\left(y_{i}-b_{0}-b_{1}x_{i}\right)^{2}}}} {\displaystyle {\hat {\sigma }}=+{\sqrt {SQR/(n-2)}}=+{\sqrt {{\frac {1}{n-2}}\sum \limits _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}}}=+{\sqrt {{\frac {1}{n-2}}\sum \limits _{i=1}^{n}\left(y_{i}-b_{0}-b_{1}x_{i}\right)^{2}}}}, mit den Kleinste-Quadrate-Schätzern b 1 = ∑ i = 1 n ( x i − x ¯ ) ( y i − y ¯ ) ∑ i = 1 n ( x i − x ¯ ) 2 {\displaystyle b_{1}={\frac {\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})(y_{i}-{\overline {y}})}{\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}\;} {\displaystyle b_{1}={\frac {\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})(y_{i}-{\overline {y}})}{\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}\;} und b 0 = y ¯ − b 1 x ¯ {\displaystyle \;b_{0}={\overline {y}}-b_{1}{\overline {x}}} {\displaystyle \;b_{0}={\overline {y}}-b_{1}{\overline {x}}}, für den Anstieg β 1 {\displaystyle \beta _{1}} {\displaystyle \beta _{1}} und den Achsenabschnitt β 0 {\displaystyle \beta _{0}} {\displaystyle \beta _{0}}.

Die Darstellung ist unverzerrt, da sie durch Einbezug der Freiheitsgrade der Varianzschätzer, wegen E ( σ ^ 2 ) = σ 2 {\displaystyle \mathbb {E} ({\hat {\sigma }}^{2})=\sigma ^{2}} {\displaystyle \mathbb {E} ({\hat {\sigma }}^{2})=\sigma ^{2}}, unter den Gauss-Markov-Annahmen erwartungstreu ist (siehe auch Schätzer für die Varianz der Störgrößen).[4] Der Standardfehler der Regression wird als Quadratwurzel des durchschnittlichen Residuenquadrats berechnet und ist ein eigenständiges Modellgütemaß. Er gibt an, wie groß im Durchschnitt die Abweichung der Messwerte von der Regressionsgerade ausfällt. Je größer der Standardfehler der Regression, desto schlechter beschreibt die Regressionsgerade die Verteilung der Messwerte. Der Standardfehler der Regression ist in der Regel kleiner als der Standardfehler der Zielgröße σ ^ y {\displaystyle {\hat {\sigma }}_{y}} {\displaystyle {\hat {\sigma }}_{y}}. Das Bestimmtheitsmaß wird häufiger angegeben als der Standardfehler der Residuen, obwohl der Standardfehler der Residuen bei der Bewertung Anpassungsgüte möglicherweise aussagekräftiger ist.[5] Wenn der Standardfehler der Regression in der einfachen linearen Regression in die Varianzformeln für β 0 {\displaystyle \beta _{0}} {\displaystyle \beta _{0}} und β 1 {\displaystyle \beta _{1}} {\displaystyle \beta _{1}} eingesetzt wird, dann erhält man erwartungstreue Schätzer für σ β ^ 0 2 {\displaystyle \sigma _{{\hat {\beta }}_{0}}^{2}} {\displaystyle \sigma _{{\hat {\beta }}_{0}}^{2}} und σ β ^ 1 2 {\displaystyle \sigma _{{\hat {\beta }}_{1}}^{2}} {\displaystyle \sigma _{{\hat {\beta }}_{1}}^{2}}[6]

σ ^ β ^ 0 2 = σ ^ 2 ∑ i = 1 n x i 2 n ∑ i = 1 n ( x i − x ¯ ) 2 {\displaystyle {\hat {\sigma }}_{{\hat {\beta }}_{0}}^{2}={\hat {\sigma }}^{2}{\frac {\sum \nolimits _{i=1}^{n}x_{i}^{2}}{n\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}\;} {\displaystyle {\hat {\sigma }}_{{\hat {\beta }}_{0}}^{2}={\hat {\sigma }}^{2}{\frac {\sum \nolimits _{i=1}^{n}x_{i}^{2}}{n\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}\;} und σ ^ β ^ 1 2 = σ ^ 2 1 ∑ i = 1 n ( x i − x ¯ ) 2 {\displaystyle \;{\hat {\sigma }}_{{\hat {\beta }}_{1}}^{2}={\hat {\sigma }}^{2}{\frac {1}{\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}} {\displaystyle \;{\hat {\sigma }}_{{\hat {\beta }}_{1}}^{2}={\hat {\sigma }}^{2}{\frac {1}{\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}}.

Des Weiteren lassen sich mithilfe des Standardfehlers der Residuen Konfidenzintervalle konstruieren.

Multiple lineare Regression

[Bearbeiten | Quelltext bearbeiten]

In der multiplen linearen Regression ist der Standardfehler der Regression definiert durch

σ ^ = + M Q R = + S Q R / ( n − k − 1 ) = + ε ^ ⊤ ε ^ n − k − 1 = + ( y − X b ) ⊤ ( y − X b ) n − k − 1 {\displaystyle {\hat {\sigma }}=+{\sqrt {MQR}}=+{\sqrt {SQR/(n-k-1)}}=+{\sqrt {\frac {{\hat {\boldsymbol {\varepsilon }}}^{\top }{\hat {\boldsymbol {\varepsilon }}}}{n-k-1}}}=+{\sqrt {\frac {\left(\mathbf {y} -\mathbf {X} \mathbf {b} \right)^{\top }\left(\mathbf {y} -\mathbf {X} \mathbf {b} \right)}{n-k-1}}}} {\displaystyle {\hat {\sigma }}=+{\sqrt {MQR}}=+{\sqrt {SQR/(n-k-1)}}=+{\sqrt {\frac {{\hat {\boldsymbol {\varepsilon }}}^{\top }{\hat {\boldsymbol {\varepsilon }}}}{n-k-1}}}=+{\sqrt {\frac {\left(\mathbf {y} -\mathbf {X} \mathbf {b} \right)^{\top }\left(\mathbf {y} -\mathbf {X} \mathbf {b} \right)}{n-k-1}}}} mit dem Kleinste-Quadrate-Schätzer b = ( X ⊤ X ) − 1 X ⊤ y {\displaystyle \mathbf {b} =(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} } {\displaystyle \mathbf {b} =(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} }.

Eine Alternative Darstellung des Standardfehlers der Regression ergibt sich aus der Tatsache, dass sich die Residuenquadratsumme mittels der residuenerzeugenden Matrix auch darstellen lässt als S Q R = ε ^ ⊤ ε ^ = ε ⊤ Q ε {\displaystyle SQR={\hat {\boldsymbol {\varepsilon }}}^{\top }{\hat {\boldsymbol {\varepsilon }}}={\boldsymbol {\varepsilon }}^{\top }\mathbf {Q} {\boldsymbol {\varepsilon }}} {\displaystyle SQR={\hat {\boldsymbol {\varepsilon }}}^{\top }{\hat {\boldsymbol {\varepsilon }}}={\boldsymbol {\varepsilon }}^{\top }\mathbf {Q} {\boldsymbol {\varepsilon }}}. Damit ergibt sich für den Standardfehler der Regression

σ ^ = y ⊤ y − b ⊤ X ⊤ y n − p = y ⊤ Q y n − p = ε ⊤ Q ε n − p {\displaystyle {\hat {\sigma }}={\sqrt {\frac {\mathbf {y} ^{\top }\mathbf {y} -\mathbf {b} ^{\top }\mathbf {X} ^{\top }\mathbf {y} }{n-p}}}={\sqrt {\frac {\mathbf {y} ^{\top }{\boldsymbol {Q}}\mathbf {y} }{n-p}}}={\sqrt {\frac {{\boldsymbol {\varepsilon }}^{\top }{\boldsymbol {Q}}{\boldsymbol {\varepsilon }}}{n-p}}}} {\displaystyle {\hat {\sigma }}={\sqrt {\frac {\mathbf {y} ^{\top }\mathbf {y} -\mathbf {b} ^{\top }\mathbf {X} ^{\top }\mathbf {y} }{n-p}}}={\sqrt {\frac {\mathbf {y} ^{\top }{\boldsymbol {Q}}\mathbf {y} }{n-p}}}={\sqrt {\frac {{\boldsymbol {\varepsilon }}^{\top }{\boldsymbol {Q}}{\boldsymbol {\varepsilon }}}{n-p}}}}

Ersetzt man bei der Standardabweichung des jeweiligen Parameterschätzers Var ⁡ ( b j ) {\displaystyle {\sqrt {\operatorname {Var} (b_{j})}}} {\displaystyle {\sqrt {\operatorname {Var} (b_{j})}}} das unbekannte σ {\displaystyle \sigma } {\displaystyle \sigma } durch das bekannte σ ^ {\displaystyle {\hat {\sigma }}} {\displaystyle {\hat {\sigma }}} ergibt sich der Standardfehler des Regressionskoeffizienten b j {\displaystyle b_{j}} {\displaystyle b_{j}} durch[7]

SE ⁡ ( b j ) = 1 n − p ∑ i = 1 n ε ^ i 2 ( 1 − R j 2 ) ∑ i = 1 n ( x i j − x ¯ j ) 2 {\displaystyle \operatorname {SE} (b_{j})={\sqrt {\frac {{\tfrac {1}{n-p}}\sum \nolimits _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}}{(1-{\mathit {R}}_{j}^{2})\sum \nolimits _{i=1}^{n}(x_{ij}-{\overline {x}}_{j})^{2}}}}} {\displaystyle \operatorname {SE} (b_{j})={\sqrt {\frac {{\tfrac {1}{n-p}}\sum \nolimits _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}}{(1-{\mathit {R}}_{j}^{2})\sum \nolimits _{i=1}^{n}(x_{ij}-{\overline {x}}_{j})^{2}}}}}.

Die Größe der Standardfehler der geschätzten Regressionsparameter hängt also von der Residualvarianz, der Abhängigkeit der erklärenden Variablen untereinander und der Streuung der jeweiligen erklärenden Variablen ab.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ Peter Hackl: Einführung in die Ökonometrie. 2. aktualisierte Auflage, Pearson Deutschland GmbH, 2008., ISBN 978-3-86894-156-2, S. 72.
  2. ↑ Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 102.
  3. ↑ Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 313.
  4. ↑ Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 110.
  5. ↑ A. Colin Cameron, Pravin K. Trivedi: Microeconometrics. Methods and Applications. Cambridge University Press, 2005, ISBN 0-521-84805-9, S. 287.
  6. ↑ Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 58.
  7. ↑ Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education, 2015, S. 101.
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Standardfehler_der_Regression&oldid=251633579“
Kategorien:
  • Regressionsanalyse
  • Statistischer Fehler
  • Globales Gütemaß

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id