Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Lineares Modell – Wikipedia
Lineares Modell – Wikipedia
aus Wikipedia, der freien Enzyklopädie

In der Statistik wird die Bezeichnung lineares Modell (kurz: LM) auf unterschiedliche Arten verwendet und in unterschiedlichen Kontexten. Am häufigsten kommt der Begriff in der Regressionsanalyse vor und wird meistens synonym zu dem Begriff lineares Regressionsmodell benutzt. Dennoch wird die Bezeichnung ebenfalls in der Zeitreihenanalyse verwendet, wo sie eine andere Bedeutung hat. In jedem Fall wird die Attribution „linear“ benutzt, um sich auf eine bestimmte Klasse von Modellen zu beziehen.

Lineare Regressionsmodelle

[Bearbeiten | Quelltext bearbeiten]
→ Hauptartikel: Lineare Regression

Im Fall der linearen Regression definiert man ein lineares Modell wie folgt: Es sei die Zufallsstichprobe ( Y i ; X i 1 , … , X i p ) , i = 1 , … , n {\displaystyle (Y_{i};X_{i1},\ldots ,X_{ip}),\,i=1,\ldots ,n} {\displaystyle (Y_{i};X_{i1},\ldots ,X_{ip}),\,i=1,\ldots ,n} gegeben, mit den Realisierungen X 1 = x 1 , … , X n = x n {\displaystyle X_{1}=x_{1},\ldots ,X_{n}=x_{n}} {\displaystyle X_{1}=x_{1},\ldots ,X_{n}=x_{n}}. Die Beziehung zwischen den abhängigen Variablen Y {\displaystyle Y} {\displaystyle Y} und den unabhängigen Variablen x 1 , … x n {\displaystyle x_{1},\ldots x_{n}} {\displaystyle x_{1},\ldots x_{n}} wird wie folgt formuliert:

Y i = β 0 + β 1 ϕ 1 ( x i 1 ) + … + β p ϕ p ( x i p ) + ε i , i = 1 , … , n {\displaystyle Y_{i}=\beta _{0}+\beta _{1}\phi _{1}(x_{i1})+\ldots +\beta _{p}\phi _{p}(x_{ip})+\varepsilon _{i}\quad ,i=1,\ldots ,n} {\displaystyle Y_{i}=\beta _{0}+\beta _{1}\phi _{1}(x_{i1})+\ldots +\beta _{p}\phi _{p}(x_{ip})+\varepsilon _{i}\quad ,i=1,\ldots ,n},

wobei ϕ 1 , … , ϕ p {\displaystyle \phi _{1},\ldots ,\phi _{p}} {\displaystyle \phi _{1},\ldots ,\phi _{p}} nicht-lineare Funktionen darstellen können. In der obigen Regressionsgleichung stellen die Störterme ε i {\displaystyle \varepsilon _{i}} {\displaystyle \varepsilon _{i}} Zufallsvariablen dar. Das Beiwort ergibt sich aus der Forderung, dass die Regressionsgleichung linear in den Regressionsparametern β j {\displaystyle \beta _{j}} {\displaystyle \beta _{j}} ist. Beispielsweise wäre β j 2 {\displaystyle \beta _{j}^{2}} {\displaystyle \beta _{j}^{2}} nicht zulässig. Alternativ zur obigen Gleichung kann man auch sagen, dass die vorhergesagten Werte der abhängigen Variablen durch die folgende Gleichung gegeben sind:

Y ^ i = b 0 + b 1 ϕ 1 ( x i 1 ) + … + b p ϕ p ( x i p ) , i = 1 , … , n {\displaystyle {\widehat {Y}}_{i}=b_{0}+b_{1}\phi _{1}(x_{i1})+\ldots +b_{p}\phi _{p}(x_{ip})\quad ,i=1,\ldots ,n} {\displaystyle {\widehat {Y}}_{i}=b_{0}+b_{1}\phi _{1}(x_{i1})+\ldots +b_{p}\phi _{p}(x_{ip})\quad ,i=1,\ldots ,n}.

Unter der Annahme, dass die Schätzung der Regressionsparameter und der Fehlervarianz mithilfe der Methode der kleinsten Quadrate durchgeführt wird, ergibt sich folgendes Kleinste-Quadrate-Minimierungskriterium:

Q = ∑ i = 1 n ( Y i − β 0 − β 1 ϕ 1 ( x i 1 ) − … − β p ϕ p ( x i p ) ) 2 → M i n ! {\displaystyle Q=\sum _{i=1}^{n}\left(Y_{i}-\beta _{0}-\beta _{1}\phi _{1}(x_{i1})-\ldots -\beta _{p}\phi _{p}(x_{ip})\right)^{2}\rightarrow \mathrm {Min!} } {\displaystyle Q=\sum _{i=1}^{n}\left(Y_{i}-\beta _{0}-\beta _{1}\phi _{1}(x_{i1})-\ldots -\beta _{p}\phi _{p}(x_{ip})\right)^{2}\rightarrow \mathrm {Min!} }.

Daraus kann man leicht erkennen, dass der „lineare“ Aspekt des Modells folgendes bedeutet:

  • Die zu minimierende Funktion ist eine quadratische Funktion der Regressionskoeffizienten β j {\displaystyle \beta _{j}} {\displaystyle \beta _{j}}.
  • Die Ableitungen der Funktion sind lineare Funktionen von β j {\displaystyle \beta _{j}} {\displaystyle \beta _{j}}, die es einfach machen, die Parameterschätzer zu finden.
  • Die Parameterschätzer b 0 , … , b p {\displaystyle b_{0},\ldots ,b_{p}} {\displaystyle b_{0},\ldots ,b_{p}} sind lineare Funktionen der Zufallsvariablen Y i {\displaystyle Y_{i}} {\displaystyle Y_{i}}.

Literatur

[Bearbeiten | Quelltext bearbeiten]
  • Ludwig Fahrmeir, Thomas Kneib, Stefan Lang: Regression: Modelle, Methoden und Anwendungen. 2. Auflage. Springer Verlag, 2009, ISBN 978-3-642-01836-7. 
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Lineares_Modell&oldid=244244772“
Kategorien:
  • Ausgleichsrechnung
  • Regressionsmodell

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id