Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Linearer Prädiktor – Wikipedia
Linearer Prädiktor – Wikipedia 👆 Click Here!
aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Lineare Prädiktorfunktion)

In der Statistik und dort insbesondere in der parametrischen Regressionsanalyse ist ein linearer Prädiktor eine Linearkombination einer Reihe von Koeffizienten (Regressionskoeffizienten) und erklärenden Variablen (unabhängige Variablen), deren Wert zur Vorhersage (Prädiktion) einer Antwortvariablen verwendet wird. Diese additiv-lineare systematische Komponente ist ein Hauptbestandteil von linearen Regressionsmodellen.

Definition

[Bearbeiten | Quelltext bearbeiten]

In der parametrischen Regressionsanalyse wird mittels mehrerer Regressionsparameter ein Suchraum aus potenziellen Regressionsfunktionen gebildet. Im Anschluss soll diejenige Parameterkonfiguration bestimmt werden, die die höchste Anpassungsgüte für die beobachteten Werte der Antwortvariablen und erklärenden Variablen liefert. Die wichtigsten Modellklassen der parametrischen Regressionsanalyse sind zum einen die Klasse der linearen Modelle und zum anderen die Klasse der verallgemeinerten linearen Modelle. Das Beiwort „linear“ resultiert daraus, dass die beiden Modellklassen auf dem linearen Prädiktor aufbauen, der wie folgt definiert ist

η i : = x i 0 β 0 + x i 1 β 1 + x i 2 β 2 + … + x i k β k = ∑ j = 0 k x i j β j {\displaystyle \eta _{i}\colon =x_{i0}\beta _{0}+x_{i1}\beta _{1}+x_{i2}\beta _{2}+\ldots +x_{ik}\beta _{k}=\sum \nolimits _{j=0}^{k}x_{ij}\beta _{j}} {\displaystyle \eta _{i}\colon =x_{i0}\beta _{0}+x_{i1}\beta _{1}+x_{i2}\beta _{2}+\ldots +x_{ik}\beta _{k}=\sum \nolimits _{j=0}^{k}x_{ij}\beta _{j}}.

Dieser linearen Prädiktor wird aus den erklärenden Variablen x i 0 , x i 1 , … , x i k {\displaystyle x_{i0},x_{i1},\ldots ,x_{ik}} {\displaystyle x_{i0},x_{i1},\ldots ,x_{ik}} und den festen, aber unbekannten Regressionsparametern β 0 , β 1 , β 2 , … , β k {\displaystyle \beta _{0},\beta _{1},\beta _{2},\ldots ,\beta _{k}} {\displaystyle \beta _{0},\beta _{1},\beta _{2},\ldots ,\beta _{k}} gebildet, wobei x i 0 {\displaystyle x_{i0}} {\displaystyle x_{i0}} für gewöhnlich gleich eins gesetzt wird ( x i 0 ≡ 1 {\displaystyle x_{i0}\equiv 1} {\displaystyle x_{i0}\equiv 1}). Der Parameter β 0 {\displaystyle \beta _{0}} {\displaystyle \beta _{0}} ist somit der Achsenabschnitt der Regressionsgerade bzw. genauer „Regressionshyperebene“. Er bestimmt das Niveau des linearen Prädiktors und wird folglich auch Niveauparameter genannt. In der Regressionsanalyse geht es darum den Achsenabschnitt β 0 {\displaystyle \beta _{0}} {\displaystyle \beta _{0}}, die Steigungsparameter β 1 , β 2 , … , β k {\displaystyle \beta _{1},\beta _{2},\ldots ,\beta _{k}} {\displaystyle \beta _{1},\beta _{2},\ldots ,\beta _{k}} und die Varianz der Störgrößen zu schätzen.[1]

Lineare Modelle vs. verallgemeinerte lineare Modelle

[Bearbeiten | Quelltext bearbeiten]

Lineare Modelle gehen vom folgenden Zusammenhang zwischen der Regressionsfunktion und dem linearen Prädiktor aus

f ( x i 1 , x i 2 , … , x i k ) = ∑ j = 0 k x i j β j = η i {\displaystyle f(x_{i1},x_{i2},\ldots ,x_{ik})=\sum \nolimits _{j=0}^{k}x_{ij}\beta _{j}=\eta _{i}} {\displaystyle f(x_{i1},x_{i2},\ldots ,x_{ik})=\sum \nolimits _{j=0}^{k}x_{ij}\beta _{j}=\eta _{i}}.

Verallgemeinerte lineare Modelle dagegen gehen von aus, dass der Erwartungswert der Antwortvariablen μ = E ⁡ ( Y i ) {\displaystyle \mu =\operatorname {E} (Y_{i})} {\displaystyle \mu =\operatorname {E} (Y_{i})} erst durch eine geeignete invertierbare Kopplungsfunktion g ( ⋅ ) {\displaystyle g(\cdot )} {\displaystyle g(\cdot )} die Form eines linearen Prädiktors annimmt[2]

g ( μ ) = ∑ j = 0 k x i j β j = η i {\displaystyle g(\mu )=\sum \nolimits _{j=0}^{k}x_{ij}\beta _{j}=\eta _{i}} {\displaystyle g(\mu )=\sum \nolimits _{j=0}^{k}x_{ij}\beta _{j}=\eta _{i}}.

Mit der Umkehrfunktion der Kopplungsfunktion, der Antwortfunktion h ( ⋅ ) = g − 1 ( ⋅ ) {\displaystyle h(\cdot )=g^{-1}(\cdot )} {\displaystyle h(\cdot )=g^{-1}(\cdot )} ergibt sich für die Regressionsfunktion in diesem Fall

f ( x i 1 , x i 2 , … , x i k ) = h ( ∑ j = 0 k x i j β j ) = h ( η i ) {\displaystyle f(x_{i1},x_{i2},\ldots ,x_{ik})=h\left(\sum \nolimits _{j=0}^{k}x_{ij}\beta _{j}\right)=h(\eta _{i})} {\displaystyle f(x_{i1},x_{i2},\ldots ,x_{ik})=h\left(\sum \nolimits _{j=0}^{k}x_{ij}\beta _{j}\right)=h(\eta _{i})}.

Vektor-Matrix-Schreibweise

[Bearbeiten | Quelltext bearbeiten]

Mittels Vektor-Matrix-Schreibweise lässt sich der lineare Prädiktor wie folgt schreiben:

η i = β 0 + x i 1 β 1 + x i 2 β 2 + … + x i k β k = x i ⊤ β {\displaystyle \eta _{i}=\beta _{0}+x_{i1}\beta _{1}+x_{i2}\beta _{2}+\dotsc +x_{ik}\beta _{k}=\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}\quad } {\displaystyle \eta _{i}=\beta _{0}+x_{i1}\beta _{1}+x_{i2}\beta _{2}+\dotsc +x_{ik}\beta _{k}=\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}\quad }, wobei x i ⊤ = ( 1 , x i 1 , … , x i k ) ( k + 1 × 1 ) {\displaystyle \quad \mathbf {x} _{i}^{\top }=(1,x_{i1},\ldots ,x_{ik})_{(k+1\times 1)}\quad } {\displaystyle \quad \mathbf {x} _{i}^{\top }=(1,x_{i1},\ldots ,x_{ik})_{(k+1\times 1)}\quad } und β = ( β 0 , β 1 , … , β k ) ( k + 1 × 1 ) ⊤ {\displaystyle \quad {\boldsymbol {\beta }}=(\beta _{0},\beta _{1},\ldots ,\beta _{k})_{(k+1\times 1)}^{\top }} {\displaystyle \quad {\boldsymbol {\beta }}=(\beta _{0},\beta _{1},\ldots ,\beta _{k})_{(k+1\times 1)}^{\top }}.

Hierbei ist β {\displaystyle {\boldsymbol {\beta }}} {\displaystyle {\boldsymbol {\beta }}} ein ( k + 1 ) × 1 {\displaystyle (k+1)\times 1} {\displaystyle (k+1)\times 1}-Spaltenvektor und x i ⊤ {\displaystyle \mathbf {x} _{i}^{\top }} {\displaystyle \mathbf {x} _{i}^{\top }} ist ein transponierter ( k + 1 ) × 1 {\displaystyle (k+1)\times 1} {\displaystyle (k+1)\times 1}-Spaltenvektor, sodass das Produkt x i ⊤ β {\displaystyle \mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}} {\displaystyle \mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}} eine 1 × 1 {\displaystyle 1\times 1} {\displaystyle 1\times 1}-Matrix bzw. ein Skalar ergibt.

Verwendung in der linearen Regression

[Bearbeiten | Quelltext bearbeiten]
→ Hauptartikel: Lineare Regression

Ein Beispiel für die Verwendung eines linearen Prädiktors ist die lineare Regression, bei der jeder die Beziehung zwischen erklärenden Variablen und Antwortvariablen durch eine additive Störgröße überlagert wird. In der multiple lineare Regression lässt sich der Zusammenhang wie folgt schreiben:

Y i = η i + ε i = x i ⊤ β + ε i {\displaystyle Y_{i}=\eta _{i}+\varepsilon _{i}=\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}+\varepsilon _{i}} {\displaystyle Y_{i}=\eta _{i}+\varepsilon _{i}=\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}+\varepsilon _{i}}.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ Torsten Becker et al.: Stochastische Risikomodellierung und statistische Methoden. Springer Spektrum, 2016. S. 288.
  2. ↑ Torsten Becker et al.: Stochastische Risikomodellierung und statistische Methoden. Springer Spektrum, 2016. S. 288.
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Linearer_Prädiktor&oldid=250837814“
Kategorien:
  • Verallgemeinerte lineare Modelle
  • Statistischer Grundbegriff
  • Regressionsanalyse

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id