Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Quantilsregression – Wikipedia
Quantilsregression – Wikipedia
aus Wikipedia, der freien Enzyklopädie
Beispiel für die Quantilsregression

Als Quantilsregression wird eine Methode zum Schätzen der Parameter eines linearen Regressionsmodells bezeichnet. Im Gegensatz zur Kleinste-Quadrate-Schätzung, die den Erwartungswert der Zielgröße schätzt, ist die Quantilsregression dazu geeignet, ihre bedingten Quantile zu schätzen. Die Quantilsregression ist somit eine Möglichkeit durch die Betrachtung anderer Eigenschaften der Zielgrößenverteilung, den dem klassischen linearen Modell unterliegenden Fokus auf den Erwartungswert der Zielgröße aufzugeben.[1] Die Median-Regression stellt einen Spezialfall der Quantilsregression dar.

Optimierungsproblem

[Bearbeiten | Quelltext bearbeiten]
Pinball-Verlustfunktion mit τ = 0 , 9 {\displaystyle \tau =0{,}9} {\displaystyle \tau =0{,}9}. Für ε < 0 {\displaystyle \varepsilon <0} {\displaystyle \varepsilon <0} beträgt der Fehler − 0 , 1 ε {\displaystyle -0{,}1\varepsilon } {\displaystyle -0{,}1\varepsilon }, für ε ≥ 0 {\displaystyle \varepsilon \geq 0} {\displaystyle \varepsilon \geq 0} beträgt er 0 , 9 ε {\displaystyle 0{,}9\varepsilon } {\displaystyle 0{,}9\varepsilon }.

Sei Y {\displaystyle Y} {\displaystyle Y} eine reelle Zufallsvariable mit Verteilungsfunktion F Y ( y ) = P ( Y ≤ y ) {\displaystyle F_{Y}(y)=P(Y\leq y)} {\displaystyle F_{Y}(y)=P(Y\leq y)}, dann entspricht das (bedingte) τ {\displaystyle \tau } {\displaystyle \tau }-Quantil von Y {\displaystyle Y} {\displaystyle Y}:

Q Y ( τ ) = F Y − 1 ( τ ) = inf { y : F Y ( y ) ≥ τ } {\displaystyle Q_{Y}(\tau )=F_{Y}^{-1}(\tau )=\inf \left\{y\colon F_{Y}(y)\geq \tau \right\}} {\displaystyle Q_{Y}(\tau )=F_{Y}^{-1}(\tau )=\inf \left\{y\colon F_{Y}(y)\geq \tau \right\}}

mit τ ∈ ( 0 , 1 ) . {\displaystyle \tau \in (0,1).} {\displaystyle \tau \in (0,1).}

Seien ( x i , y i ) {\displaystyle (\mathbf {x} _{i},y_{i})} {\displaystyle (\mathbf {x} _{i},y_{i})} mit i ∈ { 1 , … , n } {\displaystyle i\in \{1,\dots ,n\}} {\displaystyle i\in \{1,\dots ,n\}} beobachtete Paare von unabhängigen Variablen x i {\displaystyle \mathbf {x} _{i}} {\displaystyle \mathbf {x} _{i}} und zugehörigen abhängigen Variablen y i {\displaystyle y_{i}} {\displaystyle y_{i}}. Das Regressionsmodell wird als y i = x i ⊤ β + ε i {\displaystyle y_{i}=\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}+\varepsilon _{i}} {\displaystyle y_{i}=\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}+\varepsilon _{i}} beschrieben, wobei prinzipiell auch nichtlineare Zusammenhänge angenommen werden können. Die optimalen Regressionsparameter können durch die folgende empirische Risikominimierung bestimmt werden:[2][3]

β ^ τ = arg ⁡ min β τ ∑ i = 1 n w τ ( y i , η i , τ ) | y i − x i ⊤ β τ | {\displaystyle {\hat {\boldsymbol {\beta }}}_{\tau }=\arg \min _{\beta _{\tau }}\sum _{i=1}^{n}w_{\tau }(y_{i},\eta _{i,\tau })|y_{i}-\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}_{\tau }|} {\displaystyle {\hat {\boldsymbol {\beta }}}_{\tau }=\arg \min _{\beta _{\tau }}\sum _{i=1}^{n}w_{\tau }(y_{i},\eta _{i,\tau })|y_{i}-\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}_{\tau }|}.

Hierbei entspricht η i , τ = x i ⊤ β τ {\displaystyle \eta _{i,\tau }=\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}_{\tau }} {\displaystyle \eta _{i,\tau }=\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}_{\tau }} dem linearen Prädiktor. Die Verlustfunktion entspricht der geneigten absoluten Abweichung:

w τ ( y i , η i , τ ) = { 1 − τ falls y i < x i ⊤ β τ τ falls y i ≥ x i ⊤ β τ . {\displaystyle w_{\tau }(y_{i},\eta _{i,\tau })={\begin{cases}1-\tau &{\textrm {falls}}\quad y_{i}<\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}_{\tau }\\\tau &{\textrm {falls}}\quad y_{i}\geq \mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}_{\tau }\end{cases}}.} {\displaystyle w_{\tau }(y_{i},\eta _{i,\tau })={\begin{cases}1-\tau &{\textrm {falls}}\quad y_{i}<\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}_{\tau }\\\tau &{\textrm {falls}}\quad y_{i}\geq \mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}_{\tau }\end{cases}}.}

Aufgrund ihres Aussehens wird die Verlustfunktion auch pinball loss genannt.[4]

Das Optimierungsproblem kann mit typischen Optimierungsalgorithmen gelöst werden.

Beachte, dass die Unsicherheit extremer Quantile tendenziell größer ist, da die Wahrscheinlichkeitsdichte f {\displaystyle f} {\displaystyle f} der zugrundeliegenden Verteilung dort sehr kleine Werte annimmt, siehe Empirisches Quantil#Eigenschaften:

Empirisches p-Quantil ∼ N ( μ = p , σ 2 = p ( 1 − p ) N f ( x p ) 2 ) , {\displaystyle {\text{Empirisches p-Quantil}}\sim {\mathcal {N}}\left(\mu =p,\sigma ^{2}={\frac {p(1-p)}{Nf(x_{p})^{2}}}\right),} {\displaystyle {\text{Empirisches p-Quantil}}\sim {\mathcal {N}}\left(\mu =p,\sigma ^{2}={\frac {p(1-p)}{Nf(x_{p})^{2}}}\right),}

wobei p {\displaystyle p} {\displaystyle p} das Quantil ist, N {\displaystyle N} {\displaystyle N} die Stichprobengröße und x p = F − 1 ( p ) {\displaystyle x_{p}=F^{-1}(p)} {\displaystyle x_{p}=F^{-1}(p)} der Wert der Zufallsvariable beim p-Quantil.

Erweiterungen

[Bearbeiten | Quelltext bearbeiten]

Zensierte Daten

[Bearbeiten | Quelltext bearbeiten]

Für unzensierte Daten kann die normale Quantilsregression (mit Zielvariable Ereigniszeit) ebenso wie die nichtparametrische Ereigniszeitanalyse benutzt werden um die bedingten empirischen Quantile zu schätzen: bei der Ereigniszeitanalyse wird die (bedingte) Überlebensfunktion S {\displaystyle S} {\displaystyle S} geschätzt und aus dieser kann der bedingte Quantilsschätzer direkt abgelesen werden.

Darstellung zweier Kaplan-Meier Schätzer für die Überlebenswahrscheinlichkeiten S ( t ) = 1 − F ( t ) {\displaystyle S(t)=1-F(t)} {\displaystyle S(t)=1-F(t)} zweier Patientengruppen als Funktion der Zeit t {\displaystyle t} {\displaystyle t}, wobei F ( t ) {\displaystyle F(t)} {\displaystyle F(t)} die Verteilungsfunktion der Tode ist. Das τ {\displaystyle \tau } {\displaystyle \tau }-Quantil der Tode ist bei t τ = F − 1 ( τ ) {\displaystyle t_{\tau }=F^{-1}(\tau )} {\displaystyle t_{\tau }=F^{-1}(\tau )}, wobei F − 1 {\displaystyle F^{-1}} {\displaystyle F^{-1}} die verallgemeinerte inverse Verteilungsfunktion der Tode ist.

Für zensierte Daten muss die Quantilsregression zur zensierten Quantilsregression erweitert werden[5] und liefert dann eine Verallgemeinerung des Kaplan-Meier-Schätzers[6].

Schätzung mehrerer Quantile

[Bearbeiten | Quelltext bearbeiten]

Die simultane Schätzung mehrerer Quantile mithilfe der empirischen Likelihood kann zu effizienteren Schätzer führen als wenn nur ein Quantil geschätzt wird[7].

Literatur

[Bearbeiten | Quelltext bearbeiten]
  • Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian D. Marx: Regression – Models, Methods and Applications. Springer, Berlin / Heidelberg 2013, ISBN 978-3-642-34332-2, Kapitel 10: Quantile Regression, doi:10.1007/978-3-642-34333-9 (E-Book-ISBN 978-3-642-34333-9). 
  • David J. Petersen et al.: Perspektiven einer pluralen Ökonomik. Springer Vieweg. Springer Fachmedien, Wiesbaden 2019, ISBN 978-3-658-16144-6, S. 238–240.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ David J. Petersen et al.: Perspektiven einer pluralen Ökonomik. Springer Vieweg. Springer Fachmedien, Wiesbaden 2019, ISBN 978-3-658-16144-6, S. 238.
  2. ↑ Roger Koenker, Gilbert Basset Jr.: Regression Quantiles. In: Econometrica: journal of the Econometric Society. 1978, S. 33–50. 
  3. ↑ Roger Koenker, Kevin F. Hallock: Quantile regression. In: Journal of economic perspectives. Band 15, Nr. 4, 2001, S. 143–156. 
  4. ↑ Ingo Steinwart, Andreas Christmann: Estimating conditional quantiles with the help of the pinball loss. In: Bernoulli. Band 17, Nr. 1, Februar 2011, ISSN 1350-7265, S. 211–225, doi:10.3150/10-BEJ267, arxiv:1102.2101 (projecteuclid.org [abgerufen am 11. Juli 2020]). 
  5. ↑ Portnoy, Stephen. "Censored quantile regression." Journal of American Statistical Association 98.1 (2003): 00.
  6. ↑ Handbook of Quantile Regression. (2017). Vereinigtes Königreich: CRC Press. Seiten 80 ff. Google Books
  7. ↑ Cho, Hyunkeun & Kim, Seonjin & Kim, Mi-Ok, 2017. "Multiple quantile regression analysis of longitudinal data: Heteroscedasticity and efficient estimation," Journal of Multivariate Analysis, Elsevier, vol. 155(C), pages 334-343.
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Quantilsregression&oldid=240092162“
Kategorie:
  • Regressionsanalyse

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id