Dieser Artikel behandelt die Schätzfunktionen für Varianz und Standardabweichung von Zufallsvariablen. Weitere Bedeutungen finden sich unter
Varianz.
Formelzeichen
|
|
Mittelwert der Grundgesamtheit
|
|
Varianz der Grundgesamtheit
|
|
Anzahl der gegebenen Werte
|
|
Zufallsvariablen (Zufallsgrößen)
|
|
Stichprobe: beobachtete Werte der Zufallsvariablen
|
|
Stichprobenmittel / empirischer Mittelwert von
|
|
Stichprobenvarianz / empirische Varianz von
|
|
Stichprobenmittel (als Funktion der Zufallsvariablen)
|
|
Stichprobenvarianz (als Funktion der Zufallsvariablen)
|
|
Erwartungswert: Mittelwert, der sich aus der Verteilungsfunktion von X ergibt
|
|
Varianz (Stochastik): Varianz, die sich aus der Verteilungsfunktion von X ergibt
|
Die Stichprobenvarianz ist eine Schätzfunktion und messbare Abbildung in der mathematischen Statistik. Ihre zentrale Aufgabe ist es, die unbekannte Varianz einer zugrundeliegenden Wahrscheinlichkeitsverteilung zu schätzen. Außerhalb der Schätztheorie findet sie auch als Hilfsfunktion zur Konstruktion von Konfidenzbereichen und statistischen Tests Verwendung.
Die Stichprobenvarianz wird in mehreren Varianten definiert, die sich leicht bezüglich ihrer Eigenschaften und somit auch ihrer Anwendungsgebiete unterscheiden. Die Unterscheidung der unterschiedlichen Bezeichnungen für die Varianten ist in der Literatur nicht immer einheitlich. Wird daher lediglich von „der“ Stichprobenvarianz gesprochen, so sollte immer überprüft werden, welche der Definitionen im entsprechenden Kontext gilt.
Stichprobenvarianz als Schätzfunktion ist zu unterscheiden von der konkreten Berechnung der Varianz einer Stichprobe: Die empirische Varianz wird ebenfalls oft als Stichprobenvarianz bezeichnet, ist aber keine Funktion, sondern ein Streumaß von mehreren numerischen (Stichproben-)Werten. Sie entspricht einem konkreten Schätzwert und ist damit eine Realisierung der Stichprobenvarianz als Schätzfunktion und Zufallsvariable.
Zur Schätzung des Erwartungswertes
und der Varianz
einer Grundgesamtheit liegen
Zufallsvariablen
und sei
. In der Anwendung sind die
die Stichprobenvariablen. Es bezeichne

das Stichprobenmittel.
Zuerst ist der Erwartungswert zu schätzen, welcher hier in Form des Parameters
vorliegt. Mit Hilfe des Kleinste-Quadrate-Kriteriums[1]

erhält man die Schätzung
des Erwartungswertes als Stichprobenmittel:
.
Da durch die Schätzung des Stichprobenmittels ein Freiheitsgrad verbraucht wird, ist es üblich, die empirische Varianz mit dem Faktor
zu „korrigieren“.
In der Literatur finden sich im Wesentlichen drei unterschiedliche Definitionen der Stichprobenvarianz. Viele Autoren nennen

die Stichprobenvarianz[2][3][4] oder zur besseren Abgrenzung die korrigierte Stichprobenvarianz.[5] Alternativ wird auch

als Stichprobenvarianz bezeichnet[6][3]; ebenso wird auch

für eine fixe reelle Zahl
Stichprobenvarianz genannt.[7]
Wichtiger Verwendungszweck der Stichprobenvarianz ist die Schätzung der Varianz einer unbekannten Wahrscheinlichkeitsverteilung. Je nach Rahmenbedingungen kommen dabei die verschiedenen Definitionen zum Einsatz, da diese unterschiedliche Optimalitätskriterien erfüllen (siehe unten). Als Faustregel kann gelten:
- Sind der Erwartungswert und die Varianz des Wahrscheinlichkeitsmaßes unbekannt, so wird
als Schätzfunktion verwendet.
- Ist die Varianz unbekannt und entspricht der Erwartungswert dem Wert
, so wird
als Schätzfunktion verwendet.
Die Schätzfunktion
wird meist nicht verwendet, sie entsteht beispielsweise bei Verwendung der Momentenmethode oder der Maximum-Likelihood-Methode und erfüllt die gängigen Qualitätskriterien nicht.
Neben der Verwendung als Schätzfunktion wird die Stichprobenvarianz noch als Hilfsfunktion für die Konstruktion von Konfidenzintervallen oder statistischen Tests verwendet. Dort findet sie sich zum Beispiel als Pivotstatistik zur Konstruktion von Konfidenzintervallen im Normalverteilungsmodell oder als Teststatistik bei dem Chi-Quadrat-Test.
Meist wird die Stichprobenvarianz unter den Annahmen verwendet, dass die Auswertungen unabhängig und identisch verteilt sind sowie entweder einen bekannten oder einen unbekannten Erwartungswert besitzen. Diese Annahmen werden durch die folgenden statistischen Modelle beschrieben:
- Ist der Erwartungswert unbekannt, so ist das statistische Modell gegeben durch das (nicht notwendigerweise parametrische) Produktmodell
.
- Hierbei bezeichnet
das n-fache Produktmaß von
und
ist die Familie aller Wahrscheinlichkeitsmaße mit endlicher Varianz, die mit einer beliebigen Indexmenge
indiziert sind. Die Stichprobenvariablen
sind dann unabhängig identisch verteilt gemäß
und besitzen also eine endliche Varianz.
- Ist der Erwartungswert bekannt und gleich
, so ist das statistische Modell gegeben durch das (nicht notwendigerweise parametrische) Produktmodell
.
- Hierbei bezeichnet
die Familie aller Wahrscheinlichkeitsmaße mit endlicher Varianz und Erwartungswert
, die mit einer beliebigen Indexmenge
indiziert sind. Die Stichprobenvariablen
sind dann unabhängig identisch verteilt gemäß
und besitzen somit eine endliche Varianz und den Erwartungswert
.
Im Falle des bekannten Erwartungswertes ist
ein erwartungstreuer Schätzer für die Varianz. Das bedeutet, es gilt
.
Hierbei bezeichnet
bzw.
die Erwartungswertbildung bzw. die Varianzbildung bezüglich des Wahrscheinlichkeitsmaßes
.
Die Erwartungstreue gilt, da

ist. Hierbei folgt der erste Schritt aus der Linearität des Erwartungswertes, der zweite, da nach der Voraussetzung über den bekannten Erwartungswert
ist und somit nach der Definition der Varianz
gilt. In den dritten Schritt geht ein, dass die
alle identisch verteilt sind.
Im Falle des unbekannten Erwartungswertes ist
eine erwartungstreue Schätzfunktion für die Varianz, es gilt also

Im Gegensatz dazu ist
nicht erwartungstreu, denn es gilt
.
Der Schätzer
ist aber noch asymptotisch erwartungstreu. Dies folgt direkt aus der obigen Darstellung, denn es ist
.
- Herleitung der Erwartungstreue
Beachte dazu zuerst, dass aufgrund der Unabhängigkeit

gilt und aufgrund der identischen Verteilungen
für alle
und somit
.
Daraus folgt direkt

aufgrund von
und
im letzten Schritt und unter Verwendung der Linearität des Erwartungswertes.
Analog folgt, weil auch
identisch verteilt sind (insbesondere also
für alle
),

wieder mithilfe von
und
im dritten Schritt.
Mithilfe von
und
im zweiten Schritt sowie von
im dritten Schritt ist dann

Die letzte Gleichheit folgt hier nach dem Verschiebungssatz. Daraus folgt dann

und analog
.
Direkt aus der Definition folgt der Zusammenhang

Der Faktor
wird hierbei als Bessel-Korrektur (nach Friedrich Wilhelm Bessel) bezeichnet.[8] Er kann insofern als Korrekturfaktor verstanden werden, da er
so korrigiert, dass die Schätzfunktion erwartungstreu wird. Dies folgt, da
wie oben gezeigt
.
und die Bessel-Korrektur genau der Kehrwert des Faktors
ist. Die Schätzfunktion
geht somit aus
durch die Bessel-Korrektur hervor.
Sind die
Zufallsvariablen
unabhängig und identisch verteilt, also beispielsweise eine Stichprobe, so ergibt sich die Standardabweichung der Stichprobe als Wurzel aus der Stichprobenvarianz
bzw.
, also

oder

mit
.
Diese Funktion wird Stichprobenstandardabweichung oder Stichprobenstreuung genannt;[9] ihre Realisierungen entsprechen der empirischen Standardabweichung. Da die Erwartungstreue bei Anwendung einer nichtlinearen Funktion wie der Wurzel in den meisten Fällen verloren geht, ist die Stichprobenstandardabweichung im Gegensatz zur korrigierten Stichprobenvarianz in keinem der beiden Fälle ein erwartungstreuer Schätzer für die Standardabweichung der Grundgesamtheit.
Die korrigierte Stichprobenvarianz
ist ein erwartungstreuer Schätzer für die Varianz
der Grundgesamtheit. Im Gegensatz dazu ist aber
kein erwartungstreuer Schätzer für die Standardabweichung. Da die Quadratwurzel eine konkave Funktion ist, folgt aus der Jensenschen Ungleichung zusammen mit der Erwartungstreue von
.
Dieser Schätzer unterschätzt also in den meisten Fällen die Standardabweichung der Grundgesamtheit.
Wählt man eine der Zahlen
oder
durch Wurf einer fairen Münze, also beide mit Wahrscheinlichkeit jeweils
, so ist das eine Zufallsgröße mit Erwartungswert 0, Varianz
und Standardabweichung
. Berechnet man aus
unabhängigen Würfen
und
die korrigierte Stichprobenvarianz

wobei

den Stichprobenmittelwert bezeichnet, so gibt es vier mögliche Versuchsausgänge, die alle jeweils Wahrscheinlichkeit
haben:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Der Erwartungswert der korrigierten Stichprobenvarianz beträgt daher
.
Die korrigierte Stichprobenvarianz ist demnach also tatsächlich erwartungstreu. Der Erwartungswert der korrigierten Stichprobenstandardabweichung beträgt hingegen
.
Die korrigierte Stichprobenstandardabweichung unterschätzt also die Standardabweichung der Grundgesamtheit.
In Systemen, die kontinuierlich große Mengen an Messwerten erfassen, ist es oft unpraktisch, alle Messwerte zwischenzuspeichern, um die Standardabweichung zu berechnen.
In diesem Zusammenhang ist es günstiger, eine modifizierte Formel zu verwenden, die den kritischen Term
umgeht. Dieser kann nicht für jeden Messwert sofort berechnet werden, da der Mittelwert
nicht konstant ist.
Durch Anwendung des Verschiebungssatzes und der Definition des Mittelwerts
gelangt man zur Darstellung
![{\displaystyle {\begin{aligned}{\sqrt {S^{2}}}&={}{\sqrt {{\frac {1}{n-1}}\left[\left(\sum _{i=1}^{n}X_{i}^{2}\right)-{\frac {1}{n}}\left(\sum _{i=1}^{n}X_{i}\right)^{2}\right]}}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4e4bdb92981a9f1637aff053c2838c612e245f2d)
bzw.
![{\displaystyle {\begin{aligned}{\sqrt {S^{2}}}&={}{\sqrt {{\frac {1}{n}}\left[\left(\sum _{i=1}^{n}X_{i}^{2}\right)-{\frac {1}{n}}\left(\sum _{i=1}^{n}X_{i}\right)^{2}\right]}}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/434686fe660208f9f0a82af082d29d5ea3dbb27d)
die sich für jeden eintreffenden Messwert sofort aktualisieren lässt, wenn die Summe
der Messwerte
sowie die Summe ihrer Quadrate
mitgeführt und fortlaufend aktualisiert werden. Diese Darstellung ist allerdings numerisch weniger stabil, insbesondere kann der Term unter der Quadratwurzel numerisch durch Rundungsfehler kleiner als 0 werden.
Durch geschicktes Umstellen lässt sich für letztere Gleichung eine Form finden, die numerisch stabiler ist und auf die Varianz
und den Mittelwert
des vorhergehenden sowie auf den Stichprobenwert
und den Mittelwert
des aktuellen Iterationsschrittes
zurückgreift:

Für den Fall normalverteilter Zufallsgrößen lässt sich die erwartungstreue Schätzfunktion
für die Standardabweichung
angeben[10][11], wobei der Korrekturfaktor
durch

gegeben ist,
die übliche Schätzung der Standardabweichung
ist und
die Gammafunktion bezeichnet. Die Formel folgt, indem man beachtet, dass
eine Chi-Quadrat-Verteilung mit
Freiheitsgraden hat.
Korrekturfaktoren für die erwartungstreue Schätzung der Standardabweichung
Stichprobenumfang
|
Korrekturfaktor
|
2
|
1,253314
|
5
|
1,063846
|
10
|
1,028109
|
15
|
1,018002
|
25
|
1,010468
|
Es wurden bei einer Stichprobe aus einer normalverteilten Zufallsgröße
die fünf Werte 3, 4, 5, 6, 7 gemessen. Man soll nun einen Schätzwert für die Standardabweichung errechnen.
Die Stichprobenvarianz ist:

Der Korrekturfaktor ist in diesem Fall

und der Schätzwert für die Standardabweichung, unter Verwendung einer erwartungstreuen Schätzfunktion, ist damit näherungsweise

- Claudia Czado, Thorsten Schmidt: Mathematische Statistik. Springer-Verlag, Berlin Heidelberg 2011, ISBN 978-3-642-17260-1, doi:10.1007/978-3-642-17261-8.
- Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, doi:10.1515/9783110215274.
- M.S. Nikulin: Sample variance. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- Eric W. Weisstein: Sample Variance. In: MathWorld (englisch).
- Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, doi:10.1007/978-3-642-41997-3.
- ↑ L. Fahrmeir, R. Künstler, I. Pigeot, G. Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 351.
- ↑ Claudia Czado, Thorsten Schmidt: Mathematische Statistik. Springer-Verlag, Berlin Heidelberg 2011, ISBN 978-3-642-17260-1, S. 5, doi:10.1007/978-3-642-17261-8.
- ↑ a b Eric W. Weisstein: Sample Variance. In: MathWorld (englisch).
- ↑ Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, S. 3, doi:10.1007/978-3-642-41997-3.
- ↑ Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 208, doi:10.1515/9783110215274.
- ↑ Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 207, doi:10.1515/9783110215274.
- ↑ M.S. Nikulin: Sample variance. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ Eric W. Weisstein: Bessels Correction. In: MathWorld (englisch).
- ↑ Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin / Heidelberg 2014, ISBN 978-3-642-41996-6, S. 27, doi:10.1007/978-3-642-41997-3.
- ↑ Eric Weisstein: Standard Deviation Distribution. In: MathWorld (englisch).
- ↑ Robert V. Hogg, Elliot A. Tanis, Dale L. Zimmermann: Probability and Statistical Inference. 9. Auflage. Pearson, Boston 2013, ISBN 978-0-321-92327-1, S. 264.