„Anpassungsgüte“ – Versionsunterschied
[gesichtete Version] | [gesichtete Version] |
Markierungen: Mobile Bearbeitung Mobile Web-Bearbeitung Erweiterte mobile Bearbeitung |
|||
Zeile 17: | Zeile 17: | ||
Je näher das Bestimmtheitsmaß am Wert Eins liegt, desto höher ist die „Bestimmtheit“ bzw. „Güte“ der Anpassung. Ist <math>R^2=0</math>, dann besteht das „[[Satz von Gauß-Markow|beste]]“ [[lineares Modell|lineare Regressionsmodell]] nur aus dem [[Y-Achsenabschnitt|Achsenabschnitt]] <math>\hat{\beta}_{0}</math>, während <math>\hat{\beta}_{1}=0</math> ist. Je näher der Wert des Bestimmtheitsmaß an <math>1</math> liegt, desto besser erklärt die Regressionsgerade das [[Wahres Modell|wahre Modell]]. Ist <math>R^2=1</math>, dann lässt sich die abhängige Variable <math>Y</math> vollständig durch das lineare Regressionsmodell erklären. Anschaulich liegen dann die Messpunkte <math>(x_1,y_1),\ldots ,(x_n,y_n)</math> alle auf der nichthorizontalen Regressionsgeraden. Somit liegt bei diesem Fall kein stochastischer Zusammenhang vor, sondern ein deterministischer. |
Je näher das Bestimmtheitsmaß am Wert Eins liegt, desto höher ist die „Bestimmtheit“ bzw. „Güte“ der Anpassung. Ist <math>R^2=0</math>, dann besteht das „[[Satz von Gauß-Markow|beste]]“ [[lineares Modell|lineare Regressionsmodell]] nur aus dem [[Y-Achsenabschnitt|Achsenabschnitt]] <math>\hat{\beta}_{0}</math>, während <math>\hat{\beta}_{1}=0</math> ist. Je näher der Wert des Bestimmtheitsmaß an <math>1</math> liegt, desto besser erklärt die Regressionsgerade das [[Wahres Modell|wahre Modell]]. Ist <math>R^2=1</math>, dann lässt sich die abhängige Variable <math>Y</math> vollständig durch das lineare Regressionsmodell erklären. Anschaulich liegen dann die Messpunkte <math>(x_1,y_1),\ldots ,(x_n,y_n)</math> alle auf der nichthorizontalen Regressionsgeraden. Somit liegt bei diesem Fall kein stochastischer Zusammenhang vor, sondern ein deterministischer. |
||
=== Klassifikation === |
|||
{{Hauptartikel|Pseudo-Bestimmtheitsmaß}} |
|||
== Anpassungstests == |
== Anpassungstests == |
Version vom 20. Februar 2023, 17:55 Uhr
Die Anpassungsgüte oder Güte der Anpassung (englisch goodness of fit) gibt an, „wie gut“ ein geschätztes Modell eine Menge von Beobachtungen erklären kann. Maße der Anpassungsgüte erlauben eine Aussage über die Diskrepanz zwischen den theoretischen Werten der untersuchten Zufallsvariablen, die aufgrund des Modells erwartet bzw. prognostiziert werden, und den tatsächlich gemessenen Werten.
Die Güte der Anpassung eines Modells an vorliegende Daten kann mit Hilfe statistischer Tests oder geeigneter Kennzahlen beurteilt werden.[1]
Anpassungsmaße können beim Hypothesentest verwendet werden, um zum Beispiel auf Normalität in den Residuen zu testen, um zu prüfen, ob zwei Stichproben aus Grundgesamtheiten mit gleicher Verteilung stammen oder um zu testen, ob bestimmte Häufigkeiten einer bestimmten Verteilung folgen (siehe hierzu auch Pearsons Chi-Quadrat-Test).
Regressionsanalyse
Lineare Regression
Bei linearer Regression gibt es das Bestimmtheitsmaß . Das Bestimmtheitsmaß misst, wie gut die Messwerte zu einem Regressionsmodell passen (Anpassungsgüte). Es ist definiert als der Anteil der „erklärten Variation“ an der „Gesamtvariation“ und liegt daher zwischen:
- (oder ): kein linearer Zusammenhang und
- (oder ): perfekter linearer Zusammenhang.
Je näher das Bestimmtheitsmaß am Wert Eins liegt, desto höher ist die „Bestimmtheit“ bzw. „Güte“ der Anpassung. Ist , dann besteht das „beste“ lineare Regressionsmodell nur aus dem Achsenabschnitt , während ist. Je näher der Wert des Bestimmtheitsmaß an liegt, desto besser erklärt die Regressionsgerade das wahre Modell. Ist , dann lässt sich die abhängige Variable vollständig durch das lineare Regressionsmodell erklären. Anschaulich liegen dann die Messpunkte alle auf der nichthorizontalen Regressionsgeraden. Somit liegt bei diesem Fall kein stochastischer Zusammenhang vor, sondern ein deterministischer.
Klassifikation
Anpassungstests
Ein Anpassungstest (englisch goodness-of-fit test) ist in der schließenden Statistik ein nichtparametrischer Hypothesentest, der die unbekannte Wahrscheinlichkeitsverteilung einer Zufallsvariablen auf (annäherndes) Folgen eines bestimmten Verteilungsmodells (z. B. häufig der Normalverteilung) prüfen soll. Es geht um die Hypothese, dass eine vorliegende Stichprobe aus einer Verteilung mit einer bestimmten Verteilungsfunktion stammt. Häufig wird dies durch asymptotische Betrachtungen der empirischen Verteilungsfunktion realisiert (siehe auch Satz von Glivenko-Cantelli). Bekannte Anpassungstests sind zum Beispiel:[2]
- der Chi-Quadrat-Anpassungstest
- das Wahrscheinlichkeitsnetz
- die Box-Cox-Transformation
- der Kolmogorow-Smirnow-Anpassungstest
- der Shapiro-Wilk-Test
- der Anderson-Darling-Anpassungstest
- der Jarque-Bera-Test
Beispiel
Beim Pearson-Chi-Quadrat-Test ist die Chi-Quadrat-Statistik, auch Chi-Quadrat-Summe genannt (englisch goodness of fit statistic) die Summe der durch die erwarteten Häufigkeiten geteilten quadrierten Differenzen zwischen den beobachteten und erwarteten Häufigkeiten:
- = Anzahl der Beobachtungen von Typ
- = Gesamtanzahl der Beobachtungen
- = Erwartete Häufigkeit von Typ
- = Anzahl der Zellen in der Tabelle
Das Ergebnis kann mit der Chi-Quadrat-Verteilung verglichen werden, um die Anpassungsgüte zu bestimmen.
Anpassungsmaße bei Strukturgleichungsmodellen
Bei der Strukturgleichungsmodellierung haben sich verschiedene Kriterien zur Bewertung der Anpassungsgüte etabliert:
- Chi-Quadrat-Wert
- Anpassungsgüteindex (engl. goodness-of-fit index, kurz: GFI)
- Bereinigter Anpassungsgüteindex (engl. adjusted goodness-of-fit index, kurz: AGFI)
- Komparativer Anpassungsindex (engl. comparative fit index, kurz: CFI)
- Normierter Anpassungsindex (engl. normed fit index, kurz: NFI)
- Quadratwurzel des mittleren Approximationsfehlerquadrats (engl. root mean square error of approximation, kurz: RMSEA)
- Standardisierte Quadratwurzel des mittleren Residuenquadrats (engl. standardized root mean square residual, kurz: SRMR)
Einzelnachweise
- ↑ Bernd Rönz, Hans G. Strohe (1994), Lexikon Statistik, Gabler Verlag
- ↑ Lothar Sachs, Jürgen Hedderich: Angewandte Statistik: Methodensammlung mit R. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2018, ISBN 978-3-662-56657-2, S. 470