„Anpassungsgüte“ – Versionsunterschied
[gesichtete Version] | [gesichtete Version] |
k |
|||
Zeile 20: | Zeile 20: | ||
Eine häufige Fehlinterpretation eines niedrigen Bestimmtheitsmaßes ist es, dass es keinen Zusammenhang zwischen den Variablen gibt. Tatsächlich wird nur der lineare Zusammenhang gemessen, d. h. obwohl der <math>R^2</math> klein ist, kann es trotzdem einen starken nicht-linearen Zusammenhang geben. Umgekehrt muss ein hoher Wert des Bestimmtheitsmaßes nicht bedeuten, dass ein nicht-lineares Regressionsmodell nicht noch besser als ein lineares Modell ist. |
Eine häufige Fehlinterpretation eines niedrigen Bestimmtheitsmaßes ist es, dass es keinen Zusammenhang zwischen den Variablen gibt. Tatsächlich wird nur der lineare Zusammenhang gemessen, d. h. obwohl der <math>R^2</math> klein ist, kann es trotzdem einen starken nicht-linearen Zusammenhang geben. Umgekehrt muss ein hoher Wert des Bestimmtheitsmaßes nicht bedeuten, dass ein nicht-lineares Regressionsmodell nicht noch besser als ein lineares Modell ist. |
||
== |
== Anpassungstests == |
||
Ein '''Anpassungstest''' ({{enS}} ''goodness-of-fit test'') ist in der [[Schließende Statistik|schließenden Statistik]] ein [[Nichtparametrischer Test|nichtparametrischer]] [[Statistischer Test|Hypothesentest]], der die unbekannte [[Wahrscheinlichkeitsverteilung]] einer [[Zufallsvariable]]n auf (annäherndes) Folgen eines bestimmten Verteilungsmodells (z. B. häufig der [[Normalverteilung]]) prüfen soll. Es geht um die Hypothese, dass eine vorliegende Stichprobe aus einer Verteilung mit einer bestimmten [[Verteilungsfunktion]] stammt. Häufig wird dies durch asymptotische Betrachtungen der [[empirische Verteilungsfunktion|empirischen Verteilungsfunktion]] realisiert (siehe auch [[Glivenko-Cantelli-Satz|Satz von Glivenko-Cantelli]]). |
|||
=== Beispiel === |
=== Beispiel === |
||
{{Hauptartikel|Chi-Quadrat-Test}} |
{{Hauptartikel|Chi-Quadrat-Test}} |
Version vom 4. Januar 2019, 17:42 Uhr
Die Anpassungsgüte oder Güte der Anpassung (englisch goodness of fit) gibt an, „wie gut“ ein geschätztes Modell eine Menge von Beobachtungen erklären kann. Maße der Anpassungsgüte erlauben eine Aussage über die Diskrepanz zwischen den theoretischen Werten der untersuchten Zufallsvariablen, die aufgrund des Modells erwartet bzw. prognostiziert werden, und den tatsächlich gemessenen Werten.
Die Güte der Anpassung eines Modells an vorliegende Daten kann mit Hilfe statistischer Tests oder geeigneter Kennzahlen beurteilt werden.[1]
Anpassungsmaße können beim Hypothesentest verwendet werden, um zum Beispiel auf Normalität in den Residuen zu testen, um zu prüfen, ob zwei Stichproben aus Grundgesamtheiten mit gleicher Verteilung stammen oder um zu testen, ob bestimmte Häufigkeiten einer bestimmten Verteilung folgen (siehe hierzu auch Pearsons Chi-Quadrat-Test).
Regressionsanalyse
Bestimmtheitsmaß
Als Gütekriterium bei linearer Regression gilt das Bestimmtheitsmaß. In der Regressionsanalyse beschreibt das Bestimmtheitsmaß die Güte der Anpassung des Regressionsmodells an vorliegende Daten. Das Bestimmtheitsmaß ist der Anteil der Varianz von der durch eine lineare Regression erklärt wird, und liegt daher zwischen
- 0 (oder 0 %): kein linearer Zusammenhang und
- 1 (oder 100 %): perfekter linearer Zusammenhang.
Ist , dann besteht das „beste“ lineare Regressionsmodell nur aus dem Achsenabschnitt , während . Ist , dann lässt sich die abhängige Variable vollständig durch das lineare Regressionsmodell erklären.
Eine häufige Fehlinterpretation eines niedrigen Bestimmtheitsmaßes ist es, dass es keinen Zusammenhang zwischen den Variablen gibt. Tatsächlich wird nur der lineare Zusammenhang gemessen, d. h. obwohl der klein ist, kann es trotzdem einen starken nicht-linearen Zusammenhang geben. Umgekehrt muss ein hoher Wert des Bestimmtheitsmaßes nicht bedeuten, dass ein nicht-lineares Regressionsmodell nicht noch besser als ein lineares Modell ist.
Anpassungstests
Ein Anpassungstest (englisch goodness-of-fit test) ist in der schließenden Statistik ein nichtparametrischer Hypothesentest, der die unbekannte Wahrscheinlichkeitsverteilung einer Zufallsvariablen auf (annäherndes) Folgen eines bestimmten Verteilungsmodells (z. B. häufig der Normalverteilung) prüfen soll. Es geht um die Hypothese, dass eine vorliegende Stichprobe aus einer Verteilung mit einer bestimmten Verteilungsfunktion stammt. Häufig wird dies durch asymptotische Betrachtungen der empirischen Verteilungsfunktion realisiert (siehe auch Satz von Glivenko-Cantelli).
Beispiel
Beim Pearson-Chi-Quadrat-Test ist die Chi-Quadrat-Statistik, auch Chi-Quadrat-Summe genannt (englisch goodness of fit statistic) die Summe der durch die erwarteten Häufigkeiten geteilten quadrierten Differenzen zwischen den beobachteten und erwarteten Häufigkeiten:
- = Anzahl der Beobachtungen von Typ i.
- = Gesamtanzahl der Beobachtungen
- = Ewartete Häufigkeit von Typ i
- = Anzahl der Zellen in der Tabelle
Das Ergebnis kann mit der Chi-Quadrat-Verteilung verglichen werden, um die Anpassungsgüte zu bestimmen.
Gütekriterien
In Strukturgleichungsmodellen haben sich verschiedene Gütekriterien etabliert:
- Chi-Quadrat-Wert
- Anpassungsgüteindex (engl. goodness-of-fit index, GFI)
- bereinigter Anpassungsgüteindex (engl. adjusted goodness-of-fit index, AGFI)
- komparativer Anpassungsindex (engl. comparative fit index, CFI)
- normierter Anpassungsindex (engl. normed fit index, NFI)
- Approximationsdiskrepanzwurzel (engl. root mean square error of approximation, RMSEA)
- Standardisierte Residualdiskrepanzwurzel (engl. standardized root mean square residual, SRMR)
Einzelnachweise
- ↑ Bernd Rönz, Hans G. Strohe (1994), Lexikon Statistik, Gabler Verlag