„Anpassungsgüte“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
K Leerzeichen vor/nach Schrägstrich korrigiert, Kleinkram
Markierung: 2017-Quelltext-Bearbeitung
 
(47 dazwischenliegende Versionen von 25 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
Die '''Anpassungsgüte''' oder '''Anpassung''' (engl. ''goodness of fit'') gibt an, "wie gut" ein statistisches Modell eine Menge von Beobachtungen erklären kann. Maße der Anpassungsgüte erlauben eine Aussage über die Diskrepanz zwischen den theoretischen Werten der untersuchten [[Zufallsvariable]]n, die aufgrund des Modells erwartet bzw. prognostiziert werden, und den tatsächlich gemessenen Werten.
Die '''Anpassungsgüte''' oder '''Güte der Anpassung''' ({{enS}} ''goodness of fit'') gibt an, „wie gut“ ein geschätztes Modell eine Menge von Beobachtungen erklären kann. Maße der Anpassungsgüte erlauben eine Aussage über die Diskrepanz zwischen den theoretischen Werten der untersuchten [[Zufallsvariable]]n, die aufgrund des Modells erwartet bzw. prognostiziert werden, und den tatsächlich gemessenen Werten.


Die Güte der Anpassung eines Modells an vorliegende Daten kann mit Hilfe [[Statistischer Test|statistischer Tests]] oder geeigneter Kennzahlen beurteilt werden.<ref name=Roenz1994>Bernd Rönz, Hans G. Strohe (1994), ''Lexikon Statistik'', Gabler Verlag</ref>
Die Güte der Anpassung eines Modells an vorliegende Daten kann mit Hilfe [[statistischer Test]]s oder geeigneter Kennzahlen beurteilt werden.<ref name=Roenz1994>Bernd Rönz, Hans G. Strohe (1994), ''Lexikon Statistik'', Gabler Verlag</ref>


Anpassungsmaße können beim [[Hypothesentest]] verwendet werden, um zum Beispiel auf [[Normalverteilung|Normalität]] in den [[Zuf%C3%A4lliger_Fehler#Residuum|Residuen]] zu testen, um zu prüfen, ob zwei [[Zufallsstichprobe|Stichproben]] aus [[Grundgesamtheit]]en mit gleicher Verteilung stammen oder um zu testen, ob bestimmte Häufigkeiten einer bestimmten Verteilung folgen (siehe hierzu auch [[Karl Pearson|Pearsons]] [[Chi-Quadrat-Test]]).
Anpassungsmaße können beim Hypothesentest verwendet werden, um zum Beispiel auf [[Normalverteilung|Normalität]] in den [[Störgröße und Residuum|Residuen]] zu testen, um zu prüfen, ob zwei [[Stichprobe]]n aus [[Grundgesamtheit]]en mit gleicher Verteilung stammen oder um zu testen, ob bestimmte Häufigkeiten einer bestimmten Verteilung folgen (siehe hierzu auch [[Karl Pearson|Pearsons]] [[Chi-Quadrat-Test]]).


== Beispiel ==
== Regressionsanalyse ==
=== Lineare Regression ===
{{Hauptartikel|Bestimmtheitsmaß}}


Bei [[Lineare Regression|linearer Regression]] gibt es das [[Bestimmtheitsmaß]] <math>R^2</math>. Das Bestimmtheitsmaß <math>R^2=1 - SQR/SQT</math> misst, wie gut die Messwerte zu einem Regressionsmodell passen (Anpassungsgüte). Es ist definiert als der Anteil der „[[Erklärte Quadratsumme|erklärten Variation]]“ an der „[[Totale Quadratsumme|Gesamtvariation]]“ und liegt daher zwischen:
Die [[Chi-Quadrat-Statistik]] ist die Summe der durch die erwarteten Häufigkeiten geteilten quadrierten Differenzen zwischen den beobachteten und erwarteten Häufigkeiten:


* <math>0\,\%</math> (oder <math>0</math>): kein linearer Zusammenhang und
:<math> \chi^2 = \sum {\frac{(O - E)}{E}^2}</math>
* <math>100\,\%</math> (oder <math>1</math>): perfekter linearer Zusammenhang.


Je näher das Bestimmtheitsmaß am Wert Eins liegt, desto höher ist die „Bestimmtheit“ bzw. „Güte“ der Anpassung. Ist <math>R^2=0</math>, dann besteht das „[[Satz von Gauß-Markow|beste]]“ [[lineares Modell|lineare Regressionsmodell]] nur aus dem [[Y-Achsenabschnitt|Achsenabschnitt]] <math>\hat{\beta}_{0}</math>, während <math>\hat{\beta}_{1}=0</math> ist. Je näher der Wert des Bestimmtheitsmaß an <math>1</math> liegt, desto besser erklärt die Regressionsgerade das [[Wahres Modell|wahre Modell]]. Ist <math>R^2=1</math>, dann lässt sich die abhängige Variable <math>Y</math> vollständig durch das lineare Regressionsmodell erklären. Anschaulich liegen dann die Messpunkte <math>(x_1,y_1),\ldots ,(x_n,y_n)</math> alle auf der nichthorizontalen Regressionsgeraden. Somit liegt bei diesem Fall kein stochastischer Zusammenhang vor, sondern ein deterministischer.
wobei:
:''O'' = beobachtete Häufigkeit
:''E'' = erwartete (theoretische) Häufigkeit


== Klassifikation ==
Das Ergebnis kann mit der [[Chi-Quadrat-Verteilung]] verglichen werden, um die Anpassungsgüte zu bestimmen.
{{Hauptartikel|Pseudo-Bestimmtheitsmaß}}

== Anpassungstests ==
Ein '''Anpassungstest''' ({{enS}} ''goodness-of-fit test'') ist in der [[Schließende Statistik|schließenden Statistik]] ein [[Nichtparametrischer Test|nichtparametrischer]] [[Statistischer Test|Hypothesentest]], der die unbekannte [[Wahrscheinlichkeitsverteilung]] einer [[Zufallsvariable]]n auf (annäherndes) Folgen eines bestimmten Verteilungsmodells (z.&nbsp;B. häufig der [[Normalverteilung]]) prüfen soll. Es geht um die Hypothese, dass eine vorliegende Stichprobe aus einer Verteilung mit einer bestimmten [[Verteilungsfunktion]] stammt. Häufig wird dies durch asymptotische Betrachtungen der [[empirische Verteilungsfunktion|empirischen Verteilungsfunktion]] realisiert (siehe auch [[Glivenko-Cantelli-Satz|Satz von Glivenko-Cantelli]]). Bekannte Anpassungstests sind zum Beispiel:<ref>[[Lothar Sachs]], Jürgen Hedderich: ''Angewandte Statistik: Methodensammlung mit R.'' 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2018, ISBN 978-3-662-56657-2, S.&nbsp;470</ref>

* der [[Chi-Quadrat-Test|Chi-Quadrat-Anpassungstest]]
* das [[Wahrscheinlichkeitsnetz]]
* die [[Box-Cox-Transformation]]
* der [[Kolmogorow-Smirnow-Test|Kolmogorow-Smirnow-Anpassungstest]]
* der [[Shapiro-Wilk-Test]]
* der [[Anderson-Darling-Test|Anderson-Darling-Anpassungstest]]
* der [[Jarque-Bera-Test]]

=== Beispiel ===
{{Hauptartikel|Chi-Quadrat-Test}}

Beim [[Pearson-Chi-Quadrat-Test]] ist die Chi-Quadrat-Statistik, auch Chi-Quadrat-Summe genannt ({{enS}} ''goodness of fit statistic'') die Summe der durch die erwarteten Häufigkeiten geteilten quadrierten Differenzen zwischen den beobachteten und erwarteten Häufigkeiten:

:<math> X^2 = \sum_{i=1}^{n} \frac{(O_i - E_i)^2}{E_i} = N \sum_{i=1}^n \frac{\left(O_i/N - p_i\right)^2}{p_i} </math>

:<math>O_i</math> = Anzahl der Beobachtungen von Typ <math>i</math>
:<math>N</math> = Gesamtanzahl der Beobachtungen
:<math>E_i = N p_i</math> = Erwartete Häufigkeit von Typ <math>i</math>
:<math>n</math> = Anzahl der Zellen in der Tabelle

Das Ergebnis kann mit der [[Chi-Quadrat-Verteilung]] verglichen werden, um die Anpassungsgüte zu bestimmen.

== Anpassungsmaße bei Strukturgleichungsmodellen ==
{{Belege}}
Bei der [[Strukturgleichungsmodell|Strukturgleichungsmodellierung]] haben sich verschiedene Kriterien zur Bewertung der Anpassungsgüte etabliert:

* ''Chi-Quadrat-Wert''
* ''Anpassungsgüteindex'' (engl. ''goodness-of-fit index'', kurz: '''''GFI''''')
* ''Bereinigter Anpassungsgüteindex'' (engl. ''adjusted goodness-of-fit index'', kurz: '''''AGFI''''')
* ''Komparativer Anpassungsindex'' (engl. ''comparative fit index'', kurz: '''''CFI''''')
* ''Normierter Anpassungsindex'' (engl. ''normed fit index'', kurz: '''''NFI''''')
* ''Quadratwurzel des mittleren Approximationsfehlerquadrats'' (engl. ''root mean square error of approximation'', kurz: '''''RMSEA''''')
* ''Standardisierte Quadratwurzel des [[Mittleres Residuenquadrat|mittleren Residuenquadrats]]'' (engl. ''standardized root mean square residual'', kurz: '''''SRMR''''')


== Einzelnachweise ==
== Einzelnachweise ==
<references />
<references />


{{SORTIERUNG:Anpassungsgute}}
[[Kategorie:Regressionsanalyse]]
[[Kategorie:Regressionsanalyse]]
[[Kategorie:Testtheorie]]
[[Kategorie:Testtheorie]]

[[en:Goodness of fit]]
[[ru:Статистический критерий]]

Aktuelle Version vom 16. April 2024, 03:46 Uhr

Die Anpassungsgüte oder Güte der Anpassung (englisch goodness of fit) gibt an, „wie gut“ ein geschätztes Modell eine Menge von Beobachtungen erklären kann. Maße der Anpassungsgüte erlauben eine Aussage über die Diskrepanz zwischen den theoretischen Werten der untersuchten Zufallsvariablen, die aufgrund des Modells erwartet bzw. prognostiziert werden, und den tatsächlich gemessenen Werten.

Die Güte der Anpassung eines Modells an vorliegende Daten kann mit Hilfe statistischer Tests oder geeigneter Kennzahlen beurteilt werden.[1]

Anpassungsmaße können beim Hypothesentest verwendet werden, um zum Beispiel auf Normalität in den Residuen zu testen, um zu prüfen, ob zwei Stichproben aus Grundgesamtheiten mit gleicher Verteilung stammen oder um zu testen, ob bestimmte Häufigkeiten einer bestimmten Verteilung folgen (siehe hierzu auch Pearsons Chi-Quadrat-Test).

Regressionsanalyse

[Bearbeiten | Quelltext bearbeiten]

Lineare Regression

[Bearbeiten | Quelltext bearbeiten]

Bei linearer Regression gibt es das Bestimmtheitsmaß . Das Bestimmtheitsmaß misst, wie gut die Messwerte zu einem Regressionsmodell passen (Anpassungsgüte). Es ist definiert als der Anteil der „erklärten Variation“ an der „Gesamtvariation“ und liegt daher zwischen:

  • (oder ): kein linearer Zusammenhang und
  • (oder ): perfekter linearer Zusammenhang.

Je näher das Bestimmtheitsmaß am Wert Eins liegt, desto höher ist die „Bestimmtheit“ bzw. „Güte“ der Anpassung. Ist , dann besteht das „bestelineare Regressionsmodell nur aus dem Achsenabschnitt , während ist. Je näher der Wert des Bestimmtheitsmaß an liegt, desto besser erklärt die Regressionsgerade das wahre Modell. Ist , dann lässt sich die abhängige Variable vollständig durch das lineare Regressionsmodell erklären. Anschaulich liegen dann die Messpunkte alle auf der nichthorizontalen Regressionsgeraden. Somit liegt bei diesem Fall kein stochastischer Zusammenhang vor, sondern ein deterministischer.

Anpassungstests

[Bearbeiten | Quelltext bearbeiten]

Ein Anpassungstest (englisch goodness-of-fit test) ist in der schließenden Statistik ein nichtparametrischer Hypothesentest, der die unbekannte Wahrscheinlichkeitsverteilung einer Zufallsvariablen auf (annäherndes) Folgen eines bestimmten Verteilungsmodells (z. B. häufig der Normalverteilung) prüfen soll. Es geht um die Hypothese, dass eine vorliegende Stichprobe aus einer Verteilung mit einer bestimmten Verteilungsfunktion stammt. Häufig wird dies durch asymptotische Betrachtungen der empirischen Verteilungsfunktion realisiert (siehe auch Satz von Glivenko-Cantelli). Bekannte Anpassungstests sind zum Beispiel:[2]

Beim Pearson-Chi-Quadrat-Test ist die Chi-Quadrat-Statistik, auch Chi-Quadrat-Summe genannt (englisch goodness of fit statistic) die Summe der durch die erwarteten Häufigkeiten geteilten quadrierten Differenzen zwischen den beobachteten und erwarteten Häufigkeiten:

= Anzahl der Beobachtungen von Typ
= Gesamtanzahl der Beobachtungen
= Erwartete Häufigkeit von Typ
= Anzahl der Zellen in der Tabelle

Das Ergebnis kann mit der Chi-Quadrat-Verteilung verglichen werden, um die Anpassungsgüte zu bestimmen.

Anpassungsmaße bei Strukturgleichungsmodellen

[Bearbeiten | Quelltext bearbeiten]

Bei der Strukturgleichungsmodellierung haben sich verschiedene Kriterien zur Bewertung der Anpassungsgüte etabliert:

  • Chi-Quadrat-Wert
  • Anpassungsgüteindex (engl. goodness-of-fit index, kurz: GFI)
  • Bereinigter Anpassungsgüteindex (engl. adjusted goodness-of-fit index, kurz: AGFI)
  • Komparativer Anpassungsindex (engl. comparative fit index, kurz: CFI)
  • Normierter Anpassungsindex (engl. normed fit index, kurz: NFI)
  • Quadratwurzel des mittleren Approximationsfehlerquadrats (engl. root mean square error of approximation, kurz: RMSEA)
  • Standardisierte Quadratwurzel des mittleren Residuenquadrats (engl. standardized root mean square residual, kurz: SRMR)

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Bernd Rönz, Hans G. Strohe (1994), Lexikon Statistik, Gabler Verlag
  2. Lothar Sachs, Jürgen Hedderich: Angewandte Statistik: Methodensammlung mit R. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2018, ISBN 978-3-662-56657-2, S. 470