Diese Website setzt Cookies ein, um das Angebot für Sie zu personalisieren und Ihr Erlebnis zu verbessern.
Weitere Informationen: Datenschutzerklärung & Cookies, Impressum
Bei statistischen Tests unterscheidet man zwischen parametrischen und nicht-parametrischen Tests. Der Hauptunterschied liegt in den Annahmen, die über die zugrunde liegende Verteilung der Daten gemacht werden.
Parametrische Tests gehen davon aus, dass die Daten einer bestimmten Verteilung folgen, wie zum Beispiel der Normalverteilung. Diese Tests verwenden normalerweise Parameter wie den Mittelwert und die Standardabweichung, um Hypothesen über die Populationsparameter zu überprüfen. Beispiele für parametrische Tests sind der t-Test, die ANOVA (Analysis of Variance) und die lineare Regression. Parametrische Tests sind in der Regel leistungsfähiger, wenn die Annahmen erfüllt sind, aber sie erfordern, dass die Daten einer bestimmten Verteilung folgen.
Nicht-parametrische Tests hingegen machen keine Annahmen über die zugrunde liegende Verteilung der Daten. Sie werden auch als verteilungsfreie Tests bezeichnet. Diese Tests basieren auf Rangordnungen oder Permutationen der Daten und eignen sich gut für Daten, bei denen die Verteilungsannahmen nicht erfüllt sind oder wenn die Daten kategorial oder ordinal sind. Beispiele für nicht-parametrische Tests sind der Wilcoxon-Rangsummentest, der Mann-Whitney-U-Test und der Kruskal-Wallis-Test.
Der Auswahl eines parametrischen oder nicht-parametrischen Tests liegt die Art der Daten und die Erfüllung der Annahmen zugrunde. Wenn die Annahmen erfüllt sind und die Daten einer bestimmten Verteilung folgen, sind parametrische Tests leistungsfähiger. Wenn die Verteilungsannahmen nicht erfüllt sind oder die Daten kategorial oder ordinal sind, sind nicht-parametrische Tests angemessener.