QM-Forum › Foren › Qualitätsmanagement › Statistik….Barbara, kannst du helfen? :)
-
AutorBeiträge
-
Hallo zusammen,
hab ein kleines Problem:
Ich möchte 2 Stichproben unterschiedlicher Grösse/ Länge (unabhängig) auf signifikanten Unterschied untersuchen. Idee war ein t-test. Beide Stichproben habe ich auf Varianzgleichheit untersucht (mittels minitab). Das Ergebnis war für beide Stichproben p>0,05….somit liegt Varianzgleichheit vor. Richtig? Allerdings ist aufgrund nicht vorliegender NV der t-test quasi ausgeschlossen.
Mit welchem Test kann ich nun am sinnvollsten eine Signifikanzuntersuchung durchführen? Einfache ANOVA fällt wegen der fehlenden NV auch flach, oder?
Und eine zusätzliche Frage: Wenn eine der Stichproben normalverteilt ist und die andere nicht, muss man bei der Testwahl etwas besonderes beachten?
Vielen vielen Dank schonmal im voraus….auch an alle anderen Mitglieder :)
Hallo reticent,
eine einfache Frage, die ganz viele Antwortmöglichkeiten bietet [;)]
Die Voraussetzung mit der Normalverteilung der Einzelwerte ist mittelmäßig wichtig. Wenn Du für eine Stichprobe/Messreihe/Kategorie/Gruppe mehr als 30 Messwerte hast und die Abweichungen von der Normalverteilung klein genug sind (AD-Test auf Normalverteilung mit AD-Wert im Bereich 0 bis 1, Wahrscheinlichkeitsnetz zeigt keine deutlichen Strukturen), kannst Du den t-Test auch dann nehmen, wenn die eine Messreihe nicht so ganz schick normalverteilt ist. Denn nach dem Zentralen Grenzwertsatz sind Mittelwerte normalverteilt, wenn die Grundgesamtheit (hier: der Prozess) stabil sind und für den t-Test wird die Verteilung des Mittelwerts und nicht der Einzelwerte verwendet.
Der t-Test für den Vergleich von Mittelwerten aus 2 Messreihen ist derselbe Test wie der F-Test der ANOVA für 2 Gruppen, wenn auf Gleichheit der Mittelwerte getestet wird. Nimmst Du die ANOVA, werden (üblicherweise) nicht mehr die einzelnen Messreihen auf Normalverteilung geprüft sondern die Residuen aus der Varianzanalyse. Diese sollten normalverteilt sein bzw. keine deutlichen Anzeichen von der Normalverteilung zeigen (p-Wert größer 0,05, AD-Wert klein, keine Strukturen im Wahrscheinlichkeitsnetz).
Das mit dem Test auf Normalverteilung ist dann etwas tückisch, wenn Du „viele“ (>100) Messwerte hast. Jeder Test auf Normalverteilung vergleicht die optimalen Werte (wie müsste es aussehen, wenn die Messwerte normalverteilt wären) mit den tatsächlich aufgenommenen Werten. Für jeden Messwert gibt es eine Abweichung vom Idealwert. Bei vielen Messwerten summieren sich die Abweichungen, so dass der p-Wert oft klein ist (<0,05) und die Messwerteverteilung im Wahrscheinlichkeitsnetz trotzdem ganz gut aussieht.
Hier ist es dann beim Anderson-Darling Tests (AD) sinnvoll, den AD-Wert und nicht den p-Wert anzuschauen. Der AD-Wert ist so etwas wie die Summe der Abweichungen Messwert-Idealwert. Wenn die Abweichungen klein sind, bleibt diese Summe zwischen ca. 0 und 1; bei deutlicheren Abweichungen wird der AD-Wert größer (kann auch größer 100 werden). Es gibt leider keinen Test auf Normalverteilung, der die Anzahl Messwerte bei vielen Werten gut berücksichtigt.
Sind die Abweichungen von der Normalverteilung bei mindestens einer Messreihe oder den Residuen deutlich (p<0,05, hoher AD-Wert, Strukturen im Wahrscheinlichkeitsnetz), funktionieren der t-Test und der F-Test immer noch, nur ist dann die Frage ob die Mittelwerte der Messreihe aussagekräftige Kennzahlen zur Beschreibung der mittleren Lage sind.
Hast Du z. B. 1-2 Extremwerte in einer der Messreihen wird der Mittelwert dieser Messreihe deutlich verzerrt und gibt damit kein realistisches Bild der mittleren Lage wieder. In solchen Situationen ist es besser einen nicht-parametrischen Test für den Vergleich der Mediane zu verwenden. In Minitab: Statistik > Nichtparametrische Tests > Mann-Whitney (2 Messreihen) oder Kruskal-Wallis (2 oder mehr Messreihen).
Nichtparametrische Tests haben sehr viel schwächere Voraussetzungen als die parametrischen (z. B. t-, F-Test) und brauchen keine normalverteilten Werte in den Messreihen. Dafür sind sie weniger trennscharf, d. h. die Unterschiede müssen deutlicher sein um einen signifikanten p-Wert zu bekommen.
Ich würd mir vermutlich erstmal die Wahrscheinlichkeitsnetze für jede Messreihe anschauen und dann entscheiden, ob die Abweichungen von der Normalverteilung klein genug sind für einen Mittelwert-Vergleich (trotz p<0,05 bei einer der Messreihen) oder ob die nichtparametrische Variante besser ist. Und ich würd mir die Ergebnisse der beiden Testverfahren anschauen und prüfen, ob die Aussage deckungsgleich oder unterschiedlich ist.
Kannst ja mal schreiben wofür Du Dich entschieden hast!
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo reticent,
ich hab mal einen kurzen Blick in die Daten geworfen. Die kurze Antwort: Verglichen mit der Streuung innerhalb der Messreihen ist der Unterschied zwischen den Mittelwerten relativ klein.
Die Langform mit bunten Bildchen & Minitab-R16-Projektdatei findest Du hier: https://login.yoursecurecloud.de/d/cf9173052f/ (keine Anmeldung erforderlich).
Wie dieser Unterschied praktisch zu bewerten ist, steht auf einem anderen Blatt, denn dazu bräuchte ich Infos über den Prozess aus dem Messwerte stammen, usw. Statistische Signifikanz und technische Relevanz sind zwei verschiedene Dinge (s. a. Minitab: Common Statistical Mistakes).
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Barbara,
nochmals vielen Dank.
Auch ich hatte einen p-Wert von <0,1 mittels ANOVA als auch mittels des t-Tests ermittelt. Dann scheint meine Signifikanzuntersuchung also doch zu stimmen.Mich wundert nur, dass der p-Wert soooo klein ist, da ich bei Betrachtung beider Stichproben einen viel geringeren Unterschied vermutet hätte.
Woran könnte dies liegen? Die ANOVA betrachtet doch einerseits die Mittelwerte und untersucht die Varianzen beider Stichproben auf einen signifikanten Unterschied, oder?
Ich gebe dir recht, denn aus technischer Sicht ist der kleine p-Wert nicht relevant. Aber ich würde gern begreifen, warum die Statistik nur einen Wert von 0,096 ermittelt. Liegt dies an dem einen Ausreisser oder sind die Varianzen beider Stichproben wirklich so verschieden? Die Standardabweichung ist in beiden Fällen fast gleich?!Hallo reticent,
t-Test und ANOVA untersuchen beide ausschließlich den Unterschied zwischen den Mittelwerten.
Bei der Signifikanzprüfung wird dann zusätzlich die Streuung innerhalb der Messreihen verwendet. Geprüft wird weder beim t-Test noch bei der ANOVA, ob die Varianzen oder Standardabweichungen gleich sind (das ist Vorarbeit mit einem Test auf Varianzgleichheit oder Nacharbeit mit der Residuenanalyse).
t-Test und ANOVA untersuchen hier:
H0: Mittelwerte der beiden Messreihen sind gleich.
vs. H1: Mittelwerte der beiden Messreihen sind ungleich/unterschiedlich.Ein p-Wert von 0,10 = 10% sagt, dass die Wahrscheinlichkeit für „Mittelwerte sind gleich“ (H0) bei diesem Mittelwert-Unterschied 10% groß ist, wenn die Mittelwerte tatsächlich gleich sind. Oder anders: Du hast eine Chance von 10% einen so hohen Unterschied oder noch größeren in den Mittelwerten zu finden, wenn die Mittelwerte tatsächlich gleich sind.
Die Varianzen oder Standardabweichungen von den beiden Messreihen sind sowohl mit als auch ohne Extremwert ähnlich genug um von gleicher Varianz ausgehen zu können. Der Extremwert hat auch keinen wirklichen Effekt auf das Ergebnis des t-Tests (ohne Extremwert: p=0,104), d. h. die beiden Mittelwerte in den Messreihen A und B sind zu ähnlich, um von einem statistisch signifikanten Unterschied sprechen zu können.
Ist das „von hinten durch die Brust ins Auge“ etwas klarer? Statistische Tests erscheinen immer etwas verschwurbelt [;)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.