QM-Forum › Foren › Qualitätsmanagement › Allheilmittel für Verteilungen
-
AutorBeiträge
-
Eine kleine Statistikfrage ?
Wie werte ich Urwerte am besten aus. Damit ich auch die richtige Verteilung rausbekomme ?? Habe gehört das Tschebyscheff hier das Allheilmittel ist. Dieser ansatz ist mir aber zu komplex/ kompliziert.( zu Fuss ) -> oder gibt es hierfür auch einen FilterGruss
robbobHallo robbob,
das ist keine „kleine“ Statistikfrage, die Du da hast, deshalb wird die Antwort jetzt auch ein bisschen länger ;-)
Die Tschebyscheffsche Ungleichung liefert Dir keine Verteilung, sondern eine sehr grobe Abschätzung der Varianz. Sie gilt aber *ausschließlich* für Messwerte ohne systematische Fehler, d. h. für Messwerte aus einem stabilen Prozess (keine Lage- oder Streuungsveränderungen). Tschebyscheff hat in der Theorie einen wichtigen Stellenwert (wird u. a. für den Zentralen Grenzwertsatz verwendet), in der Praxis ist die Abschätzung hierdurch zu ungenau (und wird trotzdem häufig und oft falsch angewendet.)
Was kannst Du also für die Bestimmung der Verteilung machen?
1. Kriterium: Gesunder MenschenVerstand (GMV)
Messwerte ohne systematische Einflüsse sind normalverteilt (die ganz normalen Messwerte wie Länge, Dicke, usw. Für Rundheiten, etc. gilt das nur in abgewandelter Form).2. Kriterium: Grafik
Zeichne Dir die Werte am besten in einen Boxplot, ggf. auch in mehrere Histogramme mit unterschiedlicher Klasseneinteilung (s.
http:www.bb-sbl.de/tutorial/verteilungen/ueberpruefungnormalverteilung.html )
Mach ein Wahrscheinlichkeitsnetz mit der Normalverteilung als Verteilungsannahme.3. Kriterium: Kennzahlen
Die Beschreibung findest Du über o. a. Link4. Kriterium: Tests
Einer alleine reicht nicht und der Chi²-Test ist von seiner Güte her wenig aussagekräftig. Besser sind der Lilliefors-, Shapiro-Wilks, Anderson-Darling. Da Du vergleichst, ob Deine Daten aus einer bestimmten Verteilung stammen und es unendlich viele andere Verteilungen gibt, reicht ein Test alleine nicht aus.Wenn alle vier Kriterien (GMV, Grafiken, Kennzahlen, Tests) sagen, dass Deine Daten normalverteilt sind, dann sind sie es mit sehr hoher Sicherheit. (Du brauchst dafür mindestens 50, besser 100 Urwerte.)
In der Praxis wirst Du oft feststellen, dass die Werte zwar eigentlich normalverteilt sein sollten, es aber nicht sind. Häufig werden dann zwei Alternativen vorgeschlagen: Transformation in eine Normalverteilung oder (automatisierte) Verteilungssuche über eine Software. Das ist beides suboptimal, um es mal vorsichtig auszudrücken.
Wenn Du Deine Daten so lange transformierst, bis sie irgendwie in eine Normalverteilung passen oder wenn Du Dir eine Verteilung suchen lässt, die zu den Daten zu passen scheint, dann verlierst Du damit einen Großteil der Informationen aus Deinen Daten und ignorierst den gesunden Menschenverstand.
Denn wenn Daten, die nach dem GMV normalverteilt sein müssten, in der Praxis nicht annähernd normalverteilt sind, dann gibt es dafür (mindestens) einen Grund.
Wenn Du nicht weißt, was dieser wichtige Grund (systematischer Einfluss) ist, dann wirst Du Schwierigkeiten haben, einen stabilen Prozess zu schaffen. Denn dieser Einfluss kann jederzeit Deine Messwerte verändern und Du weißt nicht, wann das passiert oder in welchem Umfang.
Wenn Du also Messwerte hast, die nicht normalverteilt sind und es eigentlich sein sollten, dann geh auf Ursachensuche (5Ms ist ein erster guter Ansatz). Ist das Messmittel fähig? Gibt es möglicherweise Einflüsse durch den Werker, das Material, die Uhrzeit, die Temperatur, etc.?
Mit diesen möglichen Einflüssen kannst Du dann über Regressionsanalyse herausfinden, welche tatsächlich einen Einfluss haben und wie groß dieser Einfluss ist.
Ein Beispiel:
Du hast die Breite von Bandstahl an 100 Coils gemessen. Nach GMV müssten die Werte bei einem stabilen Prozess / ohne systematische Einflüsse normalverteilt sein. Das Modell 1 dazu ist:
gemessene Breite = tatsächliche Breite + Streuung
Die Streuung ist normal und kann auch nie gänzlich verschwinden. Sie muss nur klein genug sein (im Vergleich zu den Messwerten) und normalverteilt. Sie entsteht alleine schon durch das Messen (deshalb ist die MSA auch so wichtig).
Die tatsächliche Breite ist konstant, d. h. die Messwerte sind insgesamt normalverteilt. So weit die Theorie.Du stellst jetzt fest, dass Deine Messwerte nicht normalverteilt sind, d. h. das Modell 1 reicht nicht aus, um die Messwerte zu erklären.
Auf der Suche nach den Gründen für die Schwankungen (das heißt S*c*h*w*a*n*k*u*n*g*e*n) findest Du unterschiedliche Verarbeitungstemperaturen, unterschiedliche Anlagen und verschiedene Werker als mögliche Ursachen.
Das Modell 2 ist dann:
gemessene Breite =
tatsächliche Breite + Temperatur + Anlage + Werker + StreuungMit Deinen Daten zusammen schaust Du dann, ob das Modell 2 ausreicht, um die Messwerte zu erklären. (Berechnen kannst Du das z. B. mit Minitab oder einer anderen Statistik-Software. Excel ist nicht genau genug und ziemlich unkomfortabel, wenn Du keine VBA-Skripts dafür hast.)
In der Modelldiagnose siehst Du dann, welche von Deinen vermuteten Einflüssen tatsächlich einen deutlichen (signifikanten) Einfluss hat und wie groß der ist.
Die Streuung aus Modell 2 ist dann wieder normalverteilt, wenn es keine unberücksichtigten Einflüsse mehr gibt (Überprüfung wie oben).
Z. B. findest Du bei der Bandstahlbreite heraus, dass eine Veränderung der Temperatur um +50°C zu einer Verbreiterung des Bandstahls um 12 mm führt. Dafür haben weder die Anlage noch der Werker einen Einfluss.
Wenn die Temperatur also konstant gehalten wird, dann hast Du einen stabilen Prozess. Wenn sich die Temperatur nicht konstant einstellen lässt, dann kannst Du angeben, wie die nachfolgenden Verarbeitungsschritte bei welcher Temperaturabweichung verändert werden müssen, damit die gewünschte Breite eingehalten wird.
Hättest Du die Daten einfach transformiert oder eine alternative Verteilung suchen lassen, dann wüsstest Du das nicht. Vielleicht ist das nicht wichtig, weil Eure jetztigen Spezifikationen sehr viel weiter sind als die Prozess-Schwankungen. Dann lohnt sich dieser Aufwand nicht, außer um Deine Statistik-Kenntnisse aufzufrischen. Wenn es aber ein Problem gibt (zu viel Ausschuss, schmalere Spezifikationen, etc.), dann kannst Du sehr viel besser erklären, woher es kommt, was dagegen zu tun ist und wo die Grenzen der Optimierung liegen.
Ich hoffe das hilft Dir, auch wenn es arg viel ist.
Viele Grüße
Barbara
~~~ Der Sinn des Lebens ist 42. ~~~
Ja das es sich meistens um eine nicht NV GG handelt das habe ich leider auch feststellen müssen , vielleicht 1% . Doch da liegt wohl die Schwierigkeit die richtige Annahme zu treffen. Und den Auswertezeitraum auf ein Minimum zu reduzieren. Da sind „oft“ Programme wie qsstat hilfreich. Doch wie gesagt alles kann man nicht über einen Kamm scheren.
Danke für die Hilfe , lass mir das noch ein wenig durch den Kopf gehen
Robbob -
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.