QM-Forum › Foren › Qualitätsmanagement › Verteilungszeitmodell
-
AutorBeiträge
-
Hallo erstmal an alle.
Ich bin gerade dabei meine Abschlussarbeit im Bereich SPC zu schreiben.
Bin aber bei der Fähigkeitsanalyse auf ein ziemlich großes Problem gestoßen.Und zwar habe ich einen Prozesskennwert, der durch viele Einzelmessunsicherheiten beeinflusst wird und deshalb nicht Normalverteilt ist obwohl es wie eine Normalverteilung aussieht.
Die Verteilung ist unimodal und symetrisch jedoch ergibt ein Chi-Test (4700 Werte), dass eine Normalverteilung ausgeschlossen werden kann.
Auch die üblichen Verteilungen konnte ich bereits aussschließen.
Aber ohne die Verteilungsform zu kennen, kann ich ja keine Prozessfähigkeitskennwerte berechnen wenn ich das richtig verstanden habe.Ich bin ein bisschen aufgeschmissen vielleicht hat hier ja einer eine Idee.
Außerdem habe ich noch eine Frage bezüglich der Anzahl der nötigen Werte für Momentanverteilungen. In der Literatur gibt es dazu keine Aussagen.
Vielen Dank im Voraus
Liebe Grüße aus Dorsten
Andreas
Willkommen, Andreas,
Die Spezialistin ist Barbara und sie wird sich einiges dazu sagen können (besser als wir alle zusammen ;-)
Erste Wahl sind nichtparametrische Ansätze.
Bei der recht großen Anzahl von Messdaten können die entsprechenden Quartile herangezogen werden, um die Wahrscheinlichkeiten abzuschätzen.
Wenn nicht zu viele Ausreißer drin sind können auch nährungsweise die parametrischen Berechnungstools herangezogen werden, da die zugrundeliegenden Tests leichte Abweichungen von der Normalverteilung vertragen, also robust sind.
Aber ohne Kennwerte (Mittelwert, Median, STD, Schiefe usw) lässt sich mehr nicht sagen.Viele Grüße
QM-FK
—
Don’t think it – ink it.Hallo Andreas,
willkommen im Qualitäter-Forum :)
Du hast Recht: Belastbare Prozessfähigkeitsbewertungen brauchen immer ein belastbares Verteilungsmodell.
Bei der Prüfung auf Normalverteilung ist der Chi²-Test ziemlich schlecht, genauso der Kolmogorov-Smirnoff-Test. Anderson-Darling, Shapiro-Wilks oder Ryan-Joiner sind gute Tests, d. h. sie finden sehr viel zuverlässiger als der Chi²- oder KS-Test heraus, ob die Daten normalverteilt sind oder nicht.
Wichtig ist in jedem Fall neben dem Test auch die Betrachtung des Wahrscheinlichkeits-Netzes, weil Dir die Testergebnisse nur eine ja/nein-Entscheidung geben, Du aber in der Grafik auch Hinweise auf die Ursachen für eine Entscheidung geben (z. B. Werte zu gleich / zu geringe Auflösung mit nur 5 verschiedene Werte in der Tabelle oder auch Ausreißer, usw.) Das Wahrscheinlichkeitsnetz sollte die Punkte NICHT in Gruppen zusammenfassen, sondern alle 4700 Punkte einzeln zeigen.
Bei vielen Werten muss der Unterschied zwischen Prüfverteilung (z. B. Normalverteilung) und Messdaten extrem klein sein, weil jede Abweichung „so müsste der Wert bei dieser Verteilung sein – so ist der Wert“ zusammengezählt wird. Je mehr Messdaten Du hast, desto mehr (auch kleine) Abweichungen werden zusammengezählt. Dadurch bekommst Du sehr schnell eine Ablehnung der Verteilungsannahme im Test, auch wenn die Daten im Wahrscheinlichkeitsnetz der Ideallinie gut folgen.
Zu den Momentanverteilungen oder auch Verteilungszeitmodellen gibt es ziemlich wenig, weil die (vermutlich) eine Erfindung deutscher Anwender ist, die für alle möglichen Messdaten-Verteilungen eine Methodik zur Prozessfähigkeits-Bewertung haben wollten. In der Statistik wird so anders gemacht, deshalb gibt es in Statistik-Büchern auch so einen Mumpitz wie Momentanverteilungen oder Verteilungszeitmodelle als Grundlage für die Prozessfähigkeitsbewertung nicht.
Wo Du eventuell noch etwas finden könntest ist in dem Normenwurf ISO/DIS 22514-2: Statistical methods in process management — Capability and performance — Part 2: Process capability and performance of time-dependent process models (der gekauf werden muss, wenn ihn Deine Uni nicht haben sollte).
Hier noch ein kurzer Überblick über den aktuellen Stand der Normen zu zeitabhängigen Prozess-Daten:
DIN ISO 21747:2007-03 „Statistische Verfahren – Prozessleistungs- und Prozessfähigkeitskenngrößen für kontinuierliche Qualitätsmerkmale“ ist (noch) gültig und enthält Verteilungszeitmodelle (wie sie u. a. in qs-stat implementiert sind)
Beziehbar über beuth.deDie englische Version der 21747
ISO 21747:2006 „Statistical methods — Process performance and capability statistics for measured quality characteristics“
ist schon vor einiger Zeit zurückgezogen worden. Als Ersatz nennt die ISO die ISO/DIS 22514-2 für zeitabhängige Verteilungen. Das Interesse an dieser Norm ist allerdings so bahnbrechend groß, dass der Status „in Entwicklung“ schon ganz schön lange dauert. Naja, der Norm-Entwurf kann auf jeden Fall schon gekauft werden. (Ich hab den Entwurf bislang weder gesehen noch gekauft, deshalb kann ich Dir zu Inhalt und Brauchbarkeit nichts sagen.)Die Prozessfähigkeits-Bewertung von zeitstabilen Prozessen und variablen Messdaten wird in der ISO/TR 22514-4:2007 „Statistical methods in process management — Capability and performance — Part 4: Process capability estimates and performance measures“ beschrieben und enthält statistisch sinnvolle Methoden sowie entsprechende Warnungen bei wackeligeren Ansätzen (z. B. Johnson-Transformation oder Pearson-Modellen).
Damit Du weiterkommst, würd ich folgende drei Dinge tun:
1. Bewertung der Verteilungsanpassung über ein Wahrscheinlichkeitsnetz mit Einzeldaten, ggf. zusätzlich ein gutes Testverfahren
2. Falls noch nicht geschehen: Prüfung der Messmittel-Fähigkeit und Mess-Prozess-Sicherheit (Verfahren 1, Gage R&R ANOVA, ggf. erweiterte Mess-Unsicherheit)
3. Verwendung gültiger internationaler Standards und Normen der ISO bei der Bewertung von Prozessen, weil meiner Erfahrung nach in deutschen Normen die statistischen Verfahren sehr verbogen und/oder wenig anschaulich dargestellt werdenIch hoffe, das hilft Dir ein Stück weiter.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Ertmal vielen lieben Dank für die schnellen und sehr ausfühlichen Antworten. Vor allem natürlich Dir Barbara du scheinst ja mal so richtig Ahnung davon zu haben. Mein QM Prof. hat nur mit den Schultern gezuckt.
Die Messmittel für den Prozess werden von Physikalisch technischen Bundesanstalt überprüft und deren Streuung wird als Normalverteilt angegeben.
Bei einer Messunsicherheitsuntersuchung habe ich für die dreifache Standardabweichung ein einseitiges Unsicherheitsintervall von 0,28 errechnet. Die Streuung des Prozesses beträgt allerdings bei dreifacher Standardabweichung nur 0,22.
Das liegt denke ich daran, dass die Messgeräte einfach etwas genauer Arbeiten als sie laut Datenblatt müssten oder?Der Mittelwert des Prozesses ist 0. Die Standardabweichung 0,0781
Ich würd ja gern ein Bild der Verteilung hochladen nur krieg ich das irgendwie nicht hin. Deshalb die Tabelle.
>3s 13
3s 10
2,6s 41
2,2s 103
1,8s 206
1,4s 348
1s 531
0,6s 781
0,2s-(-02s)851
-0,6s 752
-1s 520
-1,4s 328
-1,8s 188
-2,2s 98
-2,6s 55
-3s 21
>3s 19Aktuell versuche ich mit Hilfe der DIN/ISO 21747 dem Problem Herr zu werden aber irgendwie will das nicht so recht klappen.
Da ich zwar Qualitäts und Umweltmanagement studiere jedoch als Spezialisierung in der Maschinentechnik, hatte ich gehofft um komplizierte statistische Modelle herumzukommen.
Ach ja Ausreißer habe ich händisch in mühevoller kleinarbeit Aussortiert und begründet warum ich sie Aussortiert habe. Das waren insgesammt ca 120, habe ich mir vielleicht dadurch die Verteilung kaputt gemacht?
Vielleicht hab ich ja sogar eine Normalverteilung und bin nur zu doof dies zu erkennen? Mir steht leider nur Excel zur verfügung
Was würdet ihr für eine Anzahl an Werten für die Momentanverteilungen heranziehen? Ist 125 sinnvoll oder soll ich mehr nehmen?
Ich werd mal versuchen an die internationale Norm heranzukommen.
Ich muss mich jetzt erstmal schlau machen was es mit dem Wahrscheinlichkeitsnetz auf sich hat.
Hallo Andreas,
immer gerne :)
Eine Prozessfähigkeitsbewertung mit Excel ist extrem mühselig. Du bist also nicht zu doof, sondern erstmal ist Excel für statistische Auswertungen schwierig, sobald es über die Berechnung eines Mittelwerts hinausgeht. (Excel ist keine Statistik-Software, sondern ein Tabellenkalkulations-Programm.)
Falls Du die Möglichkeit hast, Statistik-Software zu installieren und zu nutzen, würd ich Dir eine kostenlose Demoversion von Minitab für die Auswertung empfehlen (z. B. hier). Die Demoversion von Minitab läuft 30 Tage ohne Einschränkung und der Assistent für die Prozessfähigkeitsbewertung liefert auf einen Rutsch alle relevanten Auswertungen plus die Interpretation der Ergebnisse.
Die Frage, ob Du durch eine manuelle Sortierung die Verteilung beeinflusst hast, kann ich Dir nicht beantworten ohne die Werte gesehen zu haben. 120 von knapp 5000 Werten sind nicht so arg viele (2,6%), andererseits steckt in jedem Wert Information über den Prozess. Nach welchen Kriterien hast Du denn entschieden, ob ein Wert ein Ausreißer ist oder nicht?
Dass ein Prozess weniger Standardabweichung hat als bei der Messunsicherheitsbewertung finde ich erstmal seltsam, denn die Prozess-Streuung ergibt sich aus Mess-Unsicherheit PLUS Fertigungs-Streuung, und ist damit immer größer als die Mess-Unsicherheit alleine. Andererseits ist die Bewertung der Streuung über die Kennzahl Standardabweichung nur dann einfach und sinnvoll interpretierbar, wenn die Messdaten normalverteilt sind.
Hochladen oder Anhängen kannst Du in diesem Forum nichts. Du kannst nur auf andere Server etwas hochladen (z. B. imageshack.us) und den Link hier posten. Leider hilft mir Deine Tabelle nicht weiter, weil da (zum Glück) nicht alle 4700 einzelnen Werte aufgelistet sind.
Wenn Du möchtest, kannst Du mir Deine Daten und die Toleranzgrenze(n) per Mail schicken, dann schubs ich die durch Minitab und schick Dir die Ergebnisse. Gut wäre es, wenn Du die unbereinigten und die bereinigten Werte für die Auswertung zur Verfügung stellen könntest, damit Unterschiede untersucht werden können.
Infos zum Wahrscheinlichkeitsnetz findest Du u. a. bei Wikipedia Wahrscheinlichkeitsnetz bzw. Wikipedia Q-Q-Plot oder auf meiner Seite oder in jedem Statistik-Buch unter den Stichworten Normal-Quantil-Plot, Quantil-Plot, QQ-Plot, PP-Plot. Der Begriff „Wahrscheinlichkeitsnetz“ wird für diese Art von Grafik eigentlich nur in der Industrie verwendet, der gemeine Statistiker sagt da eher QQ-Plot zu.
Bevor Du weiter versuchst, mit der DIN ISO 21747 irgendwie zu rechnen (was alles andere als einfach ist und verzerrte Ergebnisse liefert) wäre meine Empfehlung, erstmal zu schauen wie schlimm die Abweichungen von der Normalverteilung sind und dann zu überlegen, wie der Prozess statistisch sinnvoll bewertet werden kann. Die Umsetzung der DIN ISO 21747 ist sowieso schon arg kompliziert und wenn Du nur Excel zur Verfügung hast, eine echte Herausforderung.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Vielen Lieben Dank nochmal ich werde Sie definitiv auf dem laufenden halten. Jetzt bin ich ertmal damit beschäftigt den ganzen Input zu verarbeiten.
Das mit dem minitab werd ich auf jeden Fall versuchen.
Das die Streuung kleiner als die Messunsicherheit ist, verwundert mich nicht, da vorliegender Prozess Teil eines Eichvorgangs unter Laborbedingungen ist und insgesamt sieben Einzelmessunsicherheiten einfließen. Quasi alle Einflüsse sind Messtechnisch begründbar
-
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.