QM-Forum › Foren › Qualitätsmanagement › OEG/UEG bei Regelkarten. Problem
-
AutorBeiträge
-
Guten Tag zusammen,
ich habe eine Frage zur Grenzwertbestimmung (OEG/UEG) beim Entwurf von Regelkarten.
Sorry, der Text ist was länger geworden, aber ich wollte mein Problem verständlich machen.Vielleicht findet sich hier ja jemand, der sich meiner Problemstellung widmet und mir helfen kann. Vielen Dank vorab! :)
Im Rahmen meiner Abschlussarbeit vermesse ich die Laserstrahlemissionen von CO2-Resonatoren.
Das Ziel ist, die Emissionen der Resonatoren quantitativ zu überwachen, d.h. Radius und Schwerpunkt des Laserstrahles dürfen über die Zeit nicht zu stark schwanken.Zur Kontrolle meiner Werte möchte ich das Regelkartenprinzip verwenden.
Kurze Beschreibung des Messprozesses:
– Der Resonator emittiert 1h lang Laserstrahlung
– In zeitlich gleichen Abständen wird eine Messung durchgeführt: man erhält insg. 30 Messpunkte, jeweils mit „Stichprobenumfang“ n = 1
– Es können äußere Einflüsse wirken (z.B. durchs Kühlwasser), die einen periodischen Verlauf der Kurve verursachen, aber akzeptiert werden müssen, solang die Kurvenschwankung nicht zu groß wird
– Ist der Resonator mit „OK“ bewertet nach der Messung, hat er dieses „Quality Gate“ bestanden und wird nicht nochmal vermessen. Es gibt aber immer wieder baugleiche Resonatoren, die so vermessen werden müssenVergleiche ich alle baugleichen Resonatoren hinsichtlich Mittelwert und Streuung des gemessenen Radius, stelle ich fest, dass diese sich hinsichtlich Mittelwert und Streuung des Radius unterscheiden.
Dass der eine Resonator nun im Mittel einen Radius von 7 mm hat und ein anderer 10 mm, ist nicht entscheidend. Wichtig ist, dass die Radius-Kurve eines jeden Resonators nicht zu stark streut während der Messung.
Folgend die Hindernisse und der dazugehörige Lösungsansatz:
1. Obwohl die Resonatoren baugleich sind, unterscheiden sie sich hinsichtlich der globalen Standardabweichung einer jeden Kurve. Die Regelkarte soll aber für alle baugleichen Resonatoren eingesetzt werden
–> Lösung: Ich nehme die Kurve mit der stärksten Schwankung (die von uns aber noch akzeptiert wird, siehe oberes Bild) als Vorlauf und berechne darauf basierend meine Grenzwerte2. Der Stichprobenumfang beträgt n = 1
–> Verwendung von Einzelwertkarten. Ich bilde „Pseudo-Stichproben“ aus 3 aufeinanderfolgenden Werten und berechne die Standardabweichung jeder Stichprobe.
Oder ich verwende die gleitende Spannweite zwischen benachbarten Werten3. Periodische Schwankungen müssen (wie im Bild) zu einem gewissen Ausmaß akzeptiert werden. Konsequenz: Streuung der gesamten Kurve >> Streuung benachbarter Punkte
–> Ich muss die Grenzen erweitern.Hierfür habe ich zwei Möglichkeiten gefunden:
a) Normalweise führe ich eine ANOVA durch: die Streuung innerhalb der Stichproben ist bekannt, die zusätzliche nicht zu vernachlässigende Streuung zwischen den Stichproben wird über eine ANOVA ermittelt.
Problem: Bei mir ist der Stichprobenumfang n=1. Kann ich Pseudo-Stichproben in einer ANOVA verwenden?b) Ich spare mir die ANOVA und benutze die globale Standardabweichung der Kurve als Schätzer für mein Sigma. Es gilt: OEG/UEG = X_mittel +/- u * Sigma
Problem: Laut Literatur führt ein Erweiterungsfaktor von u=3 zu zu weiten Grenzen. Empfohlen wird u=2, was bei mir in zu engen Grenzen resultiert.
Wie wähle ich ein praktikables u? Geht das ohne Willkür oder ist das auch ein Aspekt, der halt neu angepasst werden muss mit zunehmender Prozesserfahrung?Zusammenfassend nochmal mein Problem:
Ich möchte eine Regelkarte entwerfen für baugleiche Resonatoren, welche jedoch unterschiedlich stark streuen. Daher nehme in den mit der maximalen Streuung, der noch akzeptiert wurde, als Vorlauf.
Weil der Stichprobenumfang n = 1 ist, möchte ich Einzelwertkarten verwenden.
Unvermeidbare periodische Schwankungen erzwingen eine Grenzwerterweiterung.
Mache ich eine ANOVA trotz n = 1 oder verwende ich die globale, äußere Standardabweichung?Danke nochmals und viele Grüße,
PatrickHallo Patrick,
willkommen im Qualitäter-Forum [:)]
Das ist ja mal ein interessantes Thema für die Abschlusarbeit mit ganz schön viel Zahlen und Auswertungsoptionen.
Was ich noch nicht ganz verstanden habe ich das Ziel der Auswertung. Erst schreibst Du
quote:
Ursprünglich veröffentlicht von Dickes_PDas Ziel ist, die Emissionen der Resonatoren quantitativ zu überwachen, d.h. Radius und Schwerpunkt des Laserstrahles dürfen über die Zeit nicht zu stark schwanken.Damit wäre das Ziel, die Größe der Streuung greifbar zu machen, um in einem zweiten Schritt zu beurteilen, ob die Streuung klein genug ist.
Das passt nur nicht zu dieser Info etwas weiter unten:
quote:
Ursprünglich veröffentlicht von Dickes_PIst der Resonator mit „OK“ bewertet nach der Messung…Diese Bewertung erfolgt über die Messwerte/Streuung und soll doch eigentlich Ziel der Abschlussarbeit sein, oder? Oder gibt es schon ein etabliertes Verfahren zur Beurteilung der Resonatoren und Du sollst das Verfahren weiter untersuchen/verfeinern/ersetzen?
Einen weiteren logischen Knick hab ich bei der Anwendung von Regelkarten für die Produktabnahme:
- SPC: Statistische Prozess-Regelung und -Überwachung
- Produktabnahme: Produktbewertung
Mit Regelkarten wird der Verlauf des Prozesses bewertet, z. B. dahingehend, ob es Trends, Sprünge oder andere nicht-stabile Entwicklungen gibt. Dabei ist es egal, wie die Anforderungen an das spätere Produkt sind, weil der Prozess betrachtet wird. Bei der Produktabnahme wird dagegen geprüft, ob die Anforderungen an den Resonator ausreichend gut erfüllt sind (z. B. Schwankung klein genug). Auch wenn für beide Bewertungen dieselben Messwerte verwendet werden (können), sind die Zielsetzungen und damit auch die statistischen Methoden oft unterschiedlich.
Eins ist auf jeden Fall immer eine schlechte Idee: Pseudo-Stichprobengruppen, weil die eine Struktur in die Messwerte bringen, die in der Realität fehlt. Das begünstigt irreführende Ergebnisse. Sinnvoller sind die gleitenden Kennzahlen (Moving Average, Moving Range) oder andere Glättungsfunktionen, je nachdem, was Ziel der Auswertung ist.
Das mit dem u=3 bzw. u=2 unter dem Stichwort „Erweiterungsfaktor“ stammt aus der Metrologie und nicht aus der Statistik. Die Metrologie arbeitet oft mit u=2 (oder k=2) bzw. einer Abdeckung von 95%, nach dem Motto „Das ist schon ganz schön viel.“
In der Statistik wird dagegen bei Regelkarten seit Jahrzehnten mit u=3 bzw. k=3 und einer Abdeckung von 99,73% gearbeitet, nach dem Motto „Das deckt (fast) alles ab.“. Dieser Bereich heißt auch „natürliche Toleranz“ und findet sich u. a. in Regelkarten für die Eingriffsgrenzen und in der Prozessfähigkeitsbewertung.
Spannend wird die Frage nach u=2 oder u=3 da, wo sich Metrologie und Statistik begegnen, z. B. bei der Bewertung der Mess-Unsicherheit. Während hier in den GUM-Methoden/ISO 22514-7/VDA Band 5 mit einem Erweiterungsfaktor u=2 (k=2) gerechnet wird, sind für die statistischen Auswertungen nach MSA4 u=3 (k=3) bzw. ein 6-facher Bereich (zu beiden Seiten 3-fach) vorgegeben.
Die u=2 vs. u=3-Geschichte hat allerdings mit Deiner Bewertung der Resonatoren überhaupt gar nichts zu tun, weil es dabei nicht um Messunsicherheit eines Messmittels, sondern die Bewertung von Streuung am Produkt verglichen mit den Anforderungen geht.
Viele Grüße
Barbara
PS: Es wär schön, wenn Du das angesprochene Bild über einen Link zur Verfügung stellen könntest.
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Barbara,
erstmal vielen Dank, dass dich mein langer Text nicht abgeschreckt hat! [:)]
Bin wirklich erfreut [;)]Ja, ist schon ein interessantes Thema. Aber die Zeit ist schon recht fortgeschritten, und genau diese Menge an Daten und Auswertungsmöglichkeiten macht mir manchmal zu schaffen … aber das wird schon.
Sorry, das Bild hatte ich vergessen, hier ist es:
Meine Antworten zu deinen Punkten:
quote:
Ursprünglich veröffentlicht von BarbaraWas ich noch nicht ganz verstanden habe ich das Ziel der Auswertung. Erst schreibst Du
quote:
Ursprünglich veröffentlicht von Dickes_PDas Ziel ist, die Emissionen der Resonatoren quantitativ zu überwachen, d.h. Radius und Schwerpunkt des Laserstrahles dürfen über die Zeit nicht zu stark schwanken.Damit wäre das Ziel, die Größe der Streuung greifbar zu machen, um in einem zweiten Schritt zu beurteilen, ob die Streuung klein genug ist.
Das passt nur nicht zu dieser Info etwas weiter unten:
quote:
Ursprünglich veröffentlicht von Dickes_PIst der Resonator mit „OK“ bewertet nach der Messung…Diese Bewertung erfolgt über die Messwerte/Streuung und soll doch eigentlich Ziel der Abschlussarbeit sein, oder? Oder gibt es schon ein etabliertes Verfahren zur Beurteilung der Resonatoren und Du sollst das Verfahren weiter untersuchen/verfeinern/ersetzen?
Ja, genau. Es gibt schon ein optisches Bewertungsverfahren, d.h. man schaut sich Bilder der Intensitätsverteilung des Laserstrahles über die Zeit an und bewertet den Resonator letztlich mit „stabil“ oder „instabil“.
Nur manchmal gibt es eben Drifts oder Pendeln des Lasers, welches der eine als nicht akzeptabel erachtet, wohingegen ein anderer gar nicht so genau darauf geachtet hat. Dieser subjektive Einfluss motiviert zur quantitativen und objektiven Beurteilung.
Ziel ist also: Unterstützend, langfristig gar substituierend die Streuung/Stabilität des Lasers anhand der Kurven bzw. statistischer Kennzahlen beurteilen.Allerdings treffe ich eine Vorauswahl: Alle Messreihen, die von einer erfahrenen Kollegin als stabil beurteilt wurden, filtere ich heraus und nehme sie in meinen Datenpool. Aus dieser Menge an optisch „stabil“ bewerteten Resonatoren versuche ich meine Grenzwerte für die maximale Streuung zu ermitteln. Allerdings unterscheiden sich all diese „stabilen“ Resonatoren hinsichtlich ihrer Streuung. Demnach möchte ich die Messreihe (bzw. resultierende Kurve) mit der größten Streuung heranziehen (bspw. blaue Kurve von Resonator 3 im Bild hat die größte Standardabweichung von allen optisch stabilen Resonatoren), um OEG/UEG für die Streuung des Radius um seinen Mittelwert zu berechnen.
Zusammengefasst:
1. Historische Daten aller gemessen Resonatoren –> 2. Filtere alle „optisch“ stabil bewertete Resonatoren heraus –> 3. Nehme von diesen Resonatoren denjenigen mit der maximalen Schwankung/Streuung –> Berechne anhand dieses Resonators OEG/UEG statistisch korrektquote:
Ursprünglich veröffentlicht von Barbara
Einen weiteren logischen Knick hab ich bei der Anwendung von Regelkarten für die Produktabnahme:- SPC: Statistische Prozess-Regelung und -Überwachung
- Produktabnahme: Produktbewertung
Mit Regelkarten wird der Verlauf des Prozesses bewertet, z. B. dahingehend, ob es Trends, Sprünge oder andere nicht-stabile Entwicklungen gibt. Dabei ist es egal, wie die Anforderungen an das spätere Produkt sind, weil der Prozess betrachtet wird. Bei der Produktabnahme wird dagegen geprüft, ob die Anforderungen an den Resonator ausreichend gut erfüllt sind (z. B. Schwankung klein genug). Auch wenn für beide Bewertungen dieselben Messwerte verwendet werden (können), sind die Zielsetzungen und damit auch die statistischen Methoden oft unterschiedlich.
Die Anforderungen an das Produkt (Resonator) sind: Stabile Emission des Laserstrahles während der 1stündigen Messung.
Betrachte ich die 1stündige Messung als Prozess, kann ich meine Messkurve doch in eine Regelkarte „legen“. Die Kurve soll ja möglichst wenig streuen (idealisiert gedacht eine horizontale Linie). D.h. in der Realität möchte ich die Abweichungen der Messpunkte vom Mittelwert begrenzen. Die Methodik einer Regelkarte sollte hier funktionieren, aber folgende Problematik muss man natürlich im Hinterkopf behalten:
Ich erstelle die Regelkarte nicht für einen Resonator, sondern für alle Resonatoren 1, 2, 3, … usw. die einer bestimmten Baureihe angehören.
Alte, gemessene Resonatoren muss ich daher als meinen „Vorlauf“ für die Regelkarte betrachten. Diesen Vorlauf muss ich geeignet auswerten, um korrekte Grenzen zu erhalten (siehe meine obige Beschreibung meiner Vorgehensweise)quote:
Ursprünglich veröffentlicht von Barbara
Eins ist auf jeden Fall immer eine schlechte Idee: Pseudo-Stichprobengruppen, weil die eine Struktur in die Messwerte bringen, die in der Realität fehlt. Das begünstigt irreführende Ergebnisse. Sinnvoller sind die gleitenden Kennzahlen (Moving Average, Moving Range) oder andere Glättungsfunktionen, je nachdem, was Ziel der Auswertung ist.Okay, danke für den Hinweis. In dem Buch wurden beide Vorgehsweisen (Pseudo-Stichprobe vs. Moving Range) vorgeschlagen. Allerdings sehe ich das zusammenfassen auch als problematisch an.
Mittels Moving Range würde mein Vorgehen ja so aussehen (Vorgehensweise für Einzelwertkarte / individuals control chart):
1. Berechne zwischen allen benachbarten Punkten die Range: MR = |x_(i+1)-x_(i)|
2. Berechne das Mittel aus allen MR. Man erhält MR_mittel
3. Berechne OEG/UEG:
OEG = x_mittel + k * MR_mittel
UEG = x_mittel – k * MR_mittel
(laut Wikipedia ist k = 2,66 –> https://en.wikipedia.org/wiki/Shewhart_individuals_control_chart)Problem: Führe dies mittels der Messwerte bei der blauen Kurve im obigen Bild durch.
Die Range zwischen benachbarten Punkten ist klein ggü. der Range der gesamten Kurve. Konsequenz: Meine Grenzen sind viel zu eng.
Mir ist bewusst, dass bei obiger Kurve ein systematischer Einfluss vorliegt (vermutlich Kühlwasser), sodass meine Punkte nicht mehr zufällig streuen. Dieses Phänomen tritt nicht immer auf, aber solange es nicht zu stark ist (die Schwankung also nicht zu groß), muss es akzeptiert werden.Daher habe ich eine alternative Idee, um OEG/UEG zu berechnen. Ich berechne einfach die „globale“ Standardabweichung der gesamten Kurve. Platt ausgedrückt: in meine Excel-Formel Stabw() kommen alle Messpunkte rein. Ich erhalte ein Sigma als Schätzer für meine Streuung.
Damit berechne ich wie folgt:
OEG = x_mittel + k * Sigma
UEG = x_mittel – k * SigmaProblematisch ist k=3 bei der globalen Standardabweichung, weil es für gewöhnlich zu weite Grenzen liefern soll.
Siehe die Begründung unter Titel „Approach 4“ unter folgendem Link: http://www.qualitydigest.com/inside/quality-insider-column/individual-charts-done-right-and-wrong.html.
Auch laut einem Buch von Dietrich, Schulze (Q-Das) führt k=3 zu zu weiten Grenzen, weshalb sich k=2 als praktikabel erwiesen hat. Bei mir jedoch führt dies zu zu engen Grenzen.quote:
Ursprünglich veröffentlicht von Barbara
Das mit dem u=3 bzw. u=2 unter dem Stichwort „Erweiterungsfaktor“ stammt aus der Metrologie und nicht aus der Statistik. Die Metrologie arbeitet oft mit u=2 (oder k=2) bzw. einer Abdeckung von 95%, nach dem Motto „Das ist schon ganz schön viel.“In der Statistik wird dagegen bei Regelkarten seit Jahrzehnten mit u=3 bzw. k=3 und einer Abdeckung von 99,73% gearbeitet, nach dem Motto „Das deckt (fast) alles ab.“. Dieser Bereich heißt auch „natürliche Toleranz“ und findet sich u. a. in Regelkarten für die Eingriffsgrenzen und in der Prozessfähigkeitsbewertung.
Gut, dass du das ansprichst [:)]
Siehe oben die Begründung, warum k=3 bei Verwendung der globalen Standardabweichung problematisch ist.
Wie ist Deine fachliche Meinung dazu?Ui, schon wieder so ein langer Text [8)]
Um es auf den Punkt zu bringen:
1. Ich muss aus der Menge/Datenbasis an optisch „stabilen“ Resonatoren meine Grenzwerte berechnen, obwohl die Resonatoren unterschiedlich hinsichtlich Streuung sind. Daher mein Gedanke, von allen stabilen jenen zu nehmen, dessen Schwankung maximal ist. Ist das ein logisches Vorgehen?
2. Sofern ich meine Datenbasis in richtiger Weise gefiltet habe, muss ich irgendwie meine Grenzen berechnen:
a) Moving Ranges –> zu kleine Grenzen bei periodischem Verlauf der Kurve –> Grenzen wie korrekt erweitern?
b) Alternativ die äußere, globale Standardabweichung benutzen –> wie korrektes k=? wählen?
Vielen Dank nochmal für deinen ausführlichen Input!
Viele Grüße,
PatrickP.S.: Du bist hier echt aktiv in dem Forum [:)] Ich denke mal, du bist auch beruflich im Qualitätsmanagement unterwegs?
Hallo Patrick,
danke für Deine Ergänzungen [:)]
Damit für einen Prozess belastbare, zuverlässige, brauchbare Regelkarten-Grenzen UEG und OEG berechnet werden können, MUSS dieser Prozess stabil sein und damit auch stabile Messwerte liefern. Stabil heißt insbesondere:
+gleiche Mittelwerte
+gleiche Streuung
+zeitliche Stabilität
in ALLEN Messwerten.Deine Bilder zeigen dagegen, dass weder die Mittelwerte noch die Streuung stabil sind und es systematische Veränderungen über die Zeit (mit den 30 Messwerten bei 1 Resonator) gibt. Damit sind die UEG- und OEG-Werte egal nach welcher Formel unzuverlässig und liefern keine haltbare Grundlage für die Beurteilung neuer Messwerte/Resonatoren.
Eine direkte Auswirkung der Berechnung von UEG und OEG auf Basis von nicht-stabilen Messwerten ist, dass die Formeln mit der durchschnittlichen gleitenden Spannweite (MRquer) und die mit der Standardabweichung (S) sehr unterschiedliche Ergebnisse liefern. Bei einem stabilen Prozess wären die Ergebnisse ähnlich, weil die mittelere lokale Streuung (von jeweils 2 benachbarten Werten) und die globale Streuung (Gesamt-Standardabweichung) ähnlich wären.
Wheeler hat Recht, wenn er darauf hinweist, dass bei Einzelwertkarten nicht einfach statt des mittleren MR-Werts mit dem Faktor 2,66 die Gesamt-Standardabweichung mit dem Faktor 3 verwendet werden kann/sollte. (Zur Bezeichnung: Wheeler spricht von XmR Regelkarten, die sonst meist als ImR / Individual-moving-Range / Urwertkarten bezeichnet werden.) Beide Formeln sind im NIST/SEMATECH e-Handbook of Statistical Methods angegeben, das auch für andere Fragen eine gute Quelle für Statistik-Anwendungen ist:
6.3.2.2. Individuals Control Charts (Formel mit Standardabweichung am Ende der Seite)
6.3.2. What are Variables Control Charts? (Berechnung des Faktors c4)Allerdings sind die Unterschiede zwischen der korrekten Formel mit der Standardabweichung inkl. Konstante c4 und der 3-fachen Standardabweichung sehr klein, wenn in der Gesamt-Standardabweichung mehr als 26 Werte verwendet werden. Für Deine 30 Werte berechnet sich der c4-Faktor zu 0,9914, d. h. es wird nicht die 3-fache Standardabweichung sondern
3/c4 = 3/0,9914181 = 3,0260
verwendet, d. h. einen Hauch weitere Grenzen als ohne c4-Korrekturfaktor.Wie kriegst Du da jetzt die Kuh statistisch sauber vom Eis geschubst?
Du brauchst eine belastbare Aussage zur Streubreite des Prozesses. Das geht so einfach direkt aus den Messwerten nicht, weil dort systematische Effekte (z. B. Kühlwasser) auftreten. Ein möglicher Ausweg wäre, die systematischen Effekte aus den Daten herauszurechnen (Stichwort: Modellierung mit Regression/ANOVA/Kovarianzanalyse/statistischen Prozess-Modellen) und wenn das Ergebnis belastbar ist, die Streubreite aus den unerklärten Resten (Residuen) abzuschätzen. Hinweise zur Verwendung von Residuen in Qualitätsregelkarten finden sich z. B. bei
Montgomery, Douglas C. (2012). Statistical Quality Control.
7. Auflage, Wiley. ISBN: 9781118146811.
unter dem Stichwort „Control Charts on Residuals“Alternativ könntest Du auch untersuchen, wie groß der Grad an Übereinstimmung oder Abweichung der jetztigen Beurteiler ist, um zahlenmäßig greifbarer zu machen, wie gut die aktuelle Prüfung funktioniert (Stichwort Prüferübereinstimmung bei attributiven Daten). Damit hättest Du keine andere Bewertung, aber immer noch ein bisschen was an Statistik für die Abschlussarbeit.
Denn ob Du die systematischen Effekte aus den Messwerten gut genug rausrechnen kannst, lässt sich so einfach für mich nicht feststellen. Das Ergebnis „nicht-stabile Mittelwerte und nicht-stabile Streuung“ lässt darauf schließen, dass mehr als 1 Faktor/Einfluss einen Effekt auf die Messwerte in der 1h-Messung hat. Und wenn Du noch weiter mit/in der Firma arbeiten möchtest, wäre es schon wünschenswert, wenn Du kein wildes neues Bewertungskriterium beschreibst, was in der Praxis nichts taugt und die Streuung der Resonatoren unzureichend beurteilt.
quote:
Ursprünglich veröffentlicht von Dickes_P
Auch laut einem Buch von Dietrich, Schulze (Q-Das) führt k=3 zu zu weiten Grenzen, weshalb sich k=2 als praktikabel erwiesen hat. Bei mir jedoch führt dies zu zu engen Grenzen.Das haben Dietrich und Schulze so nicht für Qualitätsregelkarten geschrieben, sondern für die Messmittelfähigkeit nach Verfahren 1 (Cg und Cgk, VDA Band 5). Bei den Qualitätsregelkarten geben sie bei den Eingriffsgrenzen sowohl die 99% als auch die 99,73%-Grenzen an, s.
Dietrich, Edgar und Alfred Schulze (2009). Statistische Verfahren zur Maschinen- und Prozessqualifikation.
6. Auflage, Hanser Fachbuchverlag. ISBN: 9783446415256, z. B. S. 265
(Ich empfehle dieses Buch nicht, weil es aus statistischer Sicht fragwürdige Empfehlungen enthält, beispielsweise zur Prozessfähigkeitsbewertung bei nicht-stabilen/zeitabhängigen Prozessen insbesondere über die von ihnen so genannte Mischverteilung, der Berechnung von Cp und Cpk bei technischen Grenzen usw.)Allgemein werden die Eingriffsgrenzen in Qualitätsregelkarten so ermittelt, dass sie 99,73% aller Messwerte bei einem stabilen Prozess abdecken. Das entspricht bei der Normalverteilung den +/-3S-Grenzen.
Viele Grüße
Barbara
quote:
Ursprünglich veröffentlicht von Dickes_P
P.S.: Du bist hier echt aktiv in dem Forum [:)] Ich denke mal, du bist auch beruflich im Qualitätsmanagement unterwegs?Ich bin selbständige Statistikerin und berate Unternehmen beim Einsatz sinnvoller und geeigneter Methoden und Vorgehensweisen. Manchmal sind das auch Menschen aus dem QM [;)]
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Guten Tag Barbara,
erst einmal vielen Dank für deine umfangreiche Antwort mit ihren kritischen Bemerkungen und interessanten Literaturhinweisen – sehr wertvoll für mich, ich weiß das sehr zu schätzen! [:)]
quote:
Wheeler hat Recht, wenn er darauf hinweist, dass bei Einzelwertkarten nicht einfach statt des mittleren MR-Werts mit dem Faktor 2,66 die Gesamt-Standardabweichung mit dem Faktor 3 verwendet werden kann/sollte. (Zur Bezeichnung: Wheeler spricht von XmR Regelkarten, die sonst meist als ImR / Individual-moving-Range / Urwertkarten bezeichnet werden.) Beide Formeln sind im NIST/SEMATECH e-Handbook of Statistical Methods angegeben, das auch für andere Fragen eine gute Quelle für Statistik-Anwendungen ist:
6.3.2.2. Individuals Control Charts (Formel mit Standardabweichung am Ende der Seite)
6.3.2. What are Variables Control Charts? (Berechnung des Faktors c4)Allerdings sind die Unterschiede zwischen der korrekten Formel mit der Standardabweichung inkl. Konstante c4 und der 3-fachen Standardabweichung sehr klein, wenn in der Gesamt-Standardabweichung mehr als 26 Werte verwendet werden. Für Deine 30 Werte berechnet sich der c4-Faktor zu 0,9914, d. h. es wird nicht die 3-fache Standardabweichung sondern
3/c4 = 3/0,9914181 = 3,0260
verwendet, d. h. einen Hauch weitere Grenzen als ohne c4-Korrekturfaktor.Auf dieses e-Handbook of Statistical Methods bin ich vor langer Zeit auch einmal gestoßen, aber auf die entsprechenden Kapitel nicht….manchmal sollte ich bei der Recherche hartnäckiger sein. [;)]
Immerhin habe ich jetzt eine fundierte Begründung, warum die Verwendung von k*S mit k=3 bei mir zulässig ist (sofern natürlich S korrekt berechnet wurde, was ich im folgenden nochmal diskutieren möchte).
quote:
Damit für einen Prozess belastbare, zuverlässige, brauchbare Regelkarten-Grenzen UEG und OEG berechnet werden können, MUSS dieser Prozess stabil sein und damit auch stabile Messwerte liefern. Stabil heißt insbesondere:
+gleiche Mittelwerte
+gleiche Streuung
+zeitliche Stabilität
in ALLEN Messwerten.Deine Bilder zeigen dagegen, dass weder die Mittelwerte noch die Streuung stabil sind und es systematische Veränderungen über die Zeit (mit den 30 Messwerten bei 1 Resonator) gibt. Damit sind die UEG- und OEG-Werte egal nach welcher Formel unzuverlässig und liefern keine haltbare Grundlage für die Beurteilung neuer Messwerte/Resonatoren.
Hier muss ich mich korrigieren:
Wenn ich (angelehnt an das Bild meines letztens Pots) Resonator 3 heranziehe – der schlechteste von den akzeptierten Resonatoren – kann ich darauf basierend natürlich keine OEG/UEG bestimmen.Viel mehr bestimme ich dann TOLERANZgrenzen (deswegen ja auch dein Hinweis auf „Produktbewertung“ in Abgrenzung zur SPC in deinem vorigen Post).
Dessen pendelnde Kurve gibt mir also vor, wie sehr die Messpunkte von der Mittellinie bei allen Resonatoren maximal entfernt sein dürfen.
Wenn ich so meine Toleranzgrenze bestimme, ernte ich vermutlich keinen „Unmut“ im Unternehmen – insb. wenn man bedenkt, wie subjektiv früher mit den Bildern bewertet wurde.Aber wie realistisch ist diese Forderung:
+gleiche Mittelwerte
+gleiche Streuung
+zeitliche Stabilität
in ALLEN Messwerten.
überhaupt?Ich denke hier an zahlreiche Faktoren bei einer Produktionsanlage:
–> wechselnde Bediener
–> schwankende Qualität des Rohmaterials
–> schwankende Umgebungsbedingungen
–> Werkzeugverschließ
… etc.Ist es vielleicht so, dass man unterscheiden muss zwischen „Regelkarten mit 100%ig statistisch korrekt ermittelten Grenzen wie in der Theorie“ vs. „Regelkarten im praktischen Einsatz im Unternehmen“ ?
Ich hoffe, ich mache mich bei einer Statistikerin mit so einer Frage nicht unbeliebt…. [;)][:p]
So, jetzt nochmal zur Berechnung von OEG/UEG basierend auf +/- k * Sigma_dach:quote:
Du brauchst eine belastbare Aussage zur Streubreite des Prozesses. Das geht so einfach direkt aus den Messwerten nicht, weil dort systematische Effekte (z. B. Kühlwasser) auftreten. Ein möglicher Ausweg wäre, die systematischen Effekte aus den Daten herauszurechnen (Stichwort: Modellierung mit Regression/ANOVA/Kovarianzanalyse/statistischen Prozess-Modellen) und wenn das Ergebnis belastbar ist, die Streubreite aus den unerklärten Resten (Residuen) abzuschätzen. Hinweise zur Verwendung von Residuen in Qualitätsregelkarten finden sich z. B. bei
Montgomery, Douglas C. (2012). Statistical Quality Control.
7. Auflage, Wiley. ISBN: 9781118146811 .
unter dem Stichwort „Control Charts on Residuals“Ok, das verstehe ich. Allerdings habe ich noch genug Messkurven vorliegen, die nicht dieses periodische Schwanken aufweisen. Es ist NICHT der Standardfall, wird allerdings (wie oben gesagt) noch toleriert bis zu einem gewissen Ausmaß.
Bei rund 80 % der Kurven liegt gemäß Shapiro-Wilk-Test außerdem Normalverteilung vor bzw. H0 „Die Messwerte folgen einer Normalverteilung“ kann nicht abgelehnt werden und man erkennt auch im Kurvenverlauf keinen systematischen Einfluss.
Ich denke, eine ANOVA kann ich mir daher sparen.Meine Idee war es nun (in Anlehnung an das Bild), dass ich alle akzeptierten Resonatoren (die zudem nicht systematisch streuen) jeweils als eine Stichprobe (von Umfang n=30) betrachte.
Die Standardabweichungen S_1, S_2, … S_n der Stichproben lasse ich in eine der unteren Formeln für den Schätzer Sigma_dach (die oberste Formel im Bild z.B.) für die Streuung der Resonatorbaureihe einfließen:
Das funktioniert ja nur, wenn die Streuung in den Stichproben (also Resonatoren) nicht zu unterschiedlich ist. Doch was heißt das?
Darf ein F-Test auf unterschiedliche Varianzen nicht zur Ablehnung von H0 „Varianz 1 = Varianz 2“ führen – und muss ich so alle Stichproben/Resonatoren vergleichen?(Ich denke hier an eine gewöhnliche Shewart X/S-Karte. Bei ihr werden ja zur Berechnung von OEG/UEG die Innerprobenstandardabweichungen verwendet, aber ich habe noch nie gelesen, dass zuerst kontrolliert wird, ob die diese gleich groß sind )
Wie ist da Dein Urteil?
quote:
Alternativ könntest Du auch untersuchen, wie groß der Grad an Übereinstimmung oder Abweichung der jetztigen Beurteiler ist, um zahlenmäßig greifbarer zu machen, wie gut die aktuelle Prüfung funktioniert (Stichwort Prüferübereinstimmung bei attributiven Daten). Damit hättest Du keine andere Bewertung, aber immer noch ein bisschen was an Statistik für die Abschlussarbeit.Den Grad an Übereinstimmung zwischen den Beurteilern habe ich noch nicht statistisch untersucht, aber wir haben a) Erfahrungswerte vorliegen, dass der eine Beurteile Messungen akzeptiert, bei denen ein anderer, Instabilitäten erkannte.
Und b) habe ich selber in einem Experteninterview den Test mit 4 Personen gemacht und konnte wieder diese Widersprüche feststellen.Den Grad an Übereinstimmung muss ich nicht quantifizieren – die bisherigen Erfahrungen motivieren schon genug, die Bewertung quantitativ auszulegen [;)]
quote:
Denn ob Du die systematischen Effekte aus den Messwerten gut genug rausrechnen kannst, lässt sich so einfach für mich nicht feststellen. Das Ergebnis „nicht-stabile Mittelwerte und nicht-stabile Streuung“ lässt darauf schließen, dass mehr als 1 Faktor/Einfluss einen Effekt auf die Messwerte in der 1h-Messung hat. Und wenn Du noch weiter mit/in der Firma arbeiten möchtest, wäre es schon wünschenswert, wenn Du kein wildes neues Bewertungskriterium beschreibst, was in der Praxis nichts taugt und die Streuung der Resonatoren unzureichend beurteilt.Da hast Du Recht, am Ende sollte etwas herauskommen, was nicht unnötig Ärger macht und unzuverlässig ist.
Allerdings erwartet der Chef von einem Bacheloranden (mir) nicht, dass er im „Alleingang“ das alte Bewertungsverfahren aus der Entwicklungsabteilung vollständig ersetzt [;)]
Ebenso ist ihm bewusst, dass die vorliegende Datenlage nicht ideal ist.Es geht erst einmal darum, zu schauen, wie man das Bewertungsverfahren quantitativ auslegen kann und unterstützend einsetzen kann.
So habe ich angefangen, falls es Dich interessiert:Oben die Bilder der Intensitätsverteilungen (welche dann im zeitlichen Verlauf betrachtet werden), unten eine Kurve aus zugehörigen Messdaten mit statistischen Kennwerten, die diese Kurve charakterisieren sollen.
Daraufhin kam die Idee, das Regelkartenprinzip einzusetzen trotz nicht idealer Datenlage. Anschließend kam die Idee, ein Excel-Tool zu „basteln“, welches die Messdaten einliest und per Knopfdruck die stat. Kennwerte berechnet und warnt, wenn Grenzen überschritten werden.
quote:
Ich bin selbständige Statistikerin und berate Unternehmen beim Einsatz sinnvoller und geeigneter Methoden und Vorgehensweisen. Manchmal sind das auch Menschen aus dem QM.Menschen „deiner Zunft“ bzw mit deinen umfangreichen Kenntnissen sollten viel häufiger anzutreffen sein.
Wenn ich daran denke, wie oft in Unternehmen Auswertungen gemacht werden (oder in der Medizin Studien), bei denen stat. Methoden zum Einsatz kommen und sich darauf verlassen wird, ohne dass die Anwender sich sicher im Gebiet der Statistik bewegen können.Davon kann ich mich selber nicht freisprechen. 1 Semester Statistik gehabt und vieles „mal gehört“. Erst jetzt in der Bachelorarbeit wird mir bewusst, dass ich diesbezüglich viel mehr Kenntnis bräuchte – besonders in Anbetracht meiner Zielsetzung.
Da fühlt man sich doch etwas erschlagen ….Viele Grüße,
PatrickHallo Patrick,
freut mich, dass Dir meine Beiträge weiterhelfen [:)]
quote:
Ursprünglich veröffentlicht von Dickes_P
Wenn ich (angelehnt an das Bild meines letztens Pots) Resonator 3 heranziehe – der schlechteste von den akzeptierten Resonatoren – kann ich darauf basierend natürlich keine OEG/UEG bestimmen.Viel mehr bestimme ich dann TOLERANZgrenzen (deswegen ja auch dein Hinweis auf „Produktbewertung“ in Abgrenzung zur SPC in deinem vorigen Post).
Es ist völlig egal, ob Du Regelkarten-Grenzen oder Toleranz-Grenzen ermittelst. Solange Du mit Mittelwerten und Standardabweichungen rechnest, läuft im Hintergrund bei diesen Verfahren IMMER die Annahme mit, dass die Messwerte normalverteilt sind und der Prozess stabil ist.
Bei der statistischen Toleranzgrenzen-Berechnung gibt es allerdings (anders als bei den üblicherweise verwendeten Regelkarten) eine alternative Berechnungsmethode über so genannte verteilungsfreie oder nicht-parametrische Verfahren. Dafür wird keine Normalverteilung benötigt, vielmehr müssen in den Messdaten alle wie auch immer gestalteten Strukturen drinsein, d. h. dafür werden VIELE Messwerte benötigt.
Um z. B. einen Toleranzbereich mit 99,73% Abdeckung und einem Vertrauensniveau von 95% OHNE Normalverteilung berechnen zu können, brauchst Du ca. 1800 Messwerte, d. h. die Ergebnisse von 60 Resonatoren, die die gesamte Bandbreite mit allen Kühlmittel-Effekten und sonstigen Einflüssen beinhalten (jedenfalls von den noch akzeptablen Resonatoren). Die Formeln für diese Toleranzgrenzen sind frei von Mittelwert und Standardabweichung und ermitteln die Grenzwerte iterativ.
quote:
Ursprünglich veröffentlicht von Dickes_P
Aber wie realistisch ist diese Forderung:
+gleiche Mittelwerte
+gleiche Streuung
+zeitliche Stabilität
in ALLEN Messwerten.
überhaupt?Ich denke hier an zahlreiche Faktoren bei einer Produktionsanlage:
–> wechselnde Bediener
–> schwankende Qualität des Rohmaterials
–> schwankende Umgebungsbedingungen
–> Werkzeugverschließ
… etc.Prozess-Stabilität fällt selten vom Himmel. Meistens sind größere Anstrengungen notwendig, um einen Prozess und seinen Einfluss-Strukturen ausreichend gut erfassen zu können. Wenn diese Strukturen erkannt und zahlenmäßig greifbar sind, bleiben noch kleine Unsicherheits-Effekte über, die sich meist aufaddieren und schwups, ergibt sich eine Normalverteilung (für die Residuen). Selbstredend wird das nie eine theoretisch perfekte Kurve, sondern immer eine Annäherung, nur müssen die Unterschiede zwischen Messwerten bzw. Residuen und Annahmen klein genug sein, damit die Methoden wie SPC/Regelkarten zuverlässig funktionieren und mehr sind als „Show Program for Customer“.
Prozess-Stabilität aus statistischer Sicht heißt NICHT, dass alle Messwerte normalverteilt sind, sondern dass ein Zustand erreicht wird, in dem die Prozess-Ergebnisse für die nächste Stunde, den nächsten Tag, die nächste Woche… zuverlässig genug vorhersagbar sind.
Das ist keine theoretische Elfenbeinturm-Anforderung von Statistikern mit zu viel (Forschungs-)Zeit [:o)], sondern ein auch für die Praxis sinnvoller Ansatz, weil nur mit stabilen Prozessen dauerhaft eine hohe Prozess- und Produkt-Qualität zuverlässig erreicht werden kann. Die Anforderung zur Prozess-Stabilität ist auch kein neumodischer Schnickschnack, sondern seit mehr als 50 Jahren z. B. durch Deming, Montgomery, Taguchi, Wheeler u. v. m. beschrieben, begründet und gefordert.
In Deutschland ist das mit der Statistik in Unternehmen bzw. in der Industrie außerhalb des Marketings immer noch schwierig, weil oft angenommen wird, die Voraussetzungen bei bestimmten Verfahren wären nur theoretische Hürden oder Futter für den Papiertiger. Ein Grund dafür ist aus meiner Sicht, dass es zu wenig Statistik-Fachwissen in den Unternehmen gibt und jeder sich ein bisschen durch den (Normen-)Dschungel kämpft, aber nur ein bisschen, weil das keinen Spaß macht, selten ein Mehrwert erkennbar ist und jeder auch noch viele andere wichtige Aufgaben hat. Das kann ich verstehen. Dennoch behindert das den Einsatz und die Umsetzung sinnvoller und geeigneter statistischer Methoden, die einen Mehrwert für Prozesse und Produkte liefern.
quote:
Ursprünglich veröffentlicht von Dickes_P
Das funktioniert ja nur, wenn die Streuung in den Stichproben (also Resonatoren) nicht zu unterschiedlich ist. Doch was heißt das?
Darf ein F-Test auf unterschiedliche Varianzen nicht zur Ablehnung von H0 „Varianz 1 = Varianz 2“ führen – und muss ich so alle Stichproben/Resonatoren vergleichen?Es wäre ziemlich aufwändig, jede Einzel-Paarung nacheinander zu testen, und es würde das Risiko für einen Fehlalarm deutlich nach oben treiben:
1. Test: Ausbeute 95% richtige Testentscheidungen (wenn Varianzen gleich)
2. Test: Ausbeute 95%*95% = 95%^2= 90%
3. Test: Ausbeute 95%*95%+95% = 95%^3 = 86%
5. Test: Ausbeute 95%^5 = 77%
10. Test: Ausbeute 95%^10 = 60%
15. Test: Ausbeute 95%^15 = 46%Für Streuungsvergleiche bei mehreren Messreihen gibt es z. B. die Tests nach Bartlett oder Levene, die die Hypothese „Ist mindestens eine Varianz/Dispersion/Streuung anders als die anderen“ prüfen.
Alternativ könntest Du Dir auch die Unterschiede in den Kennzahlen der vier Berechnungsmöglichkeiten für die Streuung anschauen und prüfen, ob es größere Unterschiede gibt. Bei einem stabilen Prozess ist die Momentan-Streuung genauso groß wie die Langzeit-Streuung, d. h. die Kennzahlen sollten ähnliche Werte haben.
Bei Regelkarten wird die Prüfung auf gleiche Varianzen meist grafisch ohne Testverfahren gemacht. Dafür werden die Messwerte der Reihe nach aufgezeichnet (Zeitreihe) und geschaut, ob sich Muster oder Strukturen erkennen lassen. Zur visuellen Unterstützung können hier auch schon Regelkarten-Grenzen in den Grafiken verwendet werden, auch wenn noch nicht klar ist, ob der Prozess stabil ist oder nicht. (Für die laufende Prozess-Bewertung und -Regelung benutzt sollten diese Grenzen erst nach dem Nachweis der Prozess-Stabilität werden!)
Die Prüfung auf Prozess-Stabiltät, gleiche Varianzen/Streuungen und stabile Mittelwerte/Messwerte ohne Sprünge, Trends o. Ä. ist ein wichtiger Bestandteil der Vorserie/Phase I. Wenn der Prozess stabil ist, können die Regelkarten-Grenzen auf Basis der Messwerte in Phase I berechnet und für die fortlaufende Prüfung des Prozesses in der Serie/Phase II verwendet werden.
Es gibt jede Menge Regeln für Regelkarten, mit denen systematische Effekte gefunden werden können. Eigentlich wäre das also eine Super-Spielwiese für die automatisierte Messwert-Bewertung, wenn da nicht die Probleme mit der Ausbeute bei Mehrfach-Tests wären (s. oben) und die Ungenauigkeiten bei der Muster-Erkennung.
Wenn alle möglichen Tests auf systematische Effekte eingesetzt werden, gibt es ein sehr hohes Risiko für einen Fehlalarm (z. B. 40% bei 10 Tests). Deshalb ist es zielführender, sich auf wenige Tests zu beschränken und NIEMALS das Hinschauen und Überlegen wegzulassen. Da selbst bei Verwendung aller etablierten Regeln für Qualitätsregelkarten diverse Muster unerkannt bleiben können (z. B. kleinere Sägezahn-Muster) ist das Hinschauen und Beurteilen NOTWENDIG.
D. h. das, was die Bediener/Prüfer heute schon bei den Resonatoren machen, ist ein essentieller Bestandteil der statistischen Prozesskontrolle/Qualitätsregelkartentechnik und wird höchstens durch ein paar weitere Kriterien ergänzt.
quote:
Ursprünglich veröffentlicht von Dickes_P
Den Grad an Übereinstimmung zwischen den Beurteilern habe ich noch nicht statistisch untersucht, aber wir haben a) Erfahrungswerte vorliegen, dass der eine Beurteile Messungen akzeptiert, bei denen ein anderer, Instabilitäten erkannte.
Und b) habe ich selber in einem Experteninterview den Test mit 4 Personen gemacht und konnte wieder diese Widersprüche feststellen.Den Grad an Übereinstimmung muss ich nicht quantifizieren – die bisherigen Erfahrungen motivieren schon genug, die Bewertung quantitativ auszulegen [;)]
Wie oben schon geschrieben: Wenn Du einen quantifizierbaren, zahlenbasierten Ansatz für die Produktprüfung willst, finde einen alternativen Ansatz, in dem keine Qualitätsregelkarten auftauchen. Qualitätsregelkarten leben vom Prozess-Wissen und den Prozess-Kenntnissen der Mitarbeiter.
Wenn sich die Mitarbeiter uneins sind, wann ein Prozess/Produkt gut oder schlecht ist, taugt die jetzt verwendete Prüfung nichts bzw. muss erst eine (modifizierte) Prüfung gefunden werden, bei der die Mitarbeiter konsistente Bewertungen zum Prozess/Produkt haben.
quote:
Ursprünglich veröffentlicht von Dickes_P
Daraufhin kam die Idee, das Regelkartenprinzip einzusetzen trotz nicht idealer Datenlage. Anschließend kam die Idee, ein Excel-Tool zu „basteln“, welches die Messdaten einliest und per Knopfdruck die stat. Kennwerte berechnet und warnt, wenn Grenzen überschritten werden.Ich bin mir nicht ganz sicher, ob ich verzweifelt seufzen oder lachend auf dem Boden wälzen soll. Hoffentlich ist nach den ganzen Buchstaben oben klar, warum [xx(]
Für mich sieht das nach einem toten Pferd aus, das gerade gesundgebetet werden soll (s. Weisheit der Dakota-Indiander. Da kannst Du nix für und vermutlich wusste Dein Chef/Betreuer auch nicht so genau, warum diese Vorgehensweise für eine statistische Absicherung wenig tauglich ist. Eine Prüfung, bei der die Zuverlässigkeit im Bereich des Kaffeesatz-Lesens liegen, ist für die belastbare Bewertung von Prozessen oder Produkten ungeeignet.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.