QM-Forum › Foren › Qualitätsmanagement › Berechnungsverfahren Fähigkeitsindex Excel/qs-STAT
-
AutorBeiträge
-
Hallo Leute,
zurzeit studiere ich Maschinenbau an einer FH und habe über die normalen Grundlagen hinaus keine Statistikvorlesungen besucht.
Die letzten Wochen habe ich die DGQ Schriften zu SPC, die qs-STAT-Bibel von Dietrich und Schulze und diverse Qm-Literatur quergelesen und nun wende ich mich an Euch, da ich im Moment meine Abschlussarbeit zu dem Thema SPC bearbeite.Ich stehe gerade vor einem ähnlichen Problem wie Stampfi82 beim Thema “Quantile Excel 2007 ungleich qs-STAT“. Ich habe gerade versucht in Excel mit der Berechnungsmethode M1 (1,6) – Percentil (99,865% und 0,135% Quantil) die Ergebnisse von qs-STAT nachzubilden.
Mein Problem besteht nun jedoch nicht darin, dass Excel und qs-STAT unterschiedliche Quantilswerte errechnen, sondern in starken Abweichungen beim Ergebnis für die Fähigkeitskennzahl, bei ähnlichen Quantilswerten.
Ich habe eine Messwertreihe mit 67 aufeinanderfolgenden unabhängigen Werten(Rundlauf), die laut qs-STAT-Auswertung durch eine logarithmische Normalverteilung beschreibbar sind.Die Werte lauten wie folgt (Excel/qs-STAT):
OSG: 0,1
x-quer:0,011/0,01067
Log x-quer: -4,7914../?
Log Streuung: 0,7027../?
Quantil 99,865%: 0,068342262/0,06552
Median Quantil 50%: 0,008300394/0,008
Quantil 0,135%: 0,00100811/0,0009
M1(1,6) Cpo=(OSG – X50%) / (X99,865% – X50%): 1,5273../1,09Als Alternative habe ich noch folgende Berechnungsmethode ausprobiert:
http://www.crgraph.de/Faehigkeitskennzahlen.pdf (Seite 2, oben)
Hier liegt das Ergebnis mit 1,18 näher bei dem Wert von qs-STAT. Jedoch bin ich mir nicht sicher ob dies eine gute Methode ist, da ich in einem Artikel von Qualität und Zuverlässigkeit (1999_11_Prozessniveau-im-Grenzbereich) auf folgenden Satz gestoßen bin:
„Abweichend von der allgemeinen Formel wird mitunter für lognormalverteilte Daten eine Cpk-Definition analog zur Normalverteilung vorgeschlagen, bei der die Differenz zwischen der logarithmierten Spezifikationsgrenze Ln(OSG) und dem Sklaneparameter ln(µ) durch das Dreifache des Formparameters ln(sigma) geteilt wird[15].Auf Log-Skala bezogene Indizes sind jedoch in keiner Weise mit Indizes der eigentlichen Messwertskala vergleichbar und daher nicht zu empfehlen.“
Mir kommt es nicht auf das letzte bisschen Rechenschärfe an, da die Bewertung des Prozesses ohnehin unter ungünstigen Bedingungen abläuft was die Unsicherheit der Messergebnisse und die Anzahl der betrachteten Werte angeht. Allerdings sind mir diese Unterscheide doch zu groß, um sie zu vernachlässigen und vor allem nicht nachvollziehbar, da es bei angeblich gleicher Rechenweise und ähnlichen Ausgangswerten zu einem so stark abweichenden Ergebnis kommt. Ich vermute das qs-STAT von komplett anderen Werten ausgeht, da die Gleichung ja bekannt ist. Kann sich das jemand erklären? Welche Alternativen habe ich zur Berechnung der Fähigkeitskennzahl, wenn ich davon ausgehen das das Ergebnis von 1,09 der realen Situation am nächsten kommt?
Falls jemand Hilfe weis bitte schreiben.
Gruß JanHallo Jan,
die Unterschiede scheinen mir auch etwas zu hoch zu sein.
Kannst Du bitte entweder direkt hier oder mir per Mail Deine Messwerte geben, damit ich das mal nachrechnen kann? Anhand der Kennzahlen lässt sich schwer beurteilen, wo der Hund begraben sein könnte.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Barbara,
danke für die schnelle Antwort
Kannst Du bitte entweder direkt hier oder mir per Mail Deine Messwerte geben, damit ich das mal nachrechnen kann?
Die mit x gekennzeichneten Werte sind nach „Gubbs“ Ausreißer, sind aber nicht vor Auswertung entfernt worden.
Der Cp-wert von qs-STAT kommt meinem Cpo Wert recht nahe (1,55).1x 0,056
2 0,008
3 0,014
4 0,006
5 0,008
6 0,010
7 0,004
8 0,004
9 0,006
10 0,016
11 0,005
12 0,012
13 0,004
14 0,008
15 0,006
16 0,002
17 0,005
18 0,010
19 0,012
20 0,012
21 0,010
22x 0,024
23 0,010
24 0,010
25x 0,030
26 0,015
27x 0,040
28 0,010
29 0,015
30x 0,030
31 0,006
32 0,004
33 0,02
34 0,002
35 0,014
36 0,008
37 0,006
38 0,004
39 0,008
40 0,006
41 0,004
42 0,006
43 0,016
44 0,008
45 Kein Wert
46x 0,024
47 0,008
48 0,016
49 0,010
50 0,008
51 0,004
52 0,014
53 0,008
54 0,002
55 0,010
56 0,010
57 0,008
58 0,006
59 0,002
60 0,004
61 0,011
62 0,010
63 0,006
64 0,002
65 0,010
66 0,006
67 0,014
68 0,008Gruß Jan
Hallo Jan,
danke für die Werte. Ich habs jetzt in Minitab nachgerechnet, sowohl zu Fuß nach den Formeln in der englischen Wikipedia (Log-normal distribution) als auch mit den internen Minitab-Funktionen, jeweils für die Werte und die Werte ohne „Ausreißer nach Grubs“-Angabe (=Werte bereinigt) und mit den Werten, die Du aus qs-stat hast.
Der Cpko in qs-stat mit Cpko=1,09 ist für mich nicht nachvollziehbar:
Werte (n=67) berechnet:
Lage: -4,78975
Skala: 0,695117
Q99,865%: 0,0669095
Q50%: 0,0083145
Cpko: 1,56473Werte (n=67) aus Minitab-Menü:
Lage: -4,790
Skala: 0,7004
Cpko: 1,54Werte bereinigt (n=61) berechnet:
Lage: -4,92360
Skala: 0,567342
Q99,865%: 0,0398917
Q50%: 0,0072729
Cpko: 2,84275Cpko-Wert mit qs-stat Quantilwerten:
Q99,865%: 0,06552
Q50%: 0,008
Cpko: 1,59944Kann es sein, dass Du statt 1,59 den Wert 1,09 abgeschrieben hast? Das wäre für mich die einfachste Erklärung, weil 1,59 ziemlich nah an dem mit den qs-stat-Quantilen nachgerechnetem Cpko-Wert ist.
Es scheint auf jeden Fall nicht mit den bereinigten Messwerten gerechnet worden zu sein, weil die deutlicher größer als 2 sind.
Unterschiede in der zweiten Nachkommastelle entstehen vermutlich durch interne Rechengenauigkeiten bzw. -ungenauigkeiten.
Hilft Dir das weiter?
Eins noch generell zur Berechnung von Prozessfähigkeitswerten: Es sollten immer mindestens 100 Werte verwendet werden, um halbwegs belastbare Aussagen zu bekommen.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Barbara,
ich habe mir alles nochmal genau angeguckt.
Der Wert von Cpko ist laut qs-stat 1,09.
Nach dem Entfernen der Ausreißer sinkt dieser sogar, was mir völlig unverständlich ist. Es ändert sich auch die Verteilungsempfehlung von log.N. auf Weibull. Betrachtet unter log.N liegt der neue Wert bei 0,92 mit 61 betrachteten Werten.
Generell liegen alle Auswertungen egal mit welcher Verteilung deutlich unter Cpko<1,10…..
_____________________________________
Habe den Fehler gerade gefunden!
_____________________________________
Man muss dem Merkmal noch zuordnen, dass es sich um eine natürliche Untergrenze handelt. Das war der Fehler. Nun stimmen alle Werte. Habe ich bei den ganzen Eingabefeldern leider übersehen.Danke für deine Hilfe!
Eins noch generell zur Berechnung von Prozessfähigkeitswerten: Es sollten immer mindestens 100 Werte verwendet werden, um halbwegs belastbare Aussagen zu bekommen.
Die Wertanzahl ist generell mein Problem. Die oben genannten 67 Werte bestehen schon aus 2 unterschiedlichen Bauteilen, die immer abwechselnd an einer Maschine gefertigt werden. Bis zu meinem Abgabetermin werde ich die 100 Werte auf Grund von sehr langen Bearbeitungszeiten nicht mehr zusammenbekommen. Ich überlege die Werte durch Daten einer anderen Maschine mit gleichem Prozess zu „strecken“, was allerdings die Aussagekraft zu der einzelnen Maschine wieder relativieren würde…
Ich habe noch eine Frage die interessant für den Einsatz von Qrk bei diesem Prozess ist, evtl. kannst du mir da auch weiterhelfen:
Ich würde gerne durch gleitendende Mittelwerte (Pseudostichproben) x-quer-s-Regelkarten einsetzen, was eigentlich auf Grund von n=1 nicht möglich ist. (Bei den Werten 1,2,3,4,5,6.. würde bei Pseudostichproben n=3 die erste Stichprobe 1,2,3, enthalten, die zweite 2,3,4 usw..) Durch dieses Verfahren zur Datenaufbereitung sind die Stichproben doch nicht mehr unabhängig untereinander oder ist die Bedingung nur das die Werte 1,2,3,4.. untereinander nicht voneinander abhängig sind? Die Idee dazu kommt aus „Statistische Verfahren zur Maschinen und Prozessqualifikation“ von Dietrich und Schulze.
Achso wo ich schon dabei bin gleich noch eine Frage mehr:
Ist dir die im ersten Post verlinkte Gleichung, auf die QZ Bezug nimmt, vertraut? Wird die so eingesetzt? Oder handelt es sich um eine grobe Schätzung aus Zeiten, wo überwiegend mit Taschenrechner gerechnet wurde? Ansonsten habe ich noch die in einem andern Post von dir diskutierte Betragsverteilung im Blickfeld, die werde ich morgen wahrscheinlich mal unter die lupe nehmen.Vielen Dank erst einmal für deinen Einsatz.
Gruß Jan
Hallo Jan,
ich splitte mal die Antwort in verschiedene Postings auf, damit es etwas übersichtlicher wird:
########## Allgemeiner Ablauf bei der Fähigkeitsbewertung ##########
Ein Fähigkeitswert soll die Gesamtheit des Prozesses anzeigen. Wenn in dem Prozess verschiedene Werker, Maschinen, Materialien, Werkzeuge, usw. vorhanden sind, MÜSSEN diese Unterschiede auch in den Stichproben zu finden sein.
Andernfalls repräsentieren die Stichproben nur einen Bruchteil des Gesamt-Prozesses und sind für die Gesamt-Prozessbeurteilung nicht aussagekräftig.
Soll nur für einen Teilbereich des Gesamt-Prozesses (z. B. für die Fähigkeit von Maschine A12) eine Aussage gemacht werden, müssen alle Werte aus dem Teilbereich stammen und die relevanten Unterschiede dieses Teilbereichs enthalten.
Um die richtigen Stichproben für die Fähigkeitswerte zu finden, ist Folgendes sinnvoll:
1. Abgrenzung des zu bewertenden Prozesses bzw. Teilbereichs: ausgewählter Prozess
2. Sammeln aller möglicherweise wichtigen Einflüsse für den ausgewählten Prozess (Werker, Maschinen, usw.)
3. Auswahl einer geeigneten Verteilung für die Mess-Situation (s. Posting „Verteilungsauswahl“)
4. Durchführen einer Mess-System-Analyse (MSA), mindestens Verfahren 1 und GRR% vom Prozess (und ggf. von der Toleranz)
5. Wenn der Messprozess ausreichend zuverlässig ist: Finden oder aufnehmen von ausreichend vielen Messwerten, die die unter Punkt 3. aufgelisteten Veränderungen berücksichtigen (also mit Werker-Wechsel, verschiedenen Maschinen, usw.) Die empfohlene Mindestzahl sind 100 Werte bzw. 125 Werte bei Berücksichtigung von Teilgruppen in den Werten.
5. Prüfen, ob es nicht-zufällige Muster in den Messwerten gibt oder ob der Prozess stabil ist (dazu schreib ich unter dem Punkt „Regelkarten“ noch was)
6. Prüfen, ob die Messwerte der unter Punkt 4. ausgewählten Verteilung folgen (Stichworte: Wahrscheinlichkeitsnetz bzw. Quantil-Plot, Verteilungstest)
7. Wenn der Prozess stabil ist, die Werte nur zufällig streuen und der ausgewählten Verteilung folgen: Berechnung der Fähigkeitskenngrößen auf Basis der ausgewählten VerteilungWas hier bewusst nicht steht: Auswahl und Herausnahme von Ausreißern. Es geht in der Fähigkeitsbewertung um die Gesamtheit eines Prozesses. Dazu gehören auch ungewöhnlich hohe oder niedrige Werte, es sei denn, die sind echte Messfehler oder Datenerfassungsfehler.
Klar kannst Du Dir die Fähigkeitswerte schön rechnen, wenn Du die extremen Werte rausnimmst und die Messwerte dadurch glatt hobelst, nur repräsentieren die Messwerte dann nicht mehr den Gesamt-Prozess, sondern nur noch den Teil, den Du schön findest.
Der Grubbs-Test ist übrigens für symmetrische, normalverteilte Werte. Bei schiefen Verteilungen würd ich darauf grundsätzlich verzichten.
Soweit die Vorgehensweise bei der Prozessfähigkeitsbewertung. Wenn Du das so umsetzt, wirst Du sehr oft sehen, dass schon der Mess-Prozess viel zu unsicher ist oder der Prozess nicht stabil ist und nicht-zufällige Muster hat. Das ist auch logisch, weil es durch Werkzeug- oder Material-Wechsel oft eine systematische Veränderung des Prozesses gibt. In diesem Fall brauchst Du ein statistisches Prozess-Modell, was diese Veränderungen abbildet, um eine belastbare Aussage zur Prozessqualität treffen zu können.
Weil das mit den Modellen dann ein bisschen aufwändiger ist als die Berechnung von Mittelwerten, Standardabweichungen und Quantilen, gibt es manchmal so Aussagen wie:
„Statistik funktioniert nur für normalverteilte Messwerte.“
„Die theoretischen Annahmen zur Prozess-Stabilität und Verteilung sind nur theoretisch. In der Praxis gibt es das sowieso nicht, deshalb kümmern wir uns auch nicht um die Voraussetzungen.“
„Grau ist alle Theorie. In der Praxis nimmt mir die Software das Planen und Überlegen ab, da mus ich dann nur noch die Werte einsammeln, weil die Programmierer schon wissen, wie die Daten zu verwenden sind.“Diese drei Aussagen sind falsch.
(Auch hierfür könnte ich jetzt diverse Fundstellen angeben. Wer genaueres wissen will, schicke mir bitte eine Mail oder poste in diesem Thread.)
Klar kannst Du die systematischen Veränderungen im Prozess auch einfach ignorieren und den Fähigkeitswert trotzdem ausrechnen. Der ist nur dann wenig belastbar, kann irreführend sein und untermauert das Argument „Traue keiner Statistik, die Du nicht selbst gefälscht hast.“
########## Verteilungsauswahl für Fähigkeitsbewertungen ##########
Grundsätzlich ist es sinnvoller, auf Basis der Testsituation mit GMV (gesundem Menschenverstand) zu entscheiden, welche Verteilung passend ist, als über diverse Testmethoden die mathematisch optimale Verteilung auszuwählen.
Das hat u. a. mit dem Risiko für eine Fehlentscheidung bei Mehrfachtests zu tun und damit, dass eine mathematisch optimale Lösung technischer Mumpitz sein kann. Die Verteilungen sind sich oft sehr ähnlich und eine Auswahl rein auf Basis der Werte kann wie bei Dir stark davon abhängen, welche Werte für die Verteilungsauswahl verwendet bzw. ausgeschlossen werden.
Die Lognormalverteilung hat komplett andere Eigenschaften als die Weibullverteilung, so dass auch die Fähigkeitswerte auf Basis der Lognormalverteilung andere sein müssen als die auf Basis der Weibullverteilung, selbst wenn es „eigentlich“ die gleichen Messwerte sind.
(Halbwegs) zuverlässige Fähigkeitskennzahlen bekommst Du nur dann, wenn die Verteilung vorab auf Basis der Messsituation korrekt ausgewählt wird. Halbwegs deshalb, weil jede Berechnung von Fähigkeitskennzahlen auf Basis einer Stichprobe eine gewisse Ungenauigkeit enthält (s. Ungenauigkeit von Fähigkeitswerten).
In einem stabilen Prozess ohne systematische Einflüsse und ohne technische Grenze streuen die Messwerte zufällig um einen mittleren Wert. Damit sind die Werte normalverteilt. (Das ist in der Praxis eher selten, eben weil es systematische Einflüsse in den allermeisten Prozessen gibt.)
Messwerte von nullbegrenzten Merkmalen haben eine technische Grenze. Die Messwertverteilung ist nicht symmetrisch (genug), wenn der Mittelwert der Verteilung zu nah an der 0-Grenze liegt. (Zu nah = Mittelwert ist weniger als 3*Standardabweichung von der 0-Grenze entfernt.) In diesem Fall kann die Messwerte-Verteilung nicht durch eine (symmetrische) Normalverteilung beschrieben werden.
Die theoretisch passende Verteilung für diese Mess-Situation heißt gestutzte Normalverteilung (oder auch Betragsverteilung 1. Art). Eigentlich wäre damit alles schick, weil einfach die Verteilung ausgetauscht würde und damit die Fähigkeitswerte berechnet würden (Berechnung s. Formeln für Fähigkeitswerte).
Uneigentlich lassen sich die Kenngrößen der gestutzten Normalverteilung nicht einfach so berechnen, sondern nur über iterative Verfahren oder Näherungsformeln. Deshalb wurde lange Zeit statt mit der sperrigen gestutzten Normalverteilung mit einer leichter berechenbaren unsymmetrischen Verteilung gearbeitet, z. B. mit der Lognormalverteilung oder der Weibullverteilung.
Es hat sich allerdings gezeigt, dass die Lognormalverteilung Messwerte von nullbegrenzten Merkmale i. A. schlecht beschreibt. Und die Weibullverteilung sieht zwar so ähnlich aus wie die Messwerteverteilung, entsteht aber in einer völlig anderen Mess-Situation (Lebensdauer-Tests) und hat deshalb auch ganz andere Eigenschaften als die gestutzte Normalverteilung.
Leider gibt es immer noch relativ wenig Software-Programme, mit denen die gestutzte Normalverteilung berechnet werden kann und die auch die Berechnung von Quantilwerten für die Fähigkeitskennzahlen ermöglicht (Excel kann das nicht). Bei einseitig gestutzten Merkmalen (wie den nullbegrenzten) gibt es einen halbwegs praktikablen Weg, das Ganze in R (O*penSource Statistikprogramm) auszurechnen. Eine Beschreibung dazu findest Du in meinem Artikel „Prozessfähigkeit bewerten“. (Der Artikel ist leider schon etwas älter; die Angaben zur ISO 21747 stimmen so nicht mehr. Der Rechenweg für die Betragsverteilung 1. Art ist immer noch so wie dort beschrieben.)
########## Ungenauigkeit von Fähigkeitswerten ##########
Die Ungenauigkeit in den Werten lässt sich leider nur für normalverteilte Werte direkt berechnen (Vertrauensbereiche/Konfidenzintervalle für Fähigkeitswerte). Die immer mal wieder auftauchenden Formeln für Vertrauensbereiche von Fähigkeitskenngrößen bei anderen Verteilungen stammen schlicht aus einer Fehlinterpretation von Fachartikeln, in denen die Voraussetzung der normalverteilten Messdaten überlesen wurde. Es gibt keine Formeln, mit denen Vertrauensbereiche für Fähigkeitswerte von nicht-normalverteilten Messdaten direkt berechnet werden können. In diesem Fall können Vertrauensbereiche z. B. über Monte-Carlo-Methoden simuliert werden. (Falls das für Dich irgendwie relevant ist oder für jemanden, der diesen Thread später mal findet: Die entsprechenden Literaturstellen kann ich liefern.)
Um einen Eindruck über die Sicherheit oder Unsicherheit von Fähigkeitskennzahlen zu geben, nehm ich jetzt als Beispiel Fähigkeitswerte von normalverteilten Einzelwerten aus einem stabilen Prozess mit zweiseitiger Toleranz. „KI“ steht für KonfidenzIntervall (=Vertrauensbereich):
n=61 Werte, Cp=Cpk=1,50
95%iges KI für Cp: (1,2321 ; 1,7674), Breite: ±0,5353
95%iges KI für Cpko: (0,9696 ; 1,4304), Breite: ±0,5622n=67 Werte, Cp=Cpk=1,50
95%iges KI für Cp: (1,2445 ; 1,7550), Breite: ±0,5105
95%iges KI für Cpko: (0,9803 ; 1,4197), Breite: ±0,5361n=100 Werte, Cp=Cpk=1,50
95%iges KI für Cp: (1,2912 ; 1,7084), Breite: ±0,4172
95%iges KI für Cpk: (1,0205 ; 1,3795), Breite: ±0,4378n=500 Werte, Cp=Cpk=1,50
95%iges KI für Cp: (1,4069 ; 1,5930), Breite: ±0,1861
95%iges KI für Cpk: (1,4025 ; 1,5975), Breite: ±0,1951Fazit: Diskussionen über die zweite Nachkommastelle sind völlig überflüssig, weil das alles im Bereich des Zufalls liegt. Auch die erste Nachkommastelle ist mit Vorsicht zu interpretiern, solange weniger als 500 normalverteilte Werte für die Fähigkeitskennzahlen verwendet werden.
########## Formeln für Fähigkeitswerte ##########
Die allgemeinen Formeln für Fähigkeitswerte sind:
Cp = (OSG-USG)/(Q99,865%-Q0,135%)
Cpku = (Q50%-USG)/(Q50%-Q0,135%)
Cpko = (OSG-Q50%)/(Q99,865%-Q50%)
Cpk = min(Cpku , Cpko)USG: Untere SpezifikationsGrenze
OSG: Obere SpezifikationsGrenze
Q99,865%: 99,865%-Quantil der Messwerte-Verteilung
Q50%: 50%-Quantil der Messwerte-Verteilung (entspricht dem Median)
Q0,135%: 0,135%-Quantil der Messwerte-VerteilungDiese Formeln gelten für alle Verteilungen.
Bei normalverteilten Werten lassen sich diese Formeln vereinfachen. Es ist:
Q50% = Mittelwert
Q99,865%-Q50% = Q50%-Q0,135% = 3*Standardabweichung
Q99,865%-Q0,135% = 6*StandardabweichungMit Mittelwert xquer und Standardabweichung S gilt für normalverteilte Merkmale:
Cp = (OSG-USG)/(Q99,865%-Q0,135%) = (OSG-USG)/(6S)
Cpku = (Q50%-USG)/(Q50%-Q0,135%) = (xquer-USG)/(3S)
Cpko = (OSG-Q50%)/(Q99,865%-Q50%) = (OSG-xquer)/(3S)
Cpk = min(Cpku , Cpko)########## Regelkarten ##########
Es gibt verschiedene Ansätze, um Einzelwerten mit Regelkarten zu bewerten. Die einfachste Variante ist eine I-MR-Karte (I: Individual, MR: Moving Range / gleitende Spannweite), bei der die einzelnen Messwerte in die I-Karte eingetragen werden. Die Spannweite (Range) von jeweils 2 aufeinanderfolgenden Punkten sind die Werte, die in die MR-Karte eingetragen werden.
Die Standard-I-MR-Karte setzt allerdings normalverteilte Werte voraus. Diese Annahme ist bei nullbegrenzten Merkmalen dann nicht gegeben, wenn der Mittelwert der Messdaten zu nah an der technischen Grenze liegt (s. a. Verteilungsauswahl). Um dennoch eine Bewertung der einzelnen Punkte zu bekommen, können als Grenzen in der Regelkarte die Quantile der tatsächlichen Messwerte-Verteilung gesetzt werden.
Dafür wird in der I-Karte der übliche 99,73%-ige Streubereich durch die Grenzen eingezeichnet. Bei normalverteilten Werten sind die Grenzen bei
xquer ± 3S
und bei beliebigen Verteilungen (auch der Normalverteilung) bei
Q0,135%
und
Q99,865%Die mittlere Linie ist bei normalverteilten Werten
xquer
und bei beliebigen Verteilungen bei
Q50%
(s. a. Formeln für Fähigkeitswerte)Die MR-Karte sollte grundsätzlich sehr vorsichtig interpretiert werden, weil sie dazu neigt, die Streuung zu überschätzen. Abgeraten wird in jedem Fall von MR-Karten, die mehr als 2 Punkte für die Berechnung der gleitenden Spannweite verwenden. Eine ausführlichere Diskussion dazu findest Du in
Montgomery, Douglas C.: Statistical Quality Control : A Modern Introduction. 7. Auflage. : Wiley John + Sons, 2012. -ISBN 978-1-118-32257-4. S. 1-752Sinn und Zweck der Regelkarten für die Bewertung der Prozess-Stabilität bei den Fähigkeitswerten ist herauszufinden, ob es systematische Veränderungen oder Muster in den Einzelwerten gibt. Hier gibt es verschiedene Regeln, die auf nicht-zufällige Muster hinweisen. Die bekanntesten davon sind die Western Electric Company Rules, auch WECO Rules.
Es geht also bei Fähigkeitswerten IMMER um Einzelwerte. Eine Regelkarte, bei der mehrere Einzelwerte zusammengefasst werden, ist deshalb in dieser Situation immer mit Vorsicht zu interpretieren.
Das Prinzip mit der gleitenden Spannweite (MR) lässt sich in anderen Situationen auch mit dem Mittelwert oder der Standardabweichung machen. Das ist das, was Du in Dietrich & Schulze unter dem Punkte „Shewart-Karte mit gleitenden Kennwerten“ findest. „Pseudo“-Stichproben klingt allerdings etwas danach, als würde hier getrickst werden. Dem ist nicht so, vielmehr sind die dort beschriebenen Methoden schon lange bekannt und werden u. a. in der Zeitreihenanalyse verwendet um Daten zu glätten.
Die MA-Karte (Moving Average, gleitender Mittelwert) ist etwas empfindlicher bei kleinen Veränderungen im Mittelwert als die I-Karte. Größere Hüpfer werden bei der MA-Karte dafür stärker herausgefiltert und später entdeckt. Ein Nachteil der MA-Karte ist, dass sie jeden Wert gleich stark gewichtet. Besser sind hier zeitlich gewichtete Karten wie die EWMA- (Exponentially Weighted Moving Average) oder die CUSUM-Karte (CUmulative SUM).
Die gleitende Standardabweichung hat nicht mal eine übliche Abkürzung, weil sie so selten verwendet wird. Bei dieser Karte wird die Standardabweichung durch Veränderungen oder Hüpfer im Mittelwert stark verzerrt. Dadurch wird die Interpretation sehr schwer und die Streuung im Prozess überschätzt. Aus diesen Gründen findest Du auch nur sehr wenig Informationen zu der Regelkarte mit der gleitenden Standardabweichung (s. a. Montgomery).
Alle gleitenden Kennzahlen-Regelkarten fassen mehrere Einzelwerte zu 1 Punkt zusammen. Das beißt sich mit der Fähigkeitsbewertung, weil hier jeder einzelne Wert wichtig ist. Oder um es mit einem plakativen Beispiel zu sagen: Wenn Du einmal links und einmal rechts am Hasen vorbeischießt, ist der Hase im Mittel tot. In echt hüpft er fröhlich weiter über die Wiese.
######
So, das solls jetzt erstmal gewesen sein. Ich hoffe, das hilft Dir ein bisschen mehr Licht ins Dunkel zu bringen, auch wenn Du vermutlich mit einer kürzeren Antwort gerechnet hattest ;)
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Babara,
mit so einer Antwort hab ich in der Tat nicht gerechnet!
Du hast mal eben meine ganzen Recherchen der letzten Wochen zusammengefasst und aus dem Ärmel geschüttelt :D
################################################
Zu allgemeiner Ablauf einer Fähigkeitsbewertung:Den von Dir genannten Ablauf habe ich schon in etwas anderer Reihenfolge in Arbeit. Letzte Woche wurden gerade die Referenzteile vermessen, um die MSA nach Verfahren 1 und 2 durchzuführen. Wobei ich mir noch nicht ganz sicher bin wo ich die Grenzen der Betrachtung ziehe.
So wie du die Praxis beschreibst sieht es leider auch bei mir aus! Ich habe ich es voraussichtlich tatsächlich mit einem zu unsicheren Messverfahren, mangelnder Stabilität und deutlichen systematischen Einflüssen zu tun.
Mein Ansatz ist es, die systematischen Veränderungen des Prozesses nicht zu ignorieren, sondern die QRK-Regelgrenzen unter Berücksichtigung dieser zu errechnen (nicht auf Basis der inneren Stichprobestreuung sondern auf Basis der Prozessstreuung).
Bei der Fähigkeitsbewertung werde ich die systematischen Veränderungen hingegen tatsächlich ignorieren, da der Einsatz eines statistischen Prozess-Modells vermutlich mein jetziges Können und ganz sicher die mir zur Verfügung stehende Zeit übersteigt und da die Belastbarkeit der Werte ohnehin durch die geringe Probenanzahl zu wünschen übrig lässt.################################################
Zu Verteilungsauswahl für Fähigkeitsbewertungen:Den Ansatz die Verteilung nach Merkmalsart festzulegen und dann Tests zu unterziehen habe ich auch gewählt.
Evtl. werde ich die log. Normalverteilung noch gegen die Betragsverteilung 1.Art ersetzen. Die obige Messreihe ließ sich allerdings auch sehr gut mit der log. Normalverteilung beschreiben ohne die deutlich aufwändigere Methode der Betragsverteilung zu anzuwenden.
Deinen Artikel kenne ich, ist schon seit einigen Wochen wichtiger Bestandteil meiner Unterlagen. Für die Berechnung von den Quantilsgrenzen werde ich dann auch auf die Näherungsformel aus der Volkswagenkonzernnorm 10130 zurückgreifen (wie schon an anderer Stelle im Forum diskutiert), um eine Rechnung mit dem Programm R zu umgehen. Deine Fehlerabschätzung zu der Gleichung habe ich auch schon entdeckt.################################################
Zu Ungenauigkeit von Fähigkeitswerten:Zu der Ungenauigkeit von Fähigkeitswerten und SPC allgemein werde ich mich auf folgende Dissertation beziehen. Hier gibt es einen recht guten Überblick:
http://www.opus.ub.uni-erlangen.de/opus/volltexte/2012/3146/pdf/AdrianDietlmaierDissertation.pdf################################################
Zu Regelkarten:Die IX-MR-Karte habe ich vorerst aus dem Regelkartenwettrennen herausgeworfen. Grundlage hierfür war die Arbeit:
„ASYMMETRICAL CONTROL LIMITS FOR INDIVIDUAL MEASUREMENT X
AND MOVING RANGE (n = 2)mR CONTROL CHARTS von Michael Lee,aus der hervorgeht, dass der Einsatz dieser Karten nicht empfehlenswert ist und daher von diesen Karten abgeraten wird.
Die MA-Karte ist in meiner engeren Auswahl gelandet, weil ich im Gegensatz zur IX Karte eine feinfühligere Karte bekomme, durch die Stichproben den zentralen Grenzwertsatz nutzen kann(was in jedem Einzelfall zu prüfen ist).
Was mir an dieser Karte wiederum nicht gefällt, ist die glättende Eigenschaft, und das abgeschwächte detektieren der größeren Lageänderungen, da der betrachtete Prozess noch in einem Zustand ist, wo der Fokus auf kleine Lageänderungen verfrüht wäre.Eine Anwendung der EMWA- Karte habe ich aus diesem Grund auch erst einmal verworfen, da mir bisher nur EMWA x-quer Karten bekannt sind. Das würde in meinem Fall bedeuten, dass ich durch die glättende Eigenschaft der “Pseudo“-Stichproben in Kombination mit der EMWA-Karte das Erkennen großer Lageänderungen noch zusätzlich schwächen würde. In nächster Zeit werde ich mich mal auf die Suche nach Infos zu EMWA-Einzelwertkarten machen.
Zu den EMWA x-quer Karten habe ich glücklicherweise eine Dissertation gefunden, die ausführlich einen Vergleich zu normalen x-quer-Karten mit und ohne den Einfluss von Messfehlern diskutiert.Es reicht zum Glück die QRK zu erstellen. Eine weitere Auswertung durch die WECO Rules überlasse ich dann gerne Anderen. Ich vermute ohne Erfahrung damit zu haben kommt eine Beurteilung nach diesen Regeln Kaffeesatzlesen gleich. Außerdem habe ich noch immer den Satz im Hinterkopf das der Roulettetisch kein Gedächtnis hat und es daher nicht ungewöhnlich ist, wenn einige Werte aufeinander folgen. Wahrscheinlich lässt sich das aber nicht 1zu1 auf diese Situation übertragen, da hier ja doch einige Möglichkeiten mehr bestehen als rot oder schwarz.
Die Aussage, dass sich Regelkarten mit Kennzahlen mit der Fähigkeitsbewertung beißen teile ich nicht, da in meinen Augen die Aussagen von QRK und Fähigkeitskennzahlen völlig losgelöst voneinander betrachtet werden können. Man bekommt eine Aussage zur Stabilität und eine Aussage zur Fähigkeit.
Der Fähigkeitsindex stellt sicher, dass der Hase getroffen wird und die QRK beurteilt den Treffer und stellt sicher, dass die Treffer nicht zu weit voneinander abweichen.Um die Merkmale überwachen zu können bei denen die Fähigkeit unzureichend ist, kommt nach meiner jetzigen Einschätzung eine Annahmeregelkarte in Frage, um einen Bezug zu den Toleranzgrenzen herzustellen. Die dann, wenn die Fähigkeit hergestellt wurde , in eine andere Regelkarte überführt werden kann.
################################################Ich bedanke mich auf jeden Fall erst einmal recht herzlich für die von Dir aufgebrachte Zeit und Arbeit vielleicht bin ich ja auch mal in der Lage Dir bei einer Frage weiterzuhelfen, wobei das bestimmt nicht so schnell vorkommen wird. :D
Schönen Sonntag noch.
Gruß Jan
-
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.