Berechnungsverfahren Fähigkeitsindex Excel/qs-STAT2012-12-14T14:54:53+01:00

QM-Forum Foren Qualitätsmanagement Berechnungsverfahren Fähigkeitsindex Excel/qs-STAT

Ansicht von 11 Beiträgen – 1 bis 11 (von insgesamt 11)
  • Autor
    Beiträge
  • hans.damp
    Mitglied
    Beitragsanzahl: 7

    Hallo Leute,

    zurzeit studiere ich Maschinenbau an einer FH und habe über die normalen Grundlagen hinaus keine Statistikvorlesungen besucht.
    Die letzten Wochen habe ich die DGQ Schriften zu SPC, die qs-STAT-Bibel von Dietrich und Schulze und diverse Qm-Literatur quergelesen und nun wende ich mich an Euch, da ich im Moment meine Abschlussarbeit zu dem Thema SPC bearbeite.

    Ich stehe gerade vor einem ähnlichen Problem wie Stampfi82 beim Thema “Quantile Excel 2007 ungleich qs-STAT“. Ich habe gerade versucht in Excel mit der Berechnungsmethode M1 (1,6) – Percentil (99,865% und 0,135% Quantil) die Ergebnisse von qs-STAT nachzubilden.
    Mein Problem besteht nun jedoch nicht darin, dass Excel und qs-STAT unterschiedliche Quantilswerte errechnen, sondern in starken Abweichungen beim Ergebnis für die Fähigkeitskennzahl, bei ähnlichen Quantilswerten.
    Ich habe eine Messwertreihe mit 67 aufeinanderfolgenden unabhängigen Werten(Rundlauf), die laut qs-STAT-Auswertung durch eine logarithmische Normalverteilung beschreibbar sind.

    Die Werte lauten wie folgt (Excel/qs-STAT):
    OSG: 0,1
    x-quer:0,011/0,01067
    Log x-quer: -4,7914../?
    Log Streuung: 0,7027../?
    Quantil 99,865%: 0,068342262/0,06552
    Median Quantil 50%: 0,008300394/0,008
    Quantil 0,135%: 0,00100811/0,0009
    M1(1,6) Cpo=(OSG – X50%) / (X99,865% – X50%): 1,5273../1,09

    Als Alternative habe ich noch folgende Berechnungsmethode ausprobiert:

    http://www.crgraph.de/Faehigkeitskennzahlen.pdf (Seite 2, oben)

    Hier liegt das Ergebnis mit 1,18 näher bei dem Wert von qs-STAT. Jedoch bin ich mir nicht sicher ob dies eine gute Methode ist, da ich in einem Artikel von Qualität und Zuverlässigkeit (1999_11_Prozessniveau-im-Grenzbereich) auf folgenden Satz gestoßen bin:

    „Abweichend von der allgemeinen Formel wird mitunter für lognormalverteilte Daten eine Cpk-Definition analog zur Normalverteilung vorgeschlagen, bei der die Differenz zwischen der logarithmierten Spezifikationsgrenze Ln(OSG) und dem Sklaneparameter ln(µ) durch das Dreifache des Formparameters ln(sigma) geteilt wird[15].Auf Log-Skala bezogene Indizes sind jedoch in keiner Weise mit Indizes der eigentlichen Messwertskala vergleichbar und daher nicht zu empfehlen.“

    Mir kommt es nicht auf das letzte bisschen Rechenschärfe an, da die Bewertung des Prozesses ohnehin unter ungünstigen Bedingungen abläuft was die Unsicherheit der Messergebnisse und die Anzahl der betrachteten Werte angeht. Allerdings sind mir diese Unterscheide doch zu groß, um sie zu vernachlässigen und vor allem nicht nachvollziehbar, da es bei angeblich gleicher Rechenweise und ähnlichen Ausgangswerten zu einem so stark abweichenden Ergebnis kommt. Ich vermute das qs-STAT von komplett anderen Werten ausgeht, da die Gleichung ja bekannt ist. Kann sich das jemand erklären? Welche Alternativen habe ich zur Berechnung der Fähigkeitskennzahl, wenn ich davon ausgehen das das Ergebnis von 1,09 der realen Situation am nächsten kommt?

    Falls jemand Hilfe weis bitte schreiben.
    Gruß Jan

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jan,

    die Unterschiede scheinen mir auch etwas zu hoch zu sein.

    Kannst Du bitte entweder direkt hier oder mir per Mail Deine Messwerte geben, damit ich das mal nachrechnen kann? Anhand der Kennzahlen lässt sich schwer beurteilen, wo der Hund begraben sein könnte.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    hans.damp
    Mitglied
    Beitragsanzahl: 7

    Hallo Barbara,

    danke für die schnelle Antwort

    Kannst Du bitte entweder direkt hier oder mir per Mail Deine Messwerte geben, damit ich das mal nachrechnen kann?

    Die mit x gekennzeichneten Werte sind nach „Gubbs“ Ausreißer, sind aber nicht vor Auswertung entfernt worden.
    Der Cp-wert von qs-STAT kommt meinem Cpo Wert recht nahe (1,55).

    1x 0,056
    2 0,008
    3 0,014
    4 0,006
    5 0,008
    6 0,010
    7 0,004
    8 0,004
    9 0,006
    10 0,016
    11 0,005
    12 0,012
    13 0,004
    14 0,008
    15 0,006
    16 0,002
    17 0,005
    18 0,010
    19 0,012
    20 0,012
    21 0,010
    22x 0,024
    23 0,010
    24 0,010
    25x 0,030
    26 0,015
    27x 0,040
    28 0,010
    29 0,015
    30x 0,030
    31 0,006
    32 0,004
    33 0,02
    34 0,002
    35 0,014
    36 0,008
    37 0,006
    38 0,004
    39 0,008
    40 0,006
    41 0,004
    42 0,006
    43 0,016
    44 0,008
    45 Kein Wert
    46x 0,024
    47 0,008
    48 0,016
    49 0,010
    50 0,008
    51 0,004
    52 0,014
    53 0,008
    54 0,002
    55 0,010
    56 0,010
    57 0,008
    58 0,006
    59 0,002
    60 0,004
    61 0,011
    62 0,010
    63 0,006
    64 0,002
    65 0,010
    66 0,006
    67 0,014
    68 0,008

    Gruß Jan

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jan,

    danke für die Werte. Ich habs jetzt in Minitab nachgerechnet, sowohl zu Fuß nach den Formeln in der englischen Wikipedia (Log-normal distribution) als auch mit den internen Minitab-Funktionen, jeweils für die Werte und die Werte ohne „Ausreißer nach Grubs“-Angabe (=Werte bereinigt) und mit den Werten, die Du aus qs-stat hast.

    Der Cpko in qs-stat mit Cpko=1,09 ist für mich nicht nachvollziehbar:

    Werte (n=67) berechnet:
    Lage: -4,78975
    Skala: 0,695117
    Q99,865%: 0,0669095
    Q50%: 0,0083145
    Cpko: 1,56473

    Werte (n=67) aus Minitab-Menü:
    Lage: -4,790
    Skala: 0,7004
    Cpko: 1,54

    Werte bereinigt (n=61) berechnet:
    Lage: -4,92360
    Skala: 0,567342
    Q99,865%: 0,0398917
    Q50%: 0,0072729
    Cpko: 2,84275

    Cpko-Wert mit qs-stat Quantilwerten:
    Q99,865%: 0,06552
    Q50%: 0,008
    Cpko: 1,59944

    Kann es sein, dass Du statt 1,59 den Wert 1,09 abgeschrieben hast? Das wäre für mich die einfachste Erklärung, weil 1,59 ziemlich nah an dem mit den qs-stat-Quantilen nachgerechnetem Cpko-Wert ist.

    Es scheint auf jeden Fall nicht mit den bereinigten Messwerten gerechnet worden zu sein, weil die deutlicher größer als 2 sind.

    Unterschiede in der zweiten Nachkommastelle entstehen vermutlich durch interne Rechengenauigkeiten bzw. -ungenauigkeiten.

    Hilft Dir das weiter?

    Eins noch generell zur Berechnung von Prozessfähigkeitswerten: Es sollten immer mindestens 100 Werte verwendet werden, um halbwegs belastbare Aussagen zu bekommen.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    hans.damp
    Mitglied
    Beitragsanzahl: 7

    Hallo Barbara,

    ich habe mir alles nochmal genau angeguckt.
    Der Wert von Cpko ist laut qs-stat 1,09.
    Nach dem Entfernen der Ausreißer sinkt dieser sogar, was mir völlig unverständlich ist. Es ändert sich auch die Verteilungsempfehlung von log.N. auf Weibull. Betrachtet unter log.N liegt der neue Wert bei 0,92 mit 61 betrachteten Werten.
    Generell liegen alle Auswertungen egal mit welcher Verteilung deutlich unter Cpko<1,10…..
    _____________________________________
    Habe den Fehler gerade gefunden!
    _____________________________________
    Man muss dem Merkmal noch zuordnen, dass es sich um eine natürliche Untergrenze handelt. Das war der Fehler. Nun stimmen alle Werte. Habe ich bei den ganzen Eingabefeldern leider übersehen.

    Danke für deine Hilfe!

    Eins noch generell zur Berechnung von Prozessfähigkeitswerten: Es sollten immer mindestens 100 Werte verwendet werden, um halbwegs belastbare Aussagen zu bekommen.

    Die Wertanzahl ist generell mein Problem. Die oben genannten 67 Werte bestehen schon aus 2 unterschiedlichen Bauteilen, die immer abwechselnd an einer Maschine gefertigt werden. Bis zu meinem Abgabetermin werde ich die 100 Werte auf Grund von sehr langen Bearbeitungszeiten nicht mehr zusammenbekommen. Ich überlege die Werte durch Daten einer anderen Maschine mit gleichem Prozess zu „strecken“, was allerdings die Aussagekraft zu der einzelnen Maschine wieder relativieren würde…

    Ich habe noch eine Frage die interessant für den Einsatz von Qrk bei diesem Prozess ist, evtl. kannst du mir da auch weiterhelfen:

    Ich würde gerne durch gleitendende Mittelwerte (Pseudostichproben) x-quer-s-Regelkarten einsetzen, was eigentlich auf Grund von n=1 nicht möglich ist. (Bei den Werten 1,2,3,4,5,6.. würde bei Pseudostichproben n=3 die erste Stichprobe 1,2,3, enthalten, die zweite 2,3,4 usw..) Durch dieses Verfahren zur Datenaufbereitung sind die Stichproben doch nicht mehr unabhängig untereinander oder ist die Bedingung nur das die Werte 1,2,3,4.. untereinander nicht voneinander abhängig sind? Die Idee dazu kommt aus „Statistische Verfahren zur Maschinen und Prozessqualifikation“ von Dietrich und Schulze.

    Achso wo ich schon dabei bin gleich noch eine Frage mehr:
    Ist dir die im ersten Post verlinkte Gleichung, auf die QZ Bezug nimmt, vertraut? Wird die so eingesetzt? Oder handelt es sich um eine grobe Schätzung aus Zeiten, wo überwiegend mit Taschenrechner gerechnet wurde? Ansonsten habe ich noch die in einem andern Post von dir diskutierte Betragsverteilung im Blickfeld, die werde ich morgen wahrscheinlich mal unter die lupe nehmen.

    Vielen Dank erst einmal für deinen Einsatz.

    Gruß Jan

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jan,

    ich splitte mal die Antwort in verschiedene Postings auf, damit es etwas übersichtlicher wird:

    ########## Allgemeiner Ablauf bei der Fähigkeitsbewertung ##########

    Ein Fähigkeitswert soll die Gesamtheit des Prozesses anzeigen. Wenn in dem Prozess verschiedene Werker, Maschinen, Materialien, Werkzeuge, usw. vorhanden sind, MÜSSEN diese Unterschiede auch in den Stichproben zu finden sein.

    Andernfalls repräsentieren die Stichproben nur einen Bruchteil des Gesamt-Prozesses und sind für die Gesamt-Prozessbeurteilung nicht aussagekräftig.

    Soll nur für einen Teilbereich des Gesamt-Prozesses (z. B. für die Fähigkeit von Maschine A12) eine Aussage gemacht werden, müssen alle Werte aus dem Teilbereich stammen und die relevanten Unterschiede dieses Teilbereichs enthalten.

    Um die richtigen Stichproben für die Fähigkeitswerte zu finden, ist Folgendes sinnvoll:

    1. Abgrenzung des zu bewertenden Prozesses bzw. Teilbereichs: ausgewählter Prozess
    2. Sammeln aller möglicherweise wichtigen Einflüsse für den ausgewählten Prozess (Werker, Maschinen, usw.)
    3. Auswahl einer geeigneten Verteilung für die Mess-Situation (s. Posting „Verteilungsauswahl“)
    4. Durchführen einer Mess-System-Analyse (MSA), mindestens Verfahren 1 und GRR% vom Prozess (und ggf. von der Toleranz)
    5. Wenn der Messprozess ausreichend zuverlässig ist: Finden oder aufnehmen von ausreichend vielen Messwerten, die die unter Punkt 3. aufgelisteten Veränderungen berücksichtigen (also mit Werker-Wechsel, verschiedenen Maschinen, usw.) Die empfohlene Mindestzahl sind 100 Werte bzw. 125 Werte bei Berücksichtigung von Teilgruppen in den Werten.
    5. Prüfen, ob es nicht-zufällige Muster in den Messwerten gibt oder ob der Prozess stabil ist (dazu schreib ich unter dem Punkt „Regelkarten“ noch was)
    6. Prüfen, ob die Messwerte der unter Punkt 4. ausgewählten Verteilung folgen (Stichworte: Wahrscheinlichkeitsnetz bzw. Quantil-Plot, Verteilungstest)
    7. Wenn der Prozess stabil ist, die Werte nur zufällig streuen und der ausgewählten Verteilung folgen: Berechnung der Fähigkeitskenngrößen auf Basis der ausgewählten Verteilung

    Was hier bewusst nicht steht: Auswahl und Herausnahme von Ausreißern. Es geht in der Fähigkeitsbewertung um die Gesamtheit eines Prozesses. Dazu gehören auch ungewöhnlich hohe oder niedrige Werte, es sei denn, die sind echte Messfehler oder Datenerfassungsfehler.

    Klar kannst Du Dir die Fähigkeitswerte schön rechnen, wenn Du die extremen Werte rausnimmst und die Messwerte dadurch glatt hobelst, nur repräsentieren die Messwerte dann nicht mehr den Gesamt-Prozess, sondern nur noch den Teil, den Du schön findest.

    Der Grubbs-Test ist übrigens für symmetrische, normalverteilte Werte. Bei schiefen Verteilungen würd ich darauf grundsätzlich verzichten.

    Soweit die Vorgehensweise bei der Prozessfähigkeitsbewertung. Wenn Du das so umsetzt, wirst Du sehr oft sehen, dass schon der Mess-Prozess viel zu unsicher ist oder der Prozess nicht stabil ist und nicht-zufällige Muster hat. Das ist auch logisch, weil es durch Werkzeug- oder Material-Wechsel oft eine systematische Veränderung des Prozesses gibt. In diesem Fall brauchst Du ein statistisches Prozess-Modell, was diese Veränderungen abbildet, um eine belastbare Aussage zur Prozessqualität treffen zu können.

    Weil das mit den Modellen dann ein bisschen aufwändiger ist als die Berechnung von Mittelwerten, Standardabweichungen und Quantilen, gibt es manchmal so Aussagen wie:
    „Statistik funktioniert nur für normalverteilte Messwerte.“
    „Die theoretischen Annahmen zur Prozess-Stabilität und Verteilung sind nur theoretisch. In der Praxis gibt es das sowieso nicht, deshalb kümmern wir uns auch nicht um die Voraussetzungen.“
    „Grau ist alle Theorie. In der Praxis nimmt mir die Software das Planen und Überlegen ab, da mus ich dann nur noch die Werte einsammeln, weil die Programmierer schon wissen, wie die Daten zu verwenden sind.“

    Diese drei Aussagen sind falsch.

    (Auch hierfür könnte ich jetzt diverse Fundstellen angeben. Wer genaueres wissen will, schicke mir bitte eine Mail oder poste in diesem Thread.)

    Klar kannst Du die systematischen Veränderungen im Prozess auch einfach ignorieren und den Fähigkeitswert trotzdem ausrechnen. Der ist nur dann wenig belastbar, kann irreführend sein und untermauert das Argument „Traue keiner Statistik, die Du nicht selbst gefälscht hast.“

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    ########## Verteilungsauswahl für Fähigkeitsbewertungen ##########

    Grundsätzlich ist es sinnvoller, auf Basis der Testsituation mit GMV (gesundem Menschenverstand) zu entscheiden, welche Verteilung passend ist, als über diverse Testmethoden die mathematisch optimale Verteilung auszuwählen.

    Das hat u. a. mit dem Risiko für eine Fehlentscheidung bei Mehrfachtests zu tun und damit, dass eine mathematisch optimale Lösung technischer Mumpitz sein kann. Die Verteilungen sind sich oft sehr ähnlich und eine Auswahl rein auf Basis der Werte kann wie bei Dir stark davon abhängen, welche Werte für die Verteilungsauswahl verwendet bzw. ausgeschlossen werden.

    Die Lognormalverteilung hat komplett andere Eigenschaften als die Weibullverteilung, so dass auch die Fähigkeitswerte auf Basis der Lognormalverteilung andere sein müssen als die auf Basis der Weibullverteilung, selbst wenn es „eigentlich“ die gleichen Messwerte sind.

    (Halbwegs) zuverlässige Fähigkeitskennzahlen bekommst Du nur dann, wenn die Verteilung vorab auf Basis der Messsituation korrekt ausgewählt wird. Halbwegs deshalb, weil jede Berechnung von Fähigkeitskennzahlen auf Basis einer Stichprobe eine gewisse Ungenauigkeit enthält (s. Ungenauigkeit von Fähigkeitswerten).

    In einem stabilen Prozess ohne systematische Einflüsse und ohne technische Grenze streuen die Messwerte zufällig um einen mittleren Wert. Damit sind die Werte normalverteilt. (Das ist in der Praxis eher selten, eben weil es systematische Einflüsse in den allermeisten Prozessen gibt.)

    Messwerte von nullbegrenzten Merkmalen haben eine technische Grenze. Die Messwertverteilung ist nicht symmetrisch (genug), wenn der Mittelwert der Verteilung zu nah an der 0-Grenze liegt. (Zu nah = Mittelwert ist weniger als 3*Standardabweichung von der 0-Grenze entfernt.) In diesem Fall kann die Messwerte-Verteilung nicht durch eine (symmetrische) Normalverteilung beschrieben werden.

    Die theoretisch passende Verteilung für diese Mess-Situation heißt gestutzte Normalverteilung (oder auch Betragsverteilung 1. Art). Eigentlich wäre damit alles schick, weil einfach die Verteilung ausgetauscht würde und damit die Fähigkeitswerte berechnet würden (Berechnung s. Formeln für Fähigkeitswerte).

    Uneigentlich lassen sich die Kenngrößen der gestutzten Normalverteilung nicht einfach so berechnen, sondern nur über iterative Verfahren oder Näherungsformeln. Deshalb wurde lange Zeit statt mit der sperrigen gestutzten Normalverteilung mit einer leichter berechenbaren unsymmetrischen Verteilung gearbeitet, z. B. mit der Lognormalverteilung oder der Weibullverteilung.

    Es hat sich allerdings gezeigt, dass die Lognormalverteilung Messwerte von nullbegrenzten Merkmale i. A. schlecht beschreibt. Und die Weibullverteilung sieht zwar so ähnlich aus wie die Messwerteverteilung, entsteht aber in einer völlig anderen Mess-Situation (Lebensdauer-Tests) und hat deshalb auch ganz andere Eigenschaften als die gestutzte Normalverteilung.

    Leider gibt es immer noch relativ wenig Software-Programme, mit denen die gestutzte Normalverteilung berechnet werden kann und die auch die Berechnung von Quantilwerten für die Fähigkeitskennzahlen ermöglicht (Excel kann das nicht). Bei einseitig gestutzten Merkmalen (wie den nullbegrenzten) gibt es einen halbwegs praktikablen Weg, das Ganze in R (O*penSource Statistikprogramm) auszurechnen. Eine Beschreibung dazu findest Du in meinem Artikel „Prozessfähigkeit bewerten“. (Der Artikel ist leider schon etwas älter; die Angaben zur ISO 21747 stimmen so nicht mehr. Der Rechenweg für die Betragsverteilung 1. Art ist immer noch so wie dort beschrieben.)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    ########## Ungenauigkeit von Fähigkeitswerten ##########

    Die Ungenauigkeit in den Werten lässt sich leider nur für normalverteilte Werte direkt berechnen (Vertrauensbereiche/Konfidenzintervalle für Fähigkeitswerte). Die immer mal wieder auftauchenden Formeln für Vertrauensbereiche von Fähigkeitskenngrößen bei anderen Verteilungen stammen schlicht aus einer Fehlinterpretation von Fachartikeln, in denen die Voraussetzung der normalverteilten Messdaten überlesen wurde. Es gibt keine Formeln, mit denen Vertrauensbereiche für Fähigkeitswerte von nicht-normalverteilten Messdaten direkt berechnet werden können. In diesem Fall können Vertrauensbereiche z. B. über Monte-Carlo-Methoden simuliert werden. (Falls das für Dich irgendwie relevant ist oder für jemanden, der diesen Thread später mal findet: Die entsprechenden Literaturstellen kann ich liefern.)

    Um einen Eindruck über die Sicherheit oder Unsicherheit von Fähigkeitskennzahlen zu geben, nehm ich jetzt als Beispiel Fähigkeitswerte von normalverteilten Einzelwerten aus einem stabilen Prozess mit zweiseitiger Toleranz. „KI“ steht für KonfidenzIntervall (=Vertrauensbereich):

    n=61 Werte, Cp=Cpk=1,50
    95%iges KI für Cp: (1,2321 ; 1,7674), Breite: ±0,5353
    95%iges KI für Cpko: (0,9696 ; 1,4304), Breite: ±0,5622

    n=67 Werte, Cp=Cpk=1,50
    95%iges KI für Cp: (1,2445 ; 1,7550), Breite: ±0,5105
    95%iges KI für Cpko: (0,9803 ; 1,4197), Breite: ±0,5361

    n=100 Werte, Cp=Cpk=1,50
    95%iges KI für Cp: (1,2912 ; 1,7084), Breite: ±0,4172
    95%iges KI für Cpk: (1,0205 ; 1,3795), Breite: ±0,4378

    n=500 Werte, Cp=Cpk=1,50
    95%iges KI für Cp: (1,4069 ; 1,5930), Breite: ±0,1861
    95%iges KI für Cpk: (1,4025 ; 1,5975), Breite: ±0,1951

    Fazit: Diskussionen über die zweite Nachkommastelle sind völlig überflüssig, weil das alles im Bereich des Zufalls liegt. Auch die erste Nachkommastelle ist mit Vorsicht zu interpretiern, solange weniger als 500 normalverteilte Werte für die Fähigkeitskennzahlen verwendet werden.

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    ########## Formeln für Fähigkeitswerte ##########

    Die allgemeinen Formeln für Fähigkeitswerte sind:

    Cp = (OSG-USG)/(Q99,865%-Q0,135%)

    Cpku = (Q50%-USG)/(Q50%-Q0,135%)
    Cpko = (OSG-Q50%)/(Q99,865%-Q50%)
    Cpk = min(Cpku , Cpko)

    USG: Untere SpezifikationsGrenze
    OSG: Obere SpezifikationsGrenze
    Q99,865%: 99,865%-Quantil der Messwerte-Verteilung
    Q50%: 50%-Quantil der Messwerte-Verteilung (entspricht dem Median)
    Q0,135%: 0,135%-Quantil der Messwerte-Verteilung

    Diese Formeln gelten für alle Verteilungen.

    Bei normalverteilten Werten lassen sich diese Formeln vereinfachen. Es ist:

    Q50% = Mittelwert
    Q99,865%-Q50% = Q50%-Q0,135% = 3*Standardabweichung
    Q99,865%-Q0,135% = 6*Standardabweichung

    Mit Mittelwert xquer und Standardabweichung S gilt für normalverteilte Merkmale:

    Cp = (OSG-USG)/(Q99,865%-Q0,135%) = (OSG-USG)/(6S)

    Cpku = (Q50%-USG)/(Q50%-Q0,135%) = (xquer-USG)/(3S)
    Cpko = (OSG-Q50%)/(Q99,865%-Q50%) = (OSG-xquer)/(3S)
    Cpk = min(Cpku , Cpko)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    ########## Regelkarten ##########

    Es gibt verschiedene Ansätze, um Einzelwerten mit Regelkarten zu bewerten. Die einfachste Variante ist eine I-MR-Karte (I: Individual, MR: Moving Range / gleitende Spannweite), bei der die einzelnen Messwerte in die I-Karte eingetragen werden. Die Spannweite (Range) von jeweils 2 aufeinanderfolgenden Punkten sind die Werte, die in die MR-Karte eingetragen werden.

    Die Standard-I-MR-Karte setzt allerdings normalverteilte Werte voraus. Diese Annahme ist bei nullbegrenzten Merkmalen dann nicht gegeben, wenn der Mittelwert der Messdaten zu nah an der technischen Grenze liegt (s. a. Verteilungsauswahl). Um dennoch eine Bewertung der einzelnen Punkte zu bekommen, können als Grenzen in der Regelkarte die Quantile der tatsächlichen Messwerte-Verteilung gesetzt werden.

    Dafür wird in der I-Karte der übliche 99,73%-ige Streubereich durch die Grenzen eingezeichnet. Bei normalverteilten Werten sind die Grenzen bei
    xquer ± 3S
    und bei beliebigen Verteilungen (auch der Normalverteilung) bei
    Q0,135%
    und
    Q99,865%

    Die mittlere Linie ist bei normalverteilten Werten
    xquer
    und bei beliebigen Verteilungen bei
    Q50%
    (s. a. Formeln für Fähigkeitswerte)

    Die MR-Karte sollte grundsätzlich sehr vorsichtig interpretiert werden, weil sie dazu neigt, die Streuung zu überschätzen. Abgeraten wird in jedem Fall von MR-Karten, die mehr als 2 Punkte für die Berechnung der gleitenden Spannweite verwenden. Eine ausführlichere Diskussion dazu findest Du in
    Montgomery, Douglas C.: Statistical Quality Control : A Modern Introduction. 7. Auflage. : Wiley John + Sons, 2012. -ISBN 978-1-118-32257-4. S. 1-752

    Sinn und Zweck der Regelkarten für die Bewertung der Prozess-Stabilität bei den Fähigkeitswerten ist herauszufinden, ob es systematische Veränderungen oder Muster in den Einzelwerten gibt. Hier gibt es verschiedene Regeln, die auf nicht-zufällige Muster hinweisen. Die bekanntesten davon sind die Western Electric Company Rules, auch WECO Rules.

    Es geht also bei Fähigkeitswerten IMMER um Einzelwerte. Eine Regelkarte, bei der mehrere Einzelwerte zusammengefasst werden, ist deshalb in dieser Situation immer mit Vorsicht zu interpretieren.

    Das Prinzip mit der gleitenden Spannweite (MR) lässt sich in anderen Situationen auch mit dem Mittelwert oder der Standardabweichung machen. Das ist das, was Du in Dietrich & Schulze unter dem Punkte „Shewart-Karte mit gleitenden Kennwerten“ findest. „Pseudo“-Stichproben klingt allerdings etwas danach, als würde hier getrickst werden. Dem ist nicht so, vielmehr sind die dort beschriebenen Methoden schon lange bekannt und werden u. a. in der Zeitreihenanalyse verwendet um Daten zu glätten.

    Die MA-Karte (Moving Average, gleitender Mittelwert) ist etwas empfindlicher bei kleinen Veränderungen im Mittelwert als die I-Karte. Größere Hüpfer werden bei der MA-Karte dafür stärker herausgefiltert und später entdeckt. Ein Nachteil der MA-Karte ist, dass sie jeden Wert gleich stark gewichtet. Besser sind hier zeitlich gewichtete Karten wie die EWMA- (Exponentially Weighted Moving Average) oder die CUSUM-Karte (CUmulative SUM).

    Die gleitende Standardabweichung hat nicht mal eine übliche Abkürzung, weil sie so selten verwendet wird. Bei dieser Karte wird die Standardabweichung durch Veränderungen oder Hüpfer im Mittelwert stark verzerrt. Dadurch wird die Interpretation sehr schwer und die Streuung im Prozess überschätzt. Aus diesen Gründen findest Du auch nur sehr wenig Informationen zu der Regelkarte mit der gleitenden Standardabweichung (s. a. Montgomery).

    Alle gleitenden Kennzahlen-Regelkarten fassen mehrere Einzelwerte zu 1 Punkt zusammen. Das beißt sich mit der Fähigkeitsbewertung, weil hier jeder einzelne Wert wichtig ist. Oder um es mit einem plakativen Beispiel zu sagen: Wenn Du einmal links und einmal rechts am Hasen vorbeischießt, ist der Hase im Mittel tot. In echt hüpft er fröhlich weiter über die Wiese.

    ######

    So, das solls jetzt erstmal gewesen sein. Ich hoffe, das hilft Dir ein bisschen mehr Licht ins Dunkel zu bringen, auch wenn Du vermutlich mit einer kürzeren Antwort gerechnet hattest ;)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    hans.damp
    Mitglied
    Beitragsanzahl: 7

    Hallo Babara,

    mit so einer Antwort hab ich in der Tat nicht gerechnet!

    Du hast mal eben meine ganzen Recherchen der letzten Wochen zusammengefasst und aus dem Ärmel geschüttelt :D

    ################################################
    Zu allgemeiner Ablauf einer Fähigkeitsbewertung:

    Den von Dir genannten Ablauf habe ich schon in etwas anderer Reihenfolge in Arbeit. Letzte Woche wurden gerade die Referenzteile vermessen, um die MSA nach Verfahren 1 und 2 durchzuführen. Wobei ich mir noch nicht ganz sicher bin wo ich die Grenzen der Betrachtung ziehe.

    So wie du die Praxis beschreibst sieht es leider auch bei mir aus! Ich habe ich es voraussichtlich tatsächlich mit einem zu unsicheren Messverfahren, mangelnder Stabilität und deutlichen systematischen Einflüssen zu tun.

    Mein Ansatz ist es, die systematischen Veränderungen des Prozesses nicht zu ignorieren, sondern die QRK-Regelgrenzen unter Berücksichtigung dieser zu errechnen (nicht auf Basis der inneren Stichprobestreuung sondern auf Basis der Prozessstreuung).
    Bei der Fähigkeitsbewertung werde ich die systematischen Veränderungen hingegen tatsächlich ignorieren, da der Einsatz eines statistischen Prozess-Modells vermutlich mein jetziges Können und ganz sicher die mir zur Verfügung stehende Zeit übersteigt und da die Belastbarkeit der Werte ohnehin durch die geringe Probenanzahl zu wünschen übrig lässt.

    ################################################
    Zu Verteilungsauswahl für Fähigkeitsbewertungen:

    Den Ansatz die Verteilung nach Merkmalsart festzulegen und dann Tests zu unterziehen habe ich auch gewählt.
    Evtl. werde ich die log. Normalverteilung noch gegen die Betragsverteilung 1.Art ersetzen. Die obige Messreihe ließ sich allerdings auch sehr gut mit der log. Normalverteilung beschreiben ohne die deutlich aufwändigere Methode der Betragsverteilung zu anzuwenden.
    Deinen Artikel kenne ich, ist schon seit einigen Wochen wichtiger Bestandteil meiner Unterlagen. Für die Berechnung von den Quantilsgrenzen werde ich dann auch auf die Näherungsformel aus der Volkswagenkonzernnorm 10130 zurückgreifen (wie schon an anderer Stelle im Forum diskutiert), um eine Rechnung mit dem Programm R zu umgehen. Deine Fehlerabschätzung zu der Gleichung habe ich auch schon entdeckt.

    ################################################
    Zu Ungenauigkeit von Fähigkeitswerten:

    Zu der Ungenauigkeit von Fähigkeitswerten und SPC allgemein werde ich mich auf folgende Dissertation beziehen. Hier gibt es einen recht guten Überblick:
    http://www.opus.ub.uni-erlangen.de/opus/volltexte/2012/3146/pdf/AdrianDietlmaierDissertation.pdf

    ################################################
    Zu Regelkarten:

    Die IX-MR-Karte habe ich vorerst aus dem Regelkartenwettrennen herausgeworfen. Grundlage hierfür war die Arbeit:

    „ASYMMETRICAL CONTROL LIMITS FOR INDIVIDUAL MEASUREMENT X
    AND MOVING RANGE (n = 2)mR CONTROL CHARTS von Michael Lee,

    aus der hervorgeht, dass der Einsatz dieser Karten nicht empfehlenswert ist und daher von diesen Karten abgeraten wird.

    Die MA-Karte ist in meiner engeren Auswahl gelandet, weil ich im Gegensatz zur IX Karte eine feinfühligere Karte bekomme, durch die Stichproben den zentralen Grenzwertsatz nutzen kann(was in jedem Einzelfall zu prüfen ist).
    Was mir an dieser Karte wiederum nicht gefällt, ist die glättende Eigenschaft, und das abgeschwächte detektieren der größeren Lageänderungen, da der betrachtete Prozess noch in einem Zustand ist, wo der Fokus auf kleine Lageänderungen verfrüht wäre.

    Eine Anwendung der EMWA- Karte habe ich aus diesem Grund auch erst einmal verworfen, da mir bisher nur EMWA x-quer Karten bekannt sind. Das würde in meinem Fall bedeuten, dass ich durch die glättende Eigenschaft der “Pseudo“-Stichproben in Kombination mit der EMWA-Karte das Erkennen großer Lageänderungen noch zusätzlich schwächen würde. In nächster Zeit werde ich mich mal auf die Suche nach Infos zu EMWA-Einzelwertkarten machen.
    Zu den EMWA x-quer Karten habe ich glücklicherweise eine Dissertation gefunden, die ausführlich einen Vergleich zu normalen x-quer-Karten mit und ohne den Einfluss von Messfehlern diskutiert.

    Es reicht zum Glück die QRK zu erstellen. Eine weitere Auswertung durch die WECO Rules überlasse ich dann gerne Anderen. Ich vermute ohne Erfahrung damit zu haben kommt eine Beurteilung nach diesen Regeln Kaffeesatzlesen gleich. Außerdem habe ich noch immer den Satz im Hinterkopf das der Roulettetisch kein Gedächtnis hat und es daher nicht ungewöhnlich ist, wenn einige Werte aufeinander folgen. Wahrscheinlich lässt sich das aber nicht 1zu1 auf diese Situation übertragen, da hier ja doch einige Möglichkeiten mehr bestehen als rot oder schwarz.

    Die Aussage, dass sich Regelkarten mit Kennzahlen mit der Fähigkeitsbewertung beißen teile ich nicht, da in meinen Augen die Aussagen von QRK und Fähigkeitskennzahlen völlig losgelöst voneinander betrachtet werden können. Man bekommt eine Aussage zur Stabilität und eine Aussage zur Fähigkeit.
    Der Fähigkeitsindex stellt sicher, dass der Hase getroffen wird und die QRK beurteilt den Treffer und stellt sicher, dass die Treffer nicht zu weit voneinander abweichen.

    Um die Merkmale überwachen zu können bei denen die Fähigkeit unzureichend ist, kommt nach meiner jetzigen Einschätzung eine Annahmeregelkarte in Frage, um einen Bezug zu den Toleranzgrenzen herzustellen. Die dann, wenn die Fähigkeit hergestellt wurde , in eine andere Regelkarte überführt werden kann.
    ################################################

    Ich bedanke mich auf jeden Fall erst einmal recht herzlich für die von Dir aufgebrachte Zeit und Arbeit vielleicht bin ich ja auch mal in der Lage Dir bei einer Frage weiterzuhelfen, wobei das bestimmt nicht so schnell vorkommen wird. :D

    Schönen Sonntag noch.

    Gruß Jan

Ansicht von 11 Beiträgen – 1 bis 11 (von insgesamt 11)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben