Prozessfähigkeit mit qs-STAT ja/nein?2012-08-09T14:59:43+01:00

QM-Forum Foren Qualitätsmanagement Prozessfähigkeit mit qs-STAT ja/nein?

Ansicht von 9 Beiträgen – 1 bis 9 (von insgesamt 9)
  • Autor
    Beiträge
  • Sebastian
    Mitglied
    Beitragsanzahl: 5

    Hallo zusammen,

    ich arbeite gerade an meiner Diplomarbeit bzgl. Prozessfähigkeitsberechnungen.
    Kurzum, es geht um die Notwendigkeit von qs-STAT gegenüber einer anderen Software X.
    z.Z. übergibt die Software X die Messwerte an qs-STAT. Könnte sie aber auch selber berechnen.

    Vorteile von qs-STAT:
    – automatische Bestimmung des Verteilungsmodells
    – Berechnung nach M1,6 Percentilmethode ISO 21747:2007
    – Mischverteilung, wobei ich in diesem Beitrag https://www.roxtra.com/qm-forum/forum/topic.asp?TOPIC_ID=5890&FORUM_ID=14&CAT_ID=1&Topic_Title=Quantile+Excel+2007+ungleich+qs%2DSTAT&Forum_Title=Qualit%E4tsmanagement+ISO+9001%3A2008
    gelesen habe, dass die Mischverteilung ja nicht das Allerheilmittel ist.

    Sehe ich das richtig, dass ist wichtiger oder besser ist, ein Verteilungsmodell aufgrund eines bestimmten Fertigungsprozesses zu erwarten und die Güte dann mit den gegebenen Stichproben zu überprüfen als umgekehrt?
    Macht eine automatische Bestimmung des Verteilungsmodells überhaupt Sinn?
    Und dann diese Mischverteilung, dient zur Beschreibung von Verteilungen welche zusammengesetzt sind aus verschiedenen Momentanverteilungen, oder wo kein bekanntes Modell gefunden werden kann. Kann mir jemand evtl. eine Literaturquelle nennen, die diese Mischverteilung genauer unter die Lupe nimmt und ob es überhaupt Sinn macht einen Prozess mit Hilfe der Mischverteilung hinsichtlich seiner Stabilität zu beurteilen?

    Vielen Dank

    Gruß

    Sebastian[url=http://[/url]]

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Sebastian,

    willkommen im Qualitäter-Forum :)

    Wie Du vermutlich schon in meinen anderen Beiträgen gelesen hast, finde ich die Prozessfähigkeitsbewertung über die Mischverteilung diskussionswürdig. Dasselbe gilt für die automatische Verteilungsauswahl.

    Zu Deinen Fragen:

    Sehe ich das richtig, dass ist wichtiger oder besser ist, ein Verteilungsmodell aufgrund eines bestimmten Fertigungsprozesses zu erwarten und die Güte dann mit den gegebenen Stichproben zu überprüfen als umgekehrt?

    Ja. Eine Software kann niemals wissen, um was für einen Fertigungsprozess es geht und deshalb auch keine Verteilung auswählen, die zu diesem speziellen Fertigungsprozess passt.

    Ich hab vor einigen Tagen mit einem Mitarbeiter eines großen deutschen Automobilherstellers gesprochen, der von seinem Lieferanten bei ähnlichen Messungen (Maße an verschiedenen Punkten eines Bauteils) eine Auswertung mit der automatischen Verteilungsauswahl vorgelegt bekommen hat. Die ausgewählten Verteilungen waren ein buntes Sammelsurium aus allen möglichen Verteilungen: Weibull, Lognormal und natürlich auch ein paar Mischverteilungen.

    Der gesunde Menschenverstand sagt dagegen, dass ähnliche Messaufgaben an gleichen Teilen auch zu einer ähnlichen Verteilung der Messdaten führen sollte (jedenfalls wenn es keine systematischen Einflüsse gibt und das Mess-System etwas taugt).

    Macht eine automatische Bestimmung des Verteilungsmodells überhaupt Sinn?

    Meiner Meinung nach: NEIN. Wenn Du noch weitere Meinungen von anderen Statistik-Fachmenschen lesen möchtest, wirf einen Blick in das englischsprachige elsmar-Forum: http://www.elsmar.com/forum und such z. B. nach Beiträgen von Miner, Bev_D und bobdoering.

    Und dann diese Mischverteilung, dient zur Beschreibung von Verteilungen welche zusammengesetzt sind aus verschiedenen Momentanverteilungen, oder wo kein bekanntes Modell gefunden werden kann.

    Lt. Dietrich & Schulze (s. [1]) gibt es zwei verschiedene Mischverteilungen. Die eine ist eine Kombination von Normalverteilungen mit gleicher Streuung und unterschiedlichen Mittelwerten in den Stichprobengruppen. Die ist eigentlich (nach DIN ISO 21747 [2] und ISO/TR 22514-2 [3]) nur für die Verteilungszeitmodelle B gedacht, soll sich aber laut Dietrich & Schulze für alles mögliche verwenden lassen (u. a. für erweiterte Eingriffsgrenzen bei Regelkarten – noch so ein diskussionswürdiges Konstrukt).

    Und dann gibt es in [1] noch die zweite Mischverteilung, bei der die Datenstruktur durch ein Polynom gefittet wird, das bis zum Grad 27 geht. (Warum gerade ein maximaler Grad 27 gewählt wurde erschließt sich mir nicht.)

    Angeblich sollen diese beiden Mischverteilungs-Funktionsarten alles mögliche abbilden können. Mathematisch sind diese Funktionen trotz des gleichen Namens in etwa so ähnlich wie ein Holzhammer und ein Bananenbrot.

    Tatsächlich habe ich mal versucht, die Berechnungen an Hand von Kundendaten nachzuvollziehen und bin auf etwas Bemerkenswertes gestoßen: Bei den Daten, die ich von Kunden nach Fähigkeitsberechnung mit qs-stat gegenprüfen sollte, konnte ich mit keiner der beiden Mischverteilungs-Funktionsvarianten die Fähigkeitswerte nachbilden. Die berechneten Ergebnisse lagen weit von denen entfernt, die im qs-stat-Bericht standen.

    Wird die Berechnung allerdings anstatt mit einer der Mischverteilungs-Varianten mit einer Kerndichteschätzung gemacht, waren die Ergebnisse erstaunlich ähnliche zu den qs-stat-Berechnungen. (Kerndichteschätzung ist eine nichtparametrische Glättungsfunktion, s. z. B. bei Wikipedia Kerndichteschätzer).

    Kerndichteschätzungen sind schick, weil damit jede beliebige Art von Kurve nachgebastelt werden kann. Die haben allerdings mathematisch überhaupt keine Ähnlichkeit mit den beiden oben genannten Mischverteilungen. Hm.

    Also entweder bin ich blöd (das schließe ICH aus) oder ich hab mich verrechnet (sehr unwahrscheinlich, da mit verschiedenen Datensätzen getestet und immer dasselbe Ergebnis gesehen) oder da passiert doch etwas anderen bei der Berechnung in qs-stat (kann ich nicht beurteilen, weil ich den Code und die Funktionen nicht kenne).

    Außerdem kann so eine Kurvenanpassung maximal für die bereits vorhandenen Werte funktionieren, aber niemals gültig für die nächsten Tage, Wochen oder Monate sein. Egal was auch immer für eine Funktion verwendet wird, um Prozessdaten zu modellieren, wenn der Prozess nicht unter Kontrolle ist, zeigen die Werte maximal die aktuelle Qualitätslage. Eine zuverlässige Vorhersage bzw. belastbare zukünftige Prozess-Absicherung ist nur bei stabilen bzw. vorhersagbaren Prozess-Ergebnissen machbar.

    Kann mir jemand evtl. eine Literaturquelle nennen, die diese Mischverteilung genauer unter die Lupe nimmt und ob es überhaupt Sinn macht einen Prozess mit Hilfe der Mischverteilung hinsichtlich seiner Stabilität zu beurteilen?

    Die zwei oben beschriebenen Mischverteilungen von qs-stat findest Du in [1]. Eine grobe Skizzierung kannst Du auch in der DIN ISO 21747 ([2]) bei M2 und M3 finden, wobei dort weder von Mischverteilungen gesprochen wird noch verraten wird, wie so etwas konkret gerechnet werden soll. Eine Literaturquelle, in der die qs-stat-Mischverteilungen beschrieben werden und die nicht aus dem Hause Q-Das stammt (Dietrich ist und Schulze war Geschäftsführer von Q-Das) oder direkt von denen abgeschrieben worden ist, ist mir nicht bekannt.

    Abgesehen davon ist die ISO 21747 (englisch) schon vor einiger Zeit von der ISO zurückgezogen und durch die ISO 22514-2 ersetzt worden ([3]). Die DIN ISO 21747 (deutsche Variante) ist noch gültig.

    In der ISO/TR 22514-2 (time-dependent process / zeitabhängiger Prozess) finden sich die Verteilungszeitmodelle wieder, sogar inklusive qs-stat-Abbildungen. Die entscheidenden Unterschiede zur DIN ISO 21747 (deutsch) sind, dass dort bei allen Verteilungszeitmodellen bei B, C1, C2, C3, C4 und D steht:
    This process is not under statistical control.

    Das Verteilungszeitmodell A1 ist schlicht eine Normalverteilung (als Momentan- und Gesamtverteilung) und das Verteilungszeitmodell A2 ist eine andere feste Verteilung. Sowohl A1 als auch A2 sind unabhängig von der Zeit.

    Bei der Definition von Prozessfähigkeits-Indizes wird in ISO/TR 22514-2 darauf hingewiesen, dass eine Fähigkeit (Cp, Cpk) nur dann berechnet werden kann, wenn der Prozess nachgewiesenermaßen unter statistischer Kontrolle ist. Ohne diesen Nachweis darf laut ISO/TR 22514-2 nur das Prozesspotential (Pp, Ppk) verwendet werden.

    Die Berechnung eines Prozesspotentials (Prozess ist nicht unter statistischer Kontrolle) zur Bewertung der Prozessqualität ist allerdings sehr umstritten. Das große Ziel, die aktuelle UND zukünftige Qualitätsfähigkeit eines Prozesses zu bewerten, kann imho nur dann zuverlässig erfolgen, wenn der Prozess beherrscht / unter statistischer Kontrolle ist.

    Mal zurück zu Deiner Ausgangsfrage, ob es sinnvoll ist, qs-stat als „Rechenknecht“ einzusetzen. Die wie immer allgemein gültige Antwort lautet: Es kommt darauf an. Wenn es Dir nur darum geht, nach einer scheinbar klaren Vorgabe (deutsche Norm) irgendwelche Kennzahlen berechnen zu lassen, ist das mit qs-stat ziemlich einfach. Wenn Du zuverlässige Prozessfähigkeits-Kennzahlen willst, die Dir belastbare Aussagen zur Qualität Eurer Prozesse liefern, ist das vermutlich mit Software X einfacher.

    Ich hoffe, das hilft Dir bei der Entscheidung ein Stück weiter.

    Viele Grüße

    Barbara

    [1] Dietrich, Edgar; Schulze, Alfred [2009]: Statistische Verfahren zur Maschinen- und Prozessqualifikation. Hanser Fachbuch, 6. Auflage, ISBN 978-3446415256
    [2] DIN ISO 21747:2007-03, Titel (deutsch): Statistische Verfahren – Prozessleistungs- und Prozessfähigkeitskenngrößen für kontinuierliche Qualitätsmerkmale (ISO 21747:2006; Text Deutsch, Englisch, Eintrag im Beuth-Katalog) [Achtung: Die englische Fassung ist zurückgezogen und durch [3] ersetzt worden, s. Eintrag im ISO-Katalog!]
    [3] ISO 22514-1:2009
    Statistical methods in process management — Capability and performance, Eintrag im ISO-Katalog
    (Teil 1-4, zeitabhängige Verteilungen: Teil 2 / Entwurfdes Technical Reports)

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Sebastian
    Mitglied
    Beitragsanzahl: 5

    Hallo Barbara,

    erst mal vielen Dank für die ausführliche Beantwortung meiner Fragen. Ich hatte mit solchen Antworten schon gerechnet. Da muss ich meine Arbeit wohl anders strukturieren. Wäre ja auch zu einfach zu sagen: qs-STAT sei eine Eierlegende Wollmilchsau.
    Kannst du mir vielleicht ein Programm nennen mit dem man vergleichende Berechnungen durchführen kann. R hatte ich mir schon mal angeguckt ist aber für den Quereinstieg etwas ungeeignet, oder?

    Schöne Grüße

    Sebastian

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Sebastian,

    immer gerne. Was verstehst Du denn unter „vergleichende Berechnungen“? Und warum hälst Du R hier für ungeeignet? Hast Du Zugriff auf irgend eine Statistik-Software?

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Sebastian
    Mitglied
    Beitragsanzahl: 5

    Hallo Barbara,

    ich meinte mit ungeeignet nur im Sinne von „zu schwer die Software zu verstehen“. Jedenfalls war das mein erster Eindruck, aber ich irre mich vielleicht.

    Mit vergleichende Berechnungen meinte ich:
    Ich wollte die Fähigkeitskennwerte in einer anderen Software als qs-STAT berechnen.

    Du hattest geschrieben, dass du anhand von Kundendaten Berechnungen durchgeführt hast. Wie bist du in dem Fall vorgegangen.

    Andere Software als qs-STAT habe ich MathCad und Maple ggf. auch SPSS zur Verfügung.

    Beste Grüße

    Sebastian

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Sebastian,

    ich nehm gerne R, wenn es um komplexere Berechnungen geht. Ja, R ist ein bisschen gewöhnungsbedürftig, das stimmt. Meist ist der Anfang holprig, weil Du immer den korrekten Funktionsnamen brauchst und ggf. die richtigen Parameter.

    Wenn Du z. B. Daten aus der Zwischenablage in R verwenden willst, kannst Du mit dem Befehl
    dat = read.delim(„clipboard“, dec=“,“)
    einen Container namens „dat“ erstellen, in den der Inhalt der Zwischenablage („clipboard“) kopiert wird. Zusätzlich wird der Kommastellen-Trenner „dec“ auf „,“ umgestellt (standardmäßig ist der . das Trennzeichen in R).

    Um Dir einen Überblick zu verschaffen, was Du eigentlich im Datencontainer „dat“ hast, helfen
    summary(dat)
    dim(dat)
    head(dat)

    summary liefert diverse Kenngrößen: Minimum, Maximum, Median, Mittelwert sowie 25%- und 75%-Quantil bei variablen Merkmalen und eine Auszählung der Gruppen/unterschiedlichen Werte bei attributiven Größen. Zusätzlich wird in einer weiteren Zeile „NA“ angegeben, wie viele fehlende Werte in einer Spalte stehen. („NA“ wird nur angezeigt, wenn es fehlende Werte gibt.)

    dim liefert die Anzahl Zeilen und Anzahl Spalten von „dat“, z. B. 80 1 für 80 Zeilen in 1 Spalte.

    head zeigt Dir die ersten sechs Zeilen an.

    Wenn Du jetzt in Deinen Daten eine Spalte mit Namen „Y“ hast und dafür den Mittelwert und die Standardabweichung berechnen willst, nimmst Du
    mean(dat$Y)
    sd(dat$Y)

    Hilfreich ist ein netter Editor für das Code-Geschreibsel. Mittlerweile gibt es auch spezielle, die direkt mit R kommunizieren (z. B. Tinn-R und R-Studio). Ich mach das mit Notepad++ und kopier die entsprechenden Code-Schnippsel in R.

    Als Einstieg in die Validierung würd ich eher ein kommerzielles Produkt wie Minitab nehmen, weil das einfacher zu erlernen ist, die üblichen industriellen Standards (englischen) berücksichtigt und Dir direkt einen ganzen Haufen von Ergebnissen mit wenigen Klicks liefert. Und es gibt ja eine kostenfreie 30-Tage-Version, die eventuell für den Validierungszeitraum schon ausreicht.

    Lass es uns/mich bitte wissen, wie Du Dich entschieden hast!

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Sebastian
    Mitglied
    Beitragsanzahl: 5

    Hallo Barbara

    Ich habe mir mal beide Programme angeguckt. Bei R fand ich die Kombination von R-Studio und Notepad++ am besten. Dank deines Beispielcodes war der Einstieg relativ schnell. Ich hab mir dann folgendes Konstrukt gebaut.

    dat = read.delim(„clipboard“,dec=“,“)
    library(msm)
    q99865=qnorm(0.99865,mean(dat$A1),sd(dat$A1),0)
    q135=qnorm(0.00135,mean(dat$A1),sd(dat$A1),0)
    OSG = 130.25
    USG = 129.9
    s3L = abs(mean(dat$A1)-q135)
    s3U = abs(q99865 – mean(dat$A1))
    s6 = abs(q99865 – q135)
    Cp=(OSG-USG)/s6
    Cpk=min((OSG-mean(dat$A1))/s3L,(mean(dat$A1)-USG)/s3L)

    Minitab liefert natürlich direkt die Ergebnisse aber in R lässt sich alles manuell machen, was mir glaube ich besser gefällt.

    Schöne Grüße

    Sebastian

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Sebastian,

    freut mich, dass es klappt :)

    Dein Code sieht soweit ganz gut aus, nur hab ich die „0“ bei qnorm nicht verstanden und auch nicht, warum Du das package msm eingebunden hast.

    msm bräuchtest Du nur, wenn Du z. B. die Betragsverteilung 1. Art verwenden wollen würdest. Dann wären die Formeln aber nicht einfach mit Mittelwert und Standardabweichung aus den Daten berechnet zu machen und die Funktion für die Quantile würde qtnorm anstelle von qnorm heißen. („mean“ und „standard deviation“ sind Mittelwert und Standardabweichung der Verteilung, bevor sie gestutzt wurde, die müssen erst anderes bestimmt werden.)

    Für den einfach Fall von normalverteilten Messdaten brauchst Du gar kein Zusatzpaket, das kann R direkt. Und die „0“ am Ende von der qnorm(…,0) kannst Du einfach weglassen (stört nicht, bringt aber auch nix).

    Die Absolutwert-Funktion mit „abs“ kann auch weg, weil per Definition der Mittelwert der Normalverteilung immer größer als das untere 0,135%-Quantil und kleiner als das obere 99,865%-Quantil:
    0,135%-Quantil < xquer < 99,865%-Quantil
    (Das mit der abs-Funktion ist so wie mit der 0 bei qnorm: Nutzt nix, schadet aber auch nicht.)

    Falls Du Dir eine eigene Cp- oder Cpk-Funktion definieren willst, geht das auch ganz einfach, z. B. bei normalverteilten Werten so:

    Cp.fun = function(daten,USG,OSG) (OSG-USG) / (qnorm(0.998655,mean(daten),sd(daten))-qnorm(0.00135,mean(daten),sd(daten)))

    Cpk.fun = function(daten,USG,OSG) min( (qnorm(0.5,mean(daten),sd(daten))-USG) / (qnorm(0.5,mean(daten),sd(daten))-qnorm(0.00135,mean(daten),sd(daten))) , (OSG-qnorm(0.5,mean(daten),sd(daten))) / (qnorm(0.99865,mean(daten),sd(daten))-qnorm(0.5,mean(daten),sd(daten))) )

    Funktionsnamen sind frei wählbar und sollten nur andere sein als die R-Funktionsnamen. Wenn Du jetzt eine Cp-/Cpk-Berechnung machen willst, brauchst Du einfach nur

    Cp.fun(daten$A1,12,20)
    Cpk.fun(daten$A1,12,20)

    einzutippen (mit USG=12 und OSG=20) und bekommst für die erste Spalte die Ergebnisse. Bei 1 Auswertung lohnt sich der Aufwand nicht, bei mehr als 1 Auswertung schon. Die definierten Funktionen sind solange in R nutzbar wie Du es offen hast. Beim nächsten Start müssen die zwei Zeilen Cp.fun und Cpk.fun nochmal in R laufen und dann sind sie wieder nutzbar.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    geändert von – Barbara on 15/08/2012 18:41:40

    Sebastian
    Mitglied
    Beitragsanzahl: 5

    Hallo Barbara,

    ich würde gerne noch mal von deinem Wissen profitieren.

    Man wählt das Verteilungsmodell auf Grundlage des Fertigungsprozesses und erwartet bei einer Länge normalverteilte Werte (A1,C1) oder bei einer Rauigkeit log. normaltverteilte Werte (A2).
    Aber bei Werten die so aussehen wie z.B. beim Modell C4?
    Laut DIN 21747 entsteht C4 durch verschiedene Chargenwechsel oder Werkzeugwechsel. Wie würde man in solchen Fällen verfahren?

    Wie du schon sagtest B bis D sind ja laut DIN, Prozesse die nicht beherrscht sind. Zumindest steht bei der DIN nur bei A1 und A2 „der Prozess ist beherrscht“. Die ISO 22514-2 schreibt ja, wie du schon geschrieben hast, dass der Prozess nicht unter statistischer Kontrolle sei. Aber was macht man dann in solchen Fällen. Jedenfalls wenn man es richtig machen will und nicht einfach nur Kennzahlen ausrechnen will, die aus eine Mischverteilung stammen.

    Gibt es irgend eine Literatur die bestimmte Verteilungsmodelle, Fertigungsprozessen zuordnet?

    Schon mal vielen Dank!

    Beste Grüße

    Sebastian

Ansicht von 9 Beiträgen – 1 bis 9 (von insgesamt 9)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben