cp/cpk bei nullbegrenzten Merkmalen2005-11-04T22:02:52+01:00

QM-Forum Foren Qualitätsmanagement cp/cpk bei nullbegrenzten Merkmalen

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 23)
  • Autor
    Beiträge
  • X-Tilde
    Mitglied
    Beitragsanzahl: 7

    Für Normalverteilung lauten die Formeln

    cp = Gesamttoleranz/6s
    cpk = ((Gesamttoleranz/2)-abs(xq))/3s

    Wie sind eigentlich die Formeln für cp/cpk bei nullbegrenzten Merkmalen (z.B. Rundheit)?

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo X-tilde (netter Nick ;-)

    die Fähigkeitsformeln gelten immer nur und ausschließlich für normalverteilte Werte. Für andere Verteilungen gibt es keine Formeln.

    Ausweg bei nicht-normalverteilte Werte:

    Möglichkeit 1: Lass den PFI weg und berechne über Quantile, wie viele ppms Du (voraussichtlich) hast

    Möglichkeit 2: Wenn Du weißt, warum die Werte nicht normalverteilt sind (und nur dann, aber das ist ja bei Rundheiten gegeben) und Du die Verteilung der Werte bestimmen kannst (Rundheiten: Rayleigh, auch Betragsverteilung 2. Art genannt), kannst Du die Werte in normalverteilte Werte transformieren und dafür dann die bekannten Formeln anwenden. Die Transformationen sind allerdings schäbbich, deshalb würde ich Möglichkeit 1 wählen.

    Viele Grüße

    Barbara

    ~~~~~~~~~~~~~~~
    Das Leben ist zu kurz, um es mit Suchen zu verbringen.

    Slanthe
    Mitglied
    Beitragsanzahl: 15

    Hallo X-Tilde,

    vorweg: nach Deinem Namen zu Urteilen, brauchst Du Methode 4 Variante 2 ;-) (siehe unten …)

    Schau Dir mal DIN 55319 an, bzw ISO/DIS 21747. Dort stehen alle Formeln drin. Die Anwendung der Formeln orientiert sich aber nicht an der Frage „Nullbegrenzt?“ sondern „Welches Verteilungszeitmodell liegt vor?“.

    Aus der DIN/ISO ergibt sich, dass die von Dir genannte „Schulungsformel“ in der Praxis kaum genutzt werden kann. Dieses Verteilungszeitmodell A1 (Auf Immer Und Ewig Normalverteilt), bei der diese Fomel uneingeschränkt gilt, gibt es nur in der Vorstellung der Bücherschreiber und Trainer, die was „zum Selberrechnen“ anbieten wollen. Manche führen an, der Fehler bei Anwendung der NV sein oft nicht so groß, aber woher weiß ich es, wenn ich nicht nachgeguckt habe? Ein heißes Eisen also!

    Die einzige sinnvolle Berechnungsmethode nach DIN/ISO ist die Percentilmethode M4. Die ist für alle Verteilungs(zeit)modelle anwendbar ist und ergibt bei (zufälliger) Normalverteilung identische Werte wie Deine Formel.

    Diese Methode M4 heißt nach ISO und Bosch auch Quantilmethode und hat zwei Untervarianten. Die eine geht von dem Mittelwert aus, die andere vom 50%-Quantil oder auch Median „X-Tilde“, weshalb ich denke, dass das wohl Deine bevorzugte Methode sein könnte … ;-)

    Diese Methode M4 ist übrigens auch die, die in der gesamten Automotive-Industrie als Standard gefodert wird. Der Knackpunkt auch bei der DIN/ISO ist leider die Bestimmung der Verteilung um daraus die Quantile abzuleiten. Aber da wirst Du nicht dran vorbeikommen.

    Solltest Du ppm angeben, dann achte bitte darauf, dass Du das nur bei 100%-Prüfung machen kannst. Sobald Du Statistik anwendest und die ppm aus den Stichproben heraus berechnest, musst Du eine Verteilung voraussetzen! Wenn Du Quantile berechnest, dann sind das auch nur Quantile einer von Dir vorausgesetzten Verteilung. Rechnest Du mit x-quer und s, dann setzt Du Normalverteilung voraus. Hast Du keine NV, dann ist das Ergebnis ebenso Unsinn wie wenn Du die von Dir genannte Formel nutzt.

    Dann nimmt doch lieber gleich die DIN.

    Gruß Slanthe

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Slanthe,

    ich bin ja auch eine Freundin der pragmatischen Ansätze, aber wenn es darum geht, einen Prozess durch EINE Kennzahl zu beschreiben, dann braucht es dafür schon etwas mehr als nur ein paar Quantile aus irgend einer Verteilung (und die am besten noch bestimmt von einer Software, die dafür den KS-Test verwendet hat…)

    Das Jessenberger-Buch hab ich schon ein paar Mal zitiert. Das ist m. W. das einzige, worin geprüft wird, was bei Abweichungen von der NV mit den Fähigkeitsindizes passiert: Je stärker die Abweichung, desto schlechter die Charakterisierung durch die Indizes.

    Übrigens: Quantile kann man sowohl aus Stichproben berechnen (empirische Quantile) und als auch aus Verteilungen.

    Warum die NV-Annahme nicht nur theoretisch sinnvoll ist:

    Nehmen wir ein „normales“ Merkmal (also eins wie Länge, Gewicht, etc.) aus einem Prozess. Wenn der Prozess stabil ist (Vor. für die Berechnung von Fähigkeiten), dann pendelt sich das Merkmal auf einen gewissen Wert ein (Prozess-Lage). Es schw*ankt natürlich ein bisschen nach links und rechts, denn in jedem Prozess gibt es Streuung. In dieser Situation entstehen automatisch normalverteilte Werte.

    Im Normalfall ist der Prozess so (hoffentlich) ungefähr stabil und die Werte eben nicht mehr so ganz normalverteilt. Wenn die Abweichungen von der Normalverteilung klein sind, kann ich sie immer noch direkt einsetzen.

    Wenn es allerdings größere Abweichungen von der Normalverteilung gibt, dann gibt es dafür einen Grund bzw. einen systematischen Einfluss. Wenn ich den Effekt zwischen diesem Einfluss (oder auch mehreren Einflüssen) auf das Merkmal nicht messbar habe, wie kann ich dann eine gute Vorhersage für mein Prozess-Ergebnis machen? Wie kann ich mir dann sicher sein, wenn ich das Prozess-Ergebnis vorhersage? Wie kann ich davon ausgehen, dass mein Prozess stabil ist und es auch in Zukunft bleibt?

    Der Effekt muss also erst quantifiziert werden (Stichwort: Statistische Modellierung). Wenn ich dann ein gutes Modell habe (normalverteilte, kleine Residuen und hohe Anpassungsgüte), dann kann ich basierend auf der Normalverteilung ausrechnen, wie fähig mein Prozess ist.

    Was ein Modell außerdem liefert:
    *Vorhersagen für das Prozess-Ergebnis und Angaben zur Genauigkeit der Vorhersagen
    *Informationen dazu, ob wichtige Einflussgrößen bisher unberücksichtigt geblieben sind
    *Unterscheidung zwischen wichtigen und unwichtigen Einflussgrößen
    *Berechnung des Effekts der wichtigen Einflussgrößen
    *Optimale Einstellungen der Einflussgrößen, so dass das Prozess-Ergebnis optimal wird (unwichtige werden kostengünstig eingestellt, wichtige so, dass das Prozess-Ergebnis optimal wird)

    Unterm Strich kann man mit einem guten Modell ziemlich viel vorhersagen und bestimmen. Wer etwas mehr über Modelle und Anwendungen wissen möchte: Schaut einfach Montags um 21:10 Uhr Numb3rs auf Pro7.

    Viele Grüße

    Barbara

    ~~~~~~~~~~~~~~~
    Das Leben ist zu kurz, um es mit Suchen zu verbringen.

    Slanthe
    Mitglied
    Beitragsanzahl: 15

    Hi Barbara, Hi X-Tilde

    mein „pragmatischer Ansatz“ ist das, was in unserer Branche (Umfeld Automotive) täglich tausendfach berechnet wird. Wir berechnen übrigens zwei ;-) Fähigkeitkennwerte und wollen damit ja nicht den Process umfassend characterisieren. Das ist nicht das Ziel.

    Es gibt viele Firmen-Richtlinien dazu und die DIN 55319/ISO 21747, warum also nicht anwenden? Und alle schlagen die Percentilmethode vor.

    Zu den Quantilen hast Du Recht. Natürlich geht das mit Stichproben, hatte ich ja geschrieben, aber dabei muss man für die in den Stichproben nun mal nicht gemessenen Werte (Verteilungs-)Annahmen machen. Sind die falsch, dann passt der ppm-Kennwert zum Prozess wie Nachbars Katze zu meinem Hund.

    Also muss ich auch bei Deiner „Möglichkeit 1“ die Verteilung prüfen. Warum dann nicht gleich nach DIN 55319 rechnen und statt ppm die Cp/Cpk-Kennwerte angeben? Mit den ppm macht man da nichts besser.

    Auch im Punkt systematischer Störungen stimme ich Dir zu. Systematische Störungen bringen den Prozess meist weg von der NV. Nullbegrenzungen z. B. sind systematische Störungen, weil der Prozess nicht über die Grenzen hinaus streuen kann. Also wird er wahrscheinlich schief. Daher mein Tipp an X-Tilde: Auf schiefe Verteilung prüfen, korrektes Verteilungsmodell anwenden und nach Percentilmethode (siehe DIN 55319) rechnen.

    By the way: Siehe Task „Verz. d. Abk.“ – Was verstehst Du unter „KS-Test“?

    Gruß Slanthe

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Slanthe,

    nur weil es in einer DIN-Norm steht, heißt das (leider) nicht, dass es auch aus statistischer Sicht sinnvoll ist.

    KS steht für Kolmogorov-Smirnov (gerne auch mit ff geschrieben), ist ein Test der die empirische Häufigkeitsverteilung mit der theoretischen Normalverteilung vergleicht und der ist schlecht (s. auch http://www.quality-management.com/forum/
    topic.asp?TOPIC_ID=1618&FORUM_ID=14&CAT_ID=1&Topic_Title=Normalverteilung+%2D+Anzahl+Klassen&Forum_Title=Qualit%E4tsmanagement+ISO+9001%3A2000 )

    Viele Grüße

    Barbara

    ~~~~~~~~~~~~~~~
    Das Leben ist zu kurz, um es mit Suchen zu verbringen.

    X-Tilde
    Mitglied
    Beitragsanzahl: 7

    Vielen Dank für die zahlreichen und ausführlichen Antworten. Nun bin ich aber trotz des hübschen Nicks nicht der große Statistiker, sondern eher der Praktiker, „der die guten cpk-Werte liefern soll“. Manches habe ich nicht verstanden bzw. nicht parat, aber ich habe soviel verstanden, daß es für nullbegrenzte Merkmale keine vergleichbare „einfache“ Formel gibt.

    Wir haben glücklicherweise fast nur normalverteilte Merkmale, Ausnahmen sind eigentlich nur die nullbegrenzten. Diese können unter Umständen auch normalverteilt sein, nämlich dann, wenn die Maße weit entfernt vom Nullpunkt liegen, aber das kommt bei uns nicht vor.

    Ich hatte gehofft, daß man durch eine „einfache“ Formel wenigstens einen Annäherungswert an das tatsächliche Ergebnis erreichen könnte. Aber ich sehe, daß ich die Berechnungen weiterhin qs-Stat überlassen muß.

    X-Tilde

    Anmerkung: Mit Firefox und Opera wird dieses Forum nicht korrekt dargestellt. Grafiken verdecken den Text.

    IsoMan
    Mitglied
    Beitragsanzahl: 421

    Hallo Statistik-Diskutanten,

    Null begrenzte Merkmale sind gar nicht mal so seltene Sonderfälle! Schaut zur chem. Industrie, da findet ihr bei Verunreinigungen (Spuren) immer einseitig (Null) begrenzte Merkmale ebenso, wie bei den Wirkstoffen den einseitig (nach oben =100%) begrenzten Wert.
    Wir berechnen die Prozesslagen in der Weise, wie es Barbara beschrieben hat und bekommen dabei recht praktikable = für die Prozessentscheidung/-bewertung gut anwendbare Werte.

    Keep on fighting!

    Fritz
    Mitglied
    Beitragsanzahl: 66

    Hallo X-Tilde
    diese berechtigte Frage stellen sich immer wieder Leute und das ist gut so, denn in diesem Bereich hat die Statistik sehr oft die Funktion eines Feigenblattes, mit dem man Blösen zu verdecken sucht.
    Hier ein pragmatischer Lösungsansatz.
    In der Zeitschrift Quality Progress (Sept. 1989) S. 95-100 veröffentlichte John Clements einen Aufsatz mit dem Titel :
    >Process Capability for Non-Normal Distributions<
    Er beschreibt schiefe Verteilungsformen mit der standardisierten Pearson – Verteilungsfamilie. Dadurch wird es möglich, mittels Mittelwert, Standardabweichung und den Formkenngrößen Schiefe und Wölbung die bisher so oft erwähnten Quantile zu berechnen. Schiefe und Wölbung werden dazu verwendet, um aus (im Aufsatz abgedruckte) Tabellen Multiplikatoren für die Standardabweichung zu bestimmen. Hier muß etwas aufgepaßt werden, denn in diesem Artikel wird davon ausgegangen, dass die Normalverteilung die kurtosis = 0 besitzt, ich aber auch Programme kennen, die für die Normalverteilung eine Wölbung von 3 ausgeben. Also zuerst mit einem Referenzdatensatz testen.
    Ein abgedrucktes Anwendungsbeispiel sollte die letzten Fragen klären.
    Mit dieser Methode kannst Du jedenfalls Kennwerte bestimmen, die es mit anderen Vorkennensweisen zu vergleichen gilt. Über die Güte dieser Methode wissen vielleicht die Spezialisten in diesem Forum Bescheid.
    Eine Kopie des Aufsatzes findest Du in Deinem Postfach.
    Gruß von der schönen blauen Donau
    Fritz

    Für Normalverteilung lauten die Formeln

    cp = Gesamttoleranz/6s
    cpk = ((Gesamttoleranz/2)-abs(xq))/3s

    Wie sind eigentlich die Formeln für cp/cpk bei nullbegrenzten Merkmalen (z.B. Rundheit)?

    Slanthe
    Mitglied
    Beitragsanzahl: 15

    Hi X-Tilde,
    Hallo Fritz,

    um meinen Standpunkt noch mal geradezuziehen folgende Punkte:

    Ich beziehe mich auf Richtlinien von Ford, DaimlerChrysler, GM/Opel, BMW, Fiat, Bosch, Audi, VW und deren Zulieferer sowie auf VDA Band 4 Kapitel 7 (2005) und die Normen DIN 55319/ISO 21747.

    Deine Formel wird verallgemeinert in der Percentilmethode/Quantilmethode und so geschrieben :

    Cp=T/(Qoben-Qunten)
    dabei schließen Qoben und Qunten den 99,73%-Streubereich ein. Das entspricht bei einer Normalverteilung (und nur dort!) +3s und -3s und somit den beliebten 6s

    Cpk ist der kleinere Wert von
    a) (OSG-xquer)/(Qoben-xquer)
    b) (xquer-USG)/(xquer-Qunten)

    Diese Formeln gelten immer, bei jeder Verteilung.

    Bei einseitig natürlich begrenzten Merkmalen entfällt beim Cpk die Formel, die sich auf die Nullgrene bezieht!!!! (War das das Problem?)
    D. h. natürlich nullbegrenzt wird Cpk nur nach OSG (Formel a) berechnet.
    Cp wird bei einseitig begrenzten Merkmalen maximal informativ angegeben, aber nicht bewertet.

    Diese „einfache Formel“ wird deshalb komplex, weil Du Qoben und Qunten ohne Sortwareunterstützung nur schwer berechnen kannst.

    Noch eine kleine Faustregel: Wenn in der Formel ein s auftaucht, dann gilt das nur bei Normalverteilung!

    Gruß Slanthe

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo zusammen,

    natürlich *gelten* die Formeln immer, egal welche Verteilung vorliegt. Nur: Wenn es keine Normalverteilung ist, dann kannst Du die berechneten Indizes eben auch nicht wie Fähigkeitsindizes aus einer Normalverteilung *interpretieren*.

    Zur Schiefe (Skewness) und Wölbung (Kurtosis) (Bei Normalverteilung ist die Schiefe=0 und die Wölbung=3):
    Auch wenn sie immer wieder gerne für alles mögliche verwendet werden, kann die Interpretation über Schiefe und Wölbung wackelig sein.

    Es gibt schiefe Verteilungen, die eine Schiefe=0 haben. Es gibt Verteilungen mit gleicher Wölbung, die unterschiedlich aussehen. Es gibt genauso Verteilungen mit einer Wölbung von 3 (wie die Normalverteilung), die anders gewölbt sind als die Normalverteilung. (Das ist übrigens auch der Grund, warum ich keinen Statistiker kenne, der mit diesen Kennzahlen arbeitet.)

    Die Interpretation des Cpk basiert genauso wie die des Cp auf der Normalverteilungsannahme. Wenn der Sollwert=Prozess-Lage ist, dann ist auch Cp=Cpk.

    Natürlich kann man aus empirischen Quantilen alles mögliche berechnen, nur wenn es darum geht, einen Prozess zu charakterisieren, dann kommt es eben *nicht* auf die Berechnung von irgendwelchen Kennzahlen an, sondern auf die Interpretation. Und ohne eine Verteilung festlegen zu können, kann ich auch nur wenig über ihre Eigenschaften sagen.

    Und bis jetzt habe ich auch nicht so ganz verstanden, warum ich meinen gesunden Menschenverstand ausschalten soll, um irgend eine wilde Verteilung zu finden, von der mir eine Software sagt, sie wäre genau die richtige Verteilung.

    Bei nullbegrenzten Merkmalen sagt mir der gesunde Menschenverstand, dass ich – wenn keine weiteren systematischen Einflüsse vorhanden sind – von einer gestutzten Normalverteilung (Betragsverteilung) ausgehen sollte und wenn ich die nicht finde, dann brauche ich erst einmal Hintergrundinfos über den Prozess / die Messung, denn dann gibt es weitere wichtige Einflüsse.

    Viele Grüße

    Barbara

    ~~~~~~~~~~~~~~~
    Das Leben ist zu kurz, um es mit Suchen zu verbringen.

    qualyman
    Teilnehmer
    Beitragsanzahl: 2072

    Seid gegrüßt Ihr Sadisten, besondere Grüße an Babara ;-),

    hatte mal bei einem Lieferantenaudit eine P-Fähigkeit vorgelegt bekommen, die für ein Merkmal max 125,0 mm erstellt wurde. War im Moment ganz von den Socken und bin auch nicht weiters darauf eingegangen.
    Frage mich immer noch, wie so etwas gehen soll?
    Oder bin ich da sadistisch etwas zurückgeblieben oder unterentwickelt?

    Gute Zeit!

    Qualyman – Qualitäter aus Überzeugung !

    geändert von – qualyman on 12/11/2005 17:51:48

    geändert von – qualyman on 12/11/2005 17:52:25

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo qualyman,

    125 ist ziemlich viel, heißt aber nix anderes, als dass (beim Cp) die Toleranz 750 Mal breiter als die Standardabweichung des Prozesses ist.

    Wenn Du also eine Toleranz von 750 mm vorgegeben hast (wobei ich mir jetzt gerade nix vorstellen kann, dass im Automotive-Bereich so hoch toleriert wird), dann hat der Prozess eine Standardabweichung von 1 mm.

    Ich würd 125 erstmal bezweifeln, weil es gerade im Automotive eher umgekehrt ist: Kunde will Fähigkeit von 1,67, Prozess liefert aber nur direkt 1,24. Aber da wir ja alle schon Pferde vor der Apotheke…

    Wahrscheinlicher finde ich an der Stelle ein vergessenes Komma: Statt 125 eine 1,25 ;-)

    Viele Grüße

    Barbara

    ~~~~~~~~~~~~~~~
    Das Leben ist zu kurz, um es mit Suchen zu verbringen.

    Slanthe
    Mitglied
    Beitragsanzahl: 15

    ?????????????????????????????

    Hallo X-Tilde,

    ist Deine Frage beantwortet?

    Slanthe

    ?????????????????????????????

    Vieleicht ist die Erde ja doch eine Scheibe … ;-)

    Fritz
    Mitglied
    Beitragsanzahl: 66

    Hallo X-Tilde
    allen kritischen Beiträgen zum Trotz, hast Du die Methode von Clements auf einen Deiner Datensätzen angewendet und werden diese Kennwerte vom gesunden Menschenverstand bestätigt?
    Würde mich interessieren, wie Du diese Methode beurteilst.

    Hallo Barbara
    wir sind uns bei unterschiedlichen Fragestellungen in unterschiedlichen Foren schon begegnet. Ich schätze Deinen Sachverstand und bin mir sicher, dass ich noch vieles lernen kann. Darum muss ich an dieser Stelle Deine Aussagen etwas hinterfragen:
    Du schreibst, dass Schiefe und Wölbung zwei Kenngrößen, darstellen, die von den Statistikern nicht sonderlich geschätzt sind. Ich habe mich, als Autodidakt, bei der Fragestellung nach einer Modelanpassung in der Literatur auf den Weg gemacht, um mathematisch abgesicherte Verfahren kennen zu lernen. Ich fand
    a) die Gleichungssysteme von PEARSON
    b) die Transformationsmethode nach JOHNSON.
    Jedes dieser Systeme basieren auf diesen beiden Formkenngrößen. Daraus schließe ich, dass sie so schlecht nicht sein können.
    (auch QS-STAT bietet diese beiden Systeme an; ich frage mich warum?)
    Ich geb Dir natürlich Recht, wenn Du schreibst, dass im Idealfall das Prozesswissen das Verteilungsmodel vorgibt. Du weißt aber zu gut, dass z.B. nur dann die Normalverteilung beobachtet wird, wenn viele gleichgewichtige Streuquellen auf eine Zielgröße einwirken. Ist jedoch die Gewichtung nur weniger dieser Streuquellen dominant, dann war´s das schon, mit der Normalverteilung. (Ich vielen Fällen wird man mit dieser leicht schiefen Verteilungsform leben müssen siehe auch [Kaiser / Nowack 1999 Nur scheinbar stabil, QZ 44 S 761) . Bei Perason, wie auch bei Johnson kein Problem, denn die Normalverteilung ist ein Sonderfall vieler Möglichkeiten.
    Gerade bei Null-begrenzten Merkmalen würde ich die Log-Normalverteilung (auch eine Element der Johnsonmethode) a priori nicht ausschliessen, weil sie in meinem Erfahrungsbereich das Geschehen realer Prozesse sehr gut nachbildete. Natürlich kann auch die Betragsverteilung (1 und 2)gute Ergebnisse liefern. Der Versuch, komplexe Zusammenhänge modellhaft zu beschreiben wird immer eine mehr oder weniger gute Annäherung an die Realität darstellen.
    Noch eine Frage: Kennst Du die Methode von Clements und deren Validierung im praktischen Gebrauch?
    Gruß aus Ulm
    Fritz
    P.S. Ich glaube, Deine Antwort auf den Beitrag vom qualyman trifft den Tatbestand nicht richtig. Wenn ich´s richtig sehe, meint er, ob ein Fähigkeitskennwert für eine obere Grenze von 125 mm möglich ist. Natürlich qualyman, durch den Cpk-Wert für diese Grenze.

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 23)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben