QM-Forum › Foren › Qualitätsmanagement › Cpk grösser Cp
-
AutorBeiträge
-
Hallo zusammen
Ich hatte letzte Woche schon 2 Kunden, die mir sagen, ein Cpk-Wert kann nicht grösser als ein Cp-Wert sein.
Es geht um „Flächenform“, also einen Nullbegrenzten Merkmal und somit meines Erachtens ist dass wohl möglich Cpk>Cp.Liege ich hier falsch?
Gruss, Aki
Hallo Aki,
der cp-Wert erfasst die Güte der Verteilung ohne Erfassung einer eventuellen Verschiebung, der cpk-Wert nimmt diese Verschiebung mit auf. Ist also Deine Verschiebung gleich 0 könnte cpk = cp werden, dazu müssten Dein cpko und cpku gleichgroß sein. Dass cpk > cp geht daher imho nicht.Gruß
Rossy
Qualitäter sind DOCH nette Menschen. (Zumindest beim Q4U- Treffen…)Hallo Aki,
der Cpk ist *immer* kleiner als der Cp-Wert. Das ist auch logisch, weil der Cpk Abzüge für Abweichungen der mittleren Prozess-Lage zusätzlich berücksichtigt und nicht nur die Streuung im Vergleich zur Toleranz wie der Cp.
Und für die, die den mathematischen Beweis wollen:
Cp = (OSG-USG)/(6S)
= (OSG-xquer+xquer-USG)/(2*3S)
=1/2 * (OSG-xquer+xquer-USG)/(3S)
=1/2 * ( (OSG-xquer)/(3S) + (xquer-USG)/(3S))
=1/2 * ( Cpko + Cpku ) (*)Der Cpk ist der kleinere der beiden Werte Cpko und Cpku. Sei Cpko hier der kleinere Wert, dann ist hier:
Cpk = Cpko < Cpku = Cpk + d (d>0) (**)
(*) Cp = 1/2 * ( Cpko + Cpku )
= 1/2 * ( Cpk + (Cpk+d)) wegen (**)
= 1/2 * 2Cpk + 1/2*d
= Cpk + 1/2*d > Cpk (da d>0 ist, s. (**))Grundsätzlich sind die Prozessfähigkeitsindizes Cp und Cpk nur für normalverteilte Merkmale aussagekräftig (und da wird das nullbegrenzte Merkmal wahrscheinlich nicht zu gehören). Insofern liefern Cp und Cpk auch keine validen Beurteilungen der Fähigkeiten, sondern sind rechnerisch ermittelte Kennzahlen, die je nach Abstand von mittlerer Prozess-Lage und Null mal mehr mal weniger sinnvoll interpretierbar sind.
Viele Grüße
Barbara
_____________________________________
„Was war das für eine Stimme?“ schrie Arthur.
„Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
Douglas Adams – Per Anhalter durch die GalaxisHallo
Aber die Standard-Formel gilt für die „Normalverteilung“.
Eine Flächenformtoleranz ist aber eine „Einseitige-Toleranz“ oder anders gesagt, sie kann nur in Plus gehen, nicht aber in Minus.
Somit ist die Betrachtung „Abweichung mittlere Prozesslage –> zur theoretischen 0“ entfällt bei einseitigen Toleranzen, da sie keine theoretische 0 haben um eine Normalverteilung (in Minus und in Plus)darstellen zu können.
Oder habe ich es völlig verschlafen?
Gruss, Aki
Hallo Aki,
es gibt einen interessanten Aufsatz der Uni Gießen über Prozeßfähigkeit bei nicht normalverteilen Merkmalen, wo dieser Fall erwähnt wird.
Siehe hier:
http://www.fh-friedberg.de/users/boergens/dokumente/blechtag.doc
MfG
Qualifight
Hallo zusammen
Ich habe wohl nicht geschlafen.
Cpk-Wert kann grösser als Cp-Wert sein.
Buch: Statistische Verfahren, Auflage 4, Edgar Dietrich, Hanser-Verlag.
Abschnitt 5.7 Sonderfall-„Potenzial“ kleiner als Fähigkeit.Gruss, AKI
Hallo Aki, jetzt wirds für mich interessant.
Da ich das Buch nicht vorliegen habe wäre es nett, wenn Du mal kurz etwas über die zugrundeliegenden Vorannahmen und die daraus resultierenden Schlüsse sagen könntest, sprich unter welchen Vorraussetzungen ist eine solche Berechnung zulässig ? Vor allem interessiert mich hierbei der Einfluss der Messunsicherheit, will sagen wie verändert sich z.B. mein Ergebnis wenn ich eine 6H7 Bohrung mit dem z.B. Bandmass messe ? Oder von welcher Verteilungsfunktion wird ausgegangen bzw. müsen die Werte hierzu transponiert werden – und ist eine solche Aussage dann auch sicher ?
Die Logik, die dahintersteckt verstehe ich ehrlich gesagt nicht. Für mich als Metaller ist das als ob ich mit einer Maschine, die auf 0,10 mm genau arbeitet durch irgendwelche Umstände eine Genauigkeit von 0,01 mm erziele und auch noch meinen Median in xquer habe.
Erkläre das doch mal bitte.Gruß
Rossy
Qualitäter sind DOCH nette Menschen. (Zumindest beim Q4U- Treffen…)Hallo Aki, hallo qualyfight, hallo Rossy,
bevor hier noch mehr Elefanten mit Papageien verglichen werden, mal einige Fakten:
Mess-Unsicherheit:
Die spielt bei der Berechnung der Prozessfähigkeiten keine Rolle. Es wird vorausgesetzt, dass das Mess-System fähig ist.Paper „Blechtag.doc“ von Börgens:
Die Berechnung der Fähigkeiten über die Quantile der Normalverteilung ist natürlich nur dann sinnvoll, wenn die Messwerte auch normalverteilt sind. In den zitierten Beispielen ist das eben gerade nicht gegeben, d. h. hier wird ein Modell (die Normalverteilung) für die Vorhersage von ppms verwendet, das überhaupt nicht zu den Messwerten passt. Damit kann ich bestenfalls die ppms überschätzen, schlimmstenfalls unterschätze ich sie und kriege damit einen Haufen unglückliche Kunden bzw. berechtigte(!) Reklamationen.Der andere Ansatz in dem Paper, die Fähigkeit über die empirischen Quantile abzuschätzen, hat ebenfalls einen entscheidenden Nachteil: Es gibt keine beste Formel für die Berechnung von empirischen Quantilen. Verwendet werden im Allgemeinen bis zu 10 unterschiedliche Formeln, die alle ihre Vor- und Nachteile haben (einige Beispiele findet Ihr hier:
http://www.bb-sbl.de/tutorial/kennzahlen/quantile.hmtl )
Insofern ist gerade die möglichst exakte ppm-Aschätzung für einen Prozess mit Abweichungen durch unterschiedliche Formeln für die Quantile schlecht vereinbar. (In Excel gibt es übrigens nur eine Quantil-Funktion, nur ist Excel auch kein Statistik-Programm. Auch die in Excel verwendete Formel für Quantile ist _nicht_ die beste oder die richtigste.)Berechnungsbeispiel Cp für einseitig spezifizierte Merkmale (vgl. Dietrich, Schulze „Statistische Verfahren zur Maschinen- und Prozessqualifikation“ S. 310ff.):
Erstmal ist es so, dass es für einseitig tolerierte Merkmale keinen Cp-Wert gibt. Der Cp wird bestimmt über die Toleranzbreite verglichen mit der Streubreite des Prozesses. Da die Toleranzbreite unendlich groß ist (OSG-unendlich = unendlich), ist der Cp-Wert bei einseitig tolerierten Merkmalen unendlich groß. Das ist natürlich wenig aussagekräftig.
Dietrich & Schulze verwenden daher für nullbegrenzte Merkmale eine USG=0 und berechnen damit einen „Cp“-Wert (die Anführungszeichen sind von Dietrich & Schulze). In dem Beispiel im Buch ist der Cp=1,34.
Für den Cpk-Wert werden dann in dem Beispiel berechnet:
Cpku = 1,01 (mit USG=0)
Cpko = 1,51
Damit wäre nach Defintion des Cpk als Minimum von Cpku und Cpko: Cpk=1,01 (und damit kleiner als Cp=1,34).Dann gehen Dietrich & Schulze allerdings hin und definieren den Cpk-Wert um: Cpk=Cpko, da ja die USG=0 eigentlich gar nicht vorgegeben ist (auch wenn sie für die Berechnung des Cp-Werts verwendet wird). Damit ist dann nach der abweichenden Definition Cpk > „Cp“
Nur warum einerseits für den Cp die USG verwendet wird und für den Cpk nicht, das lassen die Autoren offen. Für mich ist diese Definition inkonsistent.
Und wie ich schon häufiger geschrieben habe: Wenn Prozesse tatsächlich beherrscht sind, dann sind zumindest die Mittelwerte von Stichprobengrupen normalverteilt. Ohne Prozess-Beherrschung ist eine Fähigkeitsangabe sowieso Unsinn, weil sich jederzeit etwas ändern könnte, ohne dass man es vorher weiß. Und mit Prozess-Beherrschung gilt der Zentrale Grenzswertsatz für die Mittelwerte der Stichprobengruppen, sprich die sind normalverteilt. Über die Mittelwerte lässt sich dann auch die Fähigkeit des Prozesses abschätzen (in Cp/Cpk bzw. ppm).
Viele Grüße
Barbara
_____________________________________
„Was war das für eine Stimme?“ schrie Arthur.
„Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
Douglas Adams – Per Anhalter durch die GalaxisPuh, mein schwankendes Weltbild steht wieder.
Danke !Gruß
Rossy
„Noch sind wir zwar keine gefährdete Art, aber es ist nicht so, daß wir nicht oft genug versucht hätten, eine zu werden.“
Douglas AdamsHallo Barbara
Vielen Dank für deiner Meinung.
Die Herren haben die Verteilungsmodel:
„Rayleigh-Verteilung“
genommen.Leider habe ich jetzt kein Zeit um mich vertieft damit zu beschäftigen aber dieser Thema bleibt bei mir pedent.
Offensichtlich wird das Ganze zur eine „Glaubensfrage“.
Natürlich ist deine Frage berechtigt, wieso die Herren Cpo=Cpk setzen.
Auf andere Seite, wenn man unter Zeitdruck ist, kann ich nicht alles hinterfragen.
Das Buch von Dietrich/Schulze ist ein Standardwerk und die gelten als Experten und sind die Eigentümer des Softwares „QS-Stat“, die wir auch einsetzen.
Die Software bring keine Fehlermeldung.Der Kunde versteht (perfekt) auch nicht, was sich alles unter „Prozessfähigkeit“ verbirgt.
ER WILL NUR DIE ZAHLEN SEHEN.Somit für mich gilt (in erste Instanz), dass unter gegebenen Umstände ein Cpk>Cp möglich ist.
Aber ich werde schon herausfinden, wieso man Cpo=Cpk eingesetzt hat.
Gruss, AKI
Hallo Aki,
ich vertrete in diesem Thread keine Meinung, sondern Fakten. In vielen Köpfen spukt der Satz „Glaube keiner Statistik, die Du nicht selbst gefälscht hast.“ Nur ist das in der Statistik anders, denn wir benutzen harte, mathematische Fakten.
Ein Beispiel:
Stell Dir vor, Du hast mit dem Geodreieck ein rechtwinkliges Dreieck gezeichnet. Nach dem Satz des Pythargoras weißt Du, dass a²+b²=c²ist (oder anderst ausgedrückt: Die quadrierte Längen der kurzen Seiten des Dreiecks ergeben das Quadrat der Länge der langen Seite).Du misst die Längen der Seiten nach und stellst fest, dass a²+b² ungefähr c² ist. Das liegt an der Mess-Unsicherheit, denn wir wissen alle, dass ein Geodreieck kein absolut genaues Messmittel ist.
Du kriegst also so etwas wie
a²+b² = c² + epsilon
Wenn das epsilon klein ist, dann ist die Abweichung okay, d. h. Du hast tatsächlich ein rechtwinkliges Dreieck gezeichnet. Und wenn Du ganz viele gut gezeichnete rechtwinklige Dreiecke hättest und ausmessen würdest, dann wären die epsilon-Fehler normalverteilt, d. h. sie wären im Mittel 0 mit einer gewissen Streuung (Standardabweichung).Wenn das epsilon allerdings zu groß ist, dann würdest Du doch nicht hingehen und sagen: Der Pythargoras gefällt mir nicht, der hat sich geirrt und sein Satz stimmt einfach nicht im wahren Leben. Sondern Du wüsstest, dass Du kein rechtwinkliges Dreieck (oder ein unfähiges Messmittel) hast, weil Du andernfalls ein kleines epsilon haben würdest.
Genauso funktioniert der Zentrale Grenzwertsatz. Auch der ist keine Glaubensfrage, sondern eine mathematische Feststellung. Und auch hier hast Du bei einer deutlichen Abweichung die Schlussfolgerung: Wenn die Mittelwerte nicht normalverteilt sind, dann ist der Prozess nicht stabil bzw. nicht beherrscht.
Dietrich & Schulze haben mit qs-stat ein hervorragendes Tool geschaffen, um Kundenanforderungen umzusetzen. Und viele stehen wie Du immer wieder vor dem Problem, etwas umsetzen zu müssen, was sie nicht vollständig verstehen können, weil die Zeit fehlt oder gute, verständliche Informationen.
Solange das was ein Tool wie qs-stat ausgibt nicht nur für den Kunden wichtig ist, sondern auch mit den allgemein definierten Formeln aus den Normen stimmig ist, kommt es auch nicht zu solchen Verwirrungen wie die Frage ob der Cp kleiner dem Cpk sein kann. (Wie ich weiter oben gezeigt habe, geht das mit den üblichen Definitionen nicht.)
Schwierig wird es für mich dann, wenn Formeln umdefiniert werden, damit ein bestimmtes Ergebnis erzielt wird (wie in dem Buch-Beispiel von Dietrich & Schulze). Das führt zu Verwirrung auf allen Seiten und mit Sicherheit nicht dazu, dass eine Prozessfähigkeit von Kunden und Lieferanten gut eingeschätzt werden kann.
Eine Voraussetzung für die Berechnung von Fähigkeitswerten nach den üblichen Formeln (s. o.) ist, dass die Messwerte normalverteilt sind. Wenn die Messwerte nicht normalverteilt sind, dann kannst Du natürlich andere Formeln verwenden, die allerdings nicht unbedingt konsistente oder vergleichbare Fähigkeits-Werte liefern.
Wie gesagt, qs-stat ist hervorragend geeignet, um Kundenanforderungen umzusetzen. In der Analyse von Prozess-Daten gibt es allerdings zahlreiche Aspekte, die qs-stat entweder nicht oder abweichend von statistischen Grundregeln umsetzt. Und genau an dieser Stelle wird es schwierig.
Dazu gehört z. B., dass eine Verteilung an die Messwerte angepasst wird (beispielsweise mit Johnson-Transformationen). Grundsätzlich ist es in der Statistik so, dass die theoretischen Verteilungen für bestimmte Situationen passend sind, sprich das erste Auswahlkriterium der gesunde Menschenverstand (GMV) ist.
Wenn Messwerte die Verteilung nicht annähern, die nach GMV logisch gewesen wäre, dann gibt es unberücksichtigte Einflüsse, die zu diesen Abweichungen führen (auch special causes genannt).
Natürlich kann ich dann hingehen und eine Verteilung suchen, die besser zu meinen Messwerten passt. Damit ignoriere ich meinen gesunden Menschenverstand. Und damit nehme ich mir selbst die Chance, die special causes zu finden, unter Kontrolle zu kriegen und zu einem beherrschten Prozess zu kommen. (Mit qs-stat ist es übrigens nicht möglich, die Prozessdaten so zu analysieren, dass man die special causes findet *und* die Analyseergebnisse absichern kann.)
Wenn ich den special cause kenne (hier: nullbegrenztes Merkmal und die Nullgrenze kann für die Fähigkeitsbetrachtung nicht ignoriert werden weil sie zu nah am Mittelwert der Messwerte liegt), dann brauche ich ein anderes Verteilungsmodell als die Normalverteilung oder muss die Mittelwerte von Stichprobengruppen für die Fähigkeitsabschätzung verwenden.
Die Rayleigh-Verteilung ist eine Möglichkeit. Sie hat allerdings den entscheidenden Nachteil, dass für sie die Abschätzungen von ppms mit den Fähigkeitsindizes nicht so funktionieren wie für normalverteilte Messwerte. Daher ist es der einfachere Weg, Gruppen von Messwerten zusammenzufassen, den Zentralen Grenzwertsatz anzuwenden und dann über die Normalverteilung entsprechende Aussagen zu treffen.
Viele Grüße
Barbara
_____________________________________
„Was war das für eine Stimme?“ schrie Arthur.
„Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
Douglas Adams – Per Anhalter durch die GalaxisMoin,
wow, Barbara… du übertriffst dich immer wieder selber….
Ich muss zugeben, dass ich bestimmt nicht alles verstanden habe, was du geschrieben hast. Aber ein paar Kleinigkeiten möchte ich anmerken:
Statistik ist ja, wenn ich das so richtig verstehe, basierend auf der Wahrscheinlichkeitstheorie.
Soweit ok. Ich eruiere Daten und bekomme eine nette Statistik….
Vielleicht bin ich mit dem Ergebnis sogar zufrieden, weil z.B. meine Maschine nichts besseres hergibt, weil der Prozess ausgereizt ist oder weil mein Teil in so einer riesigen Toleranz liegt.Doch dann… oh weh… Kunde will was „Besseres“….
Und schon… weil siehe oben….. bau ich ne Churchill Statistik…..
Ich weiß, du beißt mich jetzt, aber ich glaube, dass sehr viele Statistiken nicht das widerspiegeln, was Tatsache ist, sondern das, was Kunde sehen will…..
Dino
Wenn du ein Schiff bauen willst, fang nicht an, Holz zusammenzutragen, Bretter zu schneiden und Arbeit zu verteilen, sondern wecke in den Männern die Sehnsucht nach dem großen, weiten Meer.
(Antoine de Saint-Exupery)Hallo Dino,
glückliche Kunden sind natürlich wichtig und wenn der Kunde gerne eine Auswertung mit lustigen Smileys haben möchte, dann soll er sie kriegen.
Ein Kunde bleibt allerdings nach der Auswertung nur dann glücklich, wenn die Lieferung auch das bringt, was er in der Auswertung gesehen hat. Ansonsten wird aus dem glücklichen Kunden sehr schnell ein unzufriedener Kunde, der Dir 8D-Reporte und Reklamationen schickt.
Wenn mein Prozess dummerweise nicht das liefert, was der Kunde gerne haben möchte, dann kann ich natürlich mit nett aufbereiteten Fähigkeitswerten erstmal so tun, als könnte ich die geforderte Qualität liefern. Nur was soll ich tun, wenn der Kunde mir nachweist, dass die Lieferqualität nicht den Anforderungen genügt?
Genau an diesem Punkt setzt dann die Statistik an und klärt die Frage nach dem „Warum?“, damit herausgefunden werden kann, ob der Prozess schon beim Optimum ist, welche Einflussgrößen (special causes) ein besseres Ergebnis verhindern und wie und in welchem Maß das Ergebnis besser werden kann.
Viele Grüße
Barbara
_____________________________________
„Was war das für eine Stimme?“ schrie Arthur.
„Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
Douglas Adams – Per Anhalter durch die GalaxisHallo Barbara
Eine schöne Einführung mit Beispiel.
Vielen Dank.Ich wollte jetzt ein Brief schreiben aber jetzt verzichte ich daraf.
Wie es der Stand (sei mit bitte nicht böse):
„Es basiert alles auf mathematischen Fakten“ – sind deine Worte.
Aber wie ich jetzt schlussendlich einfach, mathematisch erklärbar, eine „Flächenformtoleranz“ berechnen sollte, konntest du mir nicht sagen.Weil es sie eigentlich in der Wahrheit gar nicht gibt?
Weil wir nicht im Stande sind, sie mathematisch zu erfassen (wie viele andere Themen) ?
Sondern müssen wir schauen, messen, probieren und BASTELN mit GMV ?
Aber alles basiert auf mathematischen Fakten !Sei mir bitte nicht böse. Meiner Kenntisse in der Statistik sind ja wahrscheinlich nicht wie deine aber meinst du auch nicht, dass hier etwas faul ist?
Gruss, AKI
Hallo Aki,
Freiformflächentoleranzen, soso.
Wir arbeiten zwangsweise auch damit.(LEIDER)
Eine Freiformfläche, egal ob aus Splines oder Straks aufgebaut – die sind berechenbar, und zwar mit nahezu jedem dahergelaufenen 3D- Konstruktionsprogramm.
Auf was bezieht sich Deine Toleranzangabe ?
Auf eine sog. Hüllkurve,die diese Fläche in einer Dimension limitiert, wie z.B. die Unrundheit bei Rohren konzentrisch definiert ist ?
Oder hast Du Messpunktangaben im 3D-Koordinatensystem ?
Da solltest Du einen Blick auf Dein Toleranzfeld werfen. Da gibt es nämlich 2 verschiedene Systeme:
1.Dein Messwert muss in einem Quader mit den Seitenlängen a,b und c liegen, dessen Flächenschwerpunkte im Vorgabepunkt Deiner Zeichnung liegen, oder
2. müssen Deine Messwerte, bei gleichgroßen Toleranzen in einer Kugel, bei pro Achse unterschiedlichen Toleranzen in einem dreidimensionalen Ellipsoid liegen, in dessen Zentrum Dein Sollpunkt liegt ?
Was Du messen kannst ist aber lediglich die Abweichung vom Sollpunkt, respektive nur dessen Betrag. Und der Betrag ist nunmal größer oder gleich Null.
Es liegt also an der Messwertermittlung wenn Du keine Negativen Werte bekommst.
Am Besten dröselst Du Deine Messwerte nach den Koordinatenachsen auf und machst eindimensionale Toleranzbetrachtung. Das ist zugegebenermassen die 3fache Arbeit, erspart Dir aber im Falle eines elliptischen Toleranzfeldes die doch recht komplizierte Umrechnerei.
Aus Deinen Angaben glaube ich zu wissen, dass Ihr mit Freiarm messt – lass Dir gesagt sein: Für freiformflächen sind die Dinger nur äusserst bedingt einsetzbar, da Du den Arm nicht in 2 Achsen festsetzen kannst und dann die Dritte stabil anfahren kannst.
Momentan berechnest Du quasi die Strecke zwischen Ist- und Sollpunkt und das leider richtungs- und damit auch vorzeichenunabhängig, da es ja keine negativen Abstände gibt. Betrachtest Du die einzelnen Dimensionen hast Du plötzlich wieder positive und negative Abweichungen – und mit denen solltest Du rechnen – nicht mit dem resultierenden Abstand vom Sollpunkt.
Wenn Du jetzt meinst, das sei eine Heidenarbeit – stimmt. Aber es lohnt sich, weil meist der Kunde selbst drauf kommt in welcher Richtung Abweichungen für ihn relevant sind.Gruß
Rossy
„Noch sind wir zwar keine gefährdete Art, aber es ist nicht so, daß wir nicht oft genug versucht hätten, eine zu werden.“
Douglas Adams -
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.