cpk zu GUT2013-06-26T15:58:41+01:00

QM-Forum Foren Qualitätsmanagement cpk zu GUT

Ansicht von 9 Beiträgen – 1 bis 9 (von insgesamt 9)
  • Autor
    Beiträge
  • xcurit
    Mitglied
    Beitragsanzahl: 10

    Hallo

    Wir haben das Problem, dass bei der Prozessfähigkeit unsere cpks welche wir mit über 300 Werten aus vielen Losen ermitteln zu gut sind. Nach der bestimmten Prozessfähigkeit stellen wir die Anschliessende Prüfung von 100% um auf Stichprobe und führen Qualitätsregelkarten. Wenn die Stichprobe nicht mehr gut ist (also die Eingriffgrenze verletzt) stellen wir wieder auf 100% Prüfumfang um. Nun sagt ja aber die Literatur, dass Warngrenzen 2 Standardabweichungen und Eingriffsgrenzen 3 Standardabweichungen von der erfassten Initialen, also den 300 Stück, zu definieren sind. Nun haben wir cpks von 3 oder noch höher womit die Grenzen dann sehr eng sind. Es ist aber auch so, dass die cp immer sehr gut sind wir aber manchmal etwas von der Prozessmitte abweichen (z.B. weil der Operator etwas anders einfährt) und damit dann die Eingriffsgrenzen verletzten werden.

    Der ermittelte cpk sagt doch aus, dass der Prozess beherrscht und fähig ist und ich in Zukunft ein geringes Risiko habe Schlechtteile vorzufinden. Die Stichprobe zeigt mir ob mit dem Prozess irgendetwas aus dem Ruder läuft, gibt mir aber auch keine 100% Sicherheit. Um das Risiko so gering wie möglich zu halten muss ich oben beschriebenes verfahren einhalten.

    Was haltet ihr von der altenativen Lösung. Ich nehme meine Toleranzgrenzen und verenge diese um 3 Standardabweichung und führe gleichzeitig eine Qualitätsregelkarte für die Streuung ein. Dar darf der Prozess sich mehr „bewegen“ aber nicht mehr Streuen.
    Habe ich dann ein höheres Risiko oder das Gleiche?

    Hoffe es ist verständlich was mein Problem ist…

    Würde mich sehr über eure Gedanken dazu freuen!

    Gruss
    xcurit

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo xcurit,

    willkommen im Qualitäter-Forum [:)]

    Qualitätsregelkarten funktionieren dann, wenn der Prozess stabil ist. In diesem Fall kannst Du über die Warn- und Eingriffsgrenzen systematische Veränderungen frühzeitig finden. Stabil heißt hier, dass die Kenngrößen der Regelkarte nur zufällig streuen und KEINE unterschiedlichen, deutlichen systematischen Effekte auf sie wirken.

    Das scheint bei Deinem Prozess anders zu sein, denn sonst dürfte die Einfahr-Methode des Werkers keinen derartigen Effekt haben. Insofern würde ich vermuten, dass Eure Schwierigkeit in der Anwendung von Methoden für stabile Prozesse (Qualitätsregelkarten) in einem nicht-stabilen Prozess (z. B. Einfahr-Abhängigkeit) liegen. Welche Qualitätsregelkarte(n) setzt Ihr denn ein?

    quote:


    Ursprünglich veröffentlicht von xcurit

    Der ermittelte cpk sagt doch aus, dass der Prozess beherrscht und fähig ist und ich in Zukunft ein geringes Risiko habe Schlechtteile vorzufinden.


    Nein, der Cpk ist erstmal einfach nur eine Kenngröße. Ob da tatsächlich auch eine belastbare Aussage über die Prozessqualität drinsteckt, hängt von anderen Aspekten ab:

    • Mess-Unsicherheit klein genug?
    • ausreichend viele Messwerte?
      (das dürfte bei 300 Werten erfüllt sein)
    • stabiler Prozess?
      (da würde ich schon eher Schwierigkeiten vermuten)
    • Messwerte über eine geeignete Verteilung ausreichend gut beschreibbar?
      (hier wird es in der Praxis oft sehr spannend)
    • Berechnungsmethode für den Cp und Cpk

    Die Aussagekraft der Prozessfähigkeits-Kenngrößen hängt extrem davon ab, ob die Voraussetzungen erfüllt sind. Im ungünstigsten Fall liegt die Prozessfähigkeit so weit neben der tatsächlichen Prozessleistung, dass die Kenngröße keine Aussagekraft hat.

    Solange in Eurem Prozess starke systematische Effekte auftauchen kann die Prozess-Überwachung und -Regelung über Qualitätsregelkarten nicht funktionieren. Müsst Ihr denn überhaupt damit arbeiten? Braucht Ihr Prozessfähigkeitswerte? Oder könnt Ihr da auch mit anderen Methoden unterwegs sein?

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    QM-FK
    Teilnehmer
    Beitragsanzahl: 469

    Hallo xcurit,

    Wenn Du z.B. eine Regelkarte bei einem Fräs-Prozess führts, wirst Du feststellen, dass der Mittelwert für bestimmte Dimensionen mit der Zeit wegdriftet.
    Fräser nutzen sich nun mal ab.
    Moderne Maschinen können dies automatisch ausgleich.
    Nach einer gewissen Zeit muss der Fräser gewechselt werden und bei einem unkorrigierten Prozess entsteht so schließlich ein Sägezahn-Bild.
    Der cpk / ppk kann – beim unkorrigieten Prozess – deshalb sehr schlecht ausfallen, obwohl der Prozess beherrscht ist.
    Theoretisch kann die Abnutzung herausgerechnet werden aber dann wird die Auswertung immer komplizierter.

    Viele Grüße
    QM-FK

    Don’t think it – ink it.

    xcurit
    Mitglied
    Beitragsanzahl: 10

    Hallo

    Vielen Dank für Euren tollen Input. Sorry, dass es etwas gedauert hat bis ich antworte. Hab mich jetzt mal mittels den Büchern „Statistische Verfahren zur Maschinen- und Prozessqualifikation“ und dem „Qualitätssicherung“ vom Timischl schlau gemacht. Ausserdem habe ich mit Q-DAS verschiedenen Einstellungen getestet.

    Alle Punkte die Du aufgeführt hast Barbara erfüllen wir. Ob zu 100% will ich nicht behaupten aber sicher gut genug. Auch die Normalverteilung ist gegeben.

    So jetzt habe ich aber noch nen paar wichtige Fragen! Die erste ist zwar au bisle doof aber ich hoffe ihr verzeiht. ;-)

    Gemäss Wikipedia sind die Grenzen einer QRK OEG=Mittelwert + 3*Sigma; UEG=Mittelwert – 3*Sigma. In der Literatur und in der Software ist ne komplexere Formel bei denen ja die Wahrscheinlichkeit und die Stichprobengrösse berücksichtigt ist. Ist Wikipedia hier völlig falsch? Meint Wikipedia eine x-Wert-Karte und die Bücher eine Mittelwert-Karte? Oder ist es erlaubt wenn zusätzlich eine S-Karte geführt wird? Oder ist es einfach die erste Shewhart-karte von 1930 und einfach veraltet?

    Ich habe enorme Unterschiede Festgestellt wenn ich mit dem Schätzer von Sigma arbeite. Dies wird mir aber in der Literatur angeraten. Allerdings habe ich auch der Einfachheitshalber mal nur Beispiele mit n=5 und nur 5 Lose durchgerechnet. Wird mit höhere Losmenge der Schätzwert von Sigma näher am Sigma gesamt sein? Interpretiere ich dies richtig?

    Sehr interessant ist für mich die Shewhart Karte mit erweiterten Grenzen. Gibt es hier irgendein no go Kriterium? Also wann man sie nicht einsetzten darf?

    Bei den Shewhart-karten ist je die Toleranzgrenze nicht angegeben. Dann ist es aber doch theoretisch möglich, dass wenn die Karte dynamisch ist und die Grenzen immer wieder neu berechnet werden sie irgendwann mal aus der Toleranzgrenze laufen könnte, oder nicht? Ausser ich bestimme immer wieder den cpk?

    Sind Annahmeregelkarten in der Praxis geläufig? Auch wenn sie dem „never ending Improvement“ widersprechen?

    In der Literatur ist auch beschrieben, dass Warngrenzen nicht mehr in der Praxis geführt werden. Was haltet ihr davon?

    Im ersteren Buch ist die Berechnung der erweiterten Grenzen an einem Beispiel dargestellt. Mittels Q-DAS komm ich auch auf die Lösung. Ich tu so etwas aber gerne richtig nachvollziehen weshalb ich versuche die Einzelwerte für die Endformel zu berechnen. Zum einen errechnet er eine Standardabweichung zwischen den Stichproben (0.0770128) zum anderen eine Standardabweichung innerhalb der Stichproben (0.0113358). Auf letzteres komme ich. Alle einzelnen Standardabweichungen ^2 dann den Mittelwert und die Wurzel. Aber auf die 0.0770128 komme ich nicht. Auch nicht mit einer Anova in Excel oder Minitab. Hoffe jemand hat das Buch und überhaupt die Lust dies mal zu checken.

    So zur letzten Frage. Was haltet ihr eigentlich davon den cpk auf einer Regelkarte zu überwachen?

    So hoffe ich habe Euch nun nicht erschlagen. Bin sehr gespannt auf Eure Antworten…

    Gruss
    xcurit

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo xcurit,

    quote:


    Ursprünglich veröffentlicht von xcurit

    Gemäss Wikipedia sind die Grenzen einer QRK OEG=Mittelwert + 3*Sigma; UEG=Mittelwert – 3*Sigma. In der Literatur und in der Software ist ne komplexere Formel bei denen ja die Wahrscheinlichkeit und die Stichprobengrösse berücksichtigt ist. Ist Wikipedia hier völlig falsch? Meint Wikipedia eine x-Wert-Karte und die Bücher eine Mittelwert-Karte? Oder ist es erlaubt wenn zusätzlich eine S-Karte geführt wird? Oder ist es einfach die erste Shewhart-karte von 1930 und einfach veraltet?


    Es gibt Urwert-, Einzelwert oder I-Karten (I: Individual). Die arbeiten mit +/- 3*S als Eingriffsgrenzen. Voraussetzung dafür, dass die Grenzen zum Finden von systematischen Effekten taugen ist, dass die Einzelmesswerte normalverteilt sind und es keine wichtige Gruppen-Struktur in den Daten gibt.

    Wenn es eine relevante Gruppen-Struktur in den Daten gibt (z. B. je g=5 Werte aus 1 Charge, insgesamt 40 Chargen betrachtet), müssen die Gruppen in den Grenzberechnungen berücksichtigt werden. Dann sind die Formeln etwas wilder und enthalten sinnvollerweise neben der Stichprobengruppen-Größe (z. B. g=5) auch die Konstanten für die Erwartungstreue (a_g, b_g, c_g oder d_g mit g: Stichprobengruppen-Größe). Das Grundgerüst +/-3-fache Streuung bleibt erhalten, nur eben mit einem weiteren Korrektur-Faktor für die Stichprobengruppen-Größe: +/-3*k*S (k: Korrekturfaktor).

    quote:


    Ursprünglich veröffentlicht von xcurit

    Ich habe enorme Unterschiede Festgestellt wenn ich mit dem Schätzer von Sigma arbeite. Dies wird mir aber in der Literatur angeraten. Allerdings habe ich auch der Einfachheitshalber mal nur Beispiele mit n=5 und nur 5 Lose durchgerechnet. Wird mit höhere Losmenge der Schätzwert von Sigma näher am Sigma gesamt sein? Interpretiere ich dies richtig?


    Es gibt nicht „den“ Schätzer für die Streuung Sigma, sondern viele verschiedene Formeln mit unterschiedlichen Eigenschaften. Ob die alle bei sehr, sehr vielen Werten (>10^5) denselben Wert für Sigma ergeben hängt unter anderem davon ab, ob die Messwerte wirklich normalverteilt sind.

    quote:


    Ursprünglich veröffentlicht von xcurit

    Sehr interessant ist für mich die Shewhart Karte mit erweiterten Grenzen. Gibt es hier irgendein no go Kriterium? Also wann man sie nicht einsetzten darf?


    Diese Art der Qualitätsregelkarten findet sich nur und ausschließlich bei Q-Das bzw. Veröffentlichungen von Dietrich/Schulze (aktueller GF und ehemaliger GF von Q-Das). Ich kenne keine Veröffentlichung in der statistischen Fachlitertur (z. B. Journal of Quality Technology / ASQ oder Montgomery „Introduction to Statistical Quality Control“), die eine derartige Erweiterung beschreibt.

    Abgesehen von den statistischen Hintergründen die gegen eine derartige Berechnung sprechen (und die zu umfangreich für ein Forum sind, Links s. u.) gibt es für mich einen direkten logischen Knick in den Annahmen für die erweiterten Eingriffsgrenzen:

    • Für die Streuung in den einzelnen Stichprobengruppen wird der 99,73%-Bereich verwendet (+/-3-fache Streuung innerhalb der Stichprobengruppen).
    • Für die Streuung der Mittelwerte der Stichprobengruppen wird dagegen der 86,64%-Streubereich verwendet (+/-1,5-fache Streuung zwischen den Gruppen).

    86,64% ist aber ein völlig unüblicher Bereich für Qualitätsregelkarten und es erschließt sich mir nicht, warum die Streuung der Mittelwerte (Unterschiede zwischen den Stichprobengruppen) deutlich weniger groß sein soll als die Streuung innerhalb der Stichprobengruppen. Dennoch sollen die erweiterten Eingriffsgrenzen 99,73% der Messwerte abdecken.

    Als Begründung wird von Dietrich/Schulze angeführt, dass der Faktor 1,5 „sich als praktikabel herausgestellt hat“ und dieser Wert empirisch ermittelt wurde.

    Was allerdings komplett fehlt ist jegliche Untersuchung der Sensitivität oder ARL (average run length) der Karten mit erweiterten Eingriffsgrenzen. Ob diese Karten Prozess-Veränderungen wirklich zuverlässig finden können und inwiefern die Regeln für systematische Veränderungen hier angewendet bzw. modifiziert werden müssen, bleibt unklar. Einfach zu behaupten, das würde in der Praxis funktionieren, reicht für belastbare statitistische Aussagen nicht aus.

    Ich kann jeden Anwender verstehen, der nach einem Ausweg bei Prozessen mit deutlichen Unterschieden zwischen den Stichprobengruppen sucht, z. B. weil es eine starke Chargen-Abhängigkeit gibt und jede Material-Charge für sich eine kleine Streuung hat, die Unterschiede zwischen den einzelnen Chargen aber groß sind. Um diese Sprünge zuverlässig mit statistischen Methoden beschreiben zu können müssen zuverlässige Methoden verwendet werden. Die sind leider sehr sperrig und wenig anschaulich (Links s. u.)

    quote:


    Ursprünglich veröffentlicht von xcurit

    Bei den Shewhart-karten ist je die Toleranzgrenze nicht angegeben. Dann ist es aber doch theoretisch möglich, dass wenn die Karte dynamisch ist und die Grenzen immer wieder neu berechnet werden sie irgendwann mal aus der Toleranzgrenze laufen könnte, oder nicht? Ausser ich bestimme immer wieder den cpk?


    Qualitätsregelkarten sollen nur und ausschließlich den Prozess auf systematische, nicht-zufällige Veränderungen untersuchen. Das ist von den Toleranzgrenzen unabhängig und deshalb werden die auch bei den Shewart-Karten nicht berücksichtigt.

    Das SPC-System umfasst neben den Qualitätsregelkarten (QRKs) andere Punkte wie beispielsweise der Nachweis einer (Kurzzeit-)Prozessfähigkeit bevor mit QRKs ein Prozess überwacht wird, um (so gut wie) keine Toleranzgrenzen-Verletzungen im normalen Prozess zu haben.

    Die Grenzen für eine QRK werden 1 Mal berechnet und gelten solange, bis es deutliche Anzeichen für eine Prozess-Veränderung gibt oder der Prozess deutlich verändert wird. Dann beginnt der Spaß von vorne, d. h. es muss erst wieder geprüft werden ob der Prozess stabil und leistungsfähig genug ist, bevor mit neu berechneten Grenzen der neue Prozess mit einer QRK überwacht werden kann.

    Auch wenn es heute sehr einfach ist, die Grenzen in QRKs immer mal wieder neu zu berechnen, widerspricht das den Grundsätzen des SPC-Systems. Denn SPC ist deutlich mehr als das Eintragen von Messdaten in eine Qualitäts-Regelkarte!

    quote:


    Ursprünglich veröffentlicht von xcurit

    Im ersteren Buch ist die Berechnung der erweiterten Grenzen an einem Beispiel dargestellt. Mittels Q-DAS komm ich auch auf die Lösung. Ich tu so etwas aber gerne richtig nachvollziehen weshalb ich versuche die Einzelwerte für die Endformel zu berechnen. Zum einen errechnet er eine Standardabweichung zwischen den Stichproben (0.0770128) zum anderen eine Standardabweichung innerhalb der Stichproben (0.0113358). Auf letzteres komme ich. Alle einzelnen Standardabweichungen ^2 dann den Mittelwert und die Wurzel. Aber auf die 0.0770128 komme ich nicht. Auch nicht mit einer Anova in Excel oder Minitab. Hoffe jemand hat das Buch und überhaupt die Lust dies mal zu checken.


    Die Streuung für die Mittelwerte ergibt sich aus der Varianzkomponente eines ANOVA-Modells mit zufälligem Effekt. Das kannst Du in Minitab mit dem GLM-Menü berechnen:
    Statistik > Varianzanalyse (ANOVA) > Allgemeines Lineares Modell (GLM)
    Antworten: [Spalte mit Messwerten]
    Modell: [Spalte mit Stichprobengruppen]
    Zufallsfaktoren: [Spalte mit Stichprobengruppen]
    > Ergebnisse: Haken setzen bei „Erwartetes Mittel der Quadrate udn Varianzkomponenten anzeigen“
    > OK > OK

    Im Sessionfenster gibt es dann einen Eintrag „Varianzkomponenten unter Verwendung von korrigierter SS“ und in der Tabelle ist der Wert der Varianzkomponenten unter „Geschätzter Wert“ eingetragen.

    Um die Streuung für die erweiterten Eingriffsgrenzen berechnen zu können, musst Du nur noch die Wurzel aus diesem Wert ziehen.

    quote:


    Ursprünglich veröffentlicht von xcurit

    So zur letzten Frage. Was haltet ihr eigentlich davon den cpk auf einer Regelkarte zu überwachen?


    Um den Cpk zuverlässig mit einer Qualitätsregelkarte überwachen zu können brauchst Du zwingend normalverteilte Einzelmesswerte. Ohne Normalverteilung gibt es keine (direkten) Konfindenzintervalle für den Cpk und damit auch keine (direkte) Möglichkeit, den normalen 99,73%-Streubereich für den Cpk anzugeben.

    Cpk-Werte sind nur dann aussagekräftig, wenn ausreichend viele Messwerte für die Berechnung verwendet werden. „Ausreichend viele“ heißt mindestens 100 Einzelmesswerte pro Cpk-Wert. Für eine Regelkarte brauchst Du mindestens 100 Cpk-Werte, also insgesamt 100*100=10.000 Einzelmesswerte, um zuverlässige Streubereichs-Grenzen berechnen zu können. Wenn Ihr so viele Messwerte habt und die auch noch normalverteilt sind, dann könnt Ihr eine Cpk-Regelkarte mit zuverlässigen Grenzen berechnen.

    Ich würde eher die klassischen Regelkarten getrennt nach Mittelwert und Streuung verwenden, um leichter erkennen zu können wie sich der Prozess geändert hat. Denn im Cpk sind Mittelwert und Streuung zusammen drin und Du kannst nur am Cpk-Wert nicht erkennen ob sich der Mittelwert oder die Streuung oder beides verändert hat. Außerdem sind Cpk-Werte echt langsame Signale aus dem Prozess, weil erstmal 100 Werte zusammenkommen müssen. Da reagieren Mittelwert-/Einzelwert-/Streuungs-Karten sehr viel schneller.

    Wenn Du allerdings eher in Richtung SPC=“show program for customer“ unterwegs bist, sind solche Cpk-Karten natürlich super. Sieht toll aus und macht selten Probleme [;)]

    Viele Grüße

    Barbara

    PS: Für diejenigen, die mal schauen wollen wie solche Formeln für Modelle mit zufälligen Effekten (=zufällige Veränderung der Mittelwerte in Stichprobengruppen, ANOVA with random effect) aussehen gibts hier noch Links. Um den Prozess-Streubereich bzw. den „normalen“ Bereich für einen Prozess mit Sprüngen zwischen den Stichprobengruppen vorherzusagen, wird ein Vorhersage-Intervall für die Mittelwerte benötigt (prediction interval).

    Die Formeln sind anspruchsvoll und ich würde sie einem Anwender zum Verstehen nur dann empfehlen, wenn er/sie das wirklich will:
    Stack Exchange / Cross Validated: Prediction interval for the one-way random effect ANOVA.
    T.Y. Lin, C.T. Liao [2008]: Prediction intervals for general balanced linear random models.
    Journal of Statistical Planning and Inference, Volume 138, Issue 10, Pages 3164-3175, ISSN 0378-3758

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Stefan741
    Mitglied
    Beitragsanzahl: 46

    quote:


    Ursprünglich veröffentlicht von xcurit

    So zur letzten Frage. Was haltet ihr eigentlich davon den cpk auf einer Regelkarte zu überwachen?


    Ich setze ab und zu eine kombinierte Einzelwert/Fähigkeitsindex Regelkarte mit Hilfe von „R“ ein.

    Die Einzelwerte werden als Punkte angezeigt und als Balken der Fähigkeitsindex. Solange sich die CPK-Balken nicht außer die Toleranzen bewegen, und die Einzelwerte innerhalb den Eingriffsgrenzen liegen, ist alles i.O.

    Für die Mitarbeiter ist es eine gute Hilfe um alles im Blick zu haben. Vorher muss natürlich der Test auf NV und die MSA gelaufen sein.

    xcurit
    Mitglied
    Beitragsanzahl: 10

    Hallo

    Wow. Vielen Dank für die sensationellen Erklärungen. Den Zusammenhang von Q-Das und den Veröffentlichungen von Dietrich/Schulze ist mir auch schon aufgefallen ;-)

    Dennoch gibt es noch ein Buch (Satistische Prozessregelung – SPC), übrigens ein echt gutes Buch für die Praxis, klein und günstig aber echt gut, von Prof. Dr.-Ing. Gerd F. Kamiske und Prof. Dr.-Ing. Horst Quentin, die ebenfalls die erweiterten Grenzen Beschreiben. Des Weiteren ist im Statistical Process Control (von Daimler, Ford und GM) von „modified control limits“ die Rede. Es wird aber auf weitere Literatur verwiesen: AT&T (1984), Grant and Leavenworth (1996), Duncan (1986), Charbonneau Webster (1978). Leider konnte ich mir hiervon noch nichts beschaffen. Die Literatur müsste man über USA beziehen. Werde versuchen hier mal Literatur zu bekommen. Werde dann berichten.

    Fakt bei uns ist einfach, dass unsere Prozesse echt gut sind und unsere Qualität auch. Wir wissen das weil wir 100% prüfen wenn wir kein cpk mit min 1.33 und anschliessendem SPC haben. (Medizintechnikhersteller). Aber die normalen Karten führen bei uns einfach häufig zu eingriffen die unnötig sind. Wir haben z.B. gerade erst alles an einem Beispiel durchgerechnet. Da haben wir z.B. bei einem Prozess dauerhaft nen cpk von über 20. Weil eben auch die Toleranzgrenzen sehr weit sind. Aber auch die Streueung ist sehr klein und sehr stabil. Jetzt fährt aber mal ein Operator nicht exakt den Prozess dort an wie alle andere Kollegen (was eigentlich auch kein Problem seien sollte) und schon fallen wir zurück in die 100% Prüfung. Da mit der klassischen Mittelwertkarte dann eine Grenzverletzungen auftritt. Die erweiterten Grenzen bringen DIE Lösung. Aber wenn sie statistisch fragwürdig sind… Über die 86,64% bin ich auch gestolpert und auch über die Begründung.

    Bin gespannt auf eine weitere Diskussion…

    Gruss
    xcurit

    QM-FK
    Teilnehmer
    Beitragsanzahl: 469

    Hallo, xcurit

    In diesem Forum gibt’s übrigens bereits einige sehr gute Hinweise zur Anwendung von cpk; einfach mal über die Suche gehen. [:)]

    Die Normalverteilungsannahme wird bereits erheblich gestört, wenn ich die Schlecht-Teile bei einer 100%-Prüfung aussortiere. (Stichwort: Zensierte Daten).

    Wenn man Fähigkeitsuntersuchungen ausschließlich auf die aus dem Prozess ermittelten Standardabweichungen bezieht und nicht auf erforderliche Toleranzen, braucht man sich nicht zu wundern, wenn bei der 100%-Prüfung alles OK ist, da ich mit den Anforderung vergleiche und trotzdem die Regelkarte ständig Ausreißer meldet.

    Ich hatte einmal gesehen, dass ein Hersteller einen cpk-Wert von > 60 (!) erzielen konnte, wenn die Grenzwerte für die Teile-Spezifikationen zugrunde gelegt wurden.
    Abgesehen davon, dass Ihr mit einem cpk von > 20 sehr teuer produziert:
    Was hindert Euch denn, die klassischen Denkmuster im Sinne des GMV anzupassen?

    Verwende einfach mal die folgenden (oder ähnliche) Definitionen:
    Zielwert (= Mittelwert, bzw. Nennmaß).
    Regelbereich (= klassischer cpk / ppk, mit den prozesstypischen Standardabweichungen)
    Warngrenze (= ab wann die Aufmerksamkeit des Operators gefordert ist)
    Eingriffsgrenze (= wenn z.B. die Maschine nachgestellt werden soll)
    Nacharbeitsgrenze (= wenn z.B. durch einen nachgeschalteten Poliervorgang die Dimension ggf. noch korrigiert werden kann)
    Ausschussgrenze (= wenn mit dem Teil nichts mehr zu machen ist)

    Man braucht nicht all diese Linien in der SPC-Karte, es soll ja nur der Denkansatz verdeutlicht werden.
    Die Nacharbeitsgrenze ist übrigens meist einseitig …

    Ansonsten müssten sich Eure Ergebnisse aus der 100%-Prüfung und der cpk-Analyse für den unkorrigierten Prozess decken.

    Viele Grüße
    QM-FK

    Don’t think it – ink it.

    diamant-schwarz
    Mitglied
    Beitragsanzahl: 100

    Wenn ihr jetzt schon rausgefunden habt, dass die Fehler auf den Mensch beim Einfahren der Maschine zurück zu führen sind – warum wird dann nicht dort angesetzt?
    Ich habe es in viele Firmen so gesehen, und bei uns wird es auch so praktiziert, dass es ein „Einfahrteil“ gibt, das wird auf die wichtigsten Maße vermessen und dann verschrottet. Erst wenn hier alles i.O. war wird die Serie durchlaufen gelassen.

    Gruss

    Markus

Ansicht von 9 Beiträgen – 1 bis 9 (von insgesamt 9)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben