Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: Spritzguss und Fähigkeiten #62365
Hallo Andreas,
es ist schwieriger, Spritzguss-Prozesse stabil genug zu bekommen als andere Prozesse. Das liegt teilweise daran, dass die Rohstoff-Eigenschaften einen starken Effekt haben können, der manchmal durch veränderte Maschinen-Einstellungen kompensiert wird – und manchmal nicht. xcurit hat aus meiner Sicht dazu einige sehr wichtige Punkte aufgelistet.
Bevor es an den Prozess geht, muss zunächst sichergestellt sein, dass die Schwankungen nicht durch unterschiedliches Messen entstehen. Im schlimmsten Fall sind die Prozess-Ergebnisse superstabil und nur die Messwerte unterschiedlich. Deshalb ist eine MSA vor der Prozessfähigkeit Pflicht.
Als nächstes geht es darum zu prüfen, ob der Prozess stabil ist. Wenn es keine starken Einflüsse im Prozess gibt, schwanken die Werte zufällig um einen mittleren Wert und sind damit normalverteilt. Du könntest also einfach Deine gesammelten Messwerte auf Normalverteilung prüfen und Dir mal den zeitlichen Verlauf in einer Urwertkarte anschauen.
Da Du schon gesehen hast, dass die Mittelwerte unterschiedlich sind, werden die Einzelmesswerte vermutlich nicht normalverteilt sein und auf der Urwert- bzw. Einzelwert-Karte wird es diverse rote Punkte geben, die systematische Prozess-Veränderungen anzeigen.
Eine andere Möglichkeit zu prüfen, ob der Prozess stabil ist, läuft über die Mittelwerte. Wenn die Messwerte aus einem stabilen Prozess stammen, sind die Mittelwerte der Stichprobengruppen (z. B. pro Batch, pro Tag, pro Schicht) normalverteilt, egal wie die Verteilung der Einzelmesswerte aussieht (zentraler Grenzwertsatz). Du kannst also hingehen und die Mittelwerte auf Normalverteilung testen. Hilfreich ist auch hier eine Qualitätsregelkarte für die Mittelwerte (xquer-Karte), weil damit zeitliche Veränderungen anschaulicher werden.
Wenn die Mittelwerte auch nicht normalverteilt sind, ist Dein Prozess instabil. Das gilt auch bei deutlichen systematischen Verläufen oder Mustern in der Xquer-Karte.
Unabhängig davon, ob die Mittelwerte normalverteilt sind, kannst Du die Streuung je Teilgruppe prüfen. Dafür würde ich eine Standardabweichungs-Karte (S-Karte) nehmen. Du kannst auch gleich eine xquer-S-Karte machen (=Kombination von xquer- und S-Karte in einer Grafik), dann hast Du beide Informationen auf einen Rutsch.
Vermutlich wirst Du feststellen, dass der Prozess nicht stabil ist. Um hier mit den einfachen statistischen Verfahren wie Berechnung der Prozessfähigkeit über MIttelwert und Standardabweichung weiterzukommen, muss der Prozess erst stabilisiert werden. Dabei können z. B. statistische Versuchsplanungs-Methoden (DoE) helfen, beispielsweise bei der Frage mit welchen Maschinen-Einstellungen der Effekt durch unterschiedliche Rohstoff-Qualitäten aufgefangen werden kann, damit am Ende immer das Gleiche herauskommt.
Wenn der Prozess dann verstanden und stabilisiert ist, sind die Messwerte normalverteilt und die Toleranzrechnung liefert zuverlässige Werte, mit denen ausreichend hohe Fähigkeiten erreicht werden. (Ich kenne Firmen, die das bei Spritzguss-Prozessen hinkriegen. Es ist halt einfach mit Aufwand verbunden.)
quote:
Ursprünglich veröffentlicht von Frank HergtIch glaube, daß die Anzahl der Prozesse auf dieser Welt, die Dir wirklich ein über Zeit stabiles, normalverteiltes, nur noch zufällig rauschendes Ergebnis liefern, in extrem engen Grenzen hält. Und von daher hält sich meine Meinung zu den ach so beliebten Kennwerten in ähnlich engen Grenzen.
Du hast so Recht, Frank! Die meisten Firmen kümmert es überhaupt nicht, ob ihre Prozesse irgendwie stabil sind, Hauptsache die Kennzahlen sehen schick aus. Sobald die Werte zu klein sind, gibt es hektischen Aktionismus oder die Daten werden „bereinigt“. Die wenigsten Firmen schauen sich wirklich die Prozesse an, deshalb bin ich auch immer sehr skeptisch, wenn alles an Fähigkeits-Kennzahlen gemessen werden soll.
Diese heutige Situation ist wirklich schade, denn die Statistik würde – richtig angewandt – helfen, die Prozessqualität zu verbessern. Dafür muss allerdings auch die Bereitschaft vorhanden sein, bei entsprechenden Anzeichen für nicht-stabile Prozesse wirklich etwas verändern zu wollen. Ein bisschen Ergebnis-Kosmetik bringt da nix und widerspricht auch den Ideen, die hinter den statistischen Methoden stehen.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Nested GRR in Minitab #62363Hallo reticent,
wie schön, mal wieder eine Statistik-Frage [:)]
quote:
Ursprünglich veröffentlicht von reticentKlar schaue ich als erstes auf den p-value, der mir erstmal zeigt, dass nur eine Signifikanz bzgl. der Teile besteht (Prüfer: p=0.6, Teile: p=0,00). Darüber hinaus habe ich einen ndc von 1. Hmm…das sagt mir doch, dass die Teile zwar signifikant verschieden sind ABER ich nicht fähig bin zwischen verschiedenen Klassen zu unterscheiden? Oder völliger Denkfehler?
Für die ndc wird die Teile-Streuung (Part Variation, PV) mit der Streuung durch das Messen GRR (Total Gage R&R) verglichen. Je größer die Teile-Streuung im Vergleich zur Mess-Streuung ist, desto höher wird die ndc-Kennzahl.
Eine zu kleine Anzahl unterscheidbarer Bereiche ndc (i. A. ndc<5) kann deshalb aus Teilen mit zu ähnlichen Werten oder einer zu hohen Mess-Streuung oder einer Kombination von beidem entstehen. Bei der zerstörenden Prüfung ist vor allem die Annahme, dass Deine Teile je Charge/Teile-Typ ziemlich gleich sind, ein möglicher Stolperstein.
quote:
Ursprünglich veröffentlicht von reticentWelche Kennwerte sind für mich noch von Bedeutung, um eine Aussage über mein System zu erhalten?
Falls Du eine brauchbare Kennzahl zur Fertigungs-Streuung (historische Standardabweichung, historical standard deviation) hast, würde ich die als Bezugsgröße eintragen (geht unter „Optionen“ in den MSA-Menüs in Minitab). Damit kannst Du die Mess-Streuung (Repeatability bzw. bei der geschachtelten/nested Gage R&R: GRR) mit der echten Prozess-Streuung vergleichen und schauen, wie viel Streuung durchs Messen entsteht. Dieser Vergleich gibt Infos dazu, ob Du den Prozess genau genug durch die Messwerte beurteilen kannst.
Die zweite Bezugsgröße für die Beurteilung Deines Mess-Systems sind Toleranzgrenzen oder auch eine Toleranzgrenze. Wenn Du da einen oder zwei Werte vorgibst (ebenfalls unter „Optionen“), bekommst Du eine Bewertung dazu, wie zuverlässig Deine Entscheidungen bezüglich Teiln in Ordnung oder nicht in Ordnung sind.
Wenn Du Minitab 16 hast, kannst Du dir die Ergebnisse der MSA auch im Assistenten anschauen, leider noch nicht für die geschachtelte Variante, aber die Erklärung der Kenngrößen ist bei der gekreuzten und geschachtelten Version dieselbe.
quote:
Ursprünglich veröffentlicht von reticentKann mir auch jemand erklären was der Unterschied zwischen %Study Variation und %Contribution ist? Die Hilfe von Minitab gibt da nicht viel her…
Um die Streuungs-Anteile auszurechnen, werden Streuungskennzahlen benötigt. In der MSA werden dafür die so genannten Varianzkomponenten eingesetzt. Diese Zerlegen die Gesamt-Varianz in die Einzel-Varianzen, die den unterschiedlichen Einflüssen (Prüfer, Teile) zugeordnet werden können. Dann bleibt noch ein bisschen was an Rest übrig und das ist die Wiederholbarkeit bzw. Mess-Streuung.
Das schöne an Varianzen ist, dass mit ihnen ganz viel nettes theoretisches Zeugs berechnet werden kann. Der Nachteil von Varianzen ist, dass sie mit quadrierten Einheiten arbeiten, also z. B. bei einem Messschieber mm^2 oder bei einer Waage gramm^2 oder bei einer Geldzählmaschine Euro^2. Das macht die technische Bewertung schwierig, deshalb wird in der Anwendung nicht die Varianz, sondern die Standardabweichung (=Wurzel aus der Varianz) verwendet.
Für die MSA heißt das:
Alle Varianzkomponenten zusammen haben eine Gesamt-Streuung (Total Variation) und die ist die Summe der einzelnen Varianzkomponenten (Wiederholbarkeit, Reproduzierbarkeit, Teile, usw.) Werden diese Werte nicht in absoluten Zahlen sondern als Prozentwert angegeben, hast Du %Beitrag (der VarComp) bzw. %Contribution (of VarComp). Insgesamt ist die Summe 100% (Gesamtstreuung/Total Variation).Wenn Du jetzt die Wurzel von den einzelnen Varianzkomponenten ziehst, bekommst Du die Standardabweichungen (StdAbw bzw. StdDev (SD)). Diese Werte werden mit 6 multipliziert, weil das 6-fache der Standardabweichung dem 99,73%-igen Streubereich entspricht. Für diese abosluten Werte wird jetzt wieder der Prozentwert berechnet und Du erhälst %Streu. in Unters. (%SU) bzw. %Study Var (%SV). Diese Prozentwerte ergeben NICHT mehr 100%, wenn Du sie addierst.
Dass die Summe der prozentualen Standardabweichungen nicht 100% gibt, führt immer mal wieder zur Verwirrung (Donald Wheeler hat dazu diverse Artikel geschrieben, einfach mal im Internet suchen wenns Dich interessiert). Tatsächlich ist das keine Raketen-Technik sondern etwas, das wir alle vom Satz des Pythargoras kennen:
in einem rechtwinkligen Dreieck gilt: a^2 + b^2 = c^2
Wenn wir da jetzt auf beiden Seiten die Wurzel ziehen, steht da:
Wurzel(a^2 + b^2) = Wurzel(c^2)
(und NICHT Wurzel(a^2) + Wurzel(b^2) = Wurzel(c^2) !!!)Bei der Gesamt-Streuung in der GRR-Berechnung ist a=GRR, b=PV und c=TV, d. h. wir haben
GRR^2 + PV^2 = TV^2
mit GRR^2 = EV^2 + AV^2 wird das zu der Formel (EV^2 + AV^2) + PV^2 = TV^2Bei der geschachtelten Gage R&R lässt sich keine Reproduzierbarkeit (Appraiser Variation AV) berechnen, weil die Prüfer unterschiedliche Teile(-Typen) geprüft haben. Deshalb ist in der geschachtelten MSA AV=0 und damit
(EV^2 + 0^2) + PV^2 = TV^2 bzw. EV^2 + PV^2 = TV^2Ich hoffe das klärt ein bisschen Deine Fragen und schafft nicht noch mehr Verwirrung [;)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Datenschutz und QM #62247Hallo Dietmar,
hm, schwierig. Ich habe keine Ahnung, welche Rechte hier eine Rolle spielen und wie die gegeneinander gewichtet werden.
Allerdings glaube ich, dass es hier ein datenschutzrechtliches Problem gibt, denn ich kenn das von der Mess-System-Analyse (MSA), dass hier auch nur mit Einwilligung der Prüfer personenbezogene Daten aufgenommen werden dürfen. Wenn ein Unternehmen einen Betriebsrat hat, muss dieser der personenbezogenen Datenerfassung bei der MSA zustimmen.
Einige grundlegende Infos zu Datenschutz und Formulierungen findest Du beim ULD (Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein), z. B.
Verpflichtungserklärung für Mitarbeiter, die mit personenbezogenen Daten arbeiten
Formulierung des datenschutzrechtlichen Teils vertraglicher Regelungen zur AuftragsdatenverarbeitungLinks zu Ansprechpartnern für spezielle Fragen gibt es bei datenschutz.de. Für die Privatwirtschaft sind die Ansprechpartner nach Bundesländern aufgeteilt und werden vom Bundesbeauftragten für Datenschutz auf der Internetseite gelistet (Aufsichtsbehörden für den nicht-öffentlichen Bereich). Meiner Erfahrung nach sind die Ansprechpartner durchgehend kompetent, engagiert und unterstützen gerne bei Fragen zum Datenschutz.
Habt Ihr eigentlich keinen betrieblichen Datenschutzbeauftragten? Der/die müsste sich doch gerade mit solchen Themen gut auskennen.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: cpk zu GUT #62141Hallo xcurit,
quote:
Ursprünglich veröffentlicht von xcuritGemäss Wikipedia sind die Grenzen einer QRK OEG=Mittelwert + 3*Sigma; UEG=Mittelwert – 3*Sigma. In der Literatur und in der Software ist ne komplexere Formel bei denen ja die Wahrscheinlichkeit und die Stichprobengrösse berücksichtigt ist. Ist Wikipedia hier völlig falsch? Meint Wikipedia eine x-Wert-Karte und die Bücher eine Mittelwert-Karte? Oder ist es erlaubt wenn zusätzlich eine S-Karte geführt wird? Oder ist es einfach die erste Shewhart-karte von 1930 und einfach veraltet?
Es gibt Urwert-, Einzelwert oder I-Karten (I: Individual). Die arbeiten mit +/- 3*S als Eingriffsgrenzen. Voraussetzung dafür, dass die Grenzen zum Finden von systematischen Effekten taugen ist, dass die Einzelmesswerte normalverteilt sind und es keine wichtige Gruppen-Struktur in den Daten gibt.
Wenn es eine relevante Gruppen-Struktur in den Daten gibt (z. B. je g=5 Werte aus 1 Charge, insgesamt 40 Chargen betrachtet), müssen die Gruppen in den Grenzberechnungen berücksichtigt werden. Dann sind die Formeln etwas wilder und enthalten sinnvollerweise neben der Stichprobengruppen-Größe (z. B. g=5) auch die Konstanten für die Erwartungstreue (a_g, b_g, c_g oder d_g mit g: Stichprobengruppen-Größe). Das Grundgerüst +/-3-fache Streuung bleibt erhalten, nur eben mit einem weiteren Korrektur-Faktor für die Stichprobengruppen-Größe: +/-3*k*S (k: Korrekturfaktor).
quote:
Ursprünglich veröffentlicht von xcuritIch habe enorme Unterschiede Festgestellt wenn ich mit dem Schätzer von Sigma arbeite. Dies wird mir aber in der Literatur angeraten. Allerdings habe ich auch der Einfachheitshalber mal nur Beispiele mit n=5 und nur 5 Lose durchgerechnet. Wird mit höhere Losmenge der Schätzwert von Sigma näher am Sigma gesamt sein? Interpretiere ich dies richtig?
Es gibt nicht „den“ Schätzer für die Streuung Sigma, sondern viele verschiedene Formeln mit unterschiedlichen Eigenschaften. Ob die alle bei sehr, sehr vielen Werten (>10^5) denselben Wert für Sigma ergeben hängt unter anderem davon ab, ob die Messwerte wirklich normalverteilt sind.
quote:
Ursprünglich veröffentlicht von xcuritSehr interessant ist für mich die Shewhart Karte mit erweiterten Grenzen. Gibt es hier irgendein no go Kriterium? Also wann man sie nicht einsetzten darf?
Diese Art der Qualitätsregelkarten findet sich nur und ausschließlich bei Q-Das bzw. Veröffentlichungen von Dietrich/Schulze (aktueller GF und ehemaliger GF von Q-Das). Ich kenne keine Veröffentlichung in der statistischen Fachlitertur (z. B. Journal of Quality Technology / ASQ oder Montgomery „Introduction to Statistical Quality Control“), die eine derartige Erweiterung beschreibt.
Abgesehen von den statistischen Hintergründen die gegen eine derartige Berechnung sprechen (und die zu umfangreich für ein Forum sind, Links s. u.) gibt es für mich einen direkten logischen Knick in den Annahmen für die erweiterten Eingriffsgrenzen:
- Für die Streuung in den einzelnen Stichprobengruppen wird der 99,73%-Bereich verwendet (+/-3-fache Streuung innerhalb der Stichprobengruppen).
- Für die Streuung der Mittelwerte der Stichprobengruppen wird dagegen der 86,64%-Streubereich verwendet (+/-1,5-fache Streuung zwischen den Gruppen).
86,64% ist aber ein völlig unüblicher Bereich für Qualitätsregelkarten und es erschließt sich mir nicht, warum die Streuung der Mittelwerte (Unterschiede zwischen den Stichprobengruppen) deutlich weniger groß sein soll als die Streuung innerhalb der Stichprobengruppen. Dennoch sollen die erweiterten Eingriffsgrenzen 99,73% der Messwerte abdecken.
Als Begründung wird von Dietrich/Schulze angeführt, dass der Faktor 1,5 „sich als praktikabel herausgestellt hat“ und dieser Wert empirisch ermittelt wurde.
Was allerdings komplett fehlt ist jegliche Untersuchung der Sensitivität oder ARL (average run length) der Karten mit erweiterten Eingriffsgrenzen. Ob diese Karten Prozess-Veränderungen wirklich zuverlässig finden können und inwiefern die Regeln für systematische Veränderungen hier angewendet bzw. modifiziert werden müssen, bleibt unklar. Einfach zu behaupten, das würde in der Praxis funktionieren, reicht für belastbare statitistische Aussagen nicht aus.
Ich kann jeden Anwender verstehen, der nach einem Ausweg bei Prozessen mit deutlichen Unterschieden zwischen den Stichprobengruppen sucht, z. B. weil es eine starke Chargen-Abhängigkeit gibt und jede Material-Charge für sich eine kleine Streuung hat, die Unterschiede zwischen den einzelnen Chargen aber groß sind. Um diese Sprünge zuverlässig mit statistischen Methoden beschreiben zu können müssen zuverlässige Methoden verwendet werden. Die sind leider sehr sperrig und wenig anschaulich (Links s. u.)
quote:
Ursprünglich veröffentlicht von xcuritBei den Shewhart-karten ist je die Toleranzgrenze nicht angegeben. Dann ist es aber doch theoretisch möglich, dass wenn die Karte dynamisch ist und die Grenzen immer wieder neu berechnet werden sie irgendwann mal aus der Toleranzgrenze laufen könnte, oder nicht? Ausser ich bestimme immer wieder den cpk?
Qualitätsregelkarten sollen nur und ausschließlich den Prozess auf systematische, nicht-zufällige Veränderungen untersuchen. Das ist von den Toleranzgrenzen unabhängig und deshalb werden die auch bei den Shewart-Karten nicht berücksichtigt.
Das SPC-System umfasst neben den Qualitätsregelkarten (QRKs) andere Punkte wie beispielsweise der Nachweis einer (Kurzzeit-)Prozessfähigkeit bevor mit QRKs ein Prozess überwacht wird, um (so gut wie) keine Toleranzgrenzen-Verletzungen im normalen Prozess zu haben.
Die Grenzen für eine QRK werden 1 Mal berechnet und gelten solange, bis es deutliche Anzeichen für eine Prozess-Veränderung gibt oder der Prozess deutlich verändert wird. Dann beginnt der Spaß von vorne, d. h. es muss erst wieder geprüft werden ob der Prozess stabil und leistungsfähig genug ist, bevor mit neu berechneten Grenzen der neue Prozess mit einer QRK überwacht werden kann.
Auch wenn es heute sehr einfach ist, die Grenzen in QRKs immer mal wieder neu zu berechnen, widerspricht das den Grundsätzen des SPC-Systems. Denn SPC ist deutlich mehr als das Eintragen von Messdaten in eine Qualitäts-Regelkarte!
quote:
Ursprünglich veröffentlicht von xcuritIm ersteren Buch ist die Berechnung der erweiterten Grenzen an einem Beispiel dargestellt. Mittels Q-DAS komm ich auch auf die Lösung. Ich tu so etwas aber gerne richtig nachvollziehen weshalb ich versuche die Einzelwerte für die Endformel zu berechnen. Zum einen errechnet er eine Standardabweichung zwischen den Stichproben (0.0770128) zum anderen eine Standardabweichung innerhalb der Stichproben (0.0113358). Auf letzteres komme ich. Alle einzelnen Standardabweichungen ^2 dann den Mittelwert und die Wurzel. Aber auf die 0.0770128 komme ich nicht. Auch nicht mit einer Anova in Excel oder Minitab. Hoffe jemand hat das Buch und überhaupt die Lust dies mal zu checken.
Die Streuung für die Mittelwerte ergibt sich aus der Varianzkomponente eines ANOVA-Modells mit zufälligem Effekt. Das kannst Du in Minitab mit dem GLM-Menü berechnen:
Statistik > Varianzanalyse (ANOVA) > Allgemeines Lineares Modell (GLM)
Antworten: [Spalte mit Messwerten]
Modell: [Spalte mit Stichprobengruppen]
Zufallsfaktoren: [Spalte mit Stichprobengruppen]
> Ergebnisse: Haken setzen bei „Erwartetes Mittel der Quadrate udn Varianzkomponenten anzeigen“
> OK > OKIm Sessionfenster gibt es dann einen Eintrag „Varianzkomponenten unter Verwendung von korrigierter SS“ und in der Tabelle ist der Wert der Varianzkomponenten unter „Geschätzter Wert“ eingetragen.
Um die Streuung für die erweiterten Eingriffsgrenzen berechnen zu können, musst Du nur noch die Wurzel aus diesem Wert ziehen.
quote:
Ursprünglich veröffentlicht von xcuritSo zur letzten Frage. Was haltet ihr eigentlich davon den cpk auf einer Regelkarte zu überwachen?
Um den Cpk zuverlässig mit einer Qualitätsregelkarte überwachen zu können brauchst Du zwingend normalverteilte Einzelmesswerte. Ohne Normalverteilung gibt es keine (direkten) Konfindenzintervalle für den Cpk und damit auch keine (direkte) Möglichkeit, den normalen 99,73%-Streubereich für den Cpk anzugeben.
Cpk-Werte sind nur dann aussagekräftig, wenn ausreichend viele Messwerte für die Berechnung verwendet werden. „Ausreichend viele“ heißt mindestens 100 Einzelmesswerte pro Cpk-Wert. Für eine Regelkarte brauchst Du mindestens 100 Cpk-Werte, also insgesamt 100*100=10.000 Einzelmesswerte, um zuverlässige Streubereichs-Grenzen berechnen zu können. Wenn Ihr so viele Messwerte habt und die auch noch normalverteilt sind, dann könnt Ihr eine Cpk-Regelkarte mit zuverlässigen Grenzen berechnen.
Ich würde eher die klassischen Regelkarten getrennt nach Mittelwert und Streuung verwenden, um leichter erkennen zu können wie sich der Prozess geändert hat. Denn im Cpk sind Mittelwert und Streuung zusammen drin und Du kannst nur am Cpk-Wert nicht erkennen ob sich der Mittelwert oder die Streuung oder beides verändert hat. Außerdem sind Cpk-Werte echt langsame Signale aus dem Prozess, weil erstmal 100 Werte zusammenkommen müssen. Da reagieren Mittelwert-/Einzelwert-/Streuungs-Karten sehr viel schneller.
Wenn Du allerdings eher in Richtung SPC=“show program for customer“ unterwegs bist, sind solche Cpk-Karten natürlich super. Sieht toll aus und macht selten Probleme [;)]
Viele Grüße
Barbara
PS: Für diejenigen, die mal schauen wollen wie solche Formeln für Modelle mit zufälligen Effekten (=zufällige Veränderung der Mittelwerte in Stichprobengruppen, ANOVA with random effect) aussehen gibts hier noch Links. Um den Prozess-Streubereich bzw. den „normalen“ Bereich für einen Prozess mit Sprüngen zwischen den Stichprobengruppen vorherzusagen, wird ein Vorhersage-Intervall für die Mittelwerte benötigt (prediction interval).
Die Formeln sind anspruchsvoll und ich würde sie einem Anwender zum Verstehen nur dann empfehlen, wenn er/sie das wirklich will:
Stack Exchange / Cross Validated: Prediction interval for the one-way random effect ANOVA.
T.Y. Lin, C.T. Liao [2008]: Prediction intervals for general balanced linear random models.
Journal of Statistical Planning and Inference, Volume 138, Issue 10, Pages 3164-3175, ISSN 0378-3758————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Eingabe in QS-STAT #62139Hallo Athina,
für die Umsetzung in qs-stat würd ich mal bei deren Hotline anrufen. Die müssten das eigentlich wissen.
Eine Erklärung warum Du zwei Toleranzen angeben musst, findest Du in Deinem anderen Thread „Positionstoleranzen Statistisch bewerten“.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Positionstoleranzen Statistisch bewerten #62138Hallo Athina,
willkommen im Qualitäter-Forum [:)]
Bei Positions-Toleranzen in x- und y-Richtung wird in der Statistik die Rayleigh-Verteilung (auch Betragsverteilung 2. Art) verwendet. Du solltest also zuerst mal schauen, ob die Eigenschaften Deiner Messdaten damit ausreichend gut beschrieben werden können. Ein einfacher Test ist, die Messwerte getrennt nach x- und y-Richtung auf Normalverteilung zu prüfen.
Infos zur Rayleigh-Verteilung gibts z. B. bei Wikipedia:
http://de.wikipedia.org/wiki/Rayleigh-Verteilung
Für die Rayleigh-Verteilung kannst Du zuerst die Summe der quadrierten x- und y-Werte berechnen und anschließend die Wurzel aus dieser Summe ziehen. Damit hast Du dann auch 1 Merkmal (= Abstand = Wurzel(x^2+y^2)) und kannst mit 1 Toleranz (OSG=0,4) eine Fähigkeit berechnen.Es ist für zuverlässige Prozessfähigkeits-Kennzahlen immer besser, mit GMV (Gesundem MenschenVerstand) eine sinnvolle Verteilung auszuwählen als zu versuchen, aus Messdaten die „passende“ Verteilung berechnen zu lassen. Keine Software dieser Welt kann Dein Wissen zur Mess-Situation ersetzen.
Die Verteilungen sehen sich so ähnlich, dass echte Messwerte zu unterschiedlichen Verteilungen passen können (und es gibt eine sehr, sehr große Menge von Verteilungen). Bei der Prozessfähigkeit ist eine Verteilungsauswahl über die Messwerte nicht empfehlenswert, weil auch sehr ähnlich aussehende Verteilungen sehr unterschiedliche Kenngrößen liefern können. Diese unterschiedlichen Kenngrößen ergeben dann auch unterschiedliche Werte für die Prozessfähigkeit.
Ein anderer Ansatz für die Prozessfähigkeits-Bewertung bei mehr als 1 Merkmal (z. B. x-Richtung = Merkmal 1 und y-Richtung = Merkmal 2) sind multivariate Prozessfähigkeits-Werte. Ich vermute mal, dass Du bei denen gelandet bist, weil da die Ellipsen verwendet werden. Das erklärt auch, warum Du für jede Richtung einzelne Toleranzen eingeben musst, denn da werden alle Merkmale separat bewertet und die Bewertungen dann kombiniert.
Das tatsächliche Rechnen ist ein ganzes Stück komplizierter. Mehr Infos findest Du z. B. hier:
Santoz-Fernandes, Edgar; Scagliarini, Michele [2012] MPCI: An R Package for Computing Multivariate
Process Capability Indices). American Statistical Association, Journal of Statistical Software, Vol. 47, Issue 7, p. 1-15
Pn, Jeh-Nan; Lee, Chun-Yi [2010] New Capability Indices for Evaluating the Performance of Multivariate Manufacturing Processes. John Wiley and Sons, Quality and Reliability Engineering International, Vol. 26, p. 3-15Hilfreicher als die Formeln dürften die Bilder sein [;)]
Da ich Deine Messwerte nicht habe, hab ich mal versucht mit den Beispielwerten aus
Dietrich, E.; Schulze, A. [2009] Statistische Verfahren zur Maschinen- und Prozessqualifikation. Hanser Fachbuchverlag, S. 357
Po und Pok nachzurechnen. Im dem Beispiel im Buch errechnet sich Po=1,68 und Pok=1,56. (Die Abbildung 9.13-3 passt so überhaupt gar nicht zu der Höhe der Fähigkeitswerte, aber das ist ein anderes Thema.) Leider fehlt jeglicher Hinweis auf den Ursprung der verwendeten Formeln.Die Bezeichnungen sind auf jeden Fall schon mal andere als die, die in der Statistik-Fachliteratur zu finden sind. Nach der Beschreibung im Text werden die multivariaten Fähigkeitswerte über einen Vergleich der Toleranzregion mit dem Prozessbereich ermittelt (Volumen-Methode). Eine andere Möglichkeit wäre mit Hauptkomponenten (PCA principal component analysis) zu arbeiten; davon steht im Buch aber nichts.
Bei den Volumen-Vergleichen gibt es drei Ansätze von Shahriari, Taam und Pan & Lee und alle drei liefern nur jeweils 1 Fähigkeitswert:
CpM = 1,64
MCpm = 2,41
NMCpm = 2,40Mit den drei Hauptkomponenten-Verfahren von Wang & Chen, Xekalaki & Perakis sowie Wang werden jeweils ein MCp und ein MCpk (ähnlich wie Cp und Cpk) berechnet:
Wang & Chen: MCp = 1,25, MCpk = 1,09
Xekalaki & Perakis: MCp = 1,63, MCpk = 1,52
Wang: MCp = 1,31, MCpük = 1,16Am nächsten liegen damit die Werte von Xekalaki & Perakis (1,63/1,52) an Po und Pok aus dem Dietrich/Schulze-Buch (1,68/1,56), aber der Abstand ist so groß, dass das wahrscheinlich keine Rechengenauigkeits-Unterschiede sondern eher andere Formeln sind.
Eventuell findest Du diese Formeln in dem Norm-Entwurf E DIN 55319-2:2007-09 „Statistische Verfahren – Teil 2: Qualitätsfähigkeitskenngrößen zur Beurteilung von Prozessen bei multivariat normalverteilten Merkmalswerten“. Ob das wirklich mal eine echte Norm wird ist zweifelhaft, weil das auch das Thema der ISO 22514-6:2013 „Statistische Verfahren im Prozessmanagement – Fähigkeit und Leistung – Teil 6: Prozessfähigkeitskennwerte für mehrdimensional normalverteilte Merkmale“ ist. (Da ich beide Normen nicht habe, kann ich wenig zum Inhalt sagen.)
Eins passt jedenfalls nicht zu den Normen und üblichen multivariaten Prozessfähigkeits-Kenngrößen: die Mischverteilung. Sowohl die Normen als auch die multivariaten Prozessfähigkeits-Kenngrößen nehmen immer an, dass die Messwerte jedes einzelnen Merkmals normalverteilt sind.
Bei ISO.org findet sich zur ISO 22514-6 der Hinweis, dass nur verschiedene Formeln vorgestellt werden, aber keine Empfehlung gegeben wird welche Formel „die beste“ ist. Die Unterschiede mit den sechs Methoden sind schon erheblich mit MCpk nach Wang & Chen von 1,09 und MCpm nach Taam von 2,41. Vermutlich ist das mit ein Grund, warum multivariate Fähigkeitskennzahlen weniger gebräuchlich sind.
So richtig kann ich Deine Frage also auch nicht beantworten. Ich hoffe es hilft Dir trotzdem ein Stückchen weiter.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Black Belt #62129Hallo reticent,
tut mir leid, ich weiß leider nicht, woher die Magnete stammten. Vielleicht fragst Du mal bei Deinem Messgeräte-Hersteller nach, mit welchen Referenzteilen die die Dinger kalibrieren?
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Black Belt #62125Hallo reticent,
wie schon weiter oben geschrieben (Posting vom 29.05.) brauchst Du am Anfang nicht zwingend echte Zahlen und wenn das so schwierig ist dranzukommen, dann bleib einfach bei der allgemeinen Risiko-Bewertung für nicht-untersuchte Mess-Systeme. Andernfalls dauert die Definition des Projekts länger als das Projekt selbst und auch wenn die Definition bzw. das Aufsetzen der Project Charter extrem wichtig sind, sollte der Aufwand dafür in einem vertretbaren Rahmen verglichen mit dem Rest des Projekts liegen.
Und sollte irgend jemand das nicht akzeptieren (z. B. Dein Ausbilder), kannst Du ihm/ihr ja sagen welche Zahlen Du in Betracht gezogen und warum Du sie verworfen hast bzw. sie vor dem Projekt-Start nicht verfügbar sind. Und ihn/sie bitten, Dir etwas an dieser Stelle weiterzuhelfen.
Es gibt keinen absoluten Zwang eine bestimmte Methode oder Kennzahl in einem Six Sigma-Projekt zu verwenden. Das muss immer zum Projekt und Ziel passen, deshalb würd mir die Risikobewertung ohne Zahlen bzw. mit hypothetischen Zahlen (MU=50% -> Fehl-Entscheidungsrisiko 20TSD EUR/Jahr) reichen. Wenn das fur jemand anderen nicht reicht, müsste der/die Dir auch Input dazu geben können, was er/sie an dieser Stelle für sinnvoll hält.
Oder Du bringst da noch mal einen ganz anderen Grund für das Projekt an, z. B. „Entwicklung einer umsetzbaren Standard-Methode nach ISO 22514-7 für zerstörende Prüfungen im Prozess xy“. Die ISO 22154-7:2012 Statistical methods in process management — Capability and performance — Part 7: Capability of measurement processes ist die erste allgemeine Norm zur Mess-Unsicherheit. Viel davon steht in der GUM oder MSA 4 oder VDA 5, aber so ein bisschen was Neues gibts bei den Kenzahlen auch (vor allem neue Bezeichnungen).
Oder Du entwickelst (unabhängig von der Norm oder GUM) eine Mess-Methode, mit der Ihr reproduzierbare Werte für Eure zerstörende Prüfung aufnehmen könnt (s. o. Beispiel mit den Magneten).
Das soll ja nur ein Green Belt und kein Master Black Belt-Projekt werden [;)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: cpk zu GUT #62124Hallo xcurit,
willkommen im Qualitäter-Forum [:)]
Qualitätsregelkarten funktionieren dann, wenn der Prozess stabil ist. In diesem Fall kannst Du über die Warn- und Eingriffsgrenzen systematische Veränderungen frühzeitig finden. Stabil heißt hier, dass die Kenngrößen der Regelkarte nur zufällig streuen und KEINE unterschiedlichen, deutlichen systematischen Effekte auf sie wirken.
Das scheint bei Deinem Prozess anders zu sein, denn sonst dürfte die Einfahr-Methode des Werkers keinen derartigen Effekt haben. Insofern würde ich vermuten, dass Eure Schwierigkeit in der Anwendung von Methoden für stabile Prozesse (Qualitätsregelkarten) in einem nicht-stabilen Prozess (z. B. Einfahr-Abhängigkeit) liegen. Welche Qualitätsregelkarte(n) setzt Ihr denn ein?
quote:
Ursprünglich veröffentlicht von xcuritDer ermittelte cpk sagt doch aus, dass der Prozess beherrscht und fähig ist und ich in Zukunft ein geringes Risiko habe Schlechtteile vorzufinden.
Nein, der Cpk ist erstmal einfach nur eine Kenngröße. Ob da tatsächlich auch eine belastbare Aussage über die Prozessqualität drinsteckt, hängt von anderen Aspekten ab:
- Mess-Unsicherheit klein genug?
- ausreichend viele Messwerte?
(das dürfte bei 300 Werten erfüllt sein) - stabiler Prozess?
(da würde ich schon eher Schwierigkeiten vermuten) - Messwerte über eine geeignete Verteilung ausreichend gut beschreibbar?
(hier wird es in der Praxis oft sehr spannend) - Berechnungsmethode für den Cp und Cpk
Die Aussagekraft der Prozessfähigkeits-Kenngrößen hängt extrem davon ab, ob die Voraussetzungen erfüllt sind. Im ungünstigsten Fall liegt die Prozessfähigkeit so weit neben der tatsächlichen Prozessleistung, dass die Kenngröße keine Aussagekraft hat.
Solange in Eurem Prozess starke systematische Effekte auftauchen kann die Prozess-Überwachung und -Regelung über Qualitätsregelkarten nicht funktionieren. Müsst Ihr denn überhaupt damit arbeiten? Braucht Ihr Prozessfähigkeitswerte? Oder könnt Ihr da auch mit anderen Methoden unterwegs sein?
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Black Belt #62123Hallo reticent,
kannst Du nicht einfach eine kleine MSA / Gage R&R machen und daraus die IST-Werte nehmen? Wenn nicht, könntest Du auch mit halbwegs belastbaren geschätzten Werten die Project Charter schreiben.
Wichtig ist immer die folgenden zwei Fragen zu beantworten:
1. Warum glaube ich, dass dieses Projekt sinnvoll ist?
2. Warum ist dieses Projekt für meine Firma sinnvoll?Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: cpk – unterschiedliche Stichprobenumfänge #62115Hallo Christian,
herzlich willkommen im Qualitäter-Forum [:)]
Erstmal ein paar Wort vorweg zu den Prozessfähigkeits-Normen:
DIN ISO 21747:2007 „Statistische Verfahren – Prozessleistungs- und Prozessfähigkeitskenngrößen für kontinuierliche Qualitätsmerkmale“
Status: veröffentlicht
Ersatz für DIN 55319 „Qualitätsfähigkeitskenngrößen“
Übersetzung der ISO 21747:2006ISO 21747:2006 „Statistical methods – Process performance and capability statistics for measured quality characteristics“
Status: ersetzt durch ISO/FDIS 22514-2ISO/FDIS 22514-2:2013 „Statistical methods in process management — Capability and performance — Part 2: Process capability and performance of time-dependent process models“ (auf deutsch übersetzt „Statistische Verfahren im Prozessmanagement – Fähigkeit und Leistung – Teil 2: Prozessleistungs- und Prozessfähigkeitskenngrößen für zeitabhängige Prozess-Modelle„
Status: in Bearbeitung / Norm-EntwurfISO/TR 22514-4:2007 „Statistical methods in process management – Capability and performance – Part 4: Process capability estimates and performance measures“ (auf deutsch übersetzt „Statistische Verfahren im Prozessmanagement – Fähigkeit und Leistung – Teil 4: Prozessfähigkeitsschätzer und Prozessleistungsmaße“)
Das heißt zusammengefasst: Die deutsche Prozessfähigkeits-Norm DIN ISO 21747 hat bei der ISO den Status „ersetzt durch ISO/FDIS 22514-2“. In der ISO/FDIS 22514-2 steht etwas sehr ähnliches wie in der DIN ISO 21747 bzw. ISO 21747 mit zwei wesentlichen Unterschieden:
1. ISO/FDIS 22514-2 ist speziell für zeitabhängige Prozesse. (Prozessfähigkeiten für nicht-zeitabhängige Prozesse werden in ISO 22514-4 beschrieben.)
2. Für die Verteilungszeitmodelle B, C1, C2, C3, C4 und D ist der Prozess nicht unter statistischer Kontrolle (not under statistical control) bzw. nicht beherrscht.Der zweite Punkt hat direkte Auswirkungen auf die Angabe der Kennzahlen, denn nach DIN ISO 21747 (3.1.4.2-3.1.4.4 jeweils Anmerkung 1) , ISO/FDIS 22514-2 (7.1 vor der Definition von Cp und Cpk) und ISO/TR 22514-4 (6.1 erster Absatz) gilt:
Cp und Cpk (Prozessfähigkeit): nur wenn für Prozesse bei denen statistische Kontrolle nachgewiesen ist
Pp und Ppk (Potentielle Prozessleistung): auch für Prozesse bei denen noch kein Nachweis der statistischen Kontrolle vorliegtWenn Du also einen Cp/Cpk-Wert berechnen willst, brauchst Du nicht-zeitabhängige Prozesse, bei denen nachgewiesen worden ist, dass sie beherrscht sind.
In der Praxis macht das (zumindest in Deutschland) kaum jemand so. Ich kenne diverse Firmen die immer nur Cp/Cpk (egal ob der Prozess beherrscht ist oder nicht) angeben und es gibt auch einige Firmen bei denen per Arbeitsanweisung vorgegeben ist, dass alle Prozessdaten normalverteilt sind. Beides ist eine Abweichung von den Prozessleistungs-/Prozessfähigkeits-Normen.
Diese ganzen Informationen sind wichtig, weil mit der Auswahl der Norm auch die Berechnungsmethoden variieren:
DIN ISO 21747, ISO/FDIS 22514-2: geometrisches Verfahren und andere Methoden
ISO 22514-4: Berechnung auf Basis von Verteilungsquantilen Q50%, Q99,865% und Q0,135%Jetzt mal konkret zu Deinen Fragen zu Kennzahlen für ungleiche Stichprobenumfänge [;)]
quote:
Ursprünglich veröffentlicht von AlfalfaGibt es aber auch die Möglichkeit, die entsprechenden Schätzer abhängig von ihren Unterstichproben zu berechnen? Ich finde in der DIN nur Methoden für jeweils gleichen Stichprobenumfang der Unterstichproben.
Klar gibt es in der Statistik auch Formeln für den mittleren Wert oder die Streuung, in denen unterschiedliche Stichproben-Umfänge berücksichtigt werden. Nach DIN ISO 21747 ist M1 das allgemeine geometrische Verfahren. Die Berechnungsformeln werden bei M1 durch zwei Indizes l (location/Lage) und d (dispersion/Streuung) angegeben.
Wenn Du einfach nur Kennzahlen nach DIN ISO 21747 berechnen willst, könntest Du für den mittleren Wert mit l=4 den Mittelwert der Stichprobenmittelwerte verwenden.
Für die Streuung-Kennzahlen wären d=1, d=2 oder d=3 möglich, bei denen auch unterschiedliche Stichprobenumfänge berücksichtigt werden können. Die allgemeineren Formeln findest Du z. B. in Formulas for Estimating the Standard Deviation for Capability Analysis (S. 2):
d=1: Durchschnitt der Stichproben-Standardabweichungen (englisch: Sbar, average of subgroup standard deviation)
d=2: zusammengefasste Stichproben-Standardabweichungen (englisch: pooles standard deviation)
d=3: Durchschnitt der Stichproben-Spannweiten (englsich: Rbar, average of subgroup ranges)quote:
Ursprünglich veröffentlicht von AlfalfaIch denke nämlich, dass bei einem „Zusammenlegen“ aller Stichproben durchaus Informationen verloren gehen, und der cpk-Wert so nicht ganz „richtig“ ist? Stimmt das?
Bei der Prozessfähigkeit geht es um die Gesamt-Bewertung eines Prozesses. Hierfür werden alle Werte in einen Topf geworfen und daraus die Streubreite ermittelt. (Deinem Kunden ist es schließlich auch herzlich wurscht, ob Ihr zwischendurch mal besser oder schlechter gewesen seid. Er möchte eine Aussage für den gesamten Prozess haben.)
Es gibt auch die Möglichkeit, eine Prozessfähigkeit mit Berücksichtigung der Stichprobengruppen zu berechnen (heißt dann auch Prozessfähigkeit innerhalb oder potentielle Prozessfähigkeit). Die liefert aber keine Informationen zum Gesamt-Prozess, sondern zeigt auf wie gut Ihr sein könntet, wenn Ihr alle Stichproben auf ein gleiches Lage-Niveau kriegen würdet. Hier werden dann die Formeln für d=1, d=2 oder d=3 verwendet. Die Lage wird allerdings immer über den Gesamt-Mittelwert berechnet (l=1).
ACHTUNG: Diese Formeln liefern nur dann Informationen zur Prozessfähigkeit(innerhalb), wenn die Prozessdaten normalverteilt sind (Verteilungszeitmodell A1 oder A2). Bei anderen Verteilungen können diese Werte zwar berechnet werden, sind aber als Streuungs-Kennzahlen unbrauchbar. Eine ausführlichere Begründung dazu gibt es in dem Artikel Why Minitab does not calculate within-subgroup capability indices in capability analysis with nonnormal data.
Bevor Du jetzt mit der Programmierung anfängst wäre es deshalb sinnvoll darüber nachzudenken, worum es Dir geht:
a) Prozessleistungs-Kennzahlen Pp/Ppk nach DIN ISO 21747, die bei nicht-beherrschten Prozessen irreführend sein können weil sie die Leistungsfähigkeit sowohl über- als auch unter-schätzen können
b) Prozessfähigkeits-Kennzahlen Cp/Cpk für die Du eine Verteilung brauchst und dann über die Verteilungsquantile die Fähigkeitswerte berechnest (unabhängig von der Anzahl Messwerte je Stichprobengruppe) bzw. bei normalverteilten Daten Prozessfähigkeit(gesamt) und Prozessfähigkeit(innerhalb)Mit den Prozessfähigkeits-Kennzahlen ist es ein bisschen so wie mit dem Eisberg und der Titanic: Auf den ersten Blick sieht der Eisberg harmlos aus und wenn Du dann näher kommst wirds gefährlich. Denn nichts ist schlimmer als ein gut aussehender Fähigkeitswert, der das Qualitätsniveau eines Prozesses überschätzt: Du glaubst die Prozesse funktionieren und kriegst unerwartet jede Menge Probleme.
Ich hoffe das hilft Dir trotzdem ein bisschen weiter [;)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Black Belt #62084Hallo reticent,
wenn es um die Untersuchung des Mess-Prozesses geht, brauchst Du auch einen Weg, um unabhängig von der Qualität der gefertigten Teile die Mess-Unsicherheit bewerten zu können. Andernfalls läufst Du Gefahr, dass am Ende die Fertigungs-Qualität und die Mess-Prozess-Qualität nicht voneinander zu trennen sind und der Erkenntnisgewinn überschaubar ist.
Hier mal einige Ideen dazu, wie das Projekt definiert werden könnte:
Problem: Mess-Unsicherheit ist bislang nicht quantifizierbar. Hierdurch gibt es keine Möglichkeit, die Qualität der gefertigten Teile sauber zu überwachen. Damit verbunden ist das Risiko, schlechte Teile / Chargen irrtümlich als gut und umgekehrt zu bewerten. In der Konsequenz steigen die Ausschuss- bzw. Nachbearbeitungs-Kosten und ggf. der Aufwand für Reklamationen.
mögliche Kosten: z. B. finanzielle Auswirkungen für irrtümlich verschrottete oder nachgearbeitete Teile / Chargen, Aufwand für berechtigte Reklamationen (interner Aufwand bei der Reklamationsbearbeitung, Liefertreue-Unsicherheiten,…) An dieser Stelle fände ich es ausreichend, mit plausiblen Schätzungen eine Rechnung aufzumachen, also z. B. die Kosten pro Jahr für irrtümlich verschrottete Teile /Chargen bei verschiedenen Anzahlen (0,1%, 1% und 5% der gefertigten Teile z. B.) und die internen Kosten für Reklamationen (auch hier Anzahl in Abhängigkeit von Liefermenge) zu beschreiben. Wenn es schon mal passiert ist, dass aufgrund der Mess-Unsicherheit etwas schief gelaufen ist und Ihr das später gemerkt habt, wäre es natürlich sinnvoll, diese Zahlen auch zu verwenden. Die Project Charter ist keine Steintafel, sondern etwas das im Laufe des Projekts aktualisiert werden muss. Für den Anfang sollten deshalb so belastbare bzw. realitätsnahe Zahlen wie möglich gewählt werden, die dann im Projektverlauf geprüft und ggf. verändert werden.
Ziel: Finden einer Mess-Aufgabe, mit der die Mess-Streuung zuverlässig quantifiziert werden kann. Bewertung des tatsächlichen Risikos für gut geprüfte niO-Teile und schlecht geprüfte iO-Teile. Bei Bedarf Optimierungs-Möglichkeiten für den vorhandenen Mess-Prozess.
Eine der Herausforderungen dürfte hier sein, eine reproduzierbare Messung hinzubekommen. Ein Black Belt hat in einem ähnlichen Projekt dafür nach viel Überlegungen und Ausprobieren Magnete herstellen lassen, deren Haftkraft klar definiert war und die in ihrem Zugfestigkeitsverhalten dem der zu untersuchenden Teile ähnlich waren. Eine andere Möglichkeit wäre, den Hersteller der Zugprüf-Maschine nach seinen Ideen zu diesem Problem zu fragen.
Damit wär das für mich auch ein Six Sigma-Projekt: Es gibt ein Problem ohne Lösung, es tut (möglicherweise / wahrscheinlich) weh und es gibt ein klar definiertes Ziel [:)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: CmK oder CpK #62083Hallo Andreas,
Ihr stellt Maschinen her und später soll dann unter nicht vorher bekannten Einsatzbedingungen ein Cpk erreicht werden? Das geht meiner Erfahrung nach schief, gerade weil sich bei länger laufenden Prozessen immer mal wieder etwas ändert, mal weniger und mal mehr deutlich für ein Merkmal (z. B. Reparaturen, Wartung, Material/Rohstoffe, Werkzeug-Verschleiß,…)
Hier wäre es sicherlich sinnvoller, erstmal die Anwendbarkeit und Aussagekraft von Prozessfähigkeitskennzahlen zu hinterfragen (s. die vier Punkte oben). Damit hast Du dann in den allermeisten Fällen auch ein Argument, warum das mit der Cpk-/Cmk-Bewertung nicht zuverlässig funktionieren kann, einfach weil die Voraussetzungen nicht erfüllt sind.
Und wenn dann tatsächlich Zeichnungstoleranzen angepasst werden müssen/sollen, dann sollte auch ein Gesamt-Bild für alle Maschinen im Einsatz vorhanden sein und nicht nur Werte von 1 Maschine in 1 Werk. Es könnte doch auch sein, dass dieses Werk mit den dort vorhandenen Mitarbeitern, Materialien, Prozessabläufen,… etwas anders arbeitet als Ihr das in der Entwicklung vorgesehen habt und damit – unbeabsichtigt – die Merkmals-Qualität verschlechtert.
Gerade bei sehr komplexen Prozessen ist oft nicht direkt erkennbar, welche Auswirkungen kleine Änderungen haben (können). Deshalb würd ich hier mindestens von 3 Maschinen, besser von allen im Einsatz befindlichen Maschinen, Werte einsammeln und zunächst vergleichen, ob die Merkmalswerte überall gleich gut oder schlecht sind.
Sollte der seltene Fall eintreten, dass
1. die Voraussetzungen für Prozessfähigkeitswerte erfüllt,
2. die Merkmalswerte aller Maschinen vergleichbar sind und
3. die Prozessfähigkeit insgesamt zu klein ist
dann könnte über eine konstruktive Änderung ggf. der Prozess verbessert werden und es sollte für die nächste Maschinen-Entwicklung an dieser Schwachstelle gearbeitet werden. Denn in diesem Fall habt Ihr in der Entwicklung einfach eine systematische Schwachstelle übersehen.Ohne Eure Daten zu kennen ist meiner Erfahrung nach die Chance dafür, dass alle diese drei Punkte erfüllt werden, in etwa so groß wie die Chance, dass ein Flugzeug in meinen Vorgarten stürzt: Die Chance ist vorhanden; sie ist nur extrem klein.
Sehr viel wahrscheinlicher ist, dass es deutliche Unterschiede zwischen den Prozessen / Anwendungen in den einzelnen Werken gibt. Da wäre es dann sehr viel zielführender, nach den Ursachen für die Unterschiede zu suchen, weil die im Prozess / in der Anwendung liegen und nicht (hauptsächlich) in der Maschine.
Bei der Frage ob tatsächlich Handlungsbedarf besteht oder nicht ist es sinnvoll, die Produktionsmengen im Auge zu behalten und das bei der Bewertung zu berücksichtigen.
Blöd ist halt nur, wenn Du rechnerisch 1 Ausschussteil in 5 Jahren hast und nächste Woche jemand mit diesem 1 Ausschussteil auf der Matte steht. Die Statistik kann Dir nur etwas über die Auftrittswahrscheinlichkeit sagen, aber nicht dazu, wann genau ein Ereignis auftritt.
Das 1 Ausschussteil könnte deshalb das Einzige in den nächsten 5 Jahren sein, es könnte auch eine systematische Veränderung im Prozess gegeben haben (die von der Prozessfähigkeit-Bewertung nicht vorhersehbar ist) oder die Bewertungsbasis für die ppm-Berechnung war nicht so belastbar wie gedacht und der Prozess ist eigentlich doch schlechter. (Letzteres wird immer wieder gern genommen, wenn die Voraussetzungen nicht erfüllt sind.)
So charmant wie die Prozessfähigkeitsbewertungen auf den ersten Blick erscheinen, so kompliziert wird es in der Anwendung, weil oft viel zu wenig investiert und viel zu viel reininterpretiert wird. Und wie schon früher geschrieben: Einen allgemeinen Wert egal in welcher Höhe halte ich immer für diskussionswürdig.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Minitab und K-wert #62082Hallo reticent,
ohne Deine Rechnung genau nachvollzogen zu haben würde ich vermuten, dass die K-Werte aus einer Norm schon wegen ihrer Rundung eine gewisse Ungenauigkeit aufweisen und das Rechnen mit Software um einiges genauer ist.
Die Näherungsformeln aus den 60er und 70er Jahre sind oft ganz schön genau, weil damals einfach ein viel höherer Druck für berechenbare Annäherungen da war. (Ich kann mich auch noch an die Zeit Anfang der 90er Jahre erinnern, wo Du bei einer einfachen Mittelwert & Standardabweichungs-Berechnung zwischendurch in aller Ruhe einen Kaffee trinken gehen konntest.)
Die Normen sind meiner Erfahrung nach bei der Kombination Deutsche Norm & Statistik oft ein bisschen weniger genau, deshalb würd ich bei den Abweichungen eher auf die Norm als Ursache tippen. Wenn Du ganz sicher gehen willst, kann Du das noch mit R nachrechnen und wenn dann Excel, Minitab und R ziemlich gute Übereinstimmungen zeigen und nur die Werte mit den Norm-Kennzahlen abweichen, würde das meine Vermutung bestätigen.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Black Belt #62081Hallo reticent,
ich mach u. a. die Statistik-Themen bei der Green Belt / Black Belt / Master Black Belt-Ausbildung.
Die erste und wichtigste Frage beim Aufsetzen eines Six Sigma Projekts ist „Wo ist das Problem?“ und die zweite: „Warum tut uns das Problem weh?“
Ohne Problem lohnt sich kein Six Sigma-Projekt, weil es dann keine oder kaum Motivation gibt, Ressourcen (Zeit, Geld, Mitarbeiter) dafür bereitzustellen.
Das Problem muss nicht immer direkt mit Kosten oder Einsparungen zu tun haben. Oft findet sich allerdings bei genauerem Hinsehen auch ein finanzieller Aspekt.
Bei der Optimierung von Mess-Prozessen könntest Du z. B. die Risiken für eine falsche Entscheidung (Risiko der Fehlklassifikation) und die damit verbundenen Kosten (falsch als gut identifizierte Teile, höhere Ausschussrate durch irrtümlich als niO bewertete Teile) finanziell bewerten und auch andere Konsequenzen (Gefahren für Verfügbarkeit, Liefertreue, andere Risiken) mit heranziehen.
Wenn es „nur“ um eine verringerte Rüstzeit geht, kannst Du Kennzahlen wie Durchlaufzeit, NVA-Zeit (non value added) oder andere aus dem Lean-Bereich (z. B. VSM / value stream mapping) ansetzen. Auch wenige Minuten können sich in einem Prozess deutlich auswirken, u. a. dann, wenn dadurch weniger Material im Prozess gebunden ist (WIP / work in process) oder auch weil Du damit Engstellen im Prozess verbreitern kannst (TOC / theory of constraints).
Sehr schön für TOC finde ich das Buch
Goldratt, Eliyahu M. ; Cox, Jeff: Das Ziel. 3. Aufl.. Frankfurt am Main, New York: Campus-Verlag, 2001. -ISBN 978-3-593-36701-9.Und wenn die Lösung am Ende heißt, dass in den Prozess bzw. in den Prozess-Schritt investiert werden muss, um eine ausreichend niedrige Rüstzeit zu bekommen, dann brauchst Du eine Kosten-Nutzen-Rechnung in der der Nutzen überwiegt. Ansonsten ist das Projekt für die Tonne, ganz egal ob Du die DMAIC-Stufen durchläufst oder nicht.
Wenn von vorneherein klar ist, was die Lösung für das Problem ist, dann ist das schon grenzwertig, weil Six Sigma-Projekte üblicherweise mit einem Problem anfangen, für das KEINE Lösung in der Schublade ist. Wenn zusätzlich klar ist, dass die einzige Lösung nicht bezahlbar ist, macht so ein Projekt gar keinen Sinn, denn warum sollte ein Unternehmen Ressourcen in etwas stecken, was kein Problem darstellt bzw. ein nicht bezahlbar-lösbares Problem?
Soweit die schlechte Nachricht. Die gute Nachricht ist, dass Du das Projekt auch mit dieser eigentlich nicht lösbaren Aufgabe starten kannst, nämlich: „Rüstzeit muss optimierte werden und die Lösung muss aus Kosten-Nutzen-Sicht tragbar sein.“
Denn dafür hast Du (wenn ich Dich richtig verstanden habe) noch keine Lösung und kannst mit Deinem Team zusammen überlegen, was hier mögliche Ansätze sind (natürlich erst, nachdem Ihr das Problem definiert und die aktuelle Situation dargestellt und ausgewertet habt / DMA – Define, Measure, Analyze).
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge