QM-Forum › Foren › Qualitätsmanagement › Nutzbare Toleranzbreite für Fähigkeitsindex
-
AutorBeiträge
-
Hallo,
gibt es eine Faustformel/Grafik mit der ich schnell abschätzen kann wieviel ich von meiner Toleranz ausnutzen darf bei einem bestimmten Fähigkeitsindex + Stichprobengröße?Hallo uglyone2002,
willkommen im Qualitäter-Forum :)
Es gibt Tabellen, in denen Du siehst, wie viele Standardabweichungen innerhalb der Toleranz liegen bei einer bestimmten Fähigkeit (s. z. B. „Sigma Level“ in dieser Wikipedia-Tabelle).
Achtung: Diese einfachen Abschätzungen gelten nur und ausschließlich für zentrierte Prozess (Cpk=Cp bzw. Mittelwert des Prozesses = Mitte der Toleranz). Wenn Du als Fähigkeitskennzahl den Cpk-Wert nimmst und einen nicht-zentrierten Prozess hast, lässt sich das nicht mehr so einfach angeben.
Die Stichprobengröße wird erst dann interessant, wenn Du den Zufallsstreubereich des Fähigkeits-Indexes mit berücksichtigst. Spätestens da ist dann auch Schluss mit einfachen Berechnungen, weil die Formeln schön knusprig sind (s. z. B. Engineering Statistics Handbook, What is process capability?, „Confidence Limits For Capability Indices“).
Achtung: Die Formeln für die Zufallsstreubereiche sind nur und ausschließlich dann anwendbar, wenn Deine Daten normalverteilt sind. Für andere Verteilungen gibt es keine Zufallsstreubereiche (vgl. Rinne/Mittag „Prozeßfähigkeitsmessung“).
Dass Deine Daten sowieso ein paar Voraussetzungen erfüllen müssen, wenn die Prozessfähigkeitskennzahlen zuverlässig sein sollen (z. B. stabiler Prozess, sinnvoll ausgewählte Verteilung die in den Daten zu finden ist) und dass das für die allermeisten Prozesse nicht so einfach gegeben ist, hast Du vermutlich schon woanders gelesen, also spar ich mir diese Schleife ;)
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Barbara,
vielen Dank für deine schnelle und sehr ausführliche Antwort. Wie du sicherlich an meiner Frage schon bemerkt hast bin ich leider kein Statistikprofi.
Ich bin im Maschinenbau tätig und komme mit solchen Sachen bei Abnahmen in Berührung. D.h. das Abweichungen bestimmter Merkmale statistisch auf ihre Prozessfähigkeit ausgewertet werden müssen. Mein Part beschränkt sich dann auf das „bedienen“ von qs-stat.
Da viele verschiedene Kunden mit unterschiedlichen Toleranz/cm/cmk Vorstellungen zu uns kommen suche ich nach einer Abschätzung der Toleranzausnutzung bei gegebenen cm-werten. Natürlich ist vorausgesetzt das die zu untersuchenden Merkmale normalverteilt sind.
Mein Erfahrungsstand ist eigentlich der, das bei einem cm Wert von 1,33 ungefähr 75% der vorgegebenen Toleranz ausgenutzt werden darf. Bei cm 1,67 noch ca 60-65% und bei cm 2 schließlich nur noch 50-55%.
Kann man das mit einer griffigen Statistiktheorie untermauern??Stichprobenumfang ist bei uns üblicherweise 50 Teile.
Hallo Barbara,
vielen Dank für deine schnelle und sehr ausführliche Antwort. Wie du sicherlich an meiner Frage schon bemerkt hast bin ich leider kein Statistikprofi.Ich bin im Maschinenbau tätig und komme mit solchen Sachen bei Abnahmen in Berührung. D.h. das Abweichungen bestimmter Merkmale statistisch auf ihre Prozessfähigkeit ausgewertet werden müssen. Eine meiner Aufgaben ist es dann den Kunden mit Hilfe des Programmes qs-stat zu befriedigen.
Da viele verschiedene Kunden mit unterschiedlichen Toleranz/cm/cmk Vorstellungen zu uns kommen suche ich nach einer Abschätzung der Toleranzausnutzung bei gegebenen cm-werten. Natürlich ist vorausgesetzt das die zu untersuchenden Merkmale normalverteilt sind.
Mein Erfahrungsstand ist eigentlich der, das bei einem cm Wert von 1,33 ungefähr 75% der vorgegebenen Toleranz ausgenutzt werden darf. Bei cm 1,67 noch ca 60-65% und bei cm 2 schließlich nur noch 50-55%.
Kann man das mit einer griffigen Statistiktheorie untermauern??
Stichprobenumfang ist bei uns üblicherweise 50 Teile.
Hallo uglyone2002,
statistisch gesehen kannst Du unabhängig von einem Fähigkeitswert Werte in der gesamten Toleranz und auch außerhalb bekommen, denn der Fähigkeitswert sagt nur etwas darüber aus, wie wahrscheinlich die Werte innerhalb der Toleranz liegen.
Damit gibt es auch immer eine Wahrscheinlichkeit für Werte außerhalb der Toleranz, auch wenn sie bei großen Fähigkeitswerten quasi 0 ist, die Wahrscheinlichkeit für außer-Toleranz-Werte ist NIE =0.
Es gibt so etwas wie den normalen Prozess-Streubereich (manchmal auch „natürlich Toleranz“). Dieser umfasst (theoretisch) 99,73% aller Messwerte in einem Prozess. (Damit liegen 0,27% = 2.700ppm außerhalb des normalen Prozess-Streubereichs.)
Bei normalverteilten Werten entspricht dieser Bereich dem Intervall
Mittelwert +/- 3*StandardabweichungDer Prozess-Streubereich ist deshalb bei normalverteilten Werten 6*Standardabweichung breit (kurz: 6S).
Bei einem Fähigkeitswert Cm oder Cp wird der Prozess-Streubereich mit der Toleranzbreite verglichen:
Cm = Cp = (OTG – UTG) / (6S)
OTG: obere ToleranzGrenze
UTG: untere ToleranzGrenzeDer Unterschied zwischen Cm und Cp liegt nur in den Messdaten, die verwendet werden. Bei Cm (Kurzzeitfähigkeit) läuft der Prozess ohne Eingriff und ohne Wechsel von Werker, Material, Werkzeug, etc. Bei Cp (Langzeitfähigkeit) wird der Prozess inklusive aller üblichen Wechsel und Veränderungen betrachtet.
Wenn Du die Formel für den Cm/Cmk bzw. Cp/Cpk umstellst und sagst, Du möchtest mindestens 1,67 (=5/3) haben, brauchst Du einen Abstand zwischen Mittelwert und Toleranzgrenze von mindestens 5facher Standardabweichung (5*S).
Der Prozess darf damit mit seiner „natürlichen“ Streuung (+/-3S) nur einen Bruchteil der Toleranz ausnutzen, genauer 6S/10S=60%, um eine Fähigkeit von 1,67 zu bekommen.
Soweit hat das Nullkommagarnichts mit Deinem Stichprobenumfang zu tun. Der kommt erst ins Spiel, wenn Du zusätzlich den Unsicherheit-Streubereich bzw. das Konfindenzintervall der Fähigkeitskennzahlen berücksichigst.
Eine zuverlässige Aussage über die Kurzzeit- oder Langzeit-Fähigkeit eines Prozesses ist erst bei 100 oder mehr Werten möglich, und selbst dann ist eine Diskussion über die zweite Nachkommastelle völliger Mumpitz.
Bei 50 Werten hast Du eine Unschärfe von ca. +/-0,2 in Deinem Fähigkeitswert. Wenn Du z. B. einen Wert von 1,7 berechnest, liegt die tatsächliche Fähigkeit mit 95% Sicherheit zwischen 1,5 und 1,9.
Bei 100 Werten und einer Fähigkeit von 1,7 ist die tatsächliche Fähigkeit mit 95% zwischen 1,7 +/-0,15, d. h. zwischen 1,55 und 1,85. Auch 125 Werte liefern nicht den Durchbruch, da ist der 95%-Unsicherheitsbereich nur geringfügig schmaler (1,58 , 1,82).
Bei 500 Werten hast Du dann einen 95%-Konfidenzbereich von (1,65 , 1,75), also für einen Fähigkeitswert von 1,7 immer noch nicht genug Sicherheit, dass Du tatsächlich über 1,67 liegst. Und das Alles gilt nur und ausschließlich für stabile und normalverteilte Prozessdaten.
Wenn wir also mal den ganz dicken Daumen nehmen, müsstest Du für einen halbwegs zuverlässigen Nachweis von 1,67 mit 50 Werten
a) einen Abstand zwischen Mittelwert und jeder Toleranzgrenze <5fache Standardabweichung haben
b) einen Fähigkeitswert von mindestens 1,87 errechnen, um auch mit einer kleinen Stichprobe von 50 Werten inklusive der Unschärfe tatsächlich über 1,67 zu liegen.Ups.
Da die zweite Forderung b) schärfer als die erste ist, brauchst Du einen Prozess, der einen Abstand zwischen Mittelwert und jeder Toleranzgrenze von ca. 6facher Standardabweichung hat. Damit bleibt für die übliche Prozess-Streubreite +/-3S nur noch die halbe Toleranzbreite (50%) übrig.
Wie gesagt, dass ist ein ganz dicker Daumen für normalverteilte, stabile Prozesse. Ob diese Abschätzung überhaupt bei der Kurzzeitfähigkeit Cm/Cmk sinnvoll ist, halte ich für diskussionswürdig.
Ich hoffe, das hilft Dir trotzdem ein Stück weiter :)
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Barbara,
wow!!! Ich bin begeistert und wirklich dankbar für deine gut verständliche und ausführliche Darlegung.
Das mit den Unwägbarkeiten (dicke Daumen) habe ich verstanden. Ich will natürlich nicht mit so einer Abschätzung eine statistische Auswertung ersetzen. Vielmehr möchte ich ein Gefühl bekommen was „Möglich“ ist und was nicht.Im Normalfall sind unsere Messgrößen normalverteilt (oh mann was für eine Formulierung), also sollten deine Ausführungen auch auf uns zutreffen.
Das der Stichprobenumfang von 50 Teilen nicht optimal ist habe ich auch verstanden. Fakt ist aber das unsere Maschine mit den 50 Teilen schon bereits so um die 20h läuft. Mehr wäre zwar wünschenswert aber im Rahmen einer Abnahme nicht wirklich machbar.
Auf jeden Fall habe ich nun auch gelernt das viele unserer Kunden wohl auch eher keine Ahnung von Prozessfähigkeit und Statistik haben. Hatte letztens den Fall das einer einen cmk von 1,67 nachgewiesen haben wollte mit einer Stichprobe von 20 Teilen…
Nochmals vielen Dank das du dir die Zeit genommen hast einem Statistikneuling die Grundlagen so ausführlich zu erklären.
Grüße
uglyone2002
-
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.