Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: MSA – %R&R für nullbegrenztes Merkmal #106163
Hallo Jens,
sehr gerne :) Vielen Dank für das positive Feedback!
Du hast Recht mit Deiner Vermutung, dass 1/6 der Toleranz als Gesamtstreuung nicht so wirklich passt.
Wenn die Fähigkeit des Prozesses bekannt ist, kann aus dem Pp-Wert die Gesamtstreuung mit T/(6*Pp) berechnet werden, allerdings gibt es bei nullbegrenzten Merkmalen oft nur eine einseitige Toleranz und damit keine Norm-konforme Möglichkeit, den Pp zu bestimmen. Außerdem brauchst Du für den Pp sowieso die Gesamtstreuung und dann erübrigt sich das Hin- und Hergerechne mit der Toleranz.
Bei einem angenommenen Ppk-Wert stellt sich immer die Frage, auf Basis welcher Annahmen (oder Werte) dieser Wert als brauchbar eingestuft wird (-> Diskussions- und Verwirrungs-Potenzial). Und wenn der Ppk-Wert angenommen wird, dann steckt dahinter auch eine Annahme zur Gesamtstreuung, die Du dann auch direkt verwenden kannst.
Eine erwartungstreue Schätzung der Standardabweichung (als Streuung)= aus dem Ppko (oberer Ppk-Wert) ist nur dann möglich, wenn die Messdaten trotz Nullgrenze normalverteilt sind. Das sollte ebenfalls anhand von Messdaten verifiziert werden (aus denen dann auch die Streuung/Standardabweichung berechnet werden kann.)
Also mir fällt gerade keine sinnvolle Begründung dafür ein, wie aus einem angenommenen Ppk bei einseitig tolerierten Merkmalen über die Toleranz ein belastbarer(!) Wert für die Streuung abgeleitet werden kann, wenn keine Messwerte vorliegen.
Viele Grüße
Barbaraals Antwort auf: Prozessfähigkeit attributives Merkmal (Vorlage) #105214Hallo Daniel Sosna,
ich habe leider keine Vorlage dafür. Die Formel für die Berechnung der Prozessfähigkeit für attributive Merkmale nach ISO 22514-1 ist
Cpk_unten = z_(1-p) / 3
z: Quantil der Normalverteilung
p: AusschussrateWenn z. B. Deine Ausschussrate p=0,002 = 0,2% ist, berechnet sich der Cpk über die Excel-Formel
=NORM.INV(1-0,002;0;1) / 3 = 0,95938Damit dabei ein Ergebnis herauskommt, muss die Ausschussrate größer als 0 sein.
Viele Grüße
Barbaraals Antwort auf: MSA – %R&R für nullbegrenztes Merkmal #105213Hallo jensschneider,
bei der Bewertung der Mess-Unsicherheit gibt es zwei unterschiedliche Ansätze.
Der eine Ansatz vergleicht die Mess-Streuung mit der Toleranzbreite (VDA 5 mit Cg und Cgk, ISO 22514-7). Damit wird untersucht, ob eine belastbare Unterscheidung zwischen guten und schlechten Teilen über die Messwerte möglich ist. Die Formeln lassen sich nur und ausschließlich dann anwenden, wenn eine Toleranzbreite angegeben wird.
Bei einseitig tolerierten Merkmalen gibt es keine Toleranzbreite und eine technische Grenze (z. B. Null) ist natürlich keine Toleranzgrenze. (Bei einer technischen Null-Grenze kann es keine Werte unter Null geben, bei einer Toleranzgrenze Null soll es keine Werte unter Null geben.)
Da es in VDA 5 und ISO 22514-7 überhaupt keine Alternativen gibt, wenn nur eine Toleranzgrenze vorhanden ist, wird dann auch ab und an die technische Grenze als Toleranzgrenze eingesetzt.
Der zweite Ansatz vergleicht die Mess-Streuung mit der Breite des Anwendungsbereichs (MSA4). Hierbei spielt es keine Rolle, wie das Merkmal toleriert ist. Es geht um die Antwort auf die Frage, ob im Anwendungsbereich Veränderungen im Prozess über die Messwerte erkannt werden können.
Viele Grüße
Barbaraals Antwort auf: Varianzanalyse im 2^2 Versuchsplan #105048Hallo Andreas,
wenn Du weitere Berechnungen nachvollziehen willst, ist im Bereich DoE das Buch von Douglas Montgomery super:
Montgomery, Douglas C. (2013). Design and Analysis of Experiments.
Englisch. 8th International Student Edition. John Wiley & Sons Ltd. ISBN 9781118097939.Allgemein für Ursache-Wirkungs-Beziehungen und deutlich umfangreicher ist das hier gut:
Kutner, Michael H., Chris J. Nachtsheim und William Li (2005). Applied Linear Statistical Models.
Englisch. 5. Aufl. McGraw-Hill Professional Publishing. ISBN 9780073108742.Viele Grüße
Barbaraals Antwort auf: Nicht fähiges Messystem #105047Hallo jensschneider,
es wird in praktischen Anwendungen immer die Standardabweichung verwendet (nicht die Varianz), weil sie dieselbe technische Einheit wie das Merkmal hat.
Beispiel: Maß in mm -> Standardabweichung in mm, Varianz in mm²
Welche Art der Mess-Unsicherheit von den Toleranzgrenzen abgezogen wird (Streuung aus den Wiederholmessungen bei Verfahren 1/Prüfmittelfähigkeit, Streuung durch Messmittel und Prüfer/GRR aus Verfahren 2, Streuungskomponenten nach VDA 5 …) ist Ermessenssache.
Das wie-viel-fache der Mess-Unsicherheit für die Einschränkung der Toleranz verwendet wird, ist auch unterschiedlich. Irgend etwas zwischen dem 1-fachen und dem 3-fachen, wobei das 2-fache eher die Empfehlung aus dem Bereich Metrologie ist und das 3-fache die Empfehlung aus der Statistik.
Hilfreich bei der Entscheidung kann ein Blick auf die Gage Performance Curve sein (s. ATAG MSA Handbuch). Tools dafür gibt es u. a. hier: http://www.objectiveexperiments.com/resources/tools.html
Viele Grüße
Barbaraals Antwort auf: Prozessleistung mit Einzelwerten berechnen #104862Hallo Anatol,
es ist wie so oft bei einer statistischen Frage. Die Antwort ist „Es kommt darauf an.“
Wenn mit einer Prozessfähigkeits-Kennzahl bewertet werden soll, wie gut der Prozess sein könnte, wenn Unterschiede zwischen den Stichproben (z. B. durch Chargen) weg-optimiert werden, dann müssen in den Daten Gruppen-Merkmale (Charge, Tag, Schicht…) enthalten sein und es muss mehr als 1 Messwert in 1 Gruppe sein. Die Streuung wird ausschließlich innerhalb der Gruppen berechnet. Die Berechnungen für 1 Messwert pro Gruppe sind möglich, nur eben nicht wirklich sinnvoll.
Wenn mit einer Prozessfähigkeits-Kennzahl die Gesamtleistung des Prozesses bewertet werden soll, werden alle Messwerte zusammen betrachtet und z. B. eine Gesamt-Streuung berechnet. Dabei spielt es keine Rolle, ob eine Gruppen-Struktur vorhanden ist oder nicht (die wird ignoriert). Die Kennzahl gibt am Ende wieder, welche Qualität der Kunde insgesamt bekommt und für den ist es unerheblich, mit welcher Charge oder an welchem Tag produziert wurde. Der Kunde will eine Aussage zum Großen Ganzen.
Je nach Handbuch werden für die beiden Bewertungen verschieden Buchstaben-Kombinationen verwendet:
SPC 3 (AIAG):
+Cp, Cpk potentielle Prozessfähigkeit (mit Berücksichtigung von Gruppen)
+Pp, Ppk Gesamt-Prozessfähigkeit (alle Werte gemeinsam)
Diese Buchstaben-Bedeutung findet sich auch in Minitab(DIN) ISO 22514-Normenreihe zu Fähigkeiten (und Vorläufer DIN ISO 21747):
+Cp, Cpk Prozessfähigkeit für Prozesse mit nachgewiesender Prozess-Stabilität
+Pp, Ppk Prozessfähigkeit für Prozesse mit vermuteter Prozess-Stabilität (Nachweis Prozess-Stabilität noch nicht erbracht)Viele Grüße
Barbaraals Antwort auf: Toleranzverständnis statistisch oder absolut #104859Hallo Andreas,
es gibt nach meiner Erfahrung in ganz vielen Köpfen noch das Denken „alles in der Toleranz ist gut, alles außerhalb ist schlecht“.
Und dann kam Herr Taguchi vor ca. 60 Jahren und hat gesagt, dass es einen optimalen Punkt gibt und JEDE Abweichung vom optimalen Punkt einen Qualitätsverlust bedeutet, weil das Produkt oder der Prozess besser sein könnte (so genannte Verlustfunktion oder loss function von Taguchi).
Auf dieser Grundlage haben sich u. a. Qualitätsregelkarten und Prozessfähigkeitswerte entwickelt. Optimal heißt, immer den absolut richtigen Punkt zu treffen. Jede systematische Abweichung vom optimalen Punkt und jede Streuung mindern die Qualität, selbst wenn alle Werte innerhalb der Toleranzgrenzen liegen. Deshalb sollten systematische Abweichungen korrigiert werden und die Streuung so klein wie möglich sein.
Wie QM-FK schon geschrieben hat ist das einer der Wege um sicher zu sein, dass die Gesamt-Qualität in Ordnung ist, auch wenn weniger als 100% kontrolliert wird.
Nach meiner Erfahrung hilft es, sich möglichst frühzeitig während der Entwicklung und Toleranzfestlegung mit der Produktion zu sprechen und gemeinsam zu verstehen, warum bestimmte Werte so vorgegeben werden und dabei auch die technische Machbarkeit zu diskutieren oder auch durch Versuche zu testen, ob die Vorgaben eingehalten werden können.
Viele Grüße
Barbaraals Antwort auf: K Faktoren, DRINGEND! #104858Hallo Ali,
willkommen im Q-Forum :)
Ich fürchte, die Aufgabe wird ziemlich kniffelig. Die k-Werte in der Gage R&R-Auswertung sind abgeleitet von d2 bzw. d2* und die kommen aus der Verteilung der Spannweite.
Mehr zu den k-Faktoren und den d2-Konstanten findest Du in MSA 4, S. 120
AIAG (2010). Measurement System Analysis (MSA-4). Englisch. Hrsg. von Automotive Industry
Action Group (AIAG). 4. Aufl. AIAG. ISBN 9781605342115.Die Anwendung der d2-Konstanten beschreibt Duncan
Duncan, Acheson Johnston (1986). Quality Control and Industrial Statistics. Englisch. 5. Aufl. Irwin.
ISBN 9780256035353, z. B. S. 151und gibt als Originalquelle für d2* einen Artikel von Patnaik an
Patnaik, P. B. „The Use of Mean Range as an Estimator of Variance in Statistical Tests“
Biometrika 37 (1950), pp 78-87Und um es vorweg zu nehmen: Es gibt keine einfache Formel, mit der die d2-, d2*-Konstanten berechnet werden können, deshalb werden die auch immer nur als Tabelle angegeben. Insofern ist Deine Aufgabe schwer lösbar.
Allgemein finde ich Deine Aufgabenstellung etwas seltsam, denn seit 2010 ist die Empfehlung in MSA 4 und VDA 5 für die Gage R&R statt der Mittelwert-Spannweiten-Methode (Average-Range Method, ARM, die mit den k-Faktoren) die ANOVA-Methode (ohne k-Faktoren) zu verwenden, wenn ein PC verfügbar ist.
Ich hoffe das hilft Dir trotzdem weiter.
Viele Grüße
Barbaraals Antwort auf: Messmittelfähigkeit Verfahren 2 %GRR #104254Hallo Andreas,
die Formeln für Verfahren 2 bzw. die Standard-Gage R&R findest Du in
AIAG (2010). Measurement System Analysis (MSA-4).
Hrsg. von Automotive Industry Action Group (AIAG). 4. Auflage, ISBN 9781605342115Wichtig ist, dass die Mittelwert-Spannweiten-Methode (auch ARM) seit der 4. Auflage nur noch dann angewandt werden soll, wenn kein PC für die Auswertung vorhanden ist. Wenn ein PC vorhanden ist, soll mit der ANOVA-Methode ausgewertet werden. Die ANOVA-Formeln sind im AIAG-Handbuch MSA 4 nur erwähnt. Es gibt da kein zu Fuß durchgerechnetes ANOVA-Beispiel, nur eins mit Software.
Die ANOVA-Formeln für die Mess-Unsicherheit sind ein bisschen unschön, vor allem dann, wenn man sonst nicht so viel mit Formeln arbeitet. (Ich hatte bislang erst 1 Mitarbeitenden bei 1 Kunden, wo die Formeln gefragt waren und am Ende waren sich alle einig, dass das Durchspielen dieser Formeln keinen echten Erkenntnisgewinn gebracht hat.)
Viele Grüße
Barbara
als Antwort auf: Anforderungen Stabilitätstests Medizinprodukte #103179Hallo Tobias,
die 30 Messwerte kenne ich als Daumenregel. Mit weniger Werten ist es schwierig die Messwerteverteilung zu beurteilen.
Die Quantile für die 95%-Abdeckung sind bei 30 Werten für die Normalverteilung und die t-Verteilung ähnlich:
Q95,0% NV = 1,64 vs. Q95,0% t-Verteilung (df=30) = 1,70
Q97,5% NV = 1,96 vs. Q97,5% t-Verteilung (df=30) = 2,04
Q99,0% NV = 2,33 vs. Q99,0% t-Verteilung (df=30) = 2,46Früher waren sie für die Anwendungen oft ähnlich genug. Heute, wo wir immer genauer und präziser sein wollen, kann das anders sein. Da wir heute die Quantile nicht mehr aus Tabellen ablesen müssen, würde ich die t-Quantile verwenden wenn die Anzahl Messwerte nicht deutlich dreistellig ist.
Die magischen Zahlen für die Stichprobenumfänge mit n = 45 oder n = 59 stammen aus der Formel für den Success Run bzw. 0-failure-plan (vgl. z. B. VDA Band 3.2). Dabei wird geprüft, ob ein Teil zum Zeitpunkt t funktioniert oder nicht. Der Stichprobenumfang berechnet sich aus dem Fehlalarmrisiko alpha und der zu erreichenden Zuverlässigkeit R zum Zeitpunkt t (bzw. zur Belastung t) bei einer Testzeit t. (Zuverlässigkeits-Anforderung ist gleich Testzeit.)
Wird z. B. eine Zuverlässigkeit von R = 99% beim ersten Versuch gefordert ist t = 1 und im Test wird auch genau 1 Mal die Funktion geprüft, d. h. Testzeit t = 1.
Der Stichprobenumfang n berechnet sich dann über die Formel
n >= ln(alpha)/ln(R)
mit
alpha Fehlalarmrisiko (üblich: alpha = 5%)
R Zuverlässigkeit (zum Zeitpunkt t, wenn Testzeit ebenfalls = t ist)Für alpha = 5% und R = 95% berechnet sich n = 59. Für alpha = 10% und R = 95% berechnet sich n = 45.
Beim Success Run bleibt unberücksichtigt, wie hoch das Risiko fürs Übersehen einer niedrigeren Zuverlässigkeit ist (beta-Risiko).
Bei der magischen Zahl n = 45 ist das Fehlalarm-Risiko doppelt so hoch wie üblich bzw. das Vertrauensniveau nur 90% statt 95%.
Und eine ganz banale Frage: Ist eine Zuverlässigkeit von 95% („=5% oder 1 von 20 Teilen ist zum Zeitpunkt t defekt“ ist ein akzeptabler Zustand) wirklich ausreichend?
Echte Risikobegrenzung funktioniert niemals mit den magischen Zahlen, egal in wie vielen Büchern oder Normen sie stehen. Echte Risikobegrenzung berücksichtigt immer auch, wie gut der Prozess bzw. das Produkt aktuell die Anforderungen einhält (z. B. tatsächliche Zuverlässigkeit 99,3%) und nicht nur die Anforderung selbst (z. B. Mindest-Zuverlässigkeit 95%).
Je größer der Puffer zwischen der aktuellen Qualität und der Anforderung ist, desto niedriger ist der benötigte Stichprobenumfang (Fahrrad im Flugzeughangar parken -> einfach). Je kleiner der Puffer zwischen der aktuellen Qualität und der Anforderung ist, desto höher ist der benötigte Stichprobenumfang (SUV in Standardgarage parken -> mehr Hinschauen nötig).
Viele Grüße
Barbara
als Antwort auf: MSA – zerstörende Prüfung #103108Hallo Ute,
meine Seite ist vor einiger Zeit gehackt worden und damit sind auch viele Infos weg. Du erreichst mich über info@bb-sbl.de
Viele Grüße
Barbara
als Antwort auf: Messunsicherheit Toleranzerweiterung #103107Hallo thoqm,
so wirklich viele Lösungsmöglichkeiten bleiben damit nicht übrig:
- Toleranz anpassen: wollt Ihr dem Kunden nicht vorschlagen bzw. will der Kunde nicht
- Werkzeug ändern: wollt Ihr nicht
- noch präziseres Mess-System verwenden. um Mess-Unsicherheit zu verringern: zu teuer
Damit bleibt eigentlich nur, die Messwerte von Hand zu korrigieren. Davon kann ich Euch nur ausdrücklich abraten.
Viele Grüße
Barbara
als Antwort auf: Messunsicherheit Toleranzerweiterung #103106Hallo thoqm,
so wirklich viele Lösungsmöglichkeiten bleiben damit nicht übrig:
- Toleranz anpassen: wollt Ihr dem Kunden nicht vorschlagen bzw. will der Kunde nicht
- Werkzeug ändern: wollt Ihr nicht
- noch präziseres Mess-System verwenden. um Mess-Unsicherheit zu verringern: zu teuer
Damit bleibt eigentlich nur, die Messwerte von Hand zu korrigieren. Davon kann ich Euch nur ausdrücklich abraten.
Viele Grüße
Barbara
als Antwort auf: MSA – zerstörende Prüfung #103030Hallo Sami,
1 Prüfer mit 30 Teilen und 3 Wiederholungen je Teil ist erstmal kein Standard-Versuch. Kann es sein, dass jemand entschieden hat, der Prüfer-Einfluss sei vernachlässigbar? Im Thread-Titel steht etwas von zerstörender Prüfung. Wie kommt es zu Mess-Wiederholungen bei der zerstörenden Prüfung?
Das mit den Ausreißern und den Testnummern kann ich leider nicht nachvollziehen. Warum hast Du auf Ausreißer getestet? Welche Tests genau meinst Du?
Es ist weder notwendig noch sinnvoll, dass die Daten in einer Messunsicheheits-Untersuchung einer Normalverteilung folgen, deshalb ist eine Johnson-Transformation auch wenig hilfreich. Ziel der MSA ist die Bewertung der Streuung (bei dir nur durch die Messwiederholungen, nicht durch den Prüfer) und das ist unabhängig von der Verteilung der Einzelmesswerte.
Da der Versuchsaufbau einer Gage R&R ohne Prüfereinfluss ähnelt, würde ich neben dem Messwerteverlauf pro Teil die Auswertung über eine Gage R&R-ANOVA machen.
Viele Grüße
Barbara
als Antwort auf: Messmittelfähigkeit – Zuordnung #102610Hallo Beata,
die korrekte Zuordnung der Methoden bei der MSA braucht neben dem Messmittel immer zwingend Informationen zur Messaufgabe.
Verfahren 2 gekreuzt ist anwendbar, wenn zwei Streuungsquellen (klassisch: Prüfer und Serienteil) untersucht werden UND an einem Serienteil wiederholt Messwerte aufgenommen werden können. Beispiel: mit einem Messschieber wird der Durchmesser einer Stahlwelle aufgenommen.
Verfahren 2 geschachtelt ist anwendbar, wenn zwei Streuungsquellen (klassisch: Prüfer und Serienteil) untersucht werden UND an 1 Serienteil genau 1 Messwert aufgenommen werden kann, d. h. keine Mehrfachmessungen oder Messwiederholungen möglich sind. Klassisch: zerstörende Prüfung
Linearität und Stabilität sind anwendbar, wenn Du Teile mit bekanntem Referenzwert hast UND Wiederholmesswerte an jedem Teil aufnehmen kannst
Eine MSA ist nicht möglich, wenn Du überhaupt keine Chance hast, so etwas wie Messwiederholungen durchzuführen. Bei der zerstörenden Prüfung wird im Verfahren 2 geschachtelt eine Quasi-Messwiederholung durchgeführt, indem möglichst ähnliche Teile (gleiche Charge, gleiche Fertigungsbedingungen usw.) als Teile-Typ-Repräsentanten verwendet werden. Du hast dann zwar physisch z. B. 4 verschiedene Teile, gehst allerdings davon aus, dass die Messwerte dieser vier Teile wegen der extrem ähnlichen Herstellbedingungen sehr nah beieinander liegen (müssten). Wenn es im Messprozess keine Möglichkeit gibt, so etwas Ähnliches wie Wiederholmessungen durchzuführen, dann ist eine MSA nicht möglich.
Viele Grüße
Barbara -
AutorBeiträge