Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: AQL ISO 2859 #62077
Hallo RunneR,
die Geschichte der AQL-Normen ist ein bisschen was länger und deshalb ist es auch sinnvoll, die Sinnhaftigkeit für die heutigen Anforderungen zu hinterfragen. Wenn Du also über Merkwürdigkeiten stolperst, ist das ziemlich logisch [:D]
Entwickelt wurden die Normen um 1940, als das amerikanische Militär die Qualität der Ausrüstung mit Stichproben prüfen wollte. (Erste Methoden zu Stichprobenverfahren und der Berechnung des Stichprobenumfangs wurden schon 1925 veröffentlicht, nur hat das da noch niemanden interessiert.)
Also haben sich ein paar Experten zusammengesetzt, gerechnet, gestaunt und die Statistik ein bisschen zurechtgebogen, damit es für sie besser hinkam.
Grundsätzlich funktionieren Stichprobenprüfungen immer nach demselben Prinzip: Es gibt eine Annahmewahrscheinlichkeit in Abhängigkeit von den Messdaten oder der Höhe der Ausschussrate. Je niedriger die Ausschussrate ist, desto höher ist die Annahmewahrscheinlichkeit und je höher die Ausschussrate ist, desto niedriger ist die Annahmewahrscheinlichkeit.
Um die Annahmewahrscheinlichkeits-Kurve festzulegen, werden bei der Annahmestichprobenprüfung zwei Punkte benötigt:
AQL-Wert mit der Annahmewahrscheinlichkeit 1-alpha (i. A. 95%)
LQ-Wert mit der Annahmewahrscheinlichkeit betaAQL = annehmbare Qualitätsgrenzlage (so viel Ausschuss ist akzeptabel)
LQ = rückzuweisende Qualitätsgrenzlage (ab hier zu viel Ausschuss)1-alpha ist wie bei anderen statistischen Testverfahren auch das Vertrauensniveau, also der Grad der Sicherheit ein Los mit einer Ausschussrate von AQL anzunehmen. Damit ist alpha das Risiko dafür, ein Los mit einer Ausschussrate von AQL (irrtümlich) abzulehnen (Risiko für Fehlalarm).
beta ist die Annahmewahrscheinlichkeit für ein Los mit einer kritischen bzw. nicht-akzeptablen Ausschussrate LQ, also das Risiko dafür schlechte Qualität irrtümlich zu akzeptieren bzw. schlechte Qualität zu übersehen. 1-beta wird auch als Trennschärfe oder Power einer Prüfung bezeichnet.
Um die Annahmewahrscheinlichkeits-Funktion (auch OC-Funktion) durch die beiden Punkte (AQL, 1-alpha) und (LQ, beta) zu bekommen, wird ein ausreichend großer Stichprobenumfang n benötigt.
Diese 5 Kenngrößen (AQL. alpha, LQ, beta, n) hängen immer zusammen, d. h. wenn Du an einer Schraube drehst, dreht sich (mindestens) eine andere Schraube mit.
In der Statistik gehst Du so vor, dass Du AQL, alpha, LQ und beta festlegst und für diese Anforderung den notwendigen Stichprobenumfang n ermittelst – und das Ganze auch noch unabhängig von der Losgröße (dazu später mehr).
Nach Norm (ISO 2859-1, ISO 3951) legst Du dagegen nur Deinen AQL-Wert fest. In den Normen steht drin, dass alpha=5% und beta=10% ist. Der Stichprobenumfang n wird abhängig von der Losgröße festgelegt. Damit ist nur noch 1 Kenngröße frei beweglich, nämlich LQ, also der Grenzwert für eine kritische Ausschussrate.
Ein Beispiel:
AQL=1%, alpha=5%
LQ=3%, beta=10%
ergibt:
berechneter Stichprobenumfang n=390
Annahmezahl c=7Die Grafik dazu gibts hier: AQL 1 Prozent berechnet. alpha ist der Abstand der blauen Kurve am Punkt AQL nach oben; beta ist der Abstand der blauen Kurve am Punkt LQ nach unten.
Die ISO 2859-1 gibt aber (abhängig von der Losgröße N) einen Stichprobenumfang von n=200 vor. Damit erhöht sich der LQ-Wert, weil weniger Informationen über die Los-Qualität in der Stichprobe sind. Die Qualität muss deshalb deutlich schlechter sein, bis das über die Stichprobenprüfung mit einem beta=10% auch erkannt wird. Grafik dazu: Vergleich der Trennschärfe AQL 1 Prozent berechnet und nach ISO 2859
Mit n=200 kann erst eine Ausschussrate von LQ=5,25% mit einem beta=10% entdeckt werden, also eine mehr als 5fach höhere Ausschussrate als der AQL-Wert von 1%. Liegt die Ausschussrate im Los bei 3%, ist die Annahmewahrscheinlichkeit immer noch fast 50%.
An dieser Stelle würde ich lieber auf eine ungenaue Stichprobenprüfung verzichten, als mich in einer trügerischen Sicherheit zu wiegen.
Das gilt insbesondere vor dem Hintergrund, dass oft angenommen wird, schlechte Qualität würde über die Normen zuverlässig identifiziert. Dem ist nicht so, denn hier wird mit einem Risiko fürs Nicht-Entdecken schlechter Qualität von beta=10% gearbeitet. Wenn also tatsächlich Schrott ankommt, hast Du nur bei 9 von 10 Losen eine Entdeckung und 1 schlechtes Los rutscht durch.
Das ist für die heutige Zeit insbesondere bei kritischen Prozessen (Verfügbarkeit, Qualitäts-Anforderungen, usw.) doch reichlich großzügig. 1940 war das mit Sicherheit noch anders, aber 2013?
Aus diesem Grund wird in der Statistik empfohlen, beta über eine Risikobewertung festzulegen. Hilfreich ist hier die Frage „Was kostet es uns (finanziell, Ressourcen,…), wenn wir schlechte Qualität übersehen?“
Bei kritischen Merkmalen ist ein Wert von beta=1% ggf. akzeptabel, im Bereich der Lebensdauer und Zuverlässig werden auch kleinere beta-Werte verwendet.
Bleibt noch die Frage, wieso die Berechnung des Stichprobenumfangs unabhängig von der Losgröße ist. Um eine gewisse Sicherheit in der Prüfentscheidung zu haben, werden ausreichend viele Informationen über die Qualität im Los benötigt. Informationen sind Prüfergebnisse oder Messdaten, d. h. der Stichprobenumfang muss ausreichend hoch sein um genügend viele Informationen zu liefern.
Dabei spielt es erstmal keine Rolle, wie viele Prüfergebnisse oder Messwerte überhaupt möglich sind (schlimmstenfalls 100%-Prüfung also der Losumfang N). Es geht bei der Berechnung nur darum, wie viele Informations-Einheiten bzw. welcher Stichprobenumfang n für die Absicherung gebraucht werden.
Das fanden die Experten bei der Norm-Entwicklung wohl so seltsam, dass sie hier von den statistischen Anforderungen deutlich abgewichen sind und den Stichprobenumfang n in Abhängigkeit vom Losumfang N festgelegt haben. Dabei sagt einem doch schon der gesunde Menschenverstand (GMV), dass schärfere Anforderungen (kleinere AQL-Werte) auch mit einem genaueren Hinsehen (mehr Prüfergebnisse bzw. Messdaten) verbunden sein muss – nicht nur mit einer niedrigeren Annahmezahl!
Mal abgesehen vom GMV hier noch ein etwas anschaulicheres Beispiel, warum der notwendige Stichprobenumfang unabhängig von der verfügbaren Menge bzw. dem Losumfang ist:
Es geht um eine sensorische Prüfung von Schokoladen-Eis. Du hast eine Lieblings-Sorte, gehst in einen Einkaufsladen Deiner Wahl und willst Nachschub holen. Vor der Tiefkühltruhe angekommen lacht Dich ein Aufkleber an auf dem steht, dass Deine Lieblings-Sorte geändert wurde: „jetzt noch besser – neues Rezept!“Ob das tatsächlich auch für Dich besser ist, soll ein Test zeigen. Du kaufst zwei Packungen, eine kleinere Probiergröße (200ml) und eine Großpackung (5000ml). Zuhause angekommen machst Du den Test und entscheidest Dich für eine der beiden Test-Möglichkeiten:
a) Du nimmst aus beiden Packungen jeweils 10% (also 20ml und 500ml) und bewertest die Qualität.
b) Du nimmst aus beiden Packungen jeweils 1 Esslöffel (20ml) und bewertest die Qualität.Welche Variante nimmst Du? (Hinterher kannst Du sowieso alles aufessen, es geht jetzt nur um den Qualitäts-Test!) Brauchst Du aus einer größeren Packung mehr Test-Menge oder ist die notwendige Test-Menge von der verfügbaren Menge unabhängig?
Die Statistik sagt, dass Du für eine Absicherung eine bestimmte Menge (hier z. B. 1 Esslöffel) brauchst, egal wie viel Schokoladen-Eis in der Packung ist.
quote:
Ursprünglich veröffentlicht von RunneRJetzt allerdings das Problem. Mit einem AQL 1,0 sage ich doch, dass ich einen maximalen Fehleranteil von 1,0% zulassen möchte. Richtig!?
In meiner Stichprobe habe ich allerdings einen Fehleranteil von (3/125)*100 = 2,4%. Also wesentlich mehr, als ich zulassen möchte. Trotzdem muss ich die Charge nach AQL akzeptieren. Wieso? Wo ist da der Sinn? Wenn ich max. 1%Fehleranteil in meinem Los haben möchte, würde ich erwarten, dass auch in der Stichprobe der Fehleranteil nicht erheblich größer sein darf.AQL ist die so genannte Gutlage. Deinen Grenzwert, die so genannte Schlechtlage, gibt der LQ-Wert an. (Genau, das war der, den Du für die ISO 2859-1 gar nicht vorgibst, den bekommst Du da frei Haus und in nicht festlegbarer Höhe!)
Wenn Du also maximal 1% Ausschuss akzeptieren willst, ist LQ=1% und AQL auf jeden Fall kleiner als 1%. Du kannst über ISO 2859-2 einen Stichprobenumfang ermitteln (der liegt allerdings auch bei n=200 für einen Losumfang von N=2000) und da findest Du die Annahmezahl c=0.
In der 2859-2 gibt es zwar den LQ-Wert, aber dafür keine Festlegung des AQL-Werts. Die Statistik kann auch so herum ausrechnen wie gut die Losqualität sein muss, damit Du eine Annahmewahrscheinlichkeit von 1-alpha=95% hast: Bei einer Ausschussrate von 0,025% wird bei n=200, LQ=1% und beta=10% das Los mit einer Wahrscheinlichkeit von 95% angenommen. Die Qualität muss also „nur“ 40 mal besser sein als Dein kritischer Grenzwert LQ, dann ist die Chance auch hoch (95%), dass das Los akzeptiert wird.
Wenn Du also wirklich eine Absicherung über Stichproben-Prüfungen erreichen willst, ist das Festlegen und Rechnen die bessere Methode. Wenns Dir nur um die Umsetzung einer Norm geht, bist Du mit ISO 2859 besser dran, weil da der Prüfaufwand niedriger ist (nur brauchbar absichern lässt sich damit nichts!)
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: CmK oder CpK #62076Hallo Andreas,
hach ja, die Prozessfähigkeitswerte…
quote:
Ursprünglich veröffentlicht von 19dreas70In unserem Unternehmen werden immer häufiger Prozesse untersucht und das im Nachhinein. Das bedeutet, dass man versucht, etablierte Prozesse hinsichtlich Fähigkeit zu untersuchen.
Das ist doch erstmal in Ordnung, oder wo siehst Du ein Problem beim späteren Rechnen?
quote:
Ursprünglich veröffentlicht von 19dreas70Dabei zieht man den Maschinenfähigkeitsfaktor heran. Aufgrund dieses Indexes gibt es Bestrebungen, Zeichnungstoleranzen zu hinterfragen und es wird versucht die Entwicklung dahingehend zu bewegen, dass diese Fähigkeit in einer Änderung von Toleranzen mündet.
Hier wird es schon spannender, denn sehr oft sind die Voraussetzungen für die Berechnung belastbarer Fähigkeitswerte nicht erfüllt, so dass auch alle Interpretationen oder Änderungen (sehr) wackelig sein können.
quote:
Ursprünglich veröffentlicht von 19dreas70Ein Maschinenfähigkeit wird bei einem cmK von größer 1,67 als sicher eingestuft, wobei ein sicherer Prozeß mit cpk > 1,33 angesehen wird.
Wann ein Cpk-Wert ausreichend hoch ist, lässt sich niemals allgemein festlegen. Das hängt immer davon ab, wie gefährlich oder teuer ein Fehler ist.
Wenn Ihr z. B. Autos herstellen würdet, wäre ein Cpk von 1,33 für die Qualität von Bremsen auf jeden Fall diskussionswürdig, denn damit hättet Ihr ein Risiko von 63 zu 1.000.000, dass die ausgelieferten Bremsen nix taugen. Bremsversagen bei jedem 16.000sten Auto – viel Spaß bei der Rückrufaktion!
Wenn Ihr an den gleichen Autos auch Stoßstangen montiert und für die Innenseite der Stoßstange ebenfalls einen Cpk von 1,33 für „kratzerfrei“ vergebt, könnte auch das diskutiert werden, jedenfalls dann, wenn Ihr viel Aufwand in die Kratzer-Freiheit aufgrund von Montageprozessen stecken müsst. Ein Kratzer ist zwar ein Fehler, aber der Kunde sieht den nur wenn er die Stoßstange abmontiert und der Fehler hat keine Auswirkungen auf die Fahrsicherheit.
quote:
Ursprünglich veröffentlicht von 19dreas70Dabei liegt die Toleranzgrenze bei einem cmK von 1,67 fünf Sigma vom Mittelwert der Messungen entfernt. Bei einem cpK von 1,33 jedoch vier Sigma. Das bedeutet doch, dass der cmk eine weitere Toleranz zulässt als der cpK?
Die kurzfristige Maschinenfähigleitsuntersuchung liefert also gröbere Toleranzen als die deutlich mehr durch Einflüsse behaftete langfristige Prozessfähigkeitsuntersuchung? Müßte es sich nicht umgekehrt verhalten?
Maschinenfähigkeit oder Kurzzeitfähigkeit oder Cm/Cmk
und
Langzeitfähigkeit oder Cp/Cpk
haben dieselben Formeln.Der große Unterschied besteht in der Zeit bzw. in den berücksichtigten Veränderungen über die Zeit. (Manchmal wird dafür auch eine andere Berechnung für die Standardabweichung bei der Kurzzeitfähigkeit verwendet, z. B. die zusammengefasste Standardabweichung. Die Basis-Formeln bleiben aber immer dieselben.)
Bei der Kurzzeitfähigkeit soll der Prozess ohne Eingriffe bzw. ungestört laufen, während die Daten für die Langzeitfähigkeit alle Einflüsse und Veränderungen im Prozess enthalten sollen.
Wenn Du eine Standardabweichung S1 für die Kurzzeitfähigkeit hast, ist die Standardabweichung S2 für die Langzeitfähigkeit (fast) immer höher:
S2 = S1 + x bzw. S2 > S1Damit ein Prozess also langfristig einen Cpk von 1,33 erreicht, muss er kurzfristig besser sein, sprich bei gleichen Toleranzen über einen kurzen Zeitraum eine kleinere Streuung (S1) haben. Deshalb gibt es die Idee, für die Maschinenfähigkeit einen Mindestwert von 1,67 zu fordern, um bei mehr Einflüssen und größerer Streuung noch ein bisschen Luft an den Seiten zu haben. (Ein Bild dazu findest Du hier: Cpk und Standardabweichung).
quote:
Ursprünglich veröffentlicht von 19dreas70Ich kann es mir nur durch andere Standardabweichungen von kurzfristigen und langfristigen Untersuchungen erklären, d.h. die Prozessstreuung ist kurzfristig deutlich enger anzunehmen als bei langfristigen Untersuchungen, d.h. es passen mehr Standardabweichungen in die Toleranz als bei langfristigen Untersuchungen.
Ist diese Annahme denn richtig? Ich habe dazu bereits gegoogelt finde aber leider keinen Hinweis, würde aber gerne fundiert argumetieren und nicht mit meiner eigenen Interpretation ins Fettnäpfchen treten.
Weitere Infos (und noch ein paar mehr Abkürzungen für andere Fähigkeitsbewertungen) stehen in VDA Band 4 Ringbuch: „Sicherung der Qualität in der Prozesslandschaft“ (gibts im VDA Webshop).
quote:
Ursprünglich veröffentlicht von 19dreas70Wenn das richtig wäre: Kann denn durch einen cmK in irgend einer Art und Weise auf einen cpk geschlossen werden? Ich bin der Überzeugung, dass dem Nicht so ist.
Absolute Zustimmung. Niemand kann allein aus einer Maschinenfähigkeit die Prozessfähigkeit ableiten, weil sich die Veränderungen durch die längerfristigen Einflüsse sehr unterschiedlich auswirken können. Es gibt Prozesse, bei denen die Kurzzeit-Fähigkeit kaum höher als die Langzeit-Fähigkeit ist. Und es gibt genauso Prozesse, bei denen die Kurzzeit-Fähigkeit ganz gut aussieht und die Langzeit-Fähigkeit unterirdisch ist. Das hängt immer von den Einflüssen und deren Wirkung ab.
quote:
Ursprünglich veröffentlicht von 19dreas70Können überhaupt Maschinenfähigkeiten für Prozesse und allgemein gültige und generell geltende Zeichnungen herangezogen werden?
Die Frage hab ich leider nicht verstanden. Kannst Du das bitte etwas erklären?
quote:
Ursprünglich veröffentlicht von 19dreas70Gibt es denn allgemeingültige Stückzahlen, ab den ein langfristiger cpK Sinn macht. Ich bin da immer ann zweifeln, wenn mann von ppm spricht und dann die Milllion an Teilen oder Merkmalen erst nach Jahren erreicht.
Grundsätzlich sollten mindestens 100 Werte für Fähigkeitsberechnungen verwendet werden. Bei weniger Werten sind die Fähigkeits-Kennzahlen sehr ungenau und auch bei 100 Werten hast Du immer noch eine ziemliche Unschärfe drin.
Wenn Du z. B. normalverteilte Messdaten aus einem Prozess nimmst und einen Cpk=1,33 berechnest, ist der 95%ige Streubereich (1,13 ; 1,53), sprich Du kannst davon ausgehen, dass Dein echter Cpk mit 95%iger Wahrscheinlichkeit zwischen 1,13 und 1,53 liegt. Für eine haltbare erste Nachkommastelle beim Cpk brauchst Du mindestens 1500 Werte.
quote:
Ursprünglich veröffentlicht von 19dreas70Das heißt ich kann auch einen Prozess untersuchen mit 50 Messungen und dann mit cpK´s von 1,33 operieren. Wenn die Stückzahl im Jahr 10.000 beträgt erreiche ich die Million nach 100 Jahren. Und ein cpk von 1,33 lässt 32 Ausschußteile pro Million mit Drift zu. Das bedeutet aller 3 Jahre ein Aussußteil! Ich denke, dass dies verschmerzbar ist.
Du kannst auch auf Basis von 2 Messwerten eine Prozessfähigkeits-Kennzahl ausrechnen. Das liefert nur überhaupt keine Informationen über die Prozessfähigkeit bzw. Qualität des Prozesses.
Bei einem Cpk von 1,33 hast Du eine ppm-Zahl zwischen 32 und 63. 63 bei einem in der Toleranzmitte zentrierten Prozess (Ausschuss an beiden Seiten) und weniger ppm’s je weiter die Prozess-Mitte von der Toleranzmitte abweicht, weil es dann nur noch an 1 Seite Ausschuss gibt.
Und wie schon oben geschrieben, ob ein Ausschussteil alle drei Jahre in Ordnung ist, hängt immer von der Anwendung ab. Alle drei Jahre ein abgestürztes Flugzeug wäre z. B. für mich nicht in Ordnung [}:)]
Und alle Rechnerei nutzt überhaupt gar nichts, wenn die Voraussetzungen für belastbare Fähigkeitskennzahlen vernachlässigt werden:
1. ausreichend sicheres Mess-System, ausreichend guter Mess-Prozess
2. genügend Werte
3. stabiler Prozess
4. belastbares VerteilungsmodellSelbst wenn alles super aussieht, dürfen Prozesse nicht sich selbst überlassen werden, sondern müssen auch anschließend überwacht werden (z. B. mit Regelkarten), damit Veränderungen zeitnah entdeckt werden können. Dass ein Prozess über 3 Jahre völlig unverändert einfach vor sich hinläuft hab ich bislang noch nirgends gesehen [;)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Montagefehler vermeiden #62062Hallo Mr.Idea,
was hälst Du von 5-Warum, sprich erfahrungsbasierte Ursachenforschung? (Frag 5 Mal Warum? und Du hast eine Chance die auslösende Ursache zu finden. Sinnvollerweise wird das im Team aus Montage, QS/QM und Prozess-Eignern gemacht.)
Wenn so etwas Einfaches wie „unsere Monteure haben keine Lust gut zu arbeiten“ rausfällt, muss es einen anderen Grund oder andere Gründe dafür geben, warum immer wieder Fehler passieren. Denn eigentlich sind Menschen daran interessiert, gut zu arbeiten – schon weil es mehr Spaß macht gut zu arbeiten als „rumzuschlampen“. Durch die Rückmeldungen haben die Mitarbeiter ja schon mitbekommen, dass die Arbeitsqualität zu Problemen führt, nur löst das allein die Probleme nicht.
Poka yoke (vorbeugende Fehlervermeidung) ist ein schönes Werkzeug für technische Fehlermöglichkeiten. Prominente Beispiele sind SD- und Mobiltelefon-Karten (nur 1 Position beim Einlegen möglich) oder USB-Stecker (auch nur in 1 Position einsteckbar). Dafür brauchst Du aber erstmal Ideen, warum die Fehler passieren, um dann gezielt mit Poka yoka den Prozess so umzubauen, dass die Fehler deutlich wengier Möglichkeiten haben überhaupt aufzutreten.
Wenn die auslösende Ursache im zwischenmenschlichen oder organisatorischen Bereich liegt, bringt Poka yoke wenig bis nichts, dann sind andere Werkzeuge (z. B. Schulungen, Führungskräftetraining, Arbeitsorganisations-Optimierung) besser geeignet.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: MSA bei Angabe von Grenzwerten #62061Hallo Martin,
die Standardverfahren nach VDA 5 (Verfahren 1/Prüfmittelfähigkeit, Tmin, etc.) sind nur dann anwendbar, wenn Du eine zweiseitige Toleranz hast. Die hast Du nicht, weil die untere Grenze keine Toleranzgrenze, sondern eine technische Grenze ist (dichter als dicht geht nicht, d. h. es kann auch keinen Ausschuss von zu dichten Teilen geben).
Damit sind Berechnungen nach Verfahren 1 (Prüfmittelfähigkeit) nur mit Formel-Akrobatik möglich, weil Deine Messaufgabe sich nicht durch die Formeln abbilden lässt. Zum Glück bietet die Statistik deutlich mehr als die Verfahren nach VDA 5 bzw. GUM oder ISO 22514-7 [:)]
Grundsätzlich wäre es günstig, wenn Du Prüfteile mit bekanntem Dichtheitswert aus dem gesamten Anwendungsbereich hättest. Diese Prüfteile sollten der Anwendung möglichst nah sein. Vielleicht lassen sich auch Serienteile als Referenzprüfteile qualifizieren, wenn Du ein exakteres Messmittel nimmst. Mit diesen Prüfteilen kannst Du an verschiedenen Punkten im Anwendungsbereich (z. B. 0-6,5) die systematische Abweichung und Linearität ermitteln.
Systematische Abweichung (bias) gibt es, wenn durchschnittlich ein zu hoher oder zu niedriger Messwert aufgenommen wird. Bei der Linearität wird geprüft, ob höhere Referenzwerte über die Messung auch höhere Messwerte bekommen und ob dieser Zusammenhang linear ist. Sowohl systematische Abweichung als auch Linearität beziehen sich dabei nur auf den Anwendungsbereich und nicht auf die Toleranz. (Weitere Infos zu diesen Methoden findest Du in MSA 4.) Ziel der Untersuchung von Linearität und systematischer Abweichung ist, an verschiedenen Ankerpunkten im Anwendungsbereich nachzuweisen, dass die Messwerte die Realität genau genug abbilden.
Während bei Linearität und systematischer Abweichung andere Veränderungen (z. B. verschiedene Prüfer) vermieden werden, werden bei der Gage R&R (Verfahren 2) gezielt Versuche unter unterschiedlichen Bedingungen gemacht. Im Standardfall werden dafür 5-10 Serienteile (Referenzwert muss nicht bekannt sein) und 2-3 Prüfer eingesetzt, die 2-3 Wiederholmessungen je Teil aufnehmen. Wenn die Mess-Aufgabe etwas komplexer ist, können hier auch weitere Einflüsse bewertet werden, z. B. verschiedene Messmittel oder Materialien (erweiterte MSA). Welche möglichen Einflüsse geprüft werden sollen, wird am besten vorab im Team mit Prüfern und Prozess-Verantwortlichen besprochen und entschieden.
Die Ergebnisse aus der Gage R&R-Messreihe lassen sich anschließend in 2 Richtungen bewerten:
1. Kann die Prozess-Qualität über die Messung gut genug bewertet werden oder gehen Veränderungen im Prozess im Mess-Rauschen unter?
Bezugsbereich: Prozess-Streuung, z. B. Fertigungsstreuung bei bestehenden Prozessen
2. Kann die Produkt-Qualität über die Messung gut genug bewertet werden oder ist die Trennung zwischen gut/iO und schlecht/niO zu unscharf?
Bezugsbereich: Toleranz, bei einseitiger Toleranz wird der Abstand zwischen dem Mittelwert aller Messwerte und der Toleranzgrenze als Bezugsbereich verwendet und mit der halben Prozess-Gesamtstreuung (3S) verglichenNeben diesen beiden Fragen gibt es auch noch Berechnungsmöglichkeiten für die Wahrscheinlichkeit einer Fehlklassifikation (Teil ist niO, wird aber iO geprüft bzw. Teil ist iO, wird aber niO geprüft) und auch diese Formeln funktionieren für einseitige Toleranzen.
Um das Risiko „Teil ist niO, wird aber iO geprüft“ zu verringern, kannst Du die obere Toleranzgrenze von 5 heruntersetzen. Damit erhöhst Du zwar die Menge an Gut-Teilen, die irrtümlich ausgeschleust werden, hast aber auch ein entsprechend geringeres Risiko dafür niO-Teile irrtümlich auszuliefern. Ein Ansatz hierfür ist, die Toleranzgrenze um die zweifache Unsicherheit U zu verringern, wie in VDA 5 beschrieben (Stichwort Werkstoleranz und Grauzone).
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Control 2013: Seid Ihr dabei? #62043Hi Chris,
freu mich, dass es klappt [:)]!
Hallo Peter,
manche Firmen geben Dir auch eine Freikarte. Schau doch mal, ob für Dich eine Firma dabei ist zu der Du sowieso gehen willst und guck, ob die Freikarten für die Control ausgeben.
Warum Du den LInk gepostet hast, erschließt sich mir nicht so ganz. Das riecht ein bisschen nach Werbung. Kannst Du das bitte etwas erklären oder den Link (falls es Werbung ist) entfernen? Danke!
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Minitab und K-wert #62029Hallo reticent,
immer gerne [:)]
In Minitab wird die einseitige Tolerierung direkt über die nicht-zentrale t-Verteilung berechnet:
Statistik > Qualitätswerkzeuge > Toleranzintervalle
Dafür brauchst Du nur die Daten, die Abdeckung für den Prozess (z. B. 99,73%) und das Vertrauensniveau (voreingestellt 95%, andere Werte über Optionen im Toleranzintervalle-Menü).Ob es so etwas bei SPSS gibt, weiß ich nicht. Du könntest es auf jeden Fall mit den exakten Formeln selbst basteln, denn SPSS kann die nicht-zentrale t-Verteilung.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Minitab und K-wert #62022Hallo reticent,
wenn Toleranz-Intervalle auf Basis einer Stichprobe berechnet werden, wird die Unsicherheit durch die Stichprobe (=Teil des großen Ganzen) durch die Unsicherheit der berechneten Kennzahlen berücksichtigt. Allgemein ist das eine Formel nach dem Muster
Mittelwert + (k Faktor)*Streuung
für ein einseitig nach oben toleriertes Merkmal
bzw.
Mittelwert – (k Faktor)*Streuung
für ein einseitig nach unten toleriertes MerkmalFür die Berechnung des k-Faktors wird die Verteilung des Stichproben-Mittelwerts xquer verwendet. Wird die Standardabweichung ebenfalls aus der Stichprobe berechnet, ist auch die Standardabweichung S nur die ungefähre Größe der tatsächlichen Standardabweichung. Damit gibt es zwei Unsicherheits-Teile in der Verteilung des Mittelwerts: der Mittelwert xquer selbst und die Standardabweichung S.
In dieser Situation ist die Verteilung des Mittelwerts eine nicht-zentrale t-Verteilung (wie auch im NIST-handbook unter der Näherungsformel von Natrella angegeben). Der Streubereich berechnet sich auf Basis der nicht-zentralen t-Verteilung. Die kennen Tabellenkalkulations-Programme wie Excel auch heute oft nicht und in der prähistorischen Zeit vor den PCs war das Berechnen von solchen Verteilungskennzahlen wahnsinnig aufwändig.
Deshalb gibt es aus den Jahren vor 1990 einen ganzen Haufen von Annäherungsformeln, mit denen diese Kennzahlen ungefähr bestimmt werden können. Die Veröffentlichung von Natrelle (1963) gehört auch in diese Kategorie. Da die nicht-zentrale t-Verteilung sehr kompliziert ist, kann ich Dir leider auch nicht genau sagen, wie Natrella auf diese Formel gekommen ist. Vermutlich gibt es da geschickte Abschätzungen, die für mehr als eine Handvoll Messwerte (NIST handbook: mehr als 10 Werte) halbwegs brauchbare Ergebnisse liefert.
Einen Vergleich der k-Faktoren für 3-15 Messwerte hab ich hier hochgeladen: Vergleich k-Faktoren einseitige Toleranzen und der Unterschied ist für mehr als 10 Werte kaum erkennbar.
Falls Du die genaue Entwicklung der Formel nachlesen willst, hilft vermutlich nur ein Blick in die Originalveröffentlichung von Natrella. Das Buch steht in verschiedenen Uni-Bibliotheken (zu finden über Karlruher Virtueller Katalog über Autor und Titel). Vielleicht hilft auch ein Blick in die relative neue Veröffentlichung
Krishnamoorthy, K. ; Mathew, T.: Statistical Tolerance Regions : Theory, Applications, and Computation.
1. Auflage. New York: Wiley, 2009. -ISBN 978-0-470-38026-0, 461 SeitenViele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Messsystemanalyse (MSA) #62021Hallo Tribun,
QM-FK hat mit dem aus-dem-Fenster-fallen den Nagel auf den Kopf getroffen: Wenn Du schon den Nachweis hast, dass das Messmittel in einem sehr ähnlichen Bereich gut genug misst (z. B. im Bereich 88,0 bis 93 mm), könntest Du ggf. annehmen, dass es auch etwas weiter oben (90,0-95,0mm) funktioniert. Es wär dennoch gut, mindestens den oberen Wert (95,0mm) hinsichtlich der Genauigkeit der Messung zu prüfen.
Hast Du dagegen nachgewiesen, dass das Messmittel im Bereich 45-55mm und im Bereich 130-140mm gut funktioniert, müsstest Du mindestens vom Hersteller eine Angabe haben, dass das Messmittel im gesamten Bereich linear ist (sprich: konstanste Streuung im gesamten Messbereich).
Außerdem sollten die Messaufgaben ähnlich sein. Hast Du für den niedrigen und hohen Bereich z. B. die Kantenlänge von rechteckigen Teilen bestimmt und willst jetzt einen Rohrdurchmesser im mittleren Bereich aufnehmen, kann die Streuung und systematische Abweichung schon durch die Änderung der Mess-Aufgabe eine völlig andere sein. Dasselbe gilt auch, wenn Du für den gleichen Zahlenbereich einen Nachweis hast und sich die Mess-Aufgabe grundlegend ändert (Beispiel: Kantenlänge rechteckige Metall-Teile vs. Durchmesser von dünnwandigen Kunststoff-Röhren).
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Qualyman und alle anderen Teilnehmer des UT 2013,
danke für die tolle Zeit mit Euch. Das Usertreffen war auch in diesem Jahr wieder ein echtes Highlight mit vielen spannenden Einblicken, interessanten Themen und tollen Menschen.
Ich freu mich schon aufs nächste Treffen!
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Prozessfähigkeit (tech. begrenzt, nicht NV) #61966Hallo Stefan,
theoretisch gibt es eine Formel für den Mittelwert und die Standardabweichung der gestutzten Normalverteilung (s. Parameter gestutzte Normalverteilung).
Leider sind diese Formeln für den praktischen Einsatz unbrauchbar, weil sie mit dem Mittelwert und Standardabweichung der ungestutzten Normalverteilung arbeiten, also mit den Kennzahlen die Du bekommen hättest, wenn es keine technische Grenze gäbe.
Da es die Messwerte nur mit technischer Grenze gibt, hast Du keine Messwerte ohne technische Grenze und damit auch keine Kennzahlen (Mittelwert & Standardabweichung) für diese nicht-gestutzten Messwerte.
Deshalb werden die Parameter (Mittelwert, Standardabweichung) der gestutzten Normalverteilung schrittweise ermittelt, entweder über den Algorithmus von Schneider (wie in dem Q4U-Artikel von mir beschrieben: Prozessfähigkeit bei technisch begrenzten Merkmalen) oder über andere iterative Rechenwege die allerdings alle sehr viel komplizierter sind als der von Schneider.
Es gibt keine Möglichkeit, mit 1 Formel Mittelwert oder Standardabweichung der gestutzten Normalverteilung zu berechnen.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Anderes Wort für VA?!? #61948Hallo Barbara,
dann nenn das doch einfach kreativ ZAK (Ziele, Aufgaben, Kompetenzen). Wenn es die Mitarbeiter glücklich macht, ein eigenes Brötchen gebacken zu bekommen solls doch daran nicht scheitern.
Es gibt große deutsche Automobilkonzerne, die das auch immer so machen um sich von den Wettbewerbern abzugrenzen. Da sitzt Du dann und wunderst Dich über die spannenden Begriffe, nur um dann bei der Beschreibung festzustellen, dass die einfach ein anderes Etikett auf die Methode geklebt haben.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Prozessfähigkeit (tech. begrenzt, nicht NV) #61942Hallo Christian,
ob Cpk=Cpko (oberer Cpk-Wert) ist hängt davon ab, ob Du ein einseitig oder zweiseitig toleriertes Merkmal hast.
Wenn Du z. B. die Rauhigkeit bewertest und die Oberfläche weder zu glatt noch zu rauh sein darf, kannst Du an beiden Seiten der Toleranz Ausschuss bekommen. In dem Fall hättest Du die ganz normalen Cpk = min(Cpku , Cpko) Formeln und könntest auch einen Cp berechnen.
Anders sieht es aus, wenn nur eine Toleranzgrenze nach oben angegeben ist. In dem Fall kriegst Du nach unten keinen Ausschuss (z. B. kannst Du nicht besser als perfekte Parallelität haben) und die Prozessleistung wird wie in dem Artikel beschrieben nur über Cpko beurteilt.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Anderes Wort für VA?!? #61941Hallo Barbara,
schreib doch was von Schnittstellen- oder Nahtstellen-Definition. Da dürften die Ingenieure nix gegen haben [;)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge