QM-Forum › Foren › Qualitätsmanagement › AQL ISO 2859
-
AutorBeiträge
-
Liebes Forum,
ich habe eine Frage zu den AQL-Tabellen nach ISO 2859.
Rein intuitiv erscheinen mir die dortigen Werte unplausibel, aber vielleicht interpretiere ich sie auch nicht richtig. Vielleicht könnt Ihr mir helfen.
Ein Beispiel:
Gegeben ist ein Los mit dem Umfang 2000. Geprüft werden soll nach AQL 1,0 auf Prüfniveau II. Aus der Tabelle mit Kennbuchstaben entnehme ich den Buchstaben K für die Stichprobengröße.Nun schaue ich in Tabelle 2-A (Einfache Stichprobenanweisung für normale Prüfung).
In Spalte 2, hinter Kennbuchstabe K, steht der geforderte Stichprobenumfang von 125.Nun ziehe ich aus meinen Los zufällig 125 Teile und Prüfe. Das Ergebnis: 3 Teile sind defekt. Um zu entscheiden, ob die Change akzeptiert werden kann oder nicht, schaue ich wieder in die Tabelle 2-A. Zeile K, Spalte 1,0 (es wurde schließlich vorher ein AQL 1,0 vereinbart).
Dort steht jetzt: Annahmezahl ist 3, Rückweisezahl ist 4. Demzufolge kann ich die getestete Charge noch akzeptieren.
Ist das soweit richtig?
Jetzt allerdings das Problem. Mit einem AQL 1,0 sage ich doch, dass ich einen maximalen Fehleranteil von 1,0% zulassen möchte. Richtig!?
In meiner Stichprobe habe ich allerdings einen Fehleranteil von (3/125)*100 = 2,4%. Also wesentlich mehr, als ich zulassen möchte. Trotzdem muss ich die Charge nach AQL akzeptieren. Wieso? Wo ist da der Sinn? Wenn ich max. 1%Fehleranteil in meinem Los haben möchte, würde ich erwarten, dass auch in der Stichprobe der Fehleranteil nicht erheblich größer sein darf.Kann mir jemand helfen?
Vielen Dank und beste Grüße!
Hallo RunneR!
Die ISO zielt nun mal ziemlich stark in die Richtung: Keine unnötigen Reklamationen. Schau‘ mal in Tabelle 8A: Mit einem Durchschlupf von 1,55% ist zu rechnen. Wenn ich’s noch richtig im Kopf habe, muß die Wahrscheinlichkeit dafür, daß das Los wirklich einen Fehleranteil von >1% enthält, >95% sein, damit es rückgewiesen wird. Und da eine Stichprobe nun mal keine SICHERE Aussage liefert….
Genaueres sicher noch von Barbara.
Ansonsten: Die Frage ist heutzutage akademisch. Man benutzt die Tabellen zwar gerne noch zum Finden von Stichprobengrößen. Als Annahmezahl wird aber immer „0“ eingesetzt (womit die Mathematik hinter der Norm über den Jordan ist). Und wenn’s irgendwie geht, macht man gar keine Stichprobenprüfung, sondern bringt seinen Lieferanten oder seinen Prozeß auf die Reihe.
Schöne Grüße
Frank
„and pray that there’s intelligent life somewhere up in space,
‚cause there’s bugger all down here on earth!“ (Monty Pythons / Galaxy Song)Hallo Frank,
vielen Dank für Deine Antwort!
So wie du sagst, verstehe ich den AQL-Plan auf Prüfniveau II auch:
Statistisch sollte man sich zu 95% sicher sein, dass der Fehleranteil < 1% ist.Hier liegt allerdings der Hase im Pfeffer! Eine solche Sicherheit erlangt man nicht, wenn schon in der Stichprobe ein Fehleranteil von (wie im Bsp. beschrieben) 2,4% vorliegt. Dann spricht vieles (und statistisch gesehen mehr als 5% Wahrscheinlichkeit) dafür, dass der Fehleranteil im Los über 1% liegt.
Ich frage mich, wie man auf die Zahlen in den AQl-Tabellen kommt. Die Konfidenzintervalle nachzuvollziehen ist kein Problem – diese sind das Ergebnis eines Binomialtests. Aber wie kommt man bei einem AQL von 1,0 auf Prüfniveau II auf die Annahmezahl 3 in einer Stichprobe von 125?
So schwer kann das doch nicht sein, ma sagn….
Viele Grüße!
Hallo RunneR!
Ich fürchte, der Plan soll eben nicht mit 95% absichern, daß Dein Fehleranteil im Los <1% ist,
sondern eher mit 95% absichern, daß Du das Los annimmst, wenn der Fehleranteil <1% ist.Aber ab jetzt muß uns Barbara weiterhelfen…
Schöne Grüße
Frank
„and pray that there’s intelligent life somewhere up in space,
‚cause there’s bugger all down here on earth!“ (Monty Pythons / Galaxy Song)Ich fürchte, der Plan soll eben nicht mit 95% absichern, daß Dein Fehleranteil im Los <1% ist,
sondern eher mit 95% absichern, daß Du das Los annimmst, wenn der Fehleranteil <1% ist.Hallo Frank,
ich habe da wohl ein Verständnisproblem, denn ich erkenne zwischen den Aussagen keinen Unterschied. Kannst du versuchen, eine neue Formulierung zu finden, die jemandem Hilft, der auf dem Schlauch steht [;)]
Ich habe im Übrigen weiterhin versucht herauszufinden, auf welche Weise sich die Werte berechnen. Angenommen habe ich, dass sich der Wert 3 (bei Stichprobengröße 125, siehe Eingangspost) auf die obere Grenze des 95% Konfidenzintervalls referenziert. Tut er aber nicht. Die obere Grenze des (einseitigen) Konfidenzintervalls würde zu einem Wert von 6 Komma irgendwas führen.
Ich fange an den AQL-Tabellen zu misstrauen und bitte weiter um Eure mithilfe :)
Hallo RunneR,
die Geschichte der AQL-Normen ist ein bisschen was länger und deshalb ist es auch sinnvoll, die Sinnhaftigkeit für die heutigen Anforderungen zu hinterfragen. Wenn Du also über Merkwürdigkeiten stolperst, ist das ziemlich logisch [:D]
Entwickelt wurden die Normen um 1940, als das amerikanische Militär die Qualität der Ausrüstung mit Stichproben prüfen wollte. (Erste Methoden zu Stichprobenverfahren und der Berechnung des Stichprobenumfangs wurden schon 1925 veröffentlicht, nur hat das da noch niemanden interessiert.)
Also haben sich ein paar Experten zusammengesetzt, gerechnet, gestaunt und die Statistik ein bisschen zurechtgebogen, damit es für sie besser hinkam.
Grundsätzlich funktionieren Stichprobenprüfungen immer nach demselben Prinzip: Es gibt eine Annahmewahrscheinlichkeit in Abhängigkeit von den Messdaten oder der Höhe der Ausschussrate. Je niedriger die Ausschussrate ist, desto höher ist die Annahmewahrscheinlichkeit und je höher die Ausschussrate ist, desto niedriger ist die Annahmewahrscheinlichkeit.
Um die Annahmewahrscheinlichkeits-Kurve festzulegen, werden bei der Annahmestichprobenprüfung zwei Punkte benötigt:
AQL-Wert mit der Annahmewahrscheinlichkeit 1-alpha (i. A. 95%)
LQ-Wert mit der Annahmewahrscheinlichkeit betaAQL = annehmbare Qualitätsgrenzlage (so viel Ausschuss ist akzeptabel)
LQ = rückzuweisende Qualitätsgrenzlage (ab hier zu viel Ausschuss)1-alpha ist wie bei anderen statistischen Testverfahren auch das Vertrauensniveau, also der Grad der Sicherheit ein Los mit einer Ausschussrate von AQL anzunehmen. Damit ist alpha das Risiko dafür, ein Los mit einer Ausschussrate von AQL (irrtümlich) abzulehnen (Risiko für Fehlalarm).
beta ist die Annahmewahrscheinlichkeit für ein Los mit einer kritischen bzw. nicht-akzeptablen Ausschussrate LQ, also das Risiko dafür schlechte Qualität irrtümlich zu akzeptieren bzw. schlechte Qualität zu übersehen. 1-beta wird auch als Trennschärfe oder Power einer Prüfung bezeichnet.
Um die Annahmewahrscheinlichkeits-Funktion (auch OC-Funktion) durch die beiden Punkte (AQL, 1-alpha) und (LQ, beta) zu bekommen, wird ein ausreichend großer Stichprobenumfang n benötigt.
Diese 5 Kenngrößen (AQL. alpha, LQ, beta, n) hängen immer zusammen, d. h. wenn Du an einer Schraube drehst, dreht sich (mindestens) eine andere Schraube mit.
In der Statistik gehst Du so vor, dass Du AQL, alpha, LQ und beta festlegst und für diese Anforderung den notwendigen Stichprobenumfang n ermittelst – und das Ganze auch noch unabhängig von der Losgröße (dazu später mehr).
Nach Norm (ISO 2859-1, ISO 3951) legst Du dagegen nur Deinen AQL-Wert fest. In den Normen steht drin, dass alpha=5% und beta=10% ist. Der Stichprobenumfang n wird abhängig von der Losgröße festgelegt. Damit ist nur noch 1 Kenngröße frei beweglich, nämlich LQ, also der Grenzwert für eine kritische Ausschussrate.
Ein Beispiel:
AQL=1%, alpha=5%
LQ=3%, beta=10%
ergibt:
berechneter Stichprobenumfang n=390
Annahmezahl c=7Die Grafik dazu gibts hier: AQL 1 Prozent berechnet. alpha ist der Abstand der blauen Kurve am Punkt AQL nach oben; beta ist der Abstand der blauen Kurve am Punkt LQ nach unten.
Die ISO 2859-1 gibt aber (abhängig von der Losgröße N) einen Stichprobenumfang von n=200 vor. Damit erhöht sich der LQ-Wert, weil weniger Informationen über die Los-Qualität in der Stichprobe sind. Die Qualität muss deshalb deutlich schlechter sein, bis das über die Stichprobenprüfung mit einem beta=10% auch erkannt wird. Grafik dazu: Vergleich der Trennschärfe AQL 1 Prozent berechnet und nach ISO 2859
Mit n=200 kann erst eine Ausschussrate von LQ=5,25% mit einem beta=10% entdeckt werden, also eine mehr als 5fach höhere Ausschussrate als der AQL-Wert von 1%. Liegt die Ausschussrate im Los bei 3%, ist die Annahmewahrscheinlichkeit immer noch fast 50%.
An dieser Stelle würde ich lieber auf eine ungenaue Stichprobenprüfung verzichten, als mich in einer trügerischen Sicherheit zu wiegen.
Das gilt insbesondere vor dem Hintergrund, dass oft angenommen wird, schlechte Qualität würde über die Normen zuverlässig identifiziert. Dem ist nicht so, denn hier wird mit einem Risiko fürs Nicht-Entdecken schlechter Qualität von beta=10% gearbeitet. Wenn also tatsächlich Schrott ankommt, hast Du nur bei 9 von 10 Losen eine Entdeckung und 1 schlechtes Los rutscht durch.
Das ist für die heutige Zeit insbesondere bei kritischen Prozessen (Verfügbarkeit, Qualitäts-Anforderungen, usw.) doch reichlich großzügig. 1940 war das mit Sicherheit noch anders, aber 2013?
Aus diesem Grund wird in der Statistik empfohlen, beta über eine Risikobewertung festzulegen. Hilfreich ist hier die Frage „Was kostet es uns (finanziell, Ressourcen,…), wenn wir schlechte Qualität übersehen?“
Bei kritischen Merkmalen ist ein Wert von beta=1% ggf. akzeptabel, im Bereich der Lebensdauer und Zuverlässig werden auch kleinere beta-Werte verwendet.
Bleibt noch die Frage, wieso die Berechnung des Stichprobenumfangs unabhängig von der Losgröße ist. Um eine gewisse Sicherheit in der Prüfentscheidung zu haben, werden ausreichend viele Informationen über die Qualität im Los benötigt. Informationen sind Prüfergebnisse oder Messdaten, d. h. der Stichprobenumfang muss ausreichend hoch sein um genügend viele Informationen zu liefern.
Dabei spielt es erstmal keine Rolle, wie viele Prüfergebnisse oder Messwerte überhaupt möglich sind (schlimmstenfalls 100%-Prüfung also der Losumfang N). Es geht bei der Berechnung nur darum, wie viele Informations-Einheiten bzw. welcher Stichprobenumfang n für die Absicherung gebraucht werden.
Das fanden die Experten bei der Norm-Entwicklung wohl so seltsam, dass sie hier von den statistischen Anforderungen deutlich abgewichen sind und den Stichprobenumfang n in Abhängigkeit vom Losumfang N festgelegt haben. Dabei sagt einem doch schon der gesunde Menschenverstand (GMV), dass schärfere Anforderungen (kleinere AQL-Werte) auch mit einem genaueren Hinsehen (mehr Prüfergebnisse bzw. Messdaten) verbunden sein muss – nicht nur mit einer niedrigeren Annahmezahl!
Mal abgesehen vom GMV hier noch ein etwas anschaulicheres Beispiel, warum der notwendige Stichprobenumfang unabhängig von der verfügbaren Menge bzw. dem Losumfang ist:
Es geht um eine sensorische Prüfung von Schokoladen-Eis. Du hast eine Lieblings-Sorte, gehst in einen Einkaufsladen Deiner Wahl und willst Nachschub holen. Vor der Tiefkühltruhe angekommen lacht Dich ein Aufkleber an auf dem steht, dass Deine Lieblings-Sorte geändert wurde: „jetzt noch besser – neues Rezept!“Ob das tatsächlich auch für Dich besser ist, soll ein Test zeigen. Du kaufst zwei Packungen, eine kleinere Probiergröße (200ml) und eine Großpackung (5000ml). Zuhause angekommen machst Du den Test und entscheidest Dich für eine der beiden Test-Möglichkeiten:
a) Du nimmst aus beiden Packungen jeweils 10% (also 20ml und 500ml) und bewertest die Qualität.
b) Du nimmst aus beiden Packungen jeweils 1 Esslöffel (20ml) und bewertest die Qualität.Welche Variante nimmst Du? (Hinterher kannst Du sowieso alles aufessen, es geht jetzt nur um den Qualitäts-Test!) Brauchst Du aus einer größeren Packung mehr Test-Menge oder ist die notwendige Test-Menge von der verfügbaren Menge unabhängig?
Die Statistik sagt, dass Du für eine Absicherung eine bestimmte Menge (hier z. B. 1 Esslöffel) brauchst, egal wie viel Schokoladen-Eis in der Packung ist.
quote:
Ursprünglich veröffentlicht von RunneRJetzt allerdings das Problem. Mit einem AQL 1,0 sage ich doch, dass ich einen maximalen Fehleranteil von 1,0% zulassen möchte. Richtig!?
In meiner Stichprobe habe ich allerdings einen Fehleranteil von (3/125)*100 = 2,4%. Also wesentlich mehr, als ich zulassen möchte. Trotzdem muss ich die Charge nach AQL akzeptieren. Wieso? Wo ist da der Sinn? Wenn ich max. 1%Fehleranteil in meinem Los haben möchte, würde ich erwarten, dass auch in der Stichprobe der Fehleranteil nicht erheblich größer sein darf.AQL ist die so genannte Gutlage. Deinen Grenzwert, die so genannte Schlechtlage, gibt der LQ-Wert an. (Genau, das war der, den Du für die ISO 2859-1 gar nicht vorgibst, den bekommst Du da frei Haus und in nicht festlegbarer Höhe!)
Wenn Du also maximal 1% Ausschuss akzeptieren willst, ist LQ=1% und AQL auf jeden Fall kleiner als 1%. Du kannst über ISO 2859-2 einen Stichprobenumfang ermitteln (der liegt allerdings auch bei n=200 für einen Losumfang von N=2000) und da findest Du die Annahmezahl c=0.
In der 2859-2 gibt es zwar den LQ-Wert, aber dafür keine Festlegung des AQL-Werts. Die Statistik kann auch so herum ausrechnen wie gut die Losqualität sein muss, damit Du eine Annahmewahrscheinlichkeit von 1-alpha=95% hast: Bei einer Ausschussrate von 0,025% wird bei n=200, LQ=1% und beta=10% das Los mit einer Wahrscheinlichkeit von 95% angenommen. Die Qualität muss also „nur“ 40 mal besser sein als Dein kritischer Grenzwert LQ, dann ist die Chance auch hoch (95%), dass das Los akzeptiert wird.
Wenn Du also wirklich eine Absicherung über Stichproben-Prüfungen erreichen willst, ist das Festlegen und Rechnen die bessere Methode. Wenns Dir nur um die Umsetzung einer Norm geht, bist Du mit ISO 2859 besser dran, weil da der Prüfaufwand niedriger ist (nur brauchbar absichern lässt sich damit nichts!)
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Barbara,
Super Antwort!
Wenn ich dir schriftlich bestätige, dass ich deine Antwort vollständig gelesen habe und meine zu verstehen, stellst du mir dann ein Schulungszertifikat aus?
:-)
LG und schönes langes WE
ChrisSapere aude! Kant den schon jemand? :-)
Hallo Barbara,
ich hatte dir ja schon eine PM geschrieben, möchte mich aber auch noch einmal öffentlich für deine Antwort bedanken. :)
Bei Zeiten werde ich mir Deinen Beitrag noch einmal genauer studieren und etwas dazu verfassen. Vielleicht auch etwas, was aus der Misere mit den AQL-Tabellen führt. Da sagst ja schon ganz richtig, dass Merkwürdigkeiten innerhalb der AQL-Tabellen die logische Konsequenz von deren Anwendung ist.
Einen interessanten Artikel zum Thema Stichprobenkontrollen im Qualitätsmanagement findet man übrigens hier:
http://blog.eoda.de/2013/06/18/r-in-der-statistischen-prozesskontrolle-moglichkeiten-und-vorteile/#more-1379Insbesondere finde ich einen Punkt bemerkenswert, der die Kommunikation der Ergebnisse betrifft. Dahinter steht die Frage: Wie kommuniziere ich intern als auch mit Lieferant oder Kunde die Akzeptanz bzw. Ablehnung von Waren, wenn mir der statistische Background fehlt? Wenn ich meine Ergebnisse nicht vor einem statistischen Hintergrund verteidigen kann, dann kann ich mir den Kontrollprozess auch sparen. Nicht zuletzt auch deswegen, weil ich scheinbar selbst nicht in das Lage bin, die Ergebnisse adäquat zu interpretieren.
Grundsätzlich würde ich daher empfehlen, die Annahme und Ablehnungsbereiche selbst zu bestimmen und unabhängig der AQL-Normwerte arbeiten. In der Produktspezifikation kann ich die Qualitätsgrenzlage schließlich auch ohne AQL angeben.
Schöne Grüße!
Ursprünglich veröffentlicht von Barbara
Hallo RunneR,
die Geschichte der AQL-Normen ist ein bisschen was länger und deshalb ist es …
Hallo „Barbara“,
meine Hochachtung für die kompetente Vermittlung des Wissens zu statistischen Zusammenhängen.
Eine bescheidene Frage hätte ich noch: welche Formel/Gleichung liegt Deiner Berechnung des AQL-Wertes bei bekanntem LQ, n, alpha zugrunde?Herzliche Grüße aus Dresden,
brennerHallo brenner,
freut mich, dass Dir die Informationen weiterhelfen.
quote:
Ursprünglich veröffentlicht von brenner
Eine bescheidene Frage hätte ich noch: welche Formel/Gleichung liegt Deiner Berechnung des AQL-Wertes bei bekanntem LQ, n, alpha zugrunde?Die Berechnungen laufen bei der attributiven Prüfung über einen Algorithmus, in dem schrittweise unterschiedliche Werte eingesetzt werden. Eine Beschreibung der Formeln findest Du z. B. in
Mathews, Paul: Sample Size Calculations : Practical Methods for Engineers and Scientists.
Fairport Harbor: Mathews Malnar and Bailey, 2010. ISBN 9780615324616
(S. 236f.)Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Zusammen
Ich habe die Ausführungen hier sehr interessiert verfolgt. Ausserdem habe ich mir die Vorgehensweise im Buch von Mathews Paul angeschaut und mit Minitab verglichen.
Mit den Aussagen bezüglich der ISO 2859-1 bin ich absolut einverstanden. Aber, dass der Losumfang N keine bzw. nie eine Rolle spielt irgendwie nicht.
Ich beziehe mal die Poisson Verteilung nicht mit ein, bei der es ja um Fehler pro Einheit geht. Mir geht es ausschliesslich um die Anzahl fehlerhafte Teile. Doch dann gibt es die Hypergeometrische Verteilung und die Binomialverteilung.
Die Binomialverteilung darf näherungsweise verwendet werden, wenn n höchstens 10% oder 5% von N ist und/oder ich davon ausgehe, dass die Stichprobe aus einem kontinuierlichen Prozess kommt und damit N quasi unendlich ist. In der Formel der Binomialverteilung kommt dann der Losumfang überhaupt nicht vor. Er ist also in der statistischen Betrachtungsweise nicht relevant.
Wenn aber ein Los nicht aus einem kontinuierlichen Prozess stammt. z.B. Eine Lieferung von Teilen alle 2 Jahre mit einem Umfang von 100 Stück so muss die Hypergeometrische Verteilung angewendet werden. In dieser Formel ist der Losumfang N auch präsent und damit sehr wohl relevant. Im Minitab kann dann auch die Stichprobenanweisung mit dieser Verteilung berechnet werden und verändert sich.
Ein Beispiel:
AQL=1%, alpha=10%
LQ=5%, beta=10%Mit Minitab ohne Berücksichtigung des Losumfang und Binomialverteilung ergibt dies eine Stichprobenanweisung von n –c = 105 – 2 (alpha = 8.9% und beta = 9.9%)
Nehmen wir nun einen Losumfang von 100 Teilen an und verwenden die Hypergeometrische Verteilung so ergibt sich eine Stichprobenanweisung von n –c = 58 – 1 (alpha = 0% und beta = 9.0%)
Hab ich da jetzt einen Denkfehler?
Gruss
xcuritHallo xcurit,
Du hast Recht, dass der Losumfang bei der hypergeometrischen Verteilung eine Rolle spielt. Er ist nur für das Verhältnis von Stichprobenumfang zu Losumfang irrelevant, d. h. der Stichprobenumfang wird auf Basis der Risiko/Absicherung/Wahrscheinlichkeit für Ausschuss ermittelt und ist nicht proportional zur Anzahl Teile im Los.
Die meisten erwarten, dass bei einem größeren Los mehr Teile geprüft werden müssen als bei einem kleineren Los. Der Höhe von Risiko/Absicherung ist es ziemlich egal, ob in dem Los N=20 oder N=2.000.000 Teile sind – es wird „nur“ mit der Formel berechnet, wie viele Teile geprüft werden müssen um die Sicherheit in der Entscheidung zu haben.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Leute,
wir haben also in der Tabelle unsere AQL-Werte:
0,010, 0,015 … 0,65, 1,0, 1,5, 2,5 … 10, 15, 25, 40, 65, 100, 150 250, 400, 650 und 1000.
Also einmal Anteil der Fehler in Prozent und einmal in parts per million.
Kann mir jemand bitte erklären wo die Grenze ist?
Ist bspw. der AQL-Wert 10 in Prozent oder in ppm gemeint? Usw..Großen Dank im Voraus
-
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.