Signifikanz einer Stichprobe2008-05-15T08:01:13+01:00

QM-Forum Foren Qualitätsmanagement Signifikanz einer Stichprobe

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 21)
  • Autor
    Beiträge
  • bombadil
    Mitglied
    Beitragsanzahl: 12

    Hallo!

    Ich schreibe gerade meine Diplomarbeit über die Optimierung eines Stichprobensystems in einer Massenfertigung von Erzeugnissen. Diese werden attributiv (gut-schlecht) geprüft.
    Nach der Bestimmung einer Losgröße wird eine Stichprobengröße ausgewählt und 100% überprüft.
    Im Moment jede Stunde eine bestimmte Anzahl an Produkten (125), später soll jede Palette eine Losgröße bilden und daraus die Stichprobe (dann kleiner) gezogen werden.

    Nun möchte ich mein neues Verfahren mit dem alten vergleichen.
    Was für einen Test kann ich da verwenden, bzw. wie kann ich die Verfahren überhaupt vergleichen?

    Danke schon mal!

    Thomas

    bombadil
    Mitglied
    Beitragsanzahl: 12

    noch eine Anmerkung:
    ich habe leider keine Möglichkeit nach der Stichprobe eine 100%-Kontrolle durchzuführen, sonder habe nur einen AQL-Wert zur Verfügung…

    Rainaari
    Teilnehmer
    Beitragsanzahl: 630

    Moin Bombadil,

    eigentlich eine Frage für Barbara, aber ich will mich mal vorwagen:

    Das AQL Verfahren ist in der DIN ISO 2859 geregelt. Teil 0 gibt eine Einführung, Teil 1 ausführliche Tabellen mit Annahme- und Rückweiserisiken. Du könntest für jede deiner Losgrößen und Stichprobenumfänge die Annahme- und Rückweiserisiken bei bekannter Qualitätslage bestimmen und diese vergleichen.

    Zum Thema ‚attributive Prüfung‘ wurde hier bereits einiges geschrieben.

    mfg

    Rainaari

    Rainaari
    Teilnehmer
    Beitragsanzahl: 630

    Nachtrag:

    Die Aussage von attributiven Prüfungen ist leider nunmal begrenzt. Ggf. wäre zu überlegen, einige dieser Merkmale auch maßlich zu erfassen, um Prozeßregelkarten zu erstellen und den Prozeß besser steuern zu können. Hierzu gabs hier schon diverse Diskussionen…

    gruß, Rainaari

    bombadil
    Mitglied
    Beitragsanzahl: 12

    damit habe ich mich auch schon auseinandergesetzt. Mein System beruht auch auf Teil 1 dieser DIN.

    Ich möchte nun beweisen dass es deutlich wirksamer ist als das „alte“ Verfahren.

    Das Problem dabei ist, dass die Versuche während der laufenden Produktion durchgeführt werden, und nur begrenztes Personal verfügbar ist.

    Das mit der aktuellen Qualitätslage ist ein Punkt… Das Problem dabei ist, dass die Fehler in 4 Klassen eingeteilt werden und ich eigentlich auf 4 AQLs prüfe (die sich je nach Klasse unterscheiden).
    Dazu unterscheidet sich die Qualitätslage je nach Linie und Charge.

    könnte hier, wenn überhaupt, ein Chi-Quadrat-Test in Frage kommen?

    Ich bräuchte eben eine Aussage darüber wie aussagekräftig in Bezug auf die Losgröße die Stichprobenpläne sind…

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Thomas,

    ojemine. Attributive AQL-Prüfungen sind echt riskant. Ein Rechenbeispiel für Sichtprüfungen hab ich gerade gepostet (meine Rechnerei steht ziemlich weit unten).

    Eine Stichproben-Prüfung ist ein statistisches Testverfahren. Die Parameter und Risiken, die dabei eine Rolle spielen, hab ich hier ausführlich beschrieben.

    Vergleichen kannst Du die Qualität der Prüfungen über die Güte des Testverfahrens (auch Power, wird als 1-beta berechnet, interessant ist auch der Artikel über die Operationscharakteristik). Je höher die Güte, desto kleiner ist das Risiko für „zu viele niO-Teile und keiner merkt es durch die Prüfung“ (Fehler 2. Art beta), wenn mit dem gleichen Risiko für „Fehlalarm“ (Fehler 1. Art alpha) gearbeitet wird.

    Diese Güte kann nicht per Hand ausgerechnet werden. In Wikipedia ist ein nettes Freeware-Programm verlinkt: GPower, das nicht nur die Güte von einem AQL-Test bestimmen kann, sondern von mehreren (Tests > Proportions > Multigroup: Goodnes-of-Fit).

    Ich würde Dir allerdings raten, erstmal mit dem Vergleich von einer Testsituation anzufangen. Der X²-Test als Goodness-of-Fit-Test ist nämlich ziemlich schlecht. Und bei einer multi-Testsituation wird das Risiko eh nur noch höher (und ich nehme mal an, dass Du erstmal schlucken musst, wenn Du das beta-Risiko für eine Testsituation ausgerechnet hast.) Die Güte für den Test für einen AQL-Wert findest Du in GPower über Tests > Proportions > One Group: Difference from Constant.

    Die Güte wird Dir dann jeweils berechnet, wenn Du „Post Hoc: Compute achieved power – given alpha, sample size, and effect size“ auswählst. Du brauchst also alpha, die Stichprobengröße (sample size), und die zu findende Effektgröße (Effektgröße=LQ-AQL). Im AQL-System wird standardmäßig mit einem alpha von 5 % = 0,05 gearbeitet.

    Und weil diese attributiven Prüfungen meistens einen sehr hohen Stichprobenumfang brauchen, um ein akzeptables Risiko (alpha und beta) einzuhalten, würd ich wenn möglich eine variable Prüfung machen und/oder den Prozess anders absichern als mit attributiven Prüfsystemen.

    Tut mir leid, wenn ich Dir damit die Illusion nehme, dass attributive AQL-Prüfungen sinnvoll sind. Die haben mit qualitativ guten statistischen Verfahren wenig bis nichts zu tun.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    bombadil
    Mitglied
    Beitragsanzahl: 12

    Danke für deinen ehrlichen und sehr ausführlichen Beitrag!

    Jetzt hab ich wenigstens was in der Hand mit dem ich arbeiten kann…

    GPower hatte ich auch schon entdeckt, nur hatte ich bis gerade eben nicht die leisteste Ahnung davon… ;-)

    bombadil
    Mitglied
    Beitragsanzahl: 12

    ich habe jetzt eine Power von teilweise 4% herausbekommen… :-(

    Wenn ich aber jetzt den umgekehrten Weg gehe, mit einem AQL von 0,65 arbeite und einen Fehleranteil von 0% in der Produkion (ich weiß, ist unrealistisch) annehme, dann komme ich immer noch auf eine geforderte Stichprobengröße von über 2400 Stück…

    kommt mir irgendwie spanisch vor alles… Ist das ganze Verfahren so mies, oder mach ich irgendwas total falsch??

    Wenn das Verfahren so mies ist, warum gibts dann eine Norm dafür und warum wird es noch so häufig eingesetzt???

    Thomas

    bombadil
    Mitglied
    Beitragsanzahl: 12

    was meint GPower eigentlich mit dieser „constant proportion“?

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Thomas,

    naja, Du kennst das ja: Da sind diese hohen, hohen (An-)Forderungen, die der Lieferant an den Kunden stellt, damit er vernünftig produzieren kann und dann kommt der Kunde, sagt dass es unbezahlbar ist und man einigt sich auf einen Kompromiss. So sind die AQL-Tabellen um 1940 entstanden.

    Bis in die 90er Jahre war es noch enorm schwierig, die Güte exakt auszurechnen, was heute dank netten kleinen Statistik-Programmen auf Knopfdruck funktioniert. Und erst seit es diese Programme überhaupt gibt (also seit ca. 10 Jahre), kann auch ein Anwender sein Risiko bestimmen. Bis sich allerdings überall herumgesprochen hat, dass das Risiko durch AQL-Systeme extrem hoch sein kann, wird es schätzungsweise noch mal 10 Jahre dauern.

    Zu Deiner Beruhigung: Du hast die korrekten Ergebnisse aus GPower bekommen (ich hab hier ein n=2412). Das AQL-Verfahren ist tatsächlich so grottenschlecht. „Constant Rate“ meint, dass es eine konstante Ausschuss-Rate gibt.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    bombadil
    Mitglied
    Beitragsanzahl: 12

    woher weiß ich welchen Wert ich dort einsetzen muss? Sollte ich den bei 0.5 lassen, oder kann ich ihn bestimmen?

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Thomas,

    die „Constant Rate“ in GPower entspricht dem AQL-Wert (allerdings als Dezimalzahl), d. h. wenn Du mit AQL=0,65 % Ausschuss in der Produktion rechnest, hättest Du eine „Constant Rate“ von 0.0065 (wichtig: GPower erwartet einen Punkt, kein Komma).

    Mit dem Kunden ist z. B. ein maximaler Ausschuss von LQ = 0,8 % vereinbart, d. h. der Effekt, ab dem die Stichproben-Prüfung anzeigen soll, dass etwas schief läuft, ist 0,8 % – 0,65 % = 0,15 % = 0.0015 (Effect Size g in GPower).

    Wenn mir jetzt falsche Alarme (Fehler 1. Art alpha) weniger wichtig sind, kann ich ein 10%-Risiko riskieren: alpha=0.10. Da mich sowieso nur interessiert, ob der Ausschuss-Anteil zu groß wird (kleiner darf er ruhig werden), nehme ich die einseitige Absicherung (Tails: One in GPower) und bekomme folgende Stichprobenanweisung:

    Prüfe 21’805 Teile (Total Sample Size). Wenn mehr als 123 davon n.i.O. sind (critical N), weise das Los zurück.

    Damit hab ich eine Sicherheit (Güte) von 95 %, dass ich meinem Kunden keine zu schlechte Lieferung schicke.

    Netter für mich wird es, wenn ich eine deutlich bessere Qualitätslage AQL habe als der Kunde als Grenzwert LQ=0,8% vorgibt. Wenn ich statt der 0,65 % z. B. nur 0,1 % = 0.001 n.i.O. produziere, habe ich einen deutlich größeren Effekt, den ich mit meiner Stichprobenprüfung finden muss (g=0.008-0.001 = 0.007). Und ein größerer Effekt ist natürlich leichter zu finden als ein minikleiner Winz-Effekt.

    Damit muss ich weniger Teile (nämlich „nur“ 785) prüfen und würde bei mehr als 3 n.i.O.-Teilen das Los stoppen.

    Häufiger ist jedoch ein kleiner bis sehr kleiner Abstand zwischen AQL und LQ, weil die Kunden natürlich das maximal mögliche bekommen möchten. Bei einem AQL von 0,65 % und einem LQ von 0,7 % musst Du schon ganz genau schauen, dass Du diesen kleinen Effekt noch findest (genauer: von 229’998 geprüften Teilen dürfen nicht mehr als 1545 Teile n.i.O. sein).

    Ich hoffe, diese Rechnerei hilft Dir weiter.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    bombadil
    Mitglied
    Beitragsanzahl: 12

    Hallo!

    Erst mal vielen Dank für die hilfreichen Beiträge!

    Die Berechnung ist mir nun soweit klar.
    In der DIN ISO 2859-1 sind im Anhang Tabellen enthalten (Tab. 10ff), in denen das Kundenrisiko mit ca. 5% dargestellt wird. Wie bekommen die Autoren diese kleinen Werte?
    Oder wird da mit einem LQ von 0 gerechnet?
    Im Vergleich mit meinen eigenen Ergebnissen kommen mir die einfach zu gut vor…

    Viele Grüße
    Thomas

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Thomas,

    bei diesen ganzen AQL-Tabellen wird versucht, die vier Dimensionen von Stichprobenprüfungen in 2-3 Dimensionen darzustellen.

    Es gibt vier Dimensionen, da
    1) am Stichprobenumfang n,
    2) am zu entdeckenden Effekt d (=LQ-AQL,
    3) am Risiko für Fehler 1. alpha und
    4) am Risiko für Fehler 2. Art beta gedreht werden kann.

    Im AQL-System wird davon ausgegangen (jedenfalls so ungefähr), dass beta auf 10 % festgelegt ist (vgl. 3.1.27 Abnehmerrisiko CRQ). [Nur mal als Anmerkung: Welcher Kunde möchte bitte ein Risiko von 10 % dafür, dass er *nicht* merkt, dass ihm schlechte Qualität geliefert wird?!?]

    Wenn ich jetzt nette Bildchen und Tabellen für die vorgegebenen Stichprobenumfänge mit dem maximalen Durchschlupf male (s. Tabellen 8) und dabei nichts über das kalkulierte Risiko sage, hab ich zwar eine schöne zweidimensionale Grafik, aber leider keine echt hilfreiche Information.

    Ein Beispiel für die Anwendung:
    Tabelle 5A – Lieferantenrisiko [alpha] für normale Prüfung
    Wählen wir Kennbuchstaben K, müssen N=125 Teile geprüft werden. Bei einem festgelegten AQL-Wert von 0,65% (=0,0065) steht in der Tabelle ein Risiko von 4,87 % für die Prüfung auf Anteile. Generell soll beta im AQL-System auf 10 % festgelegt sein (s. o.)

    Die vierte noch freie Dimension ist dann der Effekt, der mit dieser Art von Stichprobenanweisung identifiziert werden kann, d. h. die Abweichung von tatsächlicher Qualitätslage zum hypothetischen AQL-Wert.

    GPower gibt mit
    Test: Proportion
    Option: Sensitivity / Compute required effect size
    Tails: One (AQL soll nur nach oben abgesichert werden)
    alpha=0.0487 [Tabelle 5A]
    power=1-beta=0.90 [s. 3.1.27]
    Total sample size=125 [Tabelle 5A]
    Constant Proportion=0.0065 [AQL=0,65%]

    eine identifizierbare Effektgröße von 0,0355 an, d. h. erst ab einem LQ-Wert von 3,5 % motzt die Stichprobenprüfung, dass etwas nicht in Ordnung ist, also erst wenn sich die Qualitätslage um den Faktor 5,5 verschlechtert hat!

    Falls Du gerne noch weitere Programme / Internetseiten hättest, um zu den gleichen Ergebnissen zu kommen, schau mal hier rein:
    Wikipedia Stichprobenumfang Formeln
    Excel-Blatt
    Formeln im Engineering Statistics Handbook
    interaktiver Java-Rechner (Test of one proportion)

    Einige dieser Formeln und Programme verwenden exakte Berechnungsmethoden, andere arbeiten mit der Normalverteilungs-Approximation, d. h. die Werte selbst können sich leicht voneinander unterscheiden; die Kernaussage bleibt gleich.

    Ich bin mir beim AQL-System nicht so ganz sicher, ob diese Art der Risiko-Verschleierung durch die Wahl der Darstellungen gewollt ist oder ob die Autoren es damals einfach nicht besser wussten. (Da ich ein optimistischer Mensch bin, tippe ich auf Letzteres.)

    Es ist auf jeden Fall ein Beispiel dafür, dass ein komplexes (hier vierdimensionales) System nicht durch Projektion in niedrigere Dimensionen gut beschrieben werden kann. Das entspricht dem Versuch, ein Automodell zu basteln, indem man Fotos von vorne, beiden Seiten und hinten macht, ausdruckt und zu einem Quader zusammenklebt. Da fehlt ein wenig die Tiefe ;-)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    bombadil
    Mitglied
    Beitragsanzahl: 12

    so, jetzt hab ich das Dilemma.
    Die Werte aus der Norm sind für mich dann also wertlos…

    Jetzt muss ich in meiner Arbeit meinem Prof klar machen dass das von ihm so geliebte AQL-System und seiner Norm eigentlich totaler Mist ist. Das nächste Problem werden die Kunden sein, die der Norm so vertrauen und mit denen in den Lieferbedingungen die Stichproben festgelegt sind…

    Ich werd dann von der Norm einen völlig unabhängigen Stichprobenplan entwickeln und die Annahmezahlen, die mir GPower gibt übernehmen…
    Und dann auch die Rückwärtsberechnung mit einfügen, die in der Norm „vergessen“ wurde…
    Jetzt wird die ganze Arbeit also doch noch richtig interessant und läuft nicht nur darauf hinaus irgendeinen passenden Stichprobenplan aus der Norm herauszusuchen und anzuwenden…

    Gibt es da eigentlich schon Bestrebungen die Norm in irgendeiner Art und Weise anzupassen? Wenn nicht, dann sollte man da mal ein bisschen nachhaken!

    Viele Grüße
    Thomas

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 21)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben