Verfasste Forenbeiträge
-
AutorBeiträge
-
Hallo UT-Interessierte,
bislang können alle an beiden Terminenn bis auf Frank Hergt, der wenn überhaupt nur am 2. Termin teilnehmen könnte. Damit ist der zweite Termin (26./27.09.) momentan der Favorit für das UT 2014.
Die Abstimmung läuft noch bis Ostern. Anschließend wird der Termin fürs UT 2014 ausgewählt.
Wenn Du auch noch abstimmen möchtest: http://doodle.com/5r5qthig8axnktri
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: 100% Prüfung Schlupf , Gesamtfehleranteil #62505Hallo mad,
für diese Berechnungen kannst Du mit der Binomialverteilung rechnen. Das ist die Verteilung für gut/schlecht-Teile wenn die schlecht-Teile spontan bzw. unabhängig voneinander auftreten. (Noch besser passen würde die Hypergeometrische Verteilung, weil da wie beim Lotto ohne Zurücklegen gezogen wird. Dafür bräuchtest Du eine belastbare Ausschussrate für das Gesamt-Los.)
Los: 20.000 – 6 = 19.994 (die schlecht-Teile habt Ihr ja bestimmt rausgenommen, oder?)
Stichprobe beim Kunden: 5.000
schlecht-Teile in Stichprobe: 2Ausschussrate beim Kunden: 2/5000 = 0,04%
obere Grenze des 95%-igen Vertrauensbereichs (einseitig nach oben): 0,12586% (berechnet mit Binomialverteilung)Damit sind im Los mit 19.994 Teilen zu erwarten:
19.994 * 0,04% = 7,9976
19.994 * 0,12486% = 25,1644
Wahrscheinlich 8 niO-Teile insgesamt, mit 95%-iger Wahrscheinlichkeit weniger als 26 niO-Teile.Umgerechnet auf die noch nicht beim Kunden geprüften 19.994 – 5.000 = 14.994 Teile:
14.994 * 0,04% = 5,9976
14.994 * 0,12486% = 19,2763
Wahrscheinlich werden 6 weitere niO-Teile durch den Kunden gefunden. Mit 95%-iger Wahrscheinlichkeit werden es weniger als 20 weitere niO-Teile sein. (Achtung: 95% ist weniger als 100%, sprich da können in der Realität auch noch mehr Teile durch den Kunden gefunden werde.)Wenn Du ohne Verteilung rechnen möchtest wäre es sinnvoll, Deine Werte anzupassen. Bei Euch wurden 20.000 Teile geprüft und 6 niO-Teile gefunden. Umgerechnet auf die 5000 Teile (1/4 vom Los), die der Kunde bislang geprüft hat, habt Ihr also (rechnerisch) 6*1/4 = 1,5 niO-Teile in 5000 Teilen gefunden – und der Kunde 2 niO-Teile.
Damit ist der Schlupf sehr viel höher, wenn beim Kunden tatsächlich alle niO-Teile gefunden werden:
tatsächlich vorhandene niO-Teile in 5.000 Teilen: 3,5 = 1,5 + 2 (bei Euch + beim Kunde entdeckt)
Anteil von Euch gefunden: 1,5/3,5 = 43%
Anteil von Euch nicht gefunden (Schlupf)): 2/3,5 = 57%Ich würde vermutlich eher über eine verbesserte Prüfung nachdenken als über die Wahrscheinlichkeit, dass der Kunde weitere niO-Teile findet [:o)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo zusammen,
ich bin auch fürs UT – nur eben nicht mit Monster-Organisationsprogramm [;)] Und ich freu mich über die positiven Rückmeldungen hierzu!
Was haltet Ihr von folgendem Ablauf:
Donnerstag Abend: Ankommen, Essen & Erfahrungsaustausch
Freitag vormittag: Firmenbesichtigung
Freitag nachmittag: Open Space
Freitag Abend: nettes Beisammensein mit Erfahrungsaustausch
Samstag: Forsetzung Open SpaceFür die Firmenbesichtigung gab es mal den Vorschlag, einen Lebensmittel-verarbeitenden Betrieb (HACCP etc.) anzuschauen. Konkret war Dr. Oetker in Bielefeld angedacht. Ich fänd das spannend – und Ihr?
Open Space könnte ich mir sehr gut vorstellen, weil sich dabei verschiedene Schwerpunkte in kleineren Gruppen oder auch ein gemeinsames Thema im Plenum diskutieren und bearbeiten lässt. Wir wären frei in der Gestaltung, sprich: Themen werden mitgebracht und jeder kann so viel einbringen wie er/sie mag. Ob es dann um eher allgemeine Themen wie „Dem QM-System Leben einhauchen“ oder konkrete Dinge wie beispielsweise „Mitarbeiter XY torpediert meine Arbeit. Was meint Ihr, wie das besser werden könnte?“ geht, bestimmen wir selbst.
Es gibt auf jeden Fall eine neue Abstimmungsrunde zur Terminfindung: http://doodle.com/5r5qthig8axnktri (und dieses Mal verspreche ich häufiger vorbeizuschauen!) Bitte gebt Euren Wunschtermin an, damit wir den am besten passenden Termin für alle Interessierten finden können.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Erweiterte MU bei Zugversuch #62497Hallo reticent,
Referenzproben brauchst Du für eine Prüfmittel- oder Messmittel-Fähigkeit (Cg, Cgk) sowie für die Ermittlung von Linearität & systematischer Abweichung und die regelmäßige Stabilitäts-Prüfung.
Für eine Gage R&R brauchst Du quasi-gleiche Teile oder gleichartige Teile-Typen mit ähnlichen Eigenschaften, so wie Du sie schon jetzt zusammensammelst (gleiche Charge, gleiche Fertigungsbedingungen, usw.) Quasi-gleich heißt, dass sie so ähnlich wie möglich sind und einen sehr ähnlichen Wert liefern sollten, wenn das Mess-System gut ist (niedrige Quasi-Wiederholstreuung / EV).
Du brauchst mindestens 5 unterschiedliche Teile-Typen, die im besten Fall den gesamten Anwendungsbereich/Toleranzbereich abdecken. Von diesen 5 unterschiedlichen Teile-Typen brauchst Du jeweils einige Repräsentanten (bei 5 Teile-Typen mindestens 3 gleichartige Teile je Teile-Typ, gerne auch mehr). Damit hast Du je Teile-Typ eine Handvoll gleichartiger Teile, die gleichmäßig auf die Prüfer aufgeteilt werden.
Wichtig ist, dass jeder Prüfer mindestens 2 Repräsentanten eines Teile-Typs bekommt. Ob ein anderer Prüfer denselben Teile-Typ hat oder einen anderen, ist für die Auswertung (s. u.) relevant.
Bei der Auswertung hast Du 2 Möglichkeiten (und kannst sie auch beide durchrechnen und schauen, ob es Unterschiede in den Aussagen gibt):
- Variante 1: Auswertung als geschachtelte MSA/Gage R&R/Verfahren 2: Hier nimmst Du an, dass die Teile jeweils nur für 1 Prüfer ähnlich sind. Derselbe Teile-Typ von einem anderen Prüfer verwendet wird wie ein anderes Teil bewertet, d. h. ein anderer Prüfer kann denselben Teile-Typen verwenden oder einen anderen.
- Variante 2: Auswertung als gekreuzte MSA/Gage R&R/Verfahren 2: Hier nimmst Du an, dass ein Teile-Typ ähnliche Ergebnisse liefern sollte, wenn unterschiedliche Prüfer Messwerte aufnehmen. Dafür muss jeder Teile-Typ von jedem Prüfer verwendet werden mit mindestens 2 gleichartigen Teilen je Prüfer. Wenn Du also 3 Prüfer hast und jeder 2 Messwerte aufnimmt, brauchst Du 3*2 = 6 Repräsentanten eines Teile-Typs.
Je nachdem wie ähnlich die Repräsentanten der Teile-Typen sind, passt Variante 1 oder 2 besser.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Erweiterte MU bei Zugversuch #62493Hallo reticent,
hm, mir geht es ähnlich wie Frank: Die Unregelmäßigkeiten würde ich eher im Fertigungsprozess (neues Material/neuer Lieferant?) oder in grobem Unfug bei der Prüfung vermuten als in der Zugfestigkeitsprüfung selbst.
quote:
Ursprünglich veröffentlicht von reticentEin Ishikawa mit sämtlichen Einfluss-/ Störfaktoren habe ich bereits ausgearbeitet und letztendlich den Prüfer als auch die Prüfmaschine als Hauptfaktoren identifiziert. Nun ist die Frage: Wie weiter?
Du darfst für jeden Einfluss entscheiden, ob die Messunsicherheit über Versuche (Methode A) oder aus Dokumenten bzw. Herstellerangaben (Methode B) ermittelt werden soll.
Wenn Versuche gemacht werden sollen, brauchst Du für die Bestimmung der Messunsicherheit bei 1 Prüfer mindestens 2 gleichartige Teile (s. Franks Posting) für 1 Versuch, deren Werte dann als Quasi-Wiederholung verwendet werden. Dasselbe gilt auch für alle anderen Arten von Wiederhol-Streuung, also auch für z. B. einen Vergleich von 2 oder mehr Messmitteln. Ohne (Quasi-)Wiederholung keine Streuung und ohne Streuung keine Mess-Unsicherheit.
Es werden mehrere Versuche gemacht und pro Versuch werden mindestens 2 gleichartige Teile verwendet. Wie viele Versuche es insgesamt sind hängt von der Anzahl Einflussgrößen und deren Stufen ab, z. B. Anzahl Prüfer, Anzahl Messmittel, Anzahl…
Wenn Dir die Versuchsanzahl mit Methode A explodiert, können D-optimale Pläne eine Möglichkeit zur Reduzierung des Versuchsaufwands sein.
quote:
Ursprünglich veröffentlicht von reticentBei der Ermittlung der Messunsicherheit geht der Prüfer in die Berechnung nicht ein.
Wieso das denn? Du kriegst doch nach VDA 5 / GUM / ISO 22514-7 auch einen Messunsicherheitsanteil für den Prüfer, der in der Gesamtrechnung berücksichtigt wird. Genauso wie die anderen von Dir genannten Unsicherheitskomponenten wird die Unsicherheit durch den Prüfer mit addiert.
quote:
Ursprünglich veröffentlicht von reticentDie Unsicherheit des Prüfers ist dabei eher schwierig zu bewerten, da ich hierfür eine Art Referenzprobe benötigen würde, was jedoch aufgrund des zerstörenden Verfahrens eher schwierig ist.
Ja, das ist schwierig. Wenn Du darauf verzichtest wirst Du nie den Prüfer-Einfluss oder andere Einflüsse auf die Messgenauigkeit zahlenmäßig im Versuch erfassen können. Ich würd auch mal den Prüfmittelhersteller fragen, wie der denn seine Messmittel überprüft und zu den Messunsicherheits-Angaben auf den Zertifikaten kommt.
Ich hoffe diese Ideen helfen Dir ein bisschen weiter bei der Ermittlung der Mess-Unsicherheit. Es wär spannend zu lesen, wie Du weiter vorgehst.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Kugi, hallo qualyman,
Mist, die Doodle-Umfragen sind weg [:(] Ich hatte übersehen, dass Doodle die Einträge automatisch löscht, wenn zu lange nichts passiert.
Wenn ich das noch richtig im Kopf habe, waren die beiden Termine gleich gut bzw. es gab bei beiden eine ähnliche Anzahl von „geht nicht“ und „geht“. Ärgerlicher ist der Verlust der Namensvorschläge, denn die sind komplett weg.
Für mich stellt sich beim UT 2014 im Moment auch eine andere Frage: Macht es überhaupt Sinn, ein offizielles UT zu veranstalten? Die Aktivitäten in unserem Forum sind deutlich rückläufig und die Teilnehmer-Anzahl beim UT waren in den letzten Jahren auch überschaubar. Insgesamt frage ich mich, ob es wirklich genug Interesse gibt, ein offizielles UT inkl. Programm & Referenten zu organisieren.
Klar fand ich unsere Usertreffen auch immer schön und eine Bereicherung, vor allem wegen der Teilnehmer. Und ich fänd es auch schade, wenn es das UT in diesem Jahr oder generell nicht mehr gäbe. Andererseits bin ich zunehmend unsicher, ob wir mit diesem Treffen in 2014 genügend Teilnehmer für ein organisiertes UT zusammenbekommen. Deshalb denke ich darüber nach ob es an der Zeit ist, das Ganze in ein mehr informelles Networking-Treffen mit weniger Rahmenprogramm umzuwandeln.
Was meint Ihr dazu?
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Brauche einen Ablauf ;) #62480Moin,
auf der verlinkten Seite kann ich die Musik nicht hören, auf der Originalseite schon: http://blueballfixed.ytmnd.com/
Und wer von der Seite Augenflimmern bekommt, kann danach ja mal hier hinschauen: http://www.donothingfor2minutes.com/
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Berechnung Stichprobenumfang bei SPC Karten #62471Hallo Thomas,
bitte entschuldige meine späte Antwort; im Moment ist hier gerade ein bisschen arg viel Arbeit auf meinem Schreibtisch.
quote:
Ursprünglich veröffentlicht von mikalaEigentlich dachte ich es müsste ja ausreichen eine Verschiebung der Mittellage in Richtung der kritischen Toleranz zu erkennen.
Ja, das ist eine Möglichkeit den Stichprobenumfang auszurechnen, und zwar die „konservative Variante“. Du hast damit eine höhere Absicherung (=höherer Stichprobenumfang), weil Du Dich auf die kritische Seite (Abweichung nach oben) konzentrierst. Damit errechnet sich ein Stichprobenumfang von n=48 (bzw. n=47 mit dem 1z-Test in Minitab, Grund: vermutlich Rechengenauigkeit/Rundungsgenauigkeit).
Die andere Variante ist eine Absicherung des Schlecht-Anteils bzw. ppm-Werts. Dabei wird etwas anders gerechnet, weil die Ausschussrate nach oben relativ schnell größer wird und nach unten noch deutlich mehr Luft ist. Hier ergibt sich bei 3,10ppm (AQL / aktuelle ppm-Rate) und 63,34ppm (LQ / maximale ppm-Rate für Cpk=1,33) ein Stichprobenumfang von n=23 für alpha=5% und beta=5%, wenn Du die Standardabweichung als belastbaren Wert für den Prozess angibst (so genannte „historische Standardabweichung“ bzw. tatsächlicher Wert der Standardabweichung im Prozess).
Die aktuelle ppm-Rate ist berechnet aus Mittelwert 1,301, Standardabweichung 0,208, UTG=1,145 und OTG=1,395, z. B. über Excel-Funktion NORM.VERT (oder für Excel 2007 und früher NORMVERT):
ppm.unten = NORM.VERT(UTG;Mittelwert;Standardabweichung;1)*10^6 = 3,19e-08
ppm.oben = (1-NORM.VERT(OTG;Mittelwert;Standardabweichung;1))*10^6 = 3,10
ppm = ppm.unten + ppm-oben = 0 + 3,10 = 3,10Die maximal mögliche ppm-Rate für Cpk=1,33 ist 63,34, wenn der Prozess exakt in der Mitte läuft und die Toleranzgrenzen jeweils bei Mittelwert +/- 4*Standardabweichung liegen:
ppm.unten = NORM.VERT(-4;0;1;1)*10^6 = 31,67
ppm.oben = (1-NORM.VERT(4;0;1;1))*10^6 = 31,67
ppm = ppm.unten + ppm-oben = 63,34Die n=23 werden dann schrittweise ermittelt, sprich: es gibt keine einzeilige Formel sondern einen Rechenweg, bei dem unterschiedliche Werte eingesetzt werden. Nach jedem Einsetzen wird geprüft, ob die Anforderungen eingehalten sind. Wenn ja, ist der Stichprobenumfang gefunden. Wenn nein, wird der nächste Wert eingesetzt. Genau hierfür sind Statistik-Programme schick, die diese iterative Berechnung per Knopfdruck vornehmen [:)]
Wenn Du jetzt allerdings weißt, dass die Standardabweichung S=0,0208 nicht unbedingt die tatsächliche Prozess-Standardabweichung ist, sondern nur auf Basis einer kleineren Stichprobe berechnet wurde, dann brauchst Du für die Absicherung mehr Informationen = mehr Messwerte und dann funktionieren auch die n=48 nicht ausreichend gut, denn auch in dieser Formel nimmst Du an, dass S=0,0208 der tatsächliche Wert der Prozess-Standardabweichung ist.
Mit denselben Vorgaben wie oben für die ppm-Werte und der Angabe, dass es keinen belastbaren Wert für die Standardabweichung gibt, werden n=224 Werte für eine sichere Aussage benötigt.
Ein gutes Buch auf deutsch zu Stichprobenumfängen kenne ich leider nicht. Ein bisschen was zu diesen Berechnungen findet sich im Hartung (Statistik: Lehr- und Handbuch der angewandten Statistik, ISBN 9783486590289) im Kapitel „Qualitätskontrolle“. So richtig einfach bzw. verständlich ist dieser Abschnitt nicht geschrieben und berücksichtigt auch nicht direkt die Frage, wie aus Prozess-Kennzahlen ein Stichprobenumfang wird. Du kannst ja mal in einer größeren Bibliothek in der Nähe in das Buch schauen, ob Dich das weiterbringt. Ansonsten kenne ich nur die englischen Bücher, in denen das zumindest angerissen wird.
Ich hoffe die Antwort klärt zumindest Deine Fragen, wie aus den Kennzahlen ein Stichprobenumfang wird. Gerechnet habe ich die Zahlen übrigens mit Minitab R16 und der Funktion „Annahmestichprobenprüfung nach Variablen > Erstellen/Vergleich“.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Berechnung Stichprobenumfang bei SPC Karten #62446Hallo mikala,
willkommen im QM-Forum [:)]
quote:
Ursprünglich veröffentlicht von mikalaIch muss allerdings dazu sagen, dass meine Statistikkenntnisse nicht über die einen einfachen QSler hinaus gehen.
Dafür hast Du echt ganz schön viel zusammengetragen!
Also erstmal zu Deinen konkreten Fragen, wo die Formeln und Berechnungen richtig bzw. falsch sind.
quote:
Ursprünglich veröffentlicht von mikala1.Genauigkeit der Mittelwert-Kennzahl
…
Mittelwertüberdeckung mit 95%
1,301±0,0204Das ist alles korrekt.
quote:
Ursprünglich veröffentlicht von mikala2. Absicherung einer Mittelwert-Verschiebung bei bekannter Standardabweichung
…
2. Formeln>=( ( z_(1-alpha/2) + z_(1-beta) )²*(s/delta )²
n>=(1,96+1,645)²*(0,0208/0,025)²
n = 9,00Die 2. Formel ist korrekt. Die beiden Formeln unterscheiden sich durch das + bzw. – in der ersten Klammer. Das ^2 lässt sich in die Klammer ziehen: ((a)*(b))² = (a)²*(b)².
Die z-Werte stammen aus der Standard-Normalverteilung (Mittelwert 0, Standardabweichung 1) und geben den Flächenanteil unter der Normalverteilungskurve bis zu einem bestimmten Punkt (alpha/2 bzw. beta) an.
Die Normalverteilung ist symmetrisch, deshalb lassen sich die z-Werte auch schreiben als:
z_(alpha/2) = -z_(1-alpha/2) bzw. z_(1-alpha/2) = -z_(alpha/2)
z_(beta) = -z_(1-beta) bzw. z_(1-beta) = -z_(beta)Für die erste Klammer ( z_(1-alpha/2) + z_(1-beta) )² ist deswegen:
( z_(1-alpha/2) + z_(1-beta) )²
= ( -z_(alpha/2) + (-z_(beta)) )²
= ( (-1) * ( z_(alpha/2) + z_(beta) ) )²
= (-1)² * ( z_(alpha/2) + z_(beta) )²
= ( z_(alpha/2) + z_(beta) )²Die Idee hinter der Stichprobenumfangs-Berechnung ist, dass die beiden Risiken (Fehlalarm / Fehler 1. Art alpha & schlecht-Situation-nicht-Entdecken / Fehler 2. Art beta) addiert werden. Das Risiko für einen Fehlalarm hat beim Mittelwert-bekanntes-S-Test den z-Wert z_(alpha/2) und das Risiko fürs Übersehen einer schlechten Situation hat den z-Wert z_(beta).
Was ich bei Deiner Rechnung nicht so ganz verstanden habe ist der Wert 0,025 für das delta (maximal zulässige Mittelwertverschiebung). Hast Du das aus den 3S-Grenzen der Messwertverteilung (Normalverteilung)? Damit würdest Du nur einen Cpk von 1,00 absichern. (Für Cpk=1,33 müssen mindestens +/-4S innerhalb der Toleranz liegen).
quote:
Ursprünglich veröffentlicht von mikala3. Absicherung einer Mittelwertverschiebung bei bekannter Standartabweichung gegen kritische Spezifikationsgrenze
Diese Formeln sichern ab, dass der Mittelwert innerhalb der Spezifikation liegt. Für die Prozess-Überwachung (SPC) und Prozess-Bewertung (Cpk) sollen dagegen die Einzelwerte innerhalb der Spezifikation liegen.
Die Formel an sich ist korrekt. Bei der Angabe des Stichprobenumfangs muss beachtet werden, dass die Mindest-Anzahl in einer Stichprobe immer 2 ist, d. h. selbst wenn sich rechnerisch ein sehr kleiner Wert für den Stichprobenumfang n ergibt (z. B. n>=0,004), müssen dennoch immer mindestens n=2 Messwerte für eine Stichprobe aufgenommen. (n=1 ist keine Stichprobe mit der sich irgend etwas statistisches anfangen lässt.)
quote:
Ursprünglich veröffentlicht von mikalaund zu guter letzt noch eine andere Überlegung.
3. Absicherung einer Mittelwertverschiebung bei bekannter Standartabweichung gegen kritische Spezifikationsgrenze mit berücksichtigung der Losgröße und der Ziehungshäufigkeit
Macht es überhaupt Sinn die Ziehungshäufigkeit im Bezug zur Los oder Auftragsgröße zu betrachten?
Da, eigentlich es ja „nur“ meine betroffene Menge aber nicht meine qualitative Aussage beeinflusst. oder?Für die Berechnung des Stichprobenumfangs n ist es völlig egal, wie groß Dein Los oder Auftrag ist. Dabei geht es einzig und allein um die Frage, wie viele Werte/Prüfergebnisse für ein bestimmtes Absicherungsniveau (alpha & beta) vorliegen müssen.
Die Ziehungshäufigkeit hängt deshalb auch nicht von der Losgröße ab, sondern von der Risikobewertung: Wenn tatsächlich etwas im Prozess schlecht läuft, wie lange können wir schlechte Teile produzieren ohne es zu merken bevor es für uns unschön wird (Rückruf, Schrott, Risiken für Anwender, etc.)? Wenn Ihr Katalogware herstellt sieht diese Bewertung anders aus als wenn Ihr Zulieferant für Flugzeugbauer seid [;)]
Mal zur Ausgangsfrage zurück
Grundsätzlich geht es Dir darum, wie viele Teile (n) in einer Stichprobe sein müssen, um eine ausreichend hohe Absicherung der Prozess-Qualität (Cpk>1,33?) zu erreichen, oder? Die hierfür gut anwendbaren Formeln sind die aus der Annahmestichprobenprüfung mit AQL und LQ (NICHT die Normtabellen aus der ISO 3951, die funktionieren anders und sichern den Prozess nicht so ab wie Du das willst).
Für Cpk>1,33 müssen (neben den anderen Voraussetzungen wie normalverteilte Werte, stabiler Prozess, brauchbares Mess-System, etc.) innerhalb der Toleranz mindestens 99,993666% der Einzelwerte/Messwerte liegen, d. h. außerhalb dürfen nur 0,006334% sein. Das ist Dein Abdeckbereich für den Prozess bzw. in Stichproben-Theorie-Sprech das LQ (limiting quality / Grenzqualität bzw. rückzuweisende Qualitätsgrenzlage). Wenn mehr außerhalb der Toleranz liegt, willst Du das wissen.
Aktuell hat der Prozess mit Mittelwert 1,301 und Standardabweichung 0,0208 eine Ausschussrate von 0,000310%. Das lässt sich mit der Normalverteilung für die Toleranzgrenzen UTG=1,145 und OTG=1,395 ausrechnen (Wahrscheinlichkeit für < UTG + Wahrscheinlichkeit für > OTG). Diesen Wert kannst Du als AQL-Wert verwenden (acceptable quality limit / annehmbare Qualitätslage).
Mit einem alpha von 5% (Fehlalarm-Risiko) und einem beta von 5% (Risiko fürs Nicht-Entdecken zu schlechter Qualität/zu hoher Ausschuss) lässt sich ausrechnen, wie viele Teile für eine sichere Aussage geprüft werden müssen. Das sind n=23.
Heißt also unterm Strich: Du brauchst n=23 Einzelwerte, um eine sichere Entscheidung für diesen Prozess mit Mittelwer 1,301 und Standardabweichung 0,0208 treffen zu können. Ob Du diese 23 Messwerte aus 1 Auftrag mit 100 Teilen oder aus einer Tages-/Wochen-/Monats-/Jahres-Produktion nimmst, entscheidest Du anhand der Risikobewertung.
Viele Grüße
Barbara
PS: „Barbaraische“ Formeln find ich gut [:D] Tatsächlich sind das nicht „meine“ Formeln, sondern nur die Fundstücke aus diversen Büchern. Eine wirklich richtig gute Zusammenstellung von Formeln für den Stichprobenumfang findest Du in
Mathews, Paul: Sample Size Calculations : Practical Methods for Engineers and Scientists.
Fairport Harbor: Mathews Malnar and Bailey, 2010. Englisch. -ISBN 978-0-615-32461-6. S. 1-338, EUR 43,30, URL http://www.mmbstatistical.com/SampleSize.html————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Erweiterte MU bei Zugversuch #62445Hallo reticent,
hm, schwierig. Hängt von der Mess-Situation ab, für die Du die Messunsicherheit (MU) ermittelst.
Ich würd erstmal klassisch mit einem Fischgräten-Diagramm anfangen und alle möglichen Einflussgrößen für DEINE Mess-Situation sammeln, die das Mess-Ergebnis verändern können. Anschließend kannst Du Dir dann überlegen, welche davon tatsächlich überprüft werden sollen und nach welcher Methode (A Versuch oder B Kennzahlen aus Dokumenten, s. VDA 5, ISO 22514-7 und GUM 4.2 und 4.3). Für ein Beispiel, das möglichst nah an Deiner Anwendung liegt, kannst Du Dir einfach ein paar Zahlen ausdenken.
Das Berechnen selbst ist dann ziemlich einfach, weil nur die einzelnen Standardabweichungen quadriert, addiert und am Ende aus der Summe die Wurzel gezogen wird.
Alternativ könntest Du auch bei elsmar.com stöbern, was da von den Usern gepostet wurde.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Merry Chrismas #62403Hallo zusammen,
auch von mir die besten Wünsche fürs neue Jahr und ein paar ruhige, entspannte Tage bis dahin!
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Prüfprozesseignung MSA Vorlagen #62401Hallo zusammen,
der Thread ist schon etwas älter, die Frage nach der MSA / Verfahren 1 + 2 / Gage R&R-Vorlage in Excel taucht hier immer mal wieder auf. Netterweise hat sich jetzt jemand die Mühe gemacht, für die Verfahren 1 und 2 eine Excel-Vorlage zu basteln und Q4U zur Verfügung zu stellen:
Q4U-Vorlagensammlung: „MSA Anova“.Viel Spaß damit [:)]
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Spritzguss und Fähigkeiten #62372Hallo Andreas,
gerne [:)]
quote:
Ursprünglich veröffentlicht von 19dreas70„Was ist normalverteilt?“: Es wurden 125 Messwerte ermittelt und diese sind nach qstat – Auswertung normalverteilt. Mehr Daten habe ich nicht zur Verfügung bekommen.
125 Messwerte sind ja schon mal ein Anfang. Ich nehme an, Du hast mit diesen Werten die erste Toleranzermittlung gemacht? Wie sieht denn das Ergebnis der Normalverteilungsprüfung aus, wenn Du diese 125 Messwerte mit denen zusammenbringst, die nachher einen zu niedrigen Cmk-Wert hatten? Sind diese Gesamt-Messdaten dann immer noch normalverteilt? (Ich vermute nicht, weil es einen deutlichen Effekt zwischen den Messreihen gibt.)
Tests auf Normalverteilung
Bei der Frage nach der Normalverteilung geht es u. a. um die verwendete Testmethode. Davon gibt es eine ganze Menge und die werden in der Statistik hinsichtlich ihrer Qualität unterschieden. Ein guter Test erkennt möglichst früh, wenn es Abweichungen von der Normalverteilung gibt (hohe Trennschärfe). Ein schlechter Test auf Normalverteilung ist dagegen sehr unscharf und gibt erst bei sehr starken Abweichungen von der Normalverteilung ein entsprechendes Signal.gute Tests auf Normalverteilung: z. B. Anderson-Darling, Shapiro-Wilk/Shapiro-Francia, Ryan Joiner
schlechte Tests auf Normalverteilung: z. B. Chi^2-Test auf Verteilung, Kolmogorov-Smirnov/KSEtwas anschaulicher ist der Vergleich der Test-Qualität mit verschiedenen Messmitteln für die Aufnahme von mm-Messwerten:
- Chi^2-Test auf Verteilung = Schätzeisen mit Kerben
- Kolmogorov-Smirnov = Lineal mit mm-Einteilung
- Anderson-Darling = kalibrierter digitaler Messschieber mit 3 Nachkommastellen
Perfekt ist natürlich kein Test, genauso wenig wie es ein perfekt genaues Messmittel gibt.
Nachzulesen ist das z. B. in:
Gross, Jürgen (2004). A Normal Distribution Course.
Peter Lang AG. ISBN 9783631529348.quote:
Ursprünglich veröffentlicht von 19dreas70„Wie ist die Schwankungsbreite des cmK?“: Der cmK tendierte gegen eine untere Toleranzgrenze und lag unter 1,67. Nach nochmaliger Analyse der Spezifikationsgrenzen war es möglich, diese anzugleichen, so dass ein Wert von ca. 3 errechnet werden konnte. Die erneute Bemusterung ergab, dass die Messungen jetzt einen cpK Wert von unter 1,67 ergaben, welche allerdings die obere Spezifikationsgrenze betrafen, was den Prozesseigner dahingehend bewegte, die Toleranz grundsätzlich als nicht herstellbar einzuordnen. Das Ganze mit der Forderung verbunden, diese jetzt nach oben zu öffnen. Der obere cpk war hingegen in der ersten Bemusterung weit weg von 1,67.
Und wenn Ihr das ganze noch drei mal wiederholt, werdet Ihr vermutlich noch mindestens zwei Mal die Toleranzgrenzen anpassen müssen, weil der Cmk-Wert lustig durch die Gegend wandert. Klar hat der Prozesseigner Recht, wenn er sagt, dass die Toleranz im aktuellen Prozess nicht zuverlässig eingehalten werden kann.
Es wäre allerdings aus meiner Erfahrung ein Irrtum anzunehmen, dass das ein grundsätzliches Problem von Spritzguss-Prozessen ist. Stell Dir einfach mal vor, wie viele kritische Kunststoff-Teile es im Medizinbereich gibt, bei denen die Abmessungen auch stimmen müssen (z. B. Spritzen, Kanülen). Wenn da die Werte ständig chaotisch durch die Gegend hüpfen würden, wäre das extrem unschön.
Die sehr viel wahrscheinlichere Ursache für nicht-stabile Prozesse sind Veränderungen im Prozess, die bewusst oder unbewusst vorgenommen werden. Darauf hat ja auch schon Frank hingewiesen. Und natürlich hat er auch Recht wenn er sagt, dass es meistens schon deutlich weiterhilft, mit den Menschen zu reden und darüber die Ursachen für die schwankenden Messwerte zu finden und im nächsten Schritt abzustellen.
Wenn die Fronten zwischen Entwicklung und Produktion verhärtet und offene Gespräche kaum möglich sind oder wenn Meetings zu endlosen und fruchtlosen Plauderstunden geworden sind, können statistische Methoden Hinweise auf Einflüsse und Veränderungen geben. Es gibt immer eine oder mehrere Gründe für Prozessveränderungen. Kein Prozess hüpft einfach so von einem Wertebereich zum nächsten und (mögliche) Ursachen für die Messwertveränderungen lassen sich sehr häufig in den Messdaten finden, wenn neben dem Messwert auch die Parameter für den Prozess (von Restfeuchte bis Flanschtemperatur inklusive möglicher Störgrößen wie Luftfeuchtigkeit und Raumtemperatur) mit aufgenommen wurden. Dann kann z. B. mit DoE-Methoden oder der Auswertung vorhandener Prozessdaten Licht in die Prozess Black-Box gebracht werden.
quote:
Ursprünglich veröffentlicht von 19dreas70Dabei habe ich mir die Frage gestellt, was diese Untersuchung für einen Nährwert hat, wenn diese ganz offensichtlich nicht zu statistisch belastbaren Ergebnissen führt?
Das ist wie Essen im amerikanischen Spezialitäten-Restaurant. Zuerst hast Du das Gefühl pappsatt zu sein und nach einer halben Stunde ist der Hunger wieder da. Sprich: Die Papiertiger sind erstmal beruhigt, wenn irgendwo Toleranzen mit einem hohen berechneten Cmk stehen. Das Brüllen geht kurz darauf wieder los, wenn die neuen Messwerte aus der Produktion die Erwartungen verfehlen.
Ich finde diese Papiertiger-Fütterung ziemlich anstrengend. Leider wird am Ende oft behauptet, die Statistik sei schuld an dem entstandenen Chaos. Das ist ungefähr so richtig wie die Aussage, dass eine Kettensäge immer ein Mordwerkzeug ist.
quote:
Ursprünglich veröffentlicht von 19dreas70Zum Thema Literatur: Wie gesagt ich bin Entwickler, würde mich aber gerne in diese Sachen weiterbilden, da dies immer mehr bei uns zum Thema wird und weil mich die Sache interssiert und auch Spass macht. Vielleicht gibt es eine Art Einsteigerliteratur? Da ich in Mathematik eigentlich fit bin, wäre es sogar schön, wenn manches nicht nur verbal sondern auch mathematisch bewiesen werden würde!
Ein Buch in dem ALLES steht, gibt es nicht, denn das hätte vermutlich mehr als 1000 Seiten [;)] Es gibt einige brauchbare Einstiegsbücher und dann noch für viele Methoden Vertiefungsbücher mit Beweisen.
Für die statistischen Grundlagen finde ich folgendes ganz brauchbar:
Fahrmeir, L.; Künstler, R.; Pigeot, I.; Tutz, G. [2012]: Statistik. Der Weg zur Datenanalyse.
7. Auflage, 2. Druck, Springer Verlag, ISBN 9783642019388Als Einstieg in das Thema Prozessvalidierung mit statistischen Methoden gefällt mir:
Bläsing, J. (Hrsg.); Reuter, K. [2005]: Workbook Validierung von Prozessen und Produkten. Ausgewählte Methoden und Verfahren.
erhältlich über den TQU-Eigenverlag http://www.tqu-verlag.deAuf meiner Internetseite gibt es noch ein paar mehr Buch-Empfehlungen zu unterschiedlichen Themenbereichen: http://www.bb-sbl.de/linksliteratur/literatur.html
Wenn Du Dich für etwas Spezielles interessierst, sag einfach Bescheid.Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Spritzguss und Fähigkeiten #62366Hallo Andreas,
da hast Du gerade was geschrieben, als ich meine Antwort schrieb [:)]
quote:
Ursprünglich veröffentlicht von 19dreas701. Die bisherigen Ergebnisse sind normalverteilt, die Prozeßstreuung sehr eng, und der cm Wert ist hervorragend. Das sagt doch eigentlich, dass der Prozess beherrschbar ist!
Was genau ist normalverteilt? Alle Werte zusammen oder „nur“ die einzelnen Werte je Gruppe?
Der Cm-Wert vergleicht nur die Streuung mit der Toleranzbreite. Ob Deine Messwerte überhaupt in der Toleranz liegen, dazu sagt der Cm nichts aus. Insofern ist ein hoher Cm-Wert ein guter Anfang. Ob der Prozess tatsächlich fähig ist, kann nur der Cmk-Wert beurteilen, weil er neben der Streuung auch die Lage bewertet.
quote:
Ursprünglich veröffentlicht von 19dreas702. Der cmk-Wert ist nicht konstant. Würde nur der Einfluss einer nicht ganz korrekten Schwindungsauslegung im Werkzeug bestehem, dann dürfte dieser nicht so stark schwanken.
Wie viel Schwankung ist denn da drin? Hast Du Dir mal angeschaut, ob sich die Vertrauensbereiche der Cmk-Werte überschneiden?
quote:
Ursprünglich veröffentlicht von 19dreas704. Bleiben Einflüsse, welche es näher zu untersuchen gilt:
– Wurde die Maschinen vielleicht doch gewechselt (Kappaprobleme)?
– Wurde vielleicht die Zykluszeit herabgesetzt um mehr Durchsatz pro Zeiteinheit zu erreichen?
– Chargenprobleme, d.h. wie verhalten sich chargenabhängige Schwindungen (vom Lieferanten vorgegeben und toleranzbehaftet)
– wichtig auch MSA´s!
– DOE wurde durchgeführt!
– Wann werden Messungen durchgeführt? Geschieht dies zeitnah oder auch wieder aus Kapazitätsproblemen nach längerem Liegen der Teile?Alles sehr wichtige Punkte! Hoffentlich kommst Du auch an Daten dazu ran, damit Du prüfen kannst, wo der Hund tatsächlich begraben liegt.
quote:
Ursprünglich veröffentlicht von 19dreas70Ich bin, wie bereits geschrieben, Entwickler. Gibt es vielleicht gute, praxisnahe und für Quereinsteiger verständliche Literatur? Danke nochmals!
Zu welchen Themen hättest Du gerne Literatur und wie viel Formeln sollten oder dürfen da maximal drin sein?
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge