Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: Worst-Case-Teil Validierung #62972
Hallo fury,
Gegenfrage: Wo siehst Du denn den Unterschied in der Vorgehensweise im Vergleich zur ersten Auswahl mit den Maschinen? Ohne Eure Produkte und Prozesse zu kennen würde ich erstmal davon ausgehen, dass dieselben Ideen und Strategien dafür anwendbar sind.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Aussagewahrscheinlichkeit #62971Hallo Martin,
mir scheint es so, als gäbe es ein bisschen zu viele Unbekannte, um das wirklich ausrechnen zu können. Ich hab da mal ein bisschen was zusammengeschrieben und hochgeladen: Effektivität von attributiven Mess-Systemen. In dem Artikel sind Hinweise zu Berechnungsformeln und unterschiedlichen Ansätzen beschrieben, die bei der Bewertung von attributiven Prüfsystemen verwendet werden können.
Im Zweifelsfall würd ich dazu Versuche machen und prüfen, wie hoch die Zuverlässigkeit der Prüfentscheidung im Vergleich zum Röntgen ist. Denn ob das mit den von Euch ausgewählten Merkmalen im Vergleich zur Entscheidung nach Röntgen funktioniert, lässt sich nach meiner Erfahrung zuverlässig nur in der Anwendung ermitteln.
Auf jeden Fall würd mich interessieren, für welches Vorgehen Du Dich am Ende entschieden hast!
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Aussagewahrscheinlichkeit #62968Hallo Martin,
willkommen im Qualitäter-Forum [:)]
So ganz steige ich durch Deine Zahlen nicht durch, deshalb noch mal in meinen Worten: Ihr wollt durch eine andere Prüfung wie bisher die Schlecht-Teile zuverlässig in einer 100%-Prüfung finden. Dabei ist bekannt, dass in der Produktion ein Fehleranteil von 3% (30.000 ppm) auftritt. Dieser Fehleranteil muss auf maximal 0,1% (1.000ppm) gesenkt werden, damit der Anteil iO-Teile groß genug ist.
Hier gibt es sehr viel mehr als 1 Wahrscheinlichkeit, genauer die bedingten Wahrscheinlichkeiten für ein Ergebnis wie „Prüfung: Bauteil ist gut“ wenn das Bauteil tatsächlich gut ist (abgekürzt: P(A|B)):
- P(Prüfung: gut|Bauteil ist gut): sollte möglichst hoch sein
- P(Prüfung: gut|Bauteil ist niO): sollte möglichst klein sein
- P(Prüfung: niO|Bauteil ist niO): sollte möglichst hoch sein
- P(Prüfung: niO|Bauteil ist gut): sollte möglichst klein sein
Dazu findest Du mehr Informationen z. B. in MSA 4 unter dem Stichwort attributive Mess-Systeme und Prüfer-Übereinstimmung bzw. Kappa-Koeffizient:
AIAG (2010). Measurement System Analysis (MSA-4). Hrsg. von Automotive Industry Action Group (AIAG). 4. Aufl. AIAG. ISBN 9781605342115.Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Messsystemanalyse (Minitab) #62967Hallo Eva,
am Ende des Tages gibt es keine absoluten Grenzen für irgend etwas. Grenzwerte und goldene Regeln sind zur Orientierung sinnvoll und haben oft auch etwas mit dem Sinn und Zweck einer Methode zu tun.
1. Auflösung
Die Auflösung (=kleinste Veränderung, die abgelesen werden kann, z. B. 3. Nachkommastelle: Auflösung = 0,001) muss ausreichend fein/klein sein. Typischerweise solltest Du im Anwendungsbereich mindestens 10 verschiedene Werte aufnehmen können (-> relative Auflösung max. 10%, Forderung AIAG MSA 4) bzw. innerhalb der Toleranz 20 unterschiedliche Werte aufnehmen können (-> relative Auflösung max. 5%, Forderung VDA Band 5). Je mehr unterschiedliche Werte Du im Anwendungs-/Toleranzbereich theoretisch haben kannst, desto genauer kannst Du den Prozess und die Teile bewerten.Wenn Du mit Deinen Teilen oder Deinem Mess-Equipment an der technischen Grenze bist, lassen sich diese Regeln manchmal nicht in einem unternehmerisch sinnvollen Kosten-Nutzen-Rahmen realisieren (sprich: zu teuer für kommt zu wenig bei rum). In dem Fall hast Du bei allen Entscheidungen, die auf Messwerten getroffen werden (Teil iO/niO, Prozessfähigkeit, SPC usw.) ein echt stumpfes Schwert in der Hand. Klar kannst Du damit immer noch jemandem den Kopf abschlagen, nur brauchst Du dafür viel Kraft.
2. Toleranzeinschränkung
Die Festlegung, dass durch die reine Mess-Streuung maximal 20% der Toleranz „verbraucht“ werden sollte, ist eine Erfindung des VDA Band 5 und taucht bei Verfahren 1 zur Prüfmittelfähigkeit auf. (Band 5 ist auch nach wie vor das einzige Handbuch, in dem die Prüfmittelfähigkeits-Kennzahlen Cg und Cgk zur Beurteilung herangezogen werden, aber das nur am Rande.)Warum Minitab als Grenze bei einem einseitig tolerierten Merkmal die OSG – 4*S (bzw. bei einem einseitig nach unten tolerierten Merkmal USG + 4*S) in die Grafik zeichnet, weiß ich nicht. Ggf. hat das etwas mit einer Ähnlichkeit zu einem Mindest-Cgk-Wert von 1,33 zu tun, nur hinkt das ganz gewaltig und ist fies schief.
3. Verfahren 2 / Gage R&R mit Bedienereinfluss
So ganz hab ich Deine Vorgehensweise nicht verstanden. Bei einer klassischen Gage R&R wird jedes Merkmal einzeln bewertet und über die Teile-Auswahl dafür gesorgt, dass alle Merkmale, die über die Gage R&R bewertet werden sollen, auch in der Studie vertreten sind.Die gekreuzte Auswertung ist für 1 Merkmal, mind. 2 Prüfer, unterschiedliche Bauteile, Mehrfach-Messung gedacht.
Bei ganz vielen Statistik-Methoden (SPC, Stichprobenziehung usw.) ist eine zufällige Auswahl von Teilen gut. Bei der MSA ist das anders. Hier werden bewusst Teile so ausgewählt, dass sie den gesamten Anwendungs-/Toleranz-Bereich (am besten beide) abdecken, damit Du hinterher sicher sein kannst, im gesamten relevanten Messbereich auch zuverlässige Messwerte zu bekommen. Werden die Teile zufällig ausgewählt, sind sie oft sehr gleichartig, so dass die Teile nur einen Bruchteil des Anwendungsbereichs abdecken.
Der ndc-Wert gibt an, wie groß Deine tatsächliche Auflösung ist bzw. wie viele Wertebereiche Du über die Messwerte voneinander unterscheiden kannst. Wenn Du sehr ähnliche Teile in der MSA hast, wird Dein ndc auch sehr klein sein, weil die ähnlichen Teile NICHT über die Messwerte der Teile voneinander unterschieden werden können. Der ndc ist deshalb eher eine Kennzahl, die Dir eine Info dazu gibt, ob Deine ausgewählten Teile unterschiedlich genug sind. (ndc wird mittlerweile auf Grund der mit ihr verbundenen Verwirrung, der geringen Aussagekraft und der Ähnlichkeit zum GRR%-Wert im Vergleich zur Streung in der Untersuchung bzw. historischen Standardabweichung als weniger wichtig bewertet.)
Eine Studie, bei der ndc=1 und GRR%(SU) < 30% ist, geht rechnerisch nicht. Hier muss nochmal nachgeschaut werden, welche Werte miteinander verglichen werden. Nett ist dafür auch der Assistent für die Mess-System-Analye in Minitab, weil der mit sehr viel mehr Worten und eindeutigeren Grafiken erklärt, wie gut oder schlecht die Messwerte sind.
Es ist auf jeden Fall sinnvoll, den Mess-Prozess hinsichtlich seiner Eignung für die Prozess-Bewertung (z. B. Prozessfähigkeit, SPC) UND hinsichtlich seiner Eignung für die Produkt-Bewertung (z. B. Entscheidung ob iO oder niO) zu beurteilen. Dafür werden teilweise auch andere Bezeichnungen wie GRR% und P/T (Präzision zu Toleranz) verwendet.
4. p-Wert
Der p-Wert ist eine Wahrscheinlichkeit zwischen 0 (0%, völlig unwahrscheinlich) und 1 (100%m, total wahrscheinlich). Er gibt bei einem statistischen Test an, wie groß die Wahrscheinlichkeit für eine Kennzahl ist, wenn die Annahme/Nullhypothese/H0 tatsächlich für die Messdaten gilt.Beispiel 1:
Annahme/Nullhypothese: „Prüfer hat keinen Einfluss auf Messwert“ bzw. „Einfluss(Prüfer)=0“
p-Wert: p=0,32 = 32%
Grenzwert für „zu unwahrscheinlich“ ist im Allgemeinen 0,05=5%
Testentscheidung: Wahrscheinlichkeit für Nullhypothese ist größer als Grenzwert, d. h. Wahrscheinlichkeit ist groß genug bzw. Prüfer hat keinen Einfluss auf Messwert.Beispiel 2:
Annahme/Nullhypothese: „Prüfer hat keinen Einfluss auf Messwert“ bzw. „Einfluss(Prüfer)=0“
p-Wert: p=0,04 = 4%
Grenzwert für „zu unwahrscheinlich“ ist im Allgemeinen 0,05=5%
Testentscheidung: Wahrscheinlichkeit für Nullhypothese ist kleiner als Grenzwert, d. h. Wahrscheinlichkeit ist zu klein bzw. Prüfer hat signifikanten Einfluss auf Messwert.Weitere Infos zur Mess-System-Analyse findest Du u. a. hier:
- AIAG (2010). Measurement System Analysis (MSA-4).
Hrsg. von Automotive Industry Action Group (AIAG). 4. Aufl. AIAG. ISBN 9781605342115. - VDA (2011). Band 5: Prüfprozesseignung. Eignung von Messsystemen, Eignung von Mess- und Prüfprozessen, Erweiterte Messunsicherheit, Konformitätsbewertung.
Hrsg. von Verband der Automobilindustrie (VDA). 2. vollständig überarbeitete Auflage 2010, aktualisiert Juli 2011. VDA QMC. - ISO 22514-7:2012. Statistical methods in process management – Capability and performance – Part 7: Capability of measurement processes.
International Organization for Standardization (ISO). - Pesch, Bernd (2010). Messunsicherheit: Basiswissen für Einsteiger und Anwender.
Books On Demand. ISBN 9783839190265.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Stichprobenumfang berechnen #62966Hallo glockmane,
willkommen im Q-Forum [:)]
Zu dem von Dir verlinkten Tool fällt mir folgendes Zitat ein:
quote:
Für jedes Problem gibt es eine Lösung, die einfach, klar und falsch ist.
Henry-Louis MenckenDer Snap Sampling Plan Calculator rechnet nichts, sondern liefert einfach nur eine grafische Oberfläche, mit der Pläne aus in Normen und Artikeln veröffentlichten Stichprobenplänen einfacher ausgewählt werden können. Das hat mit Absicherung nullkommanix zu tun.
Such einfach hier im Forum nach den Threads zum Thema AQL, wenn Du mehr dazu wissen willst.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Literatur DoE #62960Hallo nonvolio,
wenn Deine Zielgruppe sich mit englischen Texten anfreunden kann, würde ich als Einstieg für die DoE folgendes Buch empfehlen:
Anderson, Mark J. und Patrick J. Whitcomb (2007). DOE Simplified – Practical Tools for Effective Experimentation.
Productivity Press. ISBN 9781563273445Da werden anschauliche Beispiele vewrendet wie z. B. die Optimierung von Rasenmäher-Einstellungen oder Mikrowellen-Popkorn und auf Formeln weitgehend verzichtet. Auf Deutsch kenne ich so ein Buch leider nicht.
Die beiden Autoren Anderson und Whitcomb sind die Chefs von statease.com (Design Expert) und beschreiben in ihrem Newsletter Stat-Teaser ähnlich wie im Buch interessante DoE-Anwendungen aus dem täglichen Leben, z. B. die Optimierung des Arbeitsweges.
Einen übersichtlichen Einstieg liefert auch der Lean Six Sigma and Minitab Pocket Guide von OPEX Resources. Auch auf Englisch und mit Bezug zur Umsetzung in Minitab, dafür schick übersichtlich und gut zum Nachschlagen.
Ansonsten gibts noch das am weitesten verbreitete Versuchsplanungsbuch auf Deutsch:
Kleppmann, Wilhelm (2013). Versuchsplanung – Produkte und Prozesse optimieren.
8. Auflage. Hanser Fachbuchverlag. ISBN 9783446437524Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Bitte um Hilfe bei Sachverhalt instabiler Prozess #62956Hallo Andreas,
genau, Vorhersagbarkeit ist ein ganz wichtiger Punkt, denn bei den Fähigkeitswerten wird auf Grundlage der Jetzt-Zahlen eine Kennzahl berechnet, die etwas über die aktuelle und die zukünftige Prozessleistung aussagen soll.
Leider ist es in der Praxis oft genau so, wie Du beschrieben hast: Magische Grenzen werden ohne Sinn und Verstand (technische Grenzen, Anwendungsfall, Anforderung, Kritikalität) vorgegeben und sind oft genug in der Realität nicht erreichbar (z. B. Toleranzen auf Fähigkeit von 1,33 ausgelegt, jetzt magische Grenze bei 2,00). Dass dann eher die Zahlen geschönt werden, weil (scheinbar) weder Zeit noch Geld für die Prozess-Analyse und -Verbesserung da ist, ist für mich die logische Konsequenz. Spätestens bei den „hübschen“ Zahlen ist die Statistik zu einer Blendgranate geworden: Weil ich nichts mehr sehe, scheint alles in Ordnung zu sein – ich seh ja nichts, was dagegen spricht.
Viel Erfolg bei der Umsetzung und halt uns auf dem Laufenden!
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Worst-Case-Teil Validierung #62955Hallo fury,
die einfache Antwort auf Deine Frage: Es kommt darauf an.
Ich geh mal davon aus, dass Ihr nicht die Tarot-Karten befragt habt, um das Worst-Case-Teil zu definieren, sondern diese Festlegung aufgrund von viel Prozess- und Produkt-Wissen getroffen wurde. Damit muss es auch greifbare/messbare/definierbare Kriterien geben, die dieses Teil zum Worst-Case-Teil machen. Aus diesen Kriterien lässt sich auch eine Begründung für die Auswahl stricken. Mir persönlich wäre das allerdings etwas zu dünn, wenn es keine Zahlen/Fakten/Versuchsreihen als Begründung für diese Auswahl gibt.
Neben der Auswahl „Worst-Case = für die Maschine am komplexeste“ würde ich auch noch prüfen, wie kritisch dieser Produktionsschritt für die spätere Anwendung des Produkts ist.
Das Argument „Wenn wir das für alle Produkte & Maschinen machen, dann ist der Aufwand zu groß.“ finde ich schwierig, weil Du je nach Anwendungsfall mehr oder weniger genau hinschauen musst, ob das für ALLE Produkte und ALLE Maschinen gut genug funktioniert. Wenn Du 100 Produkte und 150 Maschinen hast, sind das (theoretisch) 100*150 = 15.000 mögliche Produkt-Maschinen-Kombinationen. Da ist der Nachweis, dass der Prozess für jede Produkt-Maschinen-Kombination funktioniert, ziemlich aufwändig. Nach meiner Erfahrung sind allerdings auch baugleiche & gleich-alte & gleich-gewartete & alles-andere-gleich Maschinen so unterschiedlich, dass (je nach Anwendungsfall) tatsächlich jede Maschine einzeln geprüft werden muss und auch unterschiedlich auf verschiedene Materialien reagieren kann. Damit kann das Worst-Case-Teil von Maschine 1 für die (baugleiche) Maschine 2 weniger schwierige sein.
Je nachdem wie solide Deine Begründung für die Worst-Case-Teil-Auswahl ist, kann die Auswahlbegründung (für wen eigentlich? Auditor? Kunde?) funktionieren. Nur können wir hier ohne Kenntnis Deiner Maschine und Prozesse keine einfache Antwort auf Deine Frage finden, wie so eine Begründung aussehen kann.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Bitte um Hilfe bei Sachverhalt instabiler Prozess #62949Hallo Andreas,
ein stabiler Prozess ist ein Prozess, der immer dasselbe Ergebnis liefert (mit ein bisschen Zufallsstreuung), d. h. die Lage (z. B. Mittelwert) und die Streuung (z. B. Standardabweichung) sind in jeder Stichprobe und im großen Topf sehr ähnlich.
Bei einem instabilen Prozess ändern sich Lage und/oder Streuung zufällig oder systematisch. Das passiert relativ häufig, z. B. durch verschiedene Werkzeuge (-> unterschiedliche Mittelwerte), Verschleiß (-> zeitlicher Trend) oder unterschiedliche Einstellungen in den Maschinenparametern (-> wilde Wiese). Für einen instabilen Prozess kannst Du alles mögliche ausrechnen, nur bekommst Du keine belastbare Aussage zur Prozessleistungsfähigkeit, weil Du nie weißt, was morgen passiert.
In der Realität sind instabile Prozesse sehr häufig, deshalb gab es in Deutschland auch lange nur 1 Norm zu Prozessfähigkeiten (DIN ISO 21747), bei der zeitabhängige Verteilungen einen großen Stellenwert hatten. Seit Juni 2015 ist die DIN ISO 21747 zurückgezogen und durch die DIN ISO 22514-2 ersetzt worden. Ein wichtiger Unterschied ist, dass es jetzt eine ganze Normenreihe zur Prozessfähigkeit gibt und nicht mehr nur 1 Norm.
Ein weiterern wichtiger Unterschied zur Vorgängernorm ist der explizite Hinweis unter den Beispielen für die Verteilungszeitmodelle, dass alle Prozesse außer A1 (Normalverteilung) und A2 (andere Verteilung wie z. B. Logistisch) einen nicht-beherrschten Prozess zeigen. Im Klartext: Die Verteilungszeitmodelle B, C1, C2, C3, C4 und D sind für nicht-beherrschte Prozesse. Die so genannte „Mischverteilung“ ist übrigens keine statistische Verteilung (für den Fall A2), sondern eine Q-Das-Hilfskonstruktion, die so nach wie vor in der Statistik-Fachliteratur keine Erwähnung oder Anwendung bei der Prozessfähigkeit findet.
Um sinnvolle und haltbare Entscheidungen zu einem Prozess treffen zu können, muss dieser Prozess so weit verstanden sein, dass die Ergebnisse vorhersagbar sind. Das geht mit Verteilungen über die Prozessfähigkeits-Kennzahlen, wenn keine systematischen bzw. deutlichen Veränderungen auftreten. Mit Veränderungen sind die Ergebnisse aus den Norm-Rechnereien ganz oft nur als Futter für den Papiertiger brauchbar.
Es gibt in der Statistik diverse Möglichkeiten, Prozesse zu bewerten, auch wenn die durch Werkzeug-Unterschiede, Verschleiß, oder Anderes erstmal in der Kategorie „nicht beherrscht“ gelandet sind. Dazu gehören auch Toleranzberechnungen, die z. B. in dem folgenden Buch aufgelistet sind:
Krishnamoorthy, Kalimuthu und Thomas Mathew (2009). Statistical Tolerance Regions: Theory, Applications, and Computation.
Wiley. ISBN 9780470380260.Ich würde dieses Buch nur jemandem empfehlen, der sich mit Matrizenrechnung, nicht-parametrischen Methoden und Modellierung auskennt und Formeln mag [:D] (Der Inhalt hat nicht viel mit den normalen Simulations-Tolerierungsmethoden oder der Ingenieurs-Toleranzrechnung zu tun, sondern ist statistisch begründet. Zum Unterschied gibts hier ein paar Infos: Formeln für Varianz/Toleranz, versch. Sigma-Level)
Kurz gesagt: Auf der Basis von Stichproben in einem großen Topf würde ich ohne weitere Informationen niemals Toleranzen ableiten wollen, weil die normalen Berechnungswege da versagen. Ggf. könnte es möglich sein darüber nachzudenken, wenn wirklich viele (>>5000) Messwerte vorliegen und dann über nicht-parametrische Methoden etwas ermittelt werden kann. Funktioniert allerdings auch nur dann zuverlässig, wenn im großen Topf ALLE Einflüsse drinstecken und nicht morgen eine neue Charge Rohmaterial geliefert wird, mit der die Ergebnisse plötzlich ganz anders aussehen.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Stichprobenumfang berechnen #62948Hallo RB1897,
es gibt nicht DIE Zahl, mit der Du für alle Prüfsituationen 1 Stichprobenplan festlegen kannst. Stell Dir mal vor, Du würdest für die Zuverlässigkeit des Bremssystems und die Farbübereinstimmung an der Rückseite des Armaturenbretts denselben Prüfaufwand haben. Das macht doch nicht wirklich viel Sinn [;)]
Die Formel erscheint mir ein bisschen wild und ich kenne sie so auch nicht. Sie sieht für mich nach einer Formel für die Prüfung von Mittelwerten aus und das hilft Dir für den Zugversuch nur bedingt weiter, denn eigentlich hättest Du vermutlich eher eine Prüfung, mit der der Anteil Teile außerhalb der Toleranz geprüft wird. Der Mittelwert ist nur 1 von zwei wichtigen Kenngrößen dabei; die Streuung (hier: Standardabweichung) ist der zweite Baustein.
Bei Zugversuchen (=Belastungsprüfung) würd ich allerdings weniger in Richtung variable Prüfung und mehr in Richtung Nachweistest bei Lebensdauerprüfungen gehen. Da sind die Formeln wieder anders.
Einen guten Überblick über verschiedene Testmethoden, Stichprobenumfänge und Berechnungswege liefert das Buch
Mathews, Paul (2010). Sample Size Calculations: Practical Methods for Engineers and Scientists.
Mathews Malnar und Bailey, Inc. ISBN 9780615324616.Auf Deutsch gibt es nicht mal ein halbwegs brauchbares Buch zu Stichprobenplänen/-umfängen usw.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo RunneR,
falls Du noch auf der Suche nach einer Antwort bist: Es gibt nicht 1 Formel für k, weil die Berechnung davon abhängt, ob Du 1 oder 2 Spezifikationsgrenzen hast und ob Du annimmst, dass die Streuung in Deinem Prozess bekannt ist oder aus der Stichprobe berechnet wird.
Für jede dieser vier Möglichkeiten gibt es unterschiedliche Berechnungsmethoden für k und n. Eigentlich.
Da die Stichprobenprüfungs-Normen sich teilweise recht weit von den statistischen Anforderungen an zuverlässige Prüfergebnisse entfernen, kann es durchaus sein, dass die die k-Werte in der ISO 3951 irgendwann einfach festgelegt haben (so wie beim Stichprobenumfang n) und das nur wenig mit Formeln zu tun hat. In dem Fall bleibt Dir nur das Abtippen der Norm und auslesen der Tabellenwerte, um das in R umzusetzen.
Wenn Du die Formeln verwenden willst, könnte das R package AcceptanceSampling hilfreich sein, das für attributive und variable Testsituationen die Formeln (auch für k) bereitstellt.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Prüfumfang Validierungen #62904Hallo fury,
freut mich sehr, dass Dir die Infos weitergeholfen haben.
Behalt die Statistik einfach in guter Erinnerung [:)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: App für Datenerfassung statt Papierformular #62898Hallo Q…t…,
ich kenne so eine App nicht und beim Thema individuelle Formularverwaltung wird es vermutlich schon extrem schwierig, etwas Brauchbares zu finden.
Und dann gibt es da noch die Fragen, die bei jeder App (und auch jeder Software) in einem Unternehmen relevant sind:
- Für welche Betriebssysteme (iOS, Android, Windows, Blackberry…) & Versionen funktioniert die App? Funktioniert sie auf allen Betriebssystemen & Versionen gleich? Für welche Betriebssysteme & Versionen wollen wir eine App haben?
- Wie groß ist das Risiko, dass die Weiterentwicklung und/oder der Support der App eingestellt wird?
- Wie sicher sind unsere Daten? Wie sicher ist die Datenbank? Wie sicher ist die Datenübertragung?
- Gibt es einen Support, der uns bei Fragen oder Problemen kompetent und zeitnah weiterhilft? Gibt es für uns als Anwender die Möglichkeit, neue Features anzustoßen? Können wir an der App kundenspezifische Weiterentwicklungen machen (lassen)? Brauchen/wollen wir kundenspezifische Weiterentwicklungen?
- Wie viele Menschen sollen die App aktiv im Unternehmen nutzen? Wie viele Menschen werden mit der Datenbank am PC arbeiten?
- Wie ist das Verhältnis von Aufwand (Installation, Schulung, Validierung/Tests, Kosten) und Gewinn (Effizienzsteigerung)? Lohnt sich das?
Nach meiner Erfahrung ist spätestens bei der letzten Frage der Punkt erreicht, an dem weiter mit dem bestehenden System gearbeitet wird [:o)] Denn auch wenn Apps ganz oft nach nix aussehen, steckt da extrem viel Aufwand hinter. Ggf. wäre es günstiger, sich eine eigene App entwickeln zu lassen, wobei „günstiger“ bei einer sauber erstellten App für unterschiedliche Plattformen ein Betrag mit mindestens 5 Zahlen vor dem Komma ist.
So, genug Spielverderberin für heute gegeben [;)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Prüfumfang Validierungen #62897Hallo fury,
Deine Frage braucht eine etwas längere Antwort, deshalb hat es auch einige Zeit gedauert:
Prozessfähigkeit: Bewertung der Prozess-Streuung und -Lage im Verhältnis zur Spezifikation
Notwendige Anzahl Messwerte
normalverteilte Messwerte: 100
andere Verteilung: 150
keine Verteilung/nichtparametrisch/verteilungsfrei: >500 (mindestens, kommt auf die Kritikalität und die Anforderungen an das Vertrauensniveau an)Quellen:
ISO 22514-1:2014. Statistical methods in process management – Capability and performance – Part 1: General principles and concepts.
International Organization for Standardization (ISO)
ISO/TR 22514-4:2007. Statistical methods in process management – Capability and performance – Part 4: Process capability estimates and performance measures.
International Organization for Standardization (ISO)Rinne/Mittag „Prozessfähigkeitsmessung für die industrielle Praxis“ (ISBN 9783446211179) ist ein nettes Buch, nur leider ungeeignet für die Festlegung des Stichprobenumfangs zur Absicherung, weil es in dem Buch keine Begründungen für die Mindestanzahl gibt. Zudem werden Methoden wie beispielsweise die Pearson-Methode oder andere Transformationsmethoden heute kritisch gesehen und als potentiell unzuverlässig eingestuft (s. z. B. ISO 22514-4).
Falls Du oder jemand anderes ein Buch finden willst, das nicht mehr im Handel erhältlich ist, lohnt sich eine Suche in den Katalogen der Bibliotheken, z. B. über den Karlsruher Virtueller Katalog, der für Deutschland 9 Treffer zu dem Prozessfähigkeitsbuch von Rinne und Mittag liefert.
Nachweisführung: Nachweis, dass ausreichend viele Prozess-Ergebnisse innerhalb der Spezifikation liegen
Notwendige Anzahl Messwerte wird durch Prozesskennzahlen ermittelt. Es gibt keine Absicherung mit immer derselben Mindestanzahl Messwerte, da hierbei die Kritikalität des Merkmals und die technischen Gegebenheiten berücksichtigt werden.
Bei einem nicht-kritischen Merkmal, das sehr einfach innerhalb der Spezifikation gehalten werden kann, ist der Stichprobenumfang deutlich niedriger als bei einem extrem kritischen Merkmal am Rand der technischen Machbarkeit. Da die Statistik bzw. die Formeln nicht wissen können, wie kritisch das Merkmal und die technische Machbarkeit sind, gibt es auch kein one-size-fits-all-Stichprobenumfang, mit der jeder beliebige Prozess abgesichert werden kann.
Die „magische“ 59
In einigen Veröffentlichungen wird ein allgemeiner Stichprobenumfang von n=59 Messwerten angegeben. Diese Zahl berechnet sich nach den Methoden des so genannten „Success Run“-Tests (s. Quelle) mit der Formel
n >= ln(alpha)/ln(1-P)
n: Stichprobenumfang
ln: natürlicher Logarithmus
alpha: Risiko für Fehler 1. Art (Fehlalarm), d. h. 1-alpha Vertrauensniveau
1-P: Zuverlässigkeit des Bauteilsmit alpha=5% und 1-P=95% ergibt sich
n >= 58.40397
d. h. aufgerundet auf die nächstgrößere ganze Zahl: n=59Ob ein Risiko von 5% für einen Fehlalarm (bzw. ein Vertrauensniveau von 95%) und vor allem eine Zuverlässigkeit von 95% für einen Prozess ausreicht, ist wiederum eine Frage der Kritikalität von Merkmal und Prozess. Ich fände z. B. diese Art des Tests für die „Absicherung“ der Zuverlässigkeit von Herzschrittmachern oder Bremssystemen diskussionswürdig.
Quelle:
VDA [2004] Zuverlässigkeitssicherung bei Automobilherstellern und Lieferanten. Teil 2. Zuverlässigkeits-Methoden und -Hilfsmittel.
Hrsg. von Verband der Automobilindustrie (VDA). 3. überarbeitete Auflage 2000, aktualisierter Nachdruck 2004. VDA QMC, ISSN 0943-9412Achtung: Die hier genannten Methoden zur Prozessfähigkeit und Nachweisführung gehen von 1 konstanten bzw. stabilen Prozess aus, d. h. hier dürfen keine (deutlichen) Chargen-Effekte oder andere Veränderungen (z. B. durch Werkzeuge, Wetter, Werker, Maschinen, Rohstoffe…) auftreten! Selbst wenn das punktuell erreichbar ist, kann as zu extrem starren Vorgaben bei den Prozess-Einstellungen führen und damit zu einer sehr niedrigen Flexibilität bei moderaten Prozess-Veränderungen (was schon daran liegt, dass nicht untersucht wird, wie viel „moderat“ ist).
Andere Nachweis-Methoden
Ziele:
1. Nachweis, dass Messwerte Anforderungen erfüllen
2. Größtmöglicher Prozessbereich, in dem der Prozess sichere Ergebnisse liefertPunkt 1. geht mit den oben beschriebenen Methoden, wenn der Prozess stabil ist. Punkt 2. bleibt bei den o. g. Methoden unberücksichtigt.
Bei dieser Nachweis-Methodik werden (wie bei Euch) zunächst die kritischen Merkmale ermittelt, z. B. über eine FMEA, ein Fischgräten-Diagramm oder scharfes Nachdenken. Anschließend werden Testbereiche für die Merkmale festgelegt und für diese Testbereiche ein Testplan (statistischer Versuchsplan, Design of Experiments, DoE) erstellt. Je nach Art und Anzahl der Merkmale gibt es hier unterschiedlich viele Versuche (wenig Merkmale = tendenziell weniger Versuche).
Nach Durchführung der Versuche wird geprüft, in welchen Prozess-Einstellungen der Prozess ausreichend sichere Ergebnisse liefert. Damit sind dann beide Punkte beantwortet, d. h. es ist der Nachweis erbracht UND es gibt ein klar definiertes, sicheres Prozess-Fenster. Zusätzlich liefern die Versuche eine Grundlage für die Auswahl von Merkmalen zur Prozess-Überwachung.
Weitere Infos dazu: Im Pharmabereich wird das unter dem Stichwort „QbD – Quality by Design“ bzw. Ermittlung des Design Spaces gemacht, s. z. B.
Integrating Quality by Design (Qbd) in Medical Device Manufacturing – Concept, Benefits and Challenging
Quality by Design in der HPLC (deutsch)
The QbD Column: Overview of Quality by DesignViel Erfolg bei der Umsetzung [8D]
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Torsion Grenzen Ermittlung UWG und UEG #62887Hallo Vikdor,
bei der Belastung und Beanspruchung von Bauteilen sind Methoden aus der Zuverlässigkeits- und Lebensdauer-Analyse besser als die „normalen“ Normalverteilungsmethoden. Eine der am häufigsten eingesetzen Verteilungen in diesem Bereich ist die Weibull-Verteilung.
Über die Weibull-Verteilung lässt sich berechnen, wie viele Teile Du für eine Prüfung benötigst, um eine Anforderung (z. B. Mindestwert 10 Nm) nachzuweisen. Das geht am einfachsten mit einer Software, die die Berechnungen für Dich erledigt, weil die Formeln schon etwas anspruchsvoller sind (s. z. B. 8.3.1.2. Lognormal or Weibull tests). Minitab ist eine Software, die das berechnet (30-Tage-Demo: minitab.com).
Allerdings wird kein Test dafür sorgen, dass die Torsionswerte stabiler werden, ganz egal, ob Du 10, 50, 100 oder 10000 Messwerte aufnimmst. Die Stabilität kriegst Du nur über einen stabilen Prozess [;)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge