Verfasste Forenbeiträge
-
AutorBeiträge
-
Hallo zusammen,
es ist geschafft: Die Anmeldungen können kommen [:)]
Hier die Kurzform zum Usertreffen 2014:
- Ort: Bielefeld
- Termin: 26. & 27.09.14
- Firmenbesichtigung: Suttner GmbH, Hersteller von Komponenten und Zubehör für professionelle Reinigungstechnik
- Workshop „aktuelle Herausforderungen im Qualitätsmanagement“
- Details: Q4U-Seite zum Usertreffen
- Kosten: 0 EUR (bitte aus organisatorischen Gründen anmelden)
Direkt zum Anmeldeformular: Usertreffen 2014 Anmeldeformular (pdf, 116 kB)
Ein großes DANKE an Mr.Idea für die Mit-Organisation!
Ich freue mich schon darauf beim Usertreffen alte Bekannte und neue Gesichter zu sehen!
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo,
leider möchte Dr. Oetker mindestens 6 Monate Vorlaufzeit haben, um sich auf Sonderführungen einstellen zu können. Mist [xx(]
Ich schlage deshalb vor, dass wir ein kürzeres/kurzes Usertreffen ohne Firmenbesichtigung machen, von Freitag Mittag bis Samstag Abend.
Was haltet Ihr davon?
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: MSA für logarithmische Werte #62617Hallo Toni,
bei der MSA verwendest Du Wiederholmessungen. Diese sollten (unabhängig von der Verteilung der Prozessdaten) für jedes Teil zufällig um einen mittleren Wert streuen. Das gilt für Verfahren 1 genauso wie für Verfahren 2 und 3 (Gage R&R mit und ohne Prüfereinfluss).
Relevant ist die Prozessdaten-Verteilung bei der MSA nur, wenn es um die Auswahl von Teilen für Verfahren 2 und 3 geht, die den gesamten Anwendungsbereich bzw. Toleranzbereich abdecken sollten und bei der Bewertung der Mess-Streuung zur Gesamt-Streuung, weil hierfür u. U. nicht die normale Standardabweichung aus dem Prozess als Bezugsgröße verwendet werden kann.
Für Verfahren 1 (1 Teil mehrfach aufgenommen) ist die Prozessdatenverteilung irrelevant. Du kannst also einfach loslegen, sobald Du ein Teil mit bekanntem Referenzwert hast [:)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: MFU einseitig verteiltes Merkmal #62608Hallo Speckiy,
die Toleranzen werden für die Werkzeugauslegung verwendet. Im Schneidprozess hast Du Werkzeug-bedingt eine technische untere Grenze (UG) und keine untere Spezifikationsgrenze (USG).
Unterschied zwischen technischer unterer Grenze und unterer Spezifikationsgrenze:
- technische untere Grenze: Teile mit Werten unter dieser Grenze sind unmöglich
- untere Spezifikationsgrenze: Teile mit Werten unter dieser Grenze sind unerwünscht
Etwas ausführlicher auch mit einem ähnlichen Beispiel wie von Dir beschrieben findest Du das z. B. auf stangerweb.de: Fähigkeiten bei technisch begrenzten Merkmalen
Was Du je nach Stärke des Verschleißes bei der Fähigkeitsbewertung ggf. beachten musst ist der zeitliche Effekt (=nicht-stabiler Prozess über die Zeit). Das ist eine Verletzung der Voraussetzung für die Fähigkeitsbewertungen. Ist der Verschleiß wegen einer hohen Standzeit vernachlässigbar, darfst Du das auch unter den Tisch fallen lassen.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: MSA Verfahren 1 an Waage #62607Hallo Simone,
die Streuung scheint bei den meisten Gewichten klein genug zu sein (Cg >= 1,33). Durch die systematische Abweichung (Bias, Unterschied zwischen Referenzwert und Mittelwert der Messwerte) ist der Cgk bei fast allen Gewichten kleiner oder sehr viel kleiner als der Cg.
Ich würd prüfen wie zuverlässig die Referenzwerte sind. Anschließend würd ich mir den zeitlichen Verlauf der Messwerte je Gewicht anschauen: Ist ein Trend/Muster erkennbar? Eventuell hilft auch das Eintragen in eine I/MR-Karte (I: Individual/Urwert, MR: moving range/gleitende Spannweite). Ggf. würd ich noch prüfen, ob die Wiederholmesswerte normalverteilt sind: Wahrscheinlichkeitsnetz, Test auf Normalverteilung (z. B. Anderson-Darling oder Shapiro-Wilk). Bei einer ungestörten Wiederholmessung müssten die Werte zufällig um den Mittelwert streuen und damit normalverteilt sein.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Prüfprozesseignung bei Reparatur von Einzelteilen #62606Hallo Rene_1981,
bei der Mess-Unsicherheit gibt es zwei Möglichkeiten:
- Verwendung von Serienteilen
- Verwendung von Referenzteilen
Da Ihr keine Möglichkeit habt Serienteile zu verwenden, bleibt nur Variante 2.
„Vermessen“ kann alle möglichen Messaufgaben umfassen. Sinnvoll wäre es zu schauen, welche Messaufgaben bei Euch anfallen, in welchen Wertebereichen die Messwerte liegen (können) und dann mit Referenzteilen zu prüfen, ob Ihr in diesen Messbereichen gut genug messen könnt (Gage R&R, Linearität & systematische Abweichung, zeitliche Stabilität, ggf. erweiterte MU).
Referenzteile können Normteile sein (weniger sinnvoll da i. A. weiter von Eurer eigentlichen Messaufgabe entfernt) oder auch ausgemusterte/ähnliche Teile (besser weil näher an der Messaufgabe). Für diese Referenzteile kann ermittelt werden, ob sie genau genug wiederholbar messbar sind (EV), ob es einen Prüfereinfluss gibt (AV), ob die Messwerte linear sind (je größer das Teil, desto größer der Messwert) und ob es eine systematische Abweichung (Bias) gibt.
Die Teilestreuung = Toleranz aus Herstellvorgaben zu setzen ist aus statistischer Sicht keine belastbare Option, weil Du dabei keine Informationen über die tatsächliche Teilestreuung hast.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Einer geht (hccv) – einer kommt #62605Hi Loretta,
welcome back [:)]
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Auf Wiedersehen #62574Hallo Christoph,
ich wünsche Dir viel Erfolg & Spaß bei dem was Du zukünftig machen wirst! Schade, dass Du jetzt nicht mehr Dein Wissen und GMV im QM-Bereich nutzt.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: statistisch valide Stichproben der PQ (Validierung #62573Hallo Denis,
allgemein gebräuchlich sind 3 batches und 5 Validierungsläufe. Diese Zahlen haben nichts mit statistischer Absicherung zu tun (dafür gibt es keine Standardzahlen).
Wenn Du ausrechnen willst wie viele Prozessdurchläufe Du brauchst um eine ausreichend hohe Absicherung zu bekommen, kannst Du dafür Stichprobenplan-Formeln verwenden. Dabei gilt:
- Je mehr Sicherheit/Absicherung Du brauchst, desto mehr muss geprüft werden.
- Attributive Prüfungen (gut/schlecht) brauchen immer deutlich mehr Ergebnisse/Prozessdurchläufe als variable Prüfungen (Messwerte) für dasselbe Absicherungsniveau.
- Je besser Dein Prozess die Anforderungen/Toleranzen einhält, desto weniger muss geprüft werden. Je kritischer der Prozess ist bzw. je näher das Ergebnis an der Toleranzgrenze liegt, desto genauer muss hingeschaut werden und desto mehr Prozessdurchläufe sind notwendig.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: MSA Verfahren 1 an Waage #62572Hallo Simone,
wenn eine Kennzahl nicht so gut ist wie gefordert, ist Ursachenforschung meist ein guter erster Ansatzpunkt:
- Ist die Kennzahl korrekt berechnet worden? (Teilweise stehen in selbstgebastelten Excel-Dateien etwas abenteuerliche Formeln, das kann schon die Ursache sein.)
- Wie hoch ist der Cg und wie hoch der Cgk?
- Beide Werte deutlich unterschiedlich bzw. „nur“ Cgk zu niedrig: ssystematische Abweichung des Mittelwerts der Messdaten vom Referenzwert des Teils zu groß, d. h. kalibrieren oder nach-justieren sinnvoll
- Cg und Cgk zu niedrig: Streuung der Wiederholmesswerte zu hoch, d. h. Suche nach Streuungsursachen wie beispielsweise Vibrationen (da sind Waagen sehr empfindlich)
Es gibt leider keine Patentlösung, wenn Kennzahlen nicht die geforderten Werte erreichen. Dafür hast Du hier eine Chance, Messwerte besser zu verstehen und einschätzen zu können, ob Eure Messdaten tatsächlich so eine gute Grundlage für die Entscheidung über Produkt- oder Prozess-Qualität liefern [:)]
Was neben der Cg und Cgk-Wertberechnung auch sinnvoll sein kann ist die Auswertung der Linearität und systematischen Abweichung (s. MSA4). Da Du sowieso schon unterschiedliche Gewichte verwendet hast, könntest Du damit noch weitere Informationen aus den Messdaten holen und beispielsweise untersuchen ob die Unschärfe/Unsicherheit der Messdaten in allen Gewichtsbereichen gleich hoch ist.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: AQL ISO 2859 #62571Hallo brenner,
freut mich, dass Dir die Informationen weiterhelfen.
quote:
Ursprünglich veröffentlicht von brenner
Eine bescheidene Frage hätte ich noch: welche Formel/Gleichung liegt Deiner Berechnung des AQL-Wertes bei bekanntem LQ, n, alpha zugrunde?Die Berechnungen laufen bei der attributiven Prüfung über einen Algorithmus, in dem schrittweise unterschiedliche Werte eingesetzt werden. Eine Beschreibung der Formeln findest Du z. B. in
Mathews, Paul: Sample Size Calculations : Practical Methods for Engineers and Scientists.
Fairport Harbor: Mathews Malnar and Bailey, 2010. ISBN 9780615324616
(S. 236f.)Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Full-time equivalent / Mitarbeiterzahlen #62563Hallo plutho,
hilft Dir die offizielle FTE-Definition von Eurostat weiter?
http://epp.eurostat.ec.europa.eu/statistics_explained/index.php/Glossary:Full-time_equivalentViele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo zusammen,
das wird ja dann wieder eine nette Runde [:)]
Da bislang alle zumindest voraussichtlich am 26./27. September Zeit haben, sieht es nach diesem Termin aus. Es sei denn, im Laufe dieser Woche melden sich noch xundzwölfig andere die teilnehmen wollen und da nicht können.
Ende dieser Woche schließe ich die Umfrage und dann gehts in die Details.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Erweiterte MU bei Zugversuch #62514Hallo reticent,
hm, Bland-Altmann funktioniert doch über den Vergleich von Wiederhol-Messungen mit unterschiedlichen Messmitteln, oder? Hast Du die gleichartigen Probekörper für jeweils beide Maschinen verwendet, um die Differenzen zwischen den Ergebnissen zu berechnen?
Eigentlich müsstest Du über eine Kalibrierung der beiden Maschinen herausfinden können, ob und wenn ja welche der beiden Maschinen (ggf. auch beide) eine systematische Verzerrung haben. Vielleicht hat die eine Maschine eine Verzerrung nach unten und die andere nach oben, vielleicht ist es auch wirklich nur eine Maschine mit Verzerrung und die andere misst präziser. Kalibrierung ist IMMER Voraussetzung vor der Ermittlung der Mess-Unsicherheit (egal ob nach GUM, MSA 4, VDA 5, ISO 22514-7).
Dass Du bei der Kalibrierung eine MU von 1% hast (was sehr gut sein kann, je nachdem wie diese MU ermittelt wurde) und dann im Bland-Altmann-Plot deutliche Unterschiede zwischen den Messmaschinen findest, erscheint mir etwas merkwürdig. Hier würde ich nachschauen, ob diese 1% dem entsprechen was Du an Differenzen im Bland-Altmann-Plot gefunden hast oder ob das unterschiedliche Größenordnungen sind.
quote:
Ursprünglich veröffentlicht von reticentWenn ich nun die Zugfestigkeit Rm heranziehe und hierfür die Messunsicherheit ermitteln will, dann gehen in diese Berechnung die folgende Faktoren ein:
1. Probenquerschnitt der Rundprobe (Durchmesser)
2. Zugkraft
Um die Messunsicherheit nach Methode A (also anhand realer Messungen) durchführen zu können muss ich in einem ersten Schritt die Standardunsicherheit ermitteln. Richtig soweit? Hierzu habe ich folgendes gefunden:
1. u_d = a/ wurzel(3) –> u_S0=wurzel([d^2]*[u_d^2]) wobei d der Mittelwert aus 12 Proben darstellt
2. u_Fm = a/2 –> und hier hänge ich bereitsAlso: Im (scheinbar) einfachsten Aufbau nach Methode A machst Du Wiederholmessungen und ermittelst darüber die Unsicherheit u_i bei einer Unsicherheitskomponente, z. B. bei einem festgelegten Durchmesser mit 12 gleichartigen Teilen n=12 Zugkraft-Werte x_i und dem Mittelwert xquer. Aus diesen Werten errechnest Du die Standardabweichung u_P [P: Probendurchmesser]
u_P = Wurzel( 1/(n-1) Summe( x_i -xquer)^2 )Alternativ könntest Du nach Methode B die Unsicherheitskomponente u_P theoretisch ermitteln:
Wertebereich für Probendurchmesser: m +/- a [z. B. Toleranzintervall um mittleren Wert m]
u_P = Wurzel( 1/3 ) * a
Das was dahinter steht ist die Rechteckverteilung, die als allgemeine Verteilung in der Mess-Unsicherheit verwendet wird, wenn keine Informationen über die tatsächliche Verteilung der Werte in dieser Unsicherheitskomponente bekannt sind.Bei der Zugkraft-Unsicherheitskomponente kannst Du ähnlich vorgehen. Für die Herkunft von a/2 kann ich nur raten: Es könnte sich dabei um 1/k handeln mit k Erweiterungsfaktor in der MU (oft k=2). Allerdings wird das nicht mit dem Prozentwert gerechnet, sondern mit den Absolutwerten. Du kannst aus dem Kalibrierprotokoll diesen MU-Wert bekommen und falls das irgend etwas mit U und k steht, daraus u ermitteln:
U = k*u bzw. u = U/k
Das ist dann eine theoretische Bestimmung der Mess-Unsicherheit nach Methode B. Wenn Du für die Zugkraft-Unsicherheitsbeiträge mit Methode A arbeiten willst, musst Du dazu eigene Versuche machen.Für eine elegante Umsetzung von Methode A lassen sich Versuchspläne verwenden, bei denen die unterschiedlichen Unsicherheitsbereiche geplant & gemeinsam geprüft werden. Der Vorteil liegt neben dem deutlich niedrigeren Versuchsaufwand im Vergleich zu „jede Unsicherheitskomponente einzeln testen“ in der Möglichkeit, auch Wechselwirkungen bzw. Interaktionen bestimmen zu können. Der Nachteil ist, dass ein gut zugeschnittener Plan ein bisschen was an Hintergrundwissen über statistische Versuchsplanung erfordert (Stichworte: allgemeiner vollfaktorieller Plan, D-optimale Auswahl von Planpunkten).
Wenn Du dann alle Unsicherheitsbeiträge beisammen hast, ergibt sich die Messunsicherheit so:
u = Wurzel( u_1^2 + u_2^2 + … + u_j^2 )
mit u_1 bis u_j Unsicherheitskomponenten aus unterschiedlichen Bereichen (alle Werte sind Absolutwerte bzw. hier Zugkraftwerte, keine Prozentwerte)Die erweiterte Messunsicherheit U errechnet sich aus u durch den Erweiterungsfaktor k (s. o.)
U = k*u
Ursprünglich war in der Metrologie ein k=1 üblich, mittlerweile ist es eher k=2 (95%-Abdeckung). In der Statistik wird dagegen standardmäßig mit k=3 gearbeitet (99,73%-Abdeckung, z. B. Prozessfähigkeit, SPC).Weil es so viele verschiedene Unsicherheitskomponenten und Ermittlungswege gibt, ist das Thema ziemlich komplex. Im Netz findest Du nur sehr eingeschränkte Informationen, u. a. weil die verwendeten Formeln schwer im Internet darstellbar sind. Für eine solide Basis wirst Du ohne Druckerzeugnisse extrem lange brauchen und noch die eine oder andere Frustrationsklippe nehmen müssen. Hilfreiche Literatur ist z. B.
- ISO 22154-7 [2012]: Statistical methods in process management – Capability and performance
– Part 7: Capability of measurement processes
International Organization for Standardization (ISO), erhältlich über http://www.beuth.de - ähnlich zur ISO 22514-7 (NICHT gleich!!!) VDA 5 [2011]: Prüfprozesseignung. Eignung von Messsystemen, Eignung von Mess- und Prüfprozessen, Erweiterte Messunsicherheit, Konformitätsbewertung
Verband der Automobilindustrie (VDA), 2. Auflage, erhältlich über http://webshop.vda.de/qmc/ - Pesch, Bernd [2010]: Messunsicherheit. Basiswissen für Einsteiger und Anwender
Books on Demand, ISBN 9783839190265 - MSA 4 [2010]: Measurement System Analysis (MSA-4)
Automotive Industry Action Group (AIAG), 4th edition, ISBN 9781605342115, erhältlich z. B. über [url]www.tuev-buch.de[/i], Anmerkung: In MSA 4 gibt es keine erweiterte Mess-Unsicherheit; es werden andere Methoden für die Bewertung von Messprozessen beschrieben, z. B. Gage R&R
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge