QM-Forum › Foren › Qualitätsmanagement › MSA – Benchmarking
-
AutorBeiträge
-
Noch einmal ich!
War heute Früh etwas in Eile, daher noch eine Frage zu Deiner Frage. Barbara, kannst Du die Daten in Minitab eingeben und mit dieser Software analysieren. Würde mich interessieren, zu welchen Erkenntnissen Du gelangst.
Ich kann Sie Dir natürlich auch als Excel-File zukommen lassen, wenn das Deine Arbeit erleichtert.
Gruß aus Ulm
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!Hallo Fritz,
danke für den Link; ich hab mir die Ergebnisse heruntergeladen, hatte aber noch keine Zeit, wirklich reinzuschauen.
Auswerten kann ich die Daten. Ein Excel-File ist auf jeden Fall hilfreich. Was soll denn das Ziel der Auswertung sein bzw. welche Frage(n) hättest Du gerne beantwortet?
Viele Grüße
Barbara
_____________________________________
Fakten hören nicht auf zu existieren, wenn man sie absichtlich übersieht.
(Aldous Huxley)Hallo Qualiman, Barbara und andere MSA-ler,
Da die ANOVA als Standardmethode der Statistik gilt, fände ich es gut, wenn %RR- Berechnungen nur noch auf diese Weise durchgeführt würden statt nach der ARM-Methode.
Software hierzu ist doch wohl verfügbar oder kann mit relativ geringem Aufwand „selber gestrickt“ werden. Vor allem könnte auf diese Weise die Konfusion beseitigt werden, welche bei der ARM-Methode wegen den um den Faktor 5.15 verringerten K-Werten entstanden ist, weil man dann diese Werte gar nicht mehr unbedingt braucht.Mit dem Faktor 5.15 wurde ohnehin viel Unfug getrieben. Er hat viele in der QS-9000 MSA2 und MSA3 enthaltenen Formeln unnötigerweise verkompliziert und macht (Überlegungsfehler meinerseits vorbehalten) eigentlich nur Sinn, wenn die R&R bezüglich der Toleranz zu beurteilen ist. Kommt ja noch dazu, dass bei uns in der Regel von der sechsfachen Standardabweichung ausgegangen wird.
Gemessen an der Bedeutung, welche die QS-9000 MSA3 in der Fachwelt hat, ist deren redaktionelle und zum Teil auch inhaltliche Gestaltung nach meiner Meinung dürftig bis schäbig. Wir Anwender sollten doch in der Lage sein, bei intensivem Studium dieser Lektüre die Materie zu verstehen. Mir ist dies bisher nicht gut gelungen. Noch immer habe ich Unklarheiten, wie die aus den Beispieldaten berechneten Ergebnisse auszuwerten sind.
Mein Einstieg begann folgendermassen:
Ich habe in den Excel-Add-Ins die Analysefunktionen aktiviert und dort die „Zweifaktorielle Varianzanalyse mit Messwiederholung“ aufgerufen.
Um ein „Benchmarking“ durchzuführen, übernahm ich von Seite 101, Abbildung 12 die Beispieldaten und führte die ANOVA durch.
Unter Verwendung der Formeln auf Seite 187, Tabelle 16, ermittelte ich aus den Mittleren Summen-Quadraten die Varianzen, dann die geschätzten Standardabweichungen und schliesslich deren prozentualen Komponentenanteile.
Die auf diese Weise ermittelten Werte entsprachen exakt den im Buch angegebenen, was für mich ein kleiner Aufsteller war.Aber dann wusste ich nicht mehr weiter:
Auf Seite 122, in der Tabelle 11, beträgt der %RR = 27.9% der Gesamtstreuung.Darunter steht „Das Messsystem ist für die Prozessanalyse und Prozesslenkung geeignet“. Wie kommt man auf diese positive Bewertung, wenn diese 27.9% doch sehr nahe beim kritischen Grenzwert von 30% liegen?
Oder gilt der „R&R-Komponentenanteil der Varianz von 7.8%? Dies kann aber kaum möglich sein, da der mittels der ARM-Methode auf Seite 114, Abbildung 25 berechnete %GRR-Anteil 26.68% beträgt und nirgendwo auf die entsprechende Varianz als Kriterium hingewiesen wird.
Haben andere diese Probleme auch noch nicht verstanden und machen „irgend etwas nach ihrem Gusto“? Ist das wohl mit ein Grund, weshalb die von Qualyman gemachten Untersuchungen derart streuen?
Wer kann mir weiterhelfen?Nesty
Hallo Nesty,
bei der Beurteilung, wann ein Gage R&R-Wert zu hoch ist, gibt es verschiedene Kriterien. Wenn Du davon ausgehst, dass bei 30% die Grenze ist, dann sind 27,9% unter diesem Grenzwert und das Messmittel damit (bedingt) fähig.
Excel ist ja ganz nett. Für die Datenaufnahme jedenfalls. Für die Berechnung ist die Rechenungenauigkeit zu hoch! Gerade in der Statistik sind drei Nachkommastellen Rechengenauigkeit mehr als notwendig und je nachdem welche Werte Du eingibst, gibt Excel – je nach Version andere – Berechnungen aus. (Ich hab Dir mal ein Beispiel zugemailt.)
Und was mir persönlich bei den Excel-Analysen fehlt, sind p-Werte, mit denen die Einflüsse schnell und leicht bewertet werden können.
Viele Grüße
Barbara
_____________________________________
Fakten hören nicht auf zu existieren, wenn man sie absichtlich übersieht.
(Aldous Huxley)Hallo Nesty!
Zu Deinem zuletzt geschilderten Problem:
Auf Seite 121 der QS9000:2002 werden zwei Kenngrößen in Prozent definiert.
1.) % von Gesamtstreuung – es ist das prozentuale Verhältnis zweier Standardabweichungen oder deren Vielfaches (5,15 * sigma) und dient als Kriterium für die Eignung. Typische Werte sind z.B. < 10% „geeignet“, zwischen 10% und 30% „bedingt geeignet“ und über 30 % „ungeeignet“. Das hängt nun ganz davon ab, in oder für welches Unternehmen und in welcher Situation eine Analyse stattfindet. Bei der Neubeschaffung von Messmitteln werden Werte über 20% als „ungeeignet“ eingestuft; andererseits gleichartige, bereits in der Fertigung eingesetzte Prüfmittel erst ab 30% als „nicht akzeptabel“ eingestuft werden. Man kann dies als „Abnutzungspuffer“ ansehen. (nähere Erläuterung finden sich weiter unten)
2.) % Beitrag zur Gesamtstreuung – das ist der Anteil, den die Streukomponente auf die Gesamtstreuung ausübt. Auf Seite 121 kann die dritte Gleichung von unten wie folgt interpretiert werden. Die Gesamtvarianz TV^2 setzt sich zusammen aus der Teilevarianz PV^2 und der Meßverfahrensvarianz GRR^2, die wiederum aus der Summe der Wiederholvarianz EV^2 und der Vergleichsvarianz AV^2 gebildet wird. TV^2 = PV^2 + EV^2 + AV^2. Dieser Zusammenhang leitet sich aus dem Fehlerfortpflanzungsgesetz nach Gauß ab oder ist auch als Varianzaddition bekannt. Möchte man nun wissen, welchen Anteil die einzelnen Komponenten an der Gesamtvarianz haben, dann werden die relativen bzw. die prozentualen Anteile in der auf Seite 121 beschriebenen Form bestimmt.
Die 30% Schwelle für Kenngröße 1.) leitet sich nun daraus ab, dass dann der meßverfahrensbedingte Anteil GRR^2 an der Gesamtstreuung nicht größer als 9% (0,3^2) ist. Hier finden wir wieder eine Brücke zur >Goldenen Regel der Messtechnik< die ja diesen dekadischen Sprung fordert.Wenn Du die Streuung der Berechnungskonstanten anführst, die qualyman beobachtet hat, dann auch hierzu eine kurze Erläuterung:
Bisher (also QS9000:1998) wurden Zufallstreubereiche ins Verhältnis gesetzt, um >% von Gesamtstreuung< zu berechnen. Das war in der Tat ein unglücklicher Ansatz, weil weltweit unterschiedliche Traditionen mit einflossen und andere Firmen mit anderen Ansätzen rechneten. Von 99,7% über 99% bis hin zu 95% war alles zu finden. Die Absolutwerte unterschieden sich entsprechend; bei der relativen Beurteilung hatte dies jedoch keinen Einfluss. Für die Interpretation von GRR ist der Zufallstreubereich sehr wohl sinnvoll, denn er gibt an, in welchem Bereich ein Messverfahren als „unsicher“ eingeschätzt wird. In der neuen Fassung der QS9000:2002 werden allerdings nur noch Standardabweichungswerte berechnet. Und da bei der ARM-Methode diese aus Spannweiten geschätzt werden, benötigt man dazu die W-Verteilung. Die Modalwert (?) (QS9000:2002 S 195) sind jedoch von zwei Faktoren abhängig:
1.) wie groß ist die Stichprobe, aus der die Spannweite berechnet wird?
2.) Wie viele Spannweitenwerte werden für die mittlere Spannweite verwendet?
Die mittlere Spannweite der entsprechenden Streukomponente wird dann durch diese Konstante geteilt oder mit ihrem Umkehrwert (K-Werte) multipliziert. Bei der Version QS9000:1998 war in diesen K-Werten noch der Multiplikator 5,15 enthalten. Daher hat qualyman so gravierende Unterschiede in den K-Tabellen festgestellt.Ob nun ANOVA oder ARM, da sehe ich bei den zu analysierenden Streuproblemchen keine fundamentalen Vorteile für ANOVA. Es geht in einem ersten Durchgang ja nur um die Reststreuung EV, den Schichtanteil (Werker / Umfeld) AV und die Fertigungsstreuung PV. Wenn hier allerdings kein befriedigender Zustand vorgefunden wird, dann wird’s sehr schnell kompliziert und dann hat ANOVA eindeutig Vorteile. Um die Mitarbeiter für die Problematik der „Messwertgüte“ zu sensibilisieren, da finde ich die ARM Methode geeigneter, denn mit diesem Kochbuchrezept kann fast jeder umgehen. Ich hab bei Q4U ein entsprechendes Arbeitsblatt eingestellt, gekoppelt mit einer Vielfachstreukarte. Mit dieser Grafik kann ich jedem Interessierten erklären, worum es geht und was die Zahlen aussagen.
Würde mich freuen von Dir / Euch zu hören, wie Du bzw. wie Ihr das seht.
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<! -
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.