Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: Fähigkeitsuntersuchungen in der Einzelfertigung #41196
Ein Hallo an alle am Thema interessierte Qualitäter!
Ich hab gerade in der neuesten Ausgabe der >Quality Progress< einen interessanten Beitrag zum Thema >Fähigkeitsnachweis bei Kleinserien< gelesen. Ein pragmatischer Ansatz, prozessspezifische Unvollkommenheiten zu visualisieren und damit interpretierbar zu machen.
Title: The Histogram for Complex Parts
Copyright: 2006, Author
Author: Vermani, S.K.;
Organization: Boeing Company, St. Louis, MO
Subject: Aerospace industry; Histograms; Inspection; Supplier quality assurance;
Series: Quality Progress, Vol. 39, No. 7, JULY 2006, pp. 67-71Abstract: In the aerospace industry, production and procurement usually consists of infrequent lots of complex parts with relatively small lot sizes. Data are often insufficient to implement standard process assessment techniques. In these situations, a percent tolerance histogram (PTH) is useful because it combines data for all quality characteristics into one histogram. The PTH is a multi-purpose tool that the Boeing Company has found useful for assessing suppliers.
Der Artikel kann kostenpflichtig beim ASQ – Store heruntergeladen werden.
http://qic.asq.org/perl/search.pl?item=20534
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: MSA – Benchmarking #41054Hallo Nesty!
Zu Deinem zuletzt geschilderten Problem:
Auf Seite 121 der QS9000:2002 werden zwei Kenngrößen in Prozent definiert.
1.) % von Gesamtstreuung – es ist das prozentuale Verhältnis zweier Standardabweichungen oder deren Vielfaches (5,15 * sigma) und dient als Kriterium für die Eignung. Typische Werte sind z.B. < 10% „geeignet“, zwischen 10% und 30% „bedingt geeignet“ und über 30 % „ungeeignet“. Das hängt nun ganz davon ab, in oder für welches Unternehmen und in welcher Situation eine Analyse stattfindet. Bei der Neubeschaffung von Messmitteln werden Werte über 20% als „ungeeignet“ eingestuft; andererseits gleichartige, bereits in der Fertigung eingesetzte Prüfmittel erst ab 30% als „nicht akzeptabel“ eingestuft werden. Man kann dies als „Abnutzungspuffer“ ansehen. (nähere Erläuterung finden sich weiter unten)
2.) % Beitrag zur Gesamtstreuung – das ist der Anteil, den die Streukomponente auf die Gesamtstreuung ausübt. Auf Seite 121 kann die dritte Gleichung von unten wie folgt interpretiert werden. Die Gesamtvarianz TV^2 setzt sich zusammen aus der Teilevarianz PV^2 und der Meßverfahrensvarianz GRR^2, die wiederum aus der Summe der Wiederholvarianz EV^2 und der Vergleichsvarianz AV^2 gebildet wird. TV^2 = PV^2 + EV^2 + AV^2. Dieser Zusammenhang leitet sich aus dem Fehlerfortpflanzungsgesetz nach Gauß ab oder ist auch als Varianzaddition bekannt. Möchte man nun wissen, welchen Anteil die einzelnen Komponenten an der Gesamtvarianz haben, dann werden die relativen bzw. die prozentualen Anteile in der auf Seite 121 beschriebenen Form bestimmt.
Die 30% Schwelle für Kenngröße 1.) leitet sich nun daraus ab, dass dann der meßverfahrensbedingte Anteil GRR^2 an der Gesamtstreuung nicht größer als 9% (0,3^2) ist. Hier finden wir wieder eine Brücke zur >Goldenen Regel der Messtechnik< die ja diesen dekadischen Sprung fordert.Wenn Du die Streuung der Berechnungskonstanten anführst, die qualyman beobachtet hat, dann auch hierzu eine kurze Erläuterung:
Bisher (also QS9000:1998) wurden Zufallstreubereiche ins Verhältnis gesetzt, um >% von Gesamtstreuung< zu berechnen. Das war in der Tat ein unglücklicher Ansatz, weil weltweit unterschiedliche Traditionen mit einflossen und andere Firmen mit anderen Ansätzen rechneten. Von 99,7% über 99% bis hin zu 95% war alles zu finden. Die Absolutwerte unterschieden sich entsprechend; bei der relativen Beurteilung hatte dies jedoch keinen Einfluss. Für die Interpretation von GRR ist der Zufallstreubereich sehr wohl sinnvoll, denn er gibt an, in welchem Bereich ein Messverfahren als „unsicher“ eingeschätzt wird. In der neuen Fassung der QS9000:2002 werden allerdings nur noch Standardabweichungswerte berechnet. Und da bei der ARM-Methode diese aus Spannweiten geschätzt werden, benötigt man dazu die W-Verteilung. Die Modalwert (?) (QS9000:2002 S 195) sind jedoch von zwei Faktoren abhängig:
1.) wie groß ist die Stichprobe, aus der die Spannweite berechnet wird?
2.) Wie viele Spannweitenwerte werden für die mittlere Spannweite verwendet?
Die mittlere Spannweite der entsprechenden Streukomponente wird dann durch diese Konstante geteilt oder mit ihrem Umkehrwert (K-Werte) multipliziert. Bei der Version QS9000:1998 war in diesen K-Werten noch der Multiplikator 5,15 enthalten. Daher hat qualyman so gravierende Unterschiede in den K-Tabellen festgestellt.Ob nun ANOVA oder ARM, da sehe ich bei den zu analysierenden Streuproblemchen keine fundamentalen Vorteile für ANOVA. Es geht in einem ersten Durchgang ja nur um die Reststreuung EV, den Schichtanteil (Werker / Umfeld) AV und die Fertigungsstreuung PV. Wenn hier allerdings kein befriedigender Zustand vorgefunden wird, dann wird’s sehr schnell kompliziert und dann hat ANOVA eindeutig Vorteile. Um die Mitarbeiter für die Problematik der „Messwertgüte“ zu sensibilisieren, da finde ich die ARM Methode geeigneter, denn mit diesem Kochbuchrezept kann fast jeder umgehen. Ich hab bei Q4U ein entsprechendes Arbeitsblatt eingestellt, gekoppelt mit einer Vielfachstreukarte. Mit dieser Grafik kann ich jedem Interessierten erklären, worum es geht und was die Zahlen aussagen.
Würde mich freuen von Dir / Euch zu hören, wie Du bzw. wie Ihr das seht.
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: MSA – Benchmarking #40967Noch einmal ich!
War heute Früh etwas in Eile, daher noch eine Frage zu Deiner Frage. Barbara, kannst Du die Daten in Minitab eingeben und mit dieser Software analysieren. Würde mich interessieren, zu welchen Erkenntnissen Du gelangst.
Ich kann Sie Dir natürlich auch als Excel-File zukommen lassen, wenn das Deine Arbeit erleichtert.
Gruß aus Ulm
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: MSA – Benchmarking #40954Hallo Barbara,
kein Geheimins, sie liegen auf folgender Seite:
http://www.rz.fh-ulm.de/labore/fmtlabor/qt_labor/Ringversuche/Ringversuch_01.htm
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: Fähigkeitsuntersuchungen in der Einzelfertigung #40953Hallo Grit!
Wenn ich Dich richtig verstanden habe, fertigt Ihr Werkzeuge. Es handelt sich um Unikate. Bei diesen Werkstücken sind geometrische Elemente gemäß Zeichnung zu erzeugen, so z.B. Längenmasse, Winkel, Formen usw. Jede dieser Merkmalsgruppen kann doch nun Gegenstand der Untersuchung werden. Wie Loretta schreibt, kümmere Dich mal um die Positionsgenauigkeit. Wenn bei einem Werkstück in der XY-Ebene zig Bohrungen sind, dann besitzt jede Bohrung diese bohrungsspezifische x- bzw. y-Koordinate. Für den Fall, dass die gefertigten Werkzeuge zu 100% vermessen wurden, dann liegen diese Daten zu Verarbeitung schon vor. Die vergleichst Du nun mit den Zeichnungsvorgaben. Es kann noch sein, dass bei großen Verfahrwegen in Gruppen unterteilt werden muß, wie z.B. 0-100 / 100 – 200 etc. weil sich hier deutlich systematische Einflüsse, wie z.B. Steigungsfehler der Spindel, Temperatureinflüsse etc. zeigen und somit mit zunehmenden Abstand die Fähigkeit, die Sollvorgabe zu erreichen, abnimmt. Wenn jetzt nur noch die Differenzen zwischen Soll- und Istwert zur Auswertung gelangen, dann hast Du eine typische Kenngröße, wozu Deine Maschine unter Fertigungsbedingungen in der Lage ist.
Auch bei der direkten Abnahme der Positionsgenauigkeit nach VDI/VDE 2617 werden ausgewählte Positionen aus unterschiedlichen Richtungen wiederholt angefahren. Systematische und zufällige Abweichungen werden zur Positionsunsicherheit kombiniert. Nur wird die Streuquelle >Bearbeitungseinflüsse< noch ausgeklammert. Man kann, wenn man die Kennwerte der VDI/VDE 2617 interpretieren kann, auch daraus einen Fähigkeitskennwert berechnen. Aber, wie gesagt, es wird nur eine Streuquelle untersucht, mit der man eine Aussage über das Können der Maschine beschreibt.
Die bearbeitungsbedingten Streuquellen sind bei dem von mir vorgeschlagen Verfahren noch dabei und wenn es für Eure Fertigung anwendbar ist, wird der Analyseaufwand (Datengewinnung) auf ein Minimum reduziert.
Würde mich freuen, wieder von Dir zu hören.
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: Fähigkeitsuntersuchungen in der Einzelfertigung #40927Hallo ihr Zwei,
auch mir liegt nicht daran, dass wir in eine Hektik verfallen und uns verbal bekriegen. Es liegt mir viel daran, eine sachliche Diskussion zu führen.
@ Marcus
Hab ich mich so ungenau artikuliert, dass man daraus ableiten könnte, ich wollte die Maschine in Einzelteile zerlegen, wie Du das ausführst? Also noch einmal, ich schlage vor, Merkmalsausprägungen, die auf der gleichen Maschine aus gleichem Material und unter gleichen Bearbeitungsbedingungen gefertigt wurden und die im Regelfall in den Prüfprotokollen vorliegen, zu einer Streukenngröße zusammen zu fassen. Ich bin der Meinung, dies ist objektiver, als viele praktizierten Verfahren, die über das aktuelle Können berichtet. Nicht mehr und nicht weniger! Dein Einsteinzitat find ich gut und treffend!
@Loretta
Ich glaube, wir sind uns einig, das Fähigkeitskennwerte bei Unikaten für die Prognose, was wäre, wenn wir eine Million dieser Teile herstellen würden, Schwachsinn ist. Sinn sehe ich jedoch in der Fragestellung: Welche Toleranzwerte können wir auf Bohrwerk 4711 unter unseren Bedingungen fertigen? Meine Diskussionsansätze fokussierten sich allein auf diese Problematik.Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: Fähigkeitsuntersuchungen in der Einzelfertigung #40893Hallo Loretta
Zwei Bemerkungen:
..ich geb dir recht, wenn es um Prozesse geht, die wiederkehrend sind.
Aber wenn ich ein Produkt ( =Einzelstück) nur ein EINZIGES mal herstelle was bitte will ich hier Fähigkeiten ermitteln? …Ich versuchte darzustellen, dass es nicht darum geht, einen Fähigkeitsindex für ein Unikat zu bestimmen, sondern eine Q-Kennzahl für ein Verfahren.
..Du bekommst ja schon ganz andere Ergebnisse, wenn ich nur von Alu auf Stahl wechsle, du hast Werkzeugverschleiß (hier: Fräser) Den schleifst Du nach und hast wieder andere Ergebnisse.
In meinem Betrag „SPC bei Kleinserienfertigung …“ weiter oben sprechen ich von dem Ansatz, dass man Merkmale zusammenfassen kann, bei denen die drei M´s nämlich Maschine, Material und Methode gleich sind. Zur Auswertung gelangt nur die Zielmaßabweichung der gefertigten Teile.
Wenn Du und Marcus der Meinung seid, dass dies nicht geht, dann nehme ich das so zu Kenntnis, nur, glauben tu ich’s nicht. Auch wenn dies heute noch ketzerisch klingt, irgendwo auf der Welt arbeitet ein Unternehmen, vielleicht Konkurrent, an dieser Vision.Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: MSA – Benchmarking #40889Hallo zusammen,
ein kurzer Bericht über meine Erfahrung zum Thema Benchmark.
Ich engagiere mich seit vielen Jahren in einem DGQ Regionalkreis. In diesem Zusammenhang führten wir vor geraumer Zeit 2 Ringvergleiche durch. Bei messtechnischen Ringvergleichen werden die Randbedingungen sehr genau festgelegt, es werden Normale vermessen, deren Ist- oder Referenzwerte aus DKD- bzw. PTB-Kalibrierungen bekannt sind. Namhafte Unternehmen (keine Garagenfirmen) stellten ihr messtechnisches Können an den für sie unbekannten Objekten unter Beweis. Als Ergebnis wurden mir die vereinbarten Kenngrößen (z.B. Durchmesser oder Rauheitswerte) mit den selbst gewählten Unsicherheiten gemeldet. Das Endergebnis war ernüchternd. Beim Vermessen von zylindrischen Lehren (Ring und Dorn) war rund ein Drittel der gemeldeten Ergebnisse nicht mit dem Referenzmaß verträglich, unterschieden sich also signifikant.
Nun dachte ich, dies würde die Unternehmen aufrütteln. Weit gefehlt. Die Abschlussberichte wurden abgeheftet, das Thema war erledigt. Dass die Möglichkeiten, aus diesem Benchmark zu lernen, genutzt wurden, ja werksintern angeregt oder gar realisiert wurden, davon habe ich nie etwas gehört. Qualitätsnachweise werden häufig noch damit erbracht, in dem man auf die im Prospekt ausgewiesene Messunsicherheit und den Preis des Messgerätes verweißt. Lebende Daten sind die Ausnahme oder sind, vor dem Hintergrund dieser Benchmarks, auch gar nicht erwünscht!
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: Fähigkeitsuntersuchungen in der Einzelfertigung #40881Hallo Carlos
wie ich gerade sehe, kannst Du Dein 300. Posting feiern. Herzlichen Glückwunsch und mach weiter so.
Zum Thema:
Prozessorientierung heißt in meinem Verständnis, unter Anderem, datenfundierte Entscheidungen treffen. Wer weiß in einem Unternehmen, wozu eine Maschine, ein Arbeitsverfahren in punkto „Präzision“ in der Lage ist? Sicherlich gibt es „altgediente Hasen“, die das betriebliche Umfeld sehr realistisch einschätzen – meist haben Sie für dieses Wissen genügend Lehrgeld bezahlt. Im Regelfall ist es jedoch personengebunden und im emotionalen Bereich angesiedelt. Wenn aber „Herr Huber“ oder „Frau Maier“ morgen einen Herzinfarkt hat, wie ist es dann um dieses Wissen bestellt? Ist es objektiv beschrieben, für autorisierte Personen zugänglich? Ich diskutiere diese Frage oft mit unseren Studenten, die kurz vor dem Sprung ins Berufsleben stehen. Wehe dem, der vorletzte Satz trifft nicht zu! Aber, woher sollen sie es auch wissen? Wenn ein Unternehmen eine befriedigend Antwort auf diese Fragestellung vorzuweisen hat, dann ist das Thema Fähigkeitsuntersuchung durch.
Vielleicht sollte man bei diesen Überlegungen auch ein anderes Wort als „Fähigkeitsuntersuchung“ verwenden denn es ist zu sehr an ein eng umgrenztes, standardisiertes Verfahren gebunden. Es geht doch darum, das aktuelle Können objektiv zu beschreiben. Unter diesem Aspekt werte ich die ohnehin anfallenden Daten aus.
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: Fähigkeitsuntersuchungen in der Einzelfertigung #40856Hallo Carlos
Lassen wir die hirnrissige Diskussion um die ppm´s mal außen vor und konzentrieren uns auf die Frage: „Wozu ist ein bestimmter Fertigungsprozess, unter einbeziehen der Maschine, des Umfeldes, der Mitarbeiter und sonstiger Steuergrößen in der Lage?“ Das „Können“ lässt sich nur hinreichend gut beschreiben, wenn wir die gefertigten Teile fragen und uns nicht mit Teilkomponenten zufrieden geben ( Problematik: Statische und dynamische Maschinenabnahme). Daher sehe ich sehr wohl darin einen Sinn, dies mit Streukenngrößen zu beschreiben. Wenn wir die Messwerte am Fertigprodukt als Fingerabdrücke des Prozesses verstehen und sinnvoll kombinieren, dann erhalten wir sehr rasch ein Bild vom Ganzen. Dann bekommen die Qualitätsaufzeichnungen auch einen profitablen Sinn und werden nicht nur dafür vorgehalten, falls es mal zu einem Produkthaftungsfall kommt.
Der Fähigkeitskennwerte sagt letztendlich nur darüber etwas aus, wie gut Wollen und Können zusammen passt und das ist meines Erachtens gerade für die Planung von Einzelstücken sehr wichtig.
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: MSA – Benchmarking #40854Hey Black
Der Begriff Benchmark (= Maßstab) bzw. Benchmarking (= Maßstäbe setzen) bezeichnet ein formalisiertes Konzept, um Verbesserungsmöglichkeiten durch den Vergleich von Leistungsmerkmalen mehrerer vergleichbarer Objekte, Prozesse oder Programme zu finden. (Quelle: Wikipedia)
Gerade wegen der, von Dir angeführten Gründe ist es so wichtig, dass man sich einen Überblick verschafft und Verbesserungsmöglichkeiten erkennt. So bewertet die QS-9000 3. Auflage die Fähigkeit nicht mehr über den Zufallstreubereich ( 95% – 99% – 99,7% ??) sondern über die Standardabweichung. Dadurch wird das Verfahren robuster gegen Fehlinterpretationen. Darin sind auch die von qualyman angesprochenen Unterschiede der K-Faktoren zu sehen. Bleibt zu hoffen, dass in geraumer Zeit der Wildwuchs an Methoden ein Ende hat und mit wenigen Verfahren nachweisbar ist, das die Messwerte das Vertrauen verdienen, dass man ihnen schenkt.
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: Fähigkeitsuntersuchungen in der Einzelfertigung #40818Hallo grit
SPC bei Kleinserien scheitert im Regelfall an der benötigten Datenmenge. Ein Ansatz, dieses Dilemma zu beheben, liegt darin, dass man davon ausgeht, dass das Streuverhalten für die Parameterkombination Maschine, Material und Bearbeitungsverfahren als konstant angenommen wird. Um nun eine vertrauenswürdige Standardabweichung berechnen zu können, werden als Messwerte die Abweichungen der Einzelmerkmale zum Zielwert genommen. Bei einem Drehprozess ist es also egal, wie groß der jeweilige Durchmesser ist, es werden ja nur noch die Abweichungen Soll- Ist weiterverarbeitet, die Auswertedaten werden normiert. Mit dieser Maßnahme kann der Datenpool rasch gefüllt werden. Wenn dieser Ansatz für Euer Unternehmen akzeptabel ist, dann dürfte es auch möglich sein, aus vorhandenen Q-Aufzeichnungen eine angemessene Standardabweichung für die bisher gefertigten Teile zu berechnen. Für die, in Zukunft zu fertigenden Toleranzen kann somit das Fähigkeitspotential (Cp-Wert) angegeben werden. Diese vorbeugende, qualitätssichernde Maßnahme ist für Euren Kunden genauso interessant, wie sie für die Arbeitsplanung im eigenen Unternehmen von Interesse sein sollte. Ein Cpk-Wert lässt sich bei dieser Vorgehensweise natürlich nicht berechnen. Bei Einzelteilfertigung gehe ich aber mal davon aus, dass Zielmaßorientierung angesagt ist und dann ist der Cpk-Wert ja gleich dem Cp-Wert.
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: MSA – Benchmarking #40814Hallo qualyman
ich hab so ein Sheet erstellt, steht auch bei Barbara unter
http://www.bb-sbl.de/downloads/vorlagen.html
„Prüfmitteleignung 2“
Klopf doch mal Deine Daten rein und sag mir, wie ich liege. Man lernt nie aus!
Mich interessiert natürlich Dein Bench.
Kannst Du auch sagen, auf welcher Basis Du die Daten beurteilst? Ist es allein das Streuen der Endergebnisse oder hast Du eine Musterlösung zu Fuß gerechnet unter Angabe aller Konstanten und Zwischenergebnissen?
Hast Du auch schon getestet, wie die Pakete reagieren, wenn die Meßdaten nicht streuen?Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: VDA 5 versus MSA #40782Hallo, Qualitöter,
hab gerade etwas Zeit und möchte mich daher bei Euch einklinken.
Die Vertrauenswürdigkeit von Messwerten ist ein absolutes >MUSS<, denn, wenn sie einmal auf dem Papier stehen, haben sie eine uneingeschränkte Macht. Unter diesem Aspekt müssen wir die Nachweisverfahren der Vertrauenswürdigkeit sehen.
Ein Beispiel, wie es nicht selten vorkommt:
Bei einer MSA sollte der Cg bzw. Cgk–Werte für ein Merkmal ermittelt werden. Meßsystemauflösung 0,1 µm Werkstücktoleranz =5 µm Wiederholstandardabweichung = 0,05µm und eine Mittelwertabweichung vom Referenzmaß = 0,16µm.
Daraus ergibt sich ein Cg=5 und ein Cgk=3,4. Eitel Sonnenschein!
Die Frage, wie gut der Referenzwert des Einstellmeisters und somit wie sicher die Mittelwertabweichung ist, wird bei der MSA nicht gestellt, das Referenzmaß ist das Maß aller Dinge. Im vorliegenden Fall wurde eine Unsicherheit von 1,6µm ermittelt. Wie wirkt sich diese Unsicherheit auf die Fähigkeitsanalyse aus?
Hier setzt die VDA5 an. Neben den, bei der Versuchsreihe direkt beobachtbaren Streukenngrößen Wiederholstreuung und Lageabweichung werden wenigstens noch die Unsicherheit des Normals und die auflösungsbedingte Unsicherheit berücksichtigt, um eine Aussage über das Prüfmittel machen zu können. Verfahren 1 der MSA ist also eine Teilmenge dieser Vorgehensweise. Ebenso gehen die Ergebnisse von Verfahren 2 nur als Teilmenge in die Beurteilung der Prüfprozessbeurteilung von VDA5 mit ein. Weitere, für das Prüfverfahren typische Streuursachen müssen beim Namen genannt werden und quantitativ abgeschätzt werden. Im geschilderten Beispiel zeigte sich, dass 98% der resultierenden Unsicherheit auf das unsichere Referenzmaß zurück zu führen ist; dem Messverfahren musste, so wie es praktiziert wurde, die Qualifikation abgesprochen werden. Man konnte jedoch die maximal zulässige Unsicherheit für das Referenzmaß quantifizieren und einen Verbesserungsprozess einleiten.
MSA liefert, wenn man es auf einen einfachen Nenner bringen möchte, eine naive Messunsicherheit, verpackt in Cg bzw. Cgk-Werten bzw. dem Streuungsverhältnis in Prozent. Dabei geht man von dem Ansatz aus, dass sich alle Unzulänglichkeiten des Messprozesses im Streuen der Messwerte zeigen, also an der Veränderungen der Messwerte beteiligt sind. Wenn man Glück hat, dann ist dies auch der Fall, also, die naive Messunsicherheit ist prinzipiell nicht schlecht. Nur, wenn Unzulänglichkeit des Messprozesses bei der Wiederholungsmessung nicht zu Tage treten (bspw. Referenzmaß ist immer gleich falsch), dann nimmt die Aussagekraft der MSA Beurteilung ab und man beurteilt die Leistungsfähigkeit zu positiv.
Wer also behauptet, er kenne seinen Meßprozeß und die Parameter, die ihn entscheidend beeinflussen, der wird auch in der Lage sein, ihn nach den Verfahren der VDA5 zu beschreiben. Und genau solche Partner sind gesucht, die sich als Prozessinsider outen können. Der große Vorteil der MSA ist darin zu sehen, dass es sich um ein >Black-Box – Verfahren< handelt. Wer die Durchführungsrichtlinien verstanden hat, kommt garantiert zu einem Ergebnis, gleich ob er vom Messprozess eine Ahnung hat oder nicht. Ich nehme an, dieser Grund spricht in der Praxis dafür, dass sich MSA durchsetzen wird. Den Preis, den wir allerdings dafür zahlen, habe ich oben geschildert.
Nun möchte ich MSA in keiner Weise verdammen, vielmehr plädiere ich für ein sinnvolles nebeneinander. MSA für einen schnellen Überblick, VDA5, wenn es ans Eingemachte geht.
Ich hab mal, für Längenmessprozesse, ein Excel-Sheet entwickelt, in dem beide Verfahren kombiniert werden. Wer Interesse hat, kann es sich bei Barbara unter Q4Uhttp://www.bb-sbl.de/downloads/vorlagen.html
herunterladen.
Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<!als Antwort auf: Fähigkeiten #40769Hallo zusammen
ein abschließendes Statement meinerseits zu diesem Thema.
Frage an Radio Eriwan: >Stimmt es, dass bei Tätigkeiten, die man Prozesse nennt, alle Steuerparameter bekannt und die Endergebnisse, sprich Merkmalsausprägungen vorhersagbar sind? <
Antwort von Radio Eriwan: > Im Prinzip ja, es kommt nur darauf an, was du unter „ALLE“ verstehst! <
Fakt ist, dass z.Zt. Prozesse akzeptiert werden (müssen), bei denen die wichtigsten Parameter bekannt sind und deren Streuen über einen längeren Zeitraum modellhaft vorhersagbar ist. Dies ist unter anderem die Basis für DIN 55319:2002-03 > Qualitätsfähigkeitskenngrößen <. Dieser Zustand ist zweifelsohne nicht befriedigend, aber die Norm stellt einen Rahmen bereit, der : „..für die praktische Arbeit eine brauchbare und handhabbare Hilfe sein kann. „
Weiterhin steht in Kap. 1 Anwendungsbereich: „… um die Qualitätsfähigkeit eines Prozesses in Hinblick auf ein betrachtetes Produktmerkmal abschätzen zu können.“
Es wird also nicht der Anspruch erhoben, ein für allemal und für alle Ewigkeit die ppm´s vorhersagen zu wollen, sondern der Versuch unternommen, „..die qualitativ definierte Qualitätsfähigkeit anhand der erwähnten Kenngrößen quantitativ auszudrücken.“
IsoMan erwähnt die CONTI-Fertigung, die Gummiherstellung, einen Industriezweig, bei dem die Merkmaleigenschaft stark von den Eigenschaften des Rohmaterials abhängig ist. Diese Eigenschaften von Rohstoffen lassen sich aber nicht immer im gewünschten Maß beeinflussen. Viele Unternehmen sind froh, wenn es überhaupt genügend Rohmaterial auf dem Weltmarkt einkaufen können. Diese äußeren Streuungsquellen sind nur ein Beispiel, auf das praxisnahe Statistik eine Antwort liefern muß.
Die in DIN 55319 beschriebenen 8 Verteilungsmodelle sind bestenfalls Ersatzbilder dessen, was in der Realität beobachtet wird.
Das Ende der Fahnenstange bei diesen Bemühungen ist die Forderung Barbaras, Prozesse so zu beschreiben, dass die Streuung eines jeden Merkmals (wenigstens theoretisch) nur noch vom zufallsbedingten Grundrauschen der einzelnen Steuergrößen abhängig ist. In wie weit diese Erkenntnisse dann technisch umsetzbar sind, steht auf einem anderen Blatt.
Für mich ist dies der Punkt am Horizont, auf den wir unsere Aktivitäten ausrichten müssen, ob und wie nahe wir ihm kommen, hängt wiederum von vielen Faktoren ab. Beispiele dafür, dass er erreichbar ist, kennt sicherlich jeder aus seinem Umfeld; das sind im Regelfall die Prozesse, mit denen gutes Geld zu verdienen ist.@IsoMan
Je seltener wir die Einzelteile auf dem Weg vom Hersteller zum Endprodukt in die Hand nehmen wollen, umso intensiver müssen wir uns um die produktbegleitende Information kümmern. Um da keinen Schiffbruch zu erleiden, brauchen wir in Zukunft vermehrt betriebsübergreifend wahrheitsgetreues (Stichwort: MSA, Messunsicherheit) , aktuelles Zahlenmaterial. Mit dem Werkzeug >Statistik< können wir diese Mosaiksteinchen zu einem Bild zusammenfügen, das uns das Wesentliche zeigt. Das Dilemma guter fertigungsnaher Statistik liegt heut sicherlich noch daran, dass sie nichts kosten sollte.(Es scheint, viele Führungskräfte haben kein Vertrauen in die Statistik und sie wollen auch nicht, dass sich daran was ändert!) Ich vertreten schon lange den Standpunkt, dass ein bisschen Statistik viel gefährlicher ist als keine Statistik. Z.Zt. zahlen alle den Preis für oft zweifelhafte Statistik. So bewegen sich die Schwellwerte für die Fähigkeitskennwerte in solch schwindelerregenden Höhen, dass einerseits durch den so geschaffenen Puffer viel statistischer Blödsinn abgefangen wird, andererseits die Kosten für das massenhafte Anheben auf diesen Qualitätslevel eine exponentiale Kostensteigung mit sich bringt.
Also, Q-Leute, schaut mal, wie ihr das auf die Reihe bringt!
Investieren wir doch besser in
a) Werkzeuge, die dem >Nichtstatistiker< helfen, seine Prozesse besser zu verstehen und korrigierbare von nicht korrigierbarer Streuung zu trennen.
b) Fachleute, die es gelernt haben, neue bzw. schwierige Prozesse datenfundiert zu analysieren und modellhaft zu beschreiben
c) ein Bewusstsein in unseren Köpfen, dass Streuung der Feind Nummer 1 bezüglich gleichbleibender Qualität ist und die Bereitschaft, dagegen anzukämpfen.Gruß von der schönen blauen Donau
Fritz__________________________________________________________
Null Fehler ist >OUT< – Null Streuung ist >IN<! -
AutorBeiträge