QM-Forum › Foren › Qualitätsmanagement › Fähigkeitsindices 1,33 / 1,67
-
AutorBeiträge
-
1.
Könnt Ihr mir sagen wo genau geschrieben steht das Processe die kleiner 1,67 kritisch und Processe kleiner 1,33 nicht fähig sind.
Zudem wann man was durchzuführen ist -> SPC , 100% kontrolle etc.allo nicht das allgemeine larifari das in der TS steht.
danke
Gruss
robbob
Hallo robbob,
nachdem Du vom TS-Larifari sprichst, schätz ich mal Automotive.
Dort sind diese Vorgabewerte u.A. im VDA 2 festgelegt, ebenso auch in den meisten Kundenforderungen (z.B. SpecialTerms, FormelQ).
Wie es zu diesen Werten kommt und was dahinter steckt, hat Barbara schon öfters und gut erklärt. Einfach mal im Forum suchen.
Grüße
OliverWat den Backround anbetrifft habe ich so keine Probleme DGQ QII Schein .
Mein Problem diesbezüglich ist wie folgt gelagert:
einmal intern -> arbeite hier im verbund ( Konzern ) , nun habe ich hier Produkte die aus processen zw. 1,33 und 1,67 stammen. Diese Merkmale werden als kritisch betrachtet -> sc , c …. nun möchte ich von diesen fertigungswerk für diese kritischen merkmale 1. SPC überwachung , und falls grenzwerte übreschritten werden Massnahmen -> wie 100 % übrerwachung
.. hopla war noch nicht fertig sch… Laptop.
Wat den Backround anbetrifft habe ich so keine Probleme DGQ QII Schein .
Mein Problem diesbezüglich ist wie folgt gelagert:
einmal intern -> arbeite hier im verbund ( Konzern ) , nun habe ich hier Produkte die aus processen zw. 1,33 und 1,67 stammen. Diese Merkmale werden als kritisch betrachtet -> sc , c …. nun möchte ich von diesen fertigungswerk für diese kritischen merkmale 1. SPC überwachung , und falls grenzwerte übreschritten werden Massnahmen -> wie 100 % übrerwachung
nun sagen die jungs in dem anderen Werk das das nirgendwo so gefordert ist .-> externes Problem ( zulieferteil )
hier habe ich ein ähnich gelagertes problem :
nur das das merkmal als solches nicht als kritischdargestellt ist. Hier die Tolleranz von 9 µ . Müsste hier der Lieferant an sich, das Merkmal als kritisch einstufen , und dieses dann SPC müssig mit den oben genannten kriterien auswerten und steuern ??Gruss
robbob
Hallo robbob,
müssen muss man gar nix, nicht mal in der Statistik. Schlau ist es, GMV einzuschalten (gesunden Menschenverstand).
zu 1.
Da normalverteilte Prozesse sehr selten sind, würd ich mal die Werte auf Normalverteilung testen und bei einer deutlichen Abweichung den Jungs sagen, dass sie vielleicht erstmal an den Voraussetzungen (NV) arbeiten sollten, bevor sie Kennzahlen fordern. Nette Antworten gibt es auch meistens auf die Frage, wie denn die MSA aussieht.Denn wenn Werte nicht normalverteilt sind und der Mess-Prozess nicht so wirklich fähig sein sollte, dann sind Cpk-Werte so was von unsicher, dass sich ein Streit darum nicht lohnt.
zu 2.
Wenn ich einen zentrierten Prozess habe mit einer Streuung von 0,02 µ, warum sollte ich dann das Merkmal besonders überwachen? Und warum sollte sich der Lieferant von vorneherein mehr Arbeit machen als vereinbart? (Dass das sinnvoll sein kann, ist klar.) Entweder hat der Lieferant das Merkmal übersehen/vergessen oder er weiß ziemlich genau, dass er die Spezifikation einhält oder er ist sich nicht bewusst, welches Risiko er unter Umständen ohne Messung und Auswertung eingeht. Das würd ich als erstes Mal versuchen rauszukriegen.Viele Grüße
Barbara
_____________________________________
Ich fühle, dass Kleinigkeiten die Summe des Lebens ausmachen.
(Charles Dickens, Schriftsteller)Hallo Barbara!
Wenn ich mich aus meiner aktiven Zeit recht erinnere, dann kommen normalverteilte Prozesse selten vor.
Wir haben dann mit dem Statistikprogramm qs-Stat berechnen lassen welche Verteilung vorliegt und ob die Prozesse fähig sind.Dies hilft insbesondere wenn es Mittelwertsprünge gibt. D. h. innerhalb der Stichprobe ist die Streuung sehr klein, aber die Streuung der Mittelwerte ist größer.
Herzliche Grüße
RolliHallo Rolli,
willkommen im Forum :-)
Normalverteilte Prozess-Ergebnisse sind selten, weil es meistens wichtige Prozess-Einflüsse gibt (Einstellgrößen wie Druck, Temperatur sowie unterschiedliche Batches, Materialien, usw.) Diese Einflüsse müssen bei der Fähigkeitsbeurteilung berücksichtigt werden, sonst ist keine haltbare Prognose möglich.
Wenn man allerdings versucht, die „passende“ Verteilung zu berechnen, mag das noch mathematisch funktionieren, hat aber nichts mehr mit haltbaren Prognosen zu tun. Vom Prinzip her werden entweder ziemlich viele Verteilungen auf Passung geprüft (das gibt dann einen unschönen alpha-Fehler) oder versucht, mittels einer Johnson-Transformation (bevorzugt von qs-stat) eine mathematische Funktion zu finden, die angewendet auf das Prozess-Ergebnis zu normalverteilten Werten führt.
Nur: Was bitte bringt mir das? Weiß ich danach, welchen Einfluss beispielsweise der Druck auf mein Prozess-Ergebnis hat? Kann ich vorhersagen, wie groß die Unterschiede zwischen verschiedenen Materialsorten im Prozess-Ergebnis sein werden? Nupp, kann ich nicht. Ich hab eine nette, mathematisch exakt berechnete Kennzahl, die mir bei der Prozess-Kontrolle und -Vorhersage überhaupt nicht weiterhilft.
Abgesehen davon ist das aus statistischer Sicht völliger Unfug: Jede Verteilung entsteht aus einer bestimmten Situation heraus. Z. B. entstehen normalverteilte Messwerte, wenn ich eine variable Größe ohne systematische Einflüsse (special causes) habe. Genauso gibt es andere Situationen, in denen andere Verteilungen entstehen, z. B. bei nullbegrenzten Merkmalen die Betragsverteilung 1. Art (in der Statistik heißt diese Verteilung gestutzte Normalverteilung).
Es geht in der Statistik *nicht* darum, die mathematisch optimale Verteilung zu berechnen, sondern aus der Situation heraus die sinnvolle Verteilung zu finden und dann zu prüfen, ob diese Verteilung in den Daten vorliegt (Stichworte: GMV und Prüfung auf Normalverteilung).
Wenn ich dann feststelle, dass es Abweichungen von der Verteilungs-Annahme gibt (sprich die Messwerte des Prozess-Ergebnisses nicht normalverteilt sind), dann brauche ich ein haltbares Modell, mit dem ich die Fähigkeit einschätzen kann. Haltbar heißt, dass ich a) alle wichtigen Einflüsse identifiziere, b) die Effekte durch die wichtigen Einflüsse mathematisch beschreiben kann, c) ausschließe, dass es weitere wichtige Einflüsse gibt und d) das Modell validiere. Das Alles funktioniert mit statistischen Prozess-Modellen (SPMs). Eine ausführlichere Beschreibung findest Du z. B. in diesem Thread .
Mit diesem validierten SPM kann ich dann zuverlässige Prognosen darüber berechnen, wo mein Prozess-Ergebnis liegt unter Berücksichtigung der wichtigen Einflussgrößen. Und das bringt mich dann wirklich in eine Situation, in der ich den Prozess verstanden habe und das Prozess-Ergebnis auch zuverlässig beurteilen kann.
qs-stat beschränkt sich auf die Transformationen. Ein SPM kann mit qs-stat weder angepasst noch validiert werden, insofern hab ich am Ende einen Zahlenwert über dem Fähigkeitsindex steht, nur bringt der mir weder für die Zukunft die Sicherheit, dass ich auch wirklich so fähig bin noch habe ich Ansatzpunkte für eine effiziente Prozess-Optimierung oder Hinweise darauf, dass ich auch Alles gefunden habe, was mein Prozess-Ergebnis erklärt / bestimmt.
Und mein Kunde hat eine nette Zahl, mit der er glaubt arbeiten zu können und stellt dann hinterher fest, dass das wahre Leben doch anders aussieht. Viel Spaß entsteht immer dann, wenn die Fähigkeit eines Prozesses überschätzt wurde, weil die Einflüsse unberücksichtigt geblieben sind (-> Lieferanten-Audits, 8D-Reporte, Reklamationen, usw.)
Ich kann mir beim besten Willen niemanden in der heutigen Zeit vorstellen, der sich so ein Risiko freiwillig ans Bein bindet. Dass dieses Vorgehen nach wie vor weit verbreitet ist, liegt vor allem daran, dass die wenigsten wissen, wie SPMs funktionieren, wie einfach der Aufbau eines SPMs ist und wie viel mehr Sicherheit es bietet.
Das hat wenig mit Ignoranz zu tun, sondern viel mit der noch immer feststellbaren Zurückhaltung bei der Anwendung von statistischen Methoden, die über Mittelwert und Standardabweichung hinaus gehen. In vielen (Ingenieurs-)Köpfen findet sich immer noch „Glaube keiner Statistik, die Du nicht selbst gefälscht hast.“
Wenn ich allerdings ein SPM nach den Regeln aufbaue, dann gibt es da keine Möglichkeit zum Pfuschen. Spätestens bei der Validierung siehst Du, ob das Modell haltbar ist oder nicht. Deshalb sind SPMs auch keine Kartenhäuser, die beim leisesten Windstoß zusammenfallen, sondern wirkliches Prozess-Wissen, dass bei der Optimierung, Beurteilung und Überwachung von Prozessen enorm hilfreich ist.
Viele Grüße
Barbara
_____________________________________
Ich fühle, dass Kleinigkeiten die Summe des Lebens ausmachen.
(Charles Dickens, Schriftsteller)Hallo Barbara!
Toll hast Du das erklärt und ich bin heilfroh, dass ich mich nicht mehr ernsthaft mit dem Thema befassen muss.
Rolli
Hmmm , wie schon gesagt das eine ist halt die teorie, in der Praxis legt der eine das so und der andere anders aus .
Deswegen die frage hier, ob es irgendwo irgenwelche Regelungen gibt, die bei Streitigkeiten bzw. unklarheiten angewand werden können. ( so wie es manch einer in QSV’s zusätzlich niederschreibt )
@ Barbara , wollte dir eps zusenden , ( Statistik für Profis ) bekamm jedoch die nachricht dass das Postfach voll ist .
gruss
robbob
@robbob: Sehr merkwürdig, dass mein Postfach voll sein soll… Das ist nämlich unlimitiert *wunder* Probierst Du es bitte noch mal, das interessiert mich ja doch. Danke!
Viele Grüße
Barbara
_____________________________________
Ich fühle, dass Kleinigkeiten die Summe des Lebens ausmachen.
(Charles Dickens, Schriftsteller) -
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.