Bitte um Hilfe bei Sachverhalt instabiler Prozess2015-08-13T12:28:20+01:00

QM-Forum Foren Qualitätsmanagement Bitte um Hilfe bei Sachverhalt instabiler Prozess

Ansicht von 7 Beiträgen – 1 bis 7 (von insgesamt 7)
  • Autor
    Beiträge
  • 19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo und bereits Danke im Voraus!

    Folgender Sachverhalt. In einer Baureihe setzen wir ähnliche aber nicht gleiche Bauelemente ein, welche durch ähnliche aber nicht gleiche Werkzeuge bearitet werden, welche das Negativ der herzustellenden Form beinhalten.

    Jetzt wurden von der Qualitätssicherung korespondierende Merkmale an all diesen Teilen vermessen und in einen Topf geworfen. Das Nennmaß der Größen hat man da rausgerechnet, damit die Abweichung um einen Nullpunkt schwankt .

    Ergebnis sind erweiterte Normalverteilungen und qs stat wirft als Indizes PPK Werte heraus. Die Frage unsere Qualitäter ist nun, ob wir aufgrund dieser Werte nicht unsere Toleranzen erweitern könnten.

    Meines Erachtens ist die falsch, da vorläufiger Index und auch das mehrere Werkzeuge und unterschiedlich (aber ähnliche) Bauteile herangezogen wurden. Da ich qualifiziert argumentieren möchte … Sind meine Vermutungen trichtig?

    Danke bereits im Voraus.

    Mit freundlichen Grüßen

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo,

    vielleicht ist der Sachverhalt so einfacher erklärt:

    Ist es möglich Toleranzen aus instabilen Prozessen abzuleiten?

    oder aus der anderen Richtung gesehen.

    Ich definiere Toleranzen! Im Anschluss werden über längere Zeiträume Daten gesammelt und gs-stat damit gefüttert. Ergebnis ist eine erweiterte Normalverteilung und so wie ich das verstehe interpretiert dies qs-stat als instabilen Prozess und gibt ppk und pp Werte aus!

    Jetzt sagt qs-stat, dass die Daten i.O. wären, wenn ppk 1,33 erreicht würde.

    Kann man dadurch schlussfolgern…. Alles in Ordnung? Weder seitens des Prozesses muss etwas getan werden noch von Seiten der Entwicklung da deren Toleranz ja im i.O. Bereich der Software liegt und der wäre ppk1,33?

    Danke und liebe Grüße

    Andreas

    Stefan741
    Mitglied
    Beitragsanzahl: 46

    Irgendwie werde ich hier nicht schlau, worin die Instabilität welchen Prozesses liegt. Nur weil irgendein Programm das so bewertet, muss der Prozess nicht instabil sein. Da sind weitere Untersuchungen nötig.

    Korrespondierende Merkmale an ähnlichen Teilen in einen Topf zu werfen kann funktionieren, muss aber nicht. Wichtig ist, dass sich die Einflüsse auf jedes Bauteil relativ gleich auswirken.
    Bei der Datensammlung würde ich die Messwerte der Bauteil jedenfalls nicht in einen Topf schmeißen. Dann getrennt auswerten und auch zusammen.

    Wenn ein ppk von 1,33 gefordert ist und anhand diesem Wert auf Basis der Messdaten die Toleranzen ermittelt werden sollen, gehe ich da immer eine Stufe größer und berechne die Toleranz für 1,67.

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Stefan,

    Danke für die Anmerkungen. Die Toleranzen sind doch bei 1,67 und bei 1,33 gleich, nur das die Standardabweichung kleiner bei 1,67 ist. Kann mich da aber täuschen. Ich muß nur wissen, wenn wie ich die Daten gewonnen habe.

    Zum Thema „Alles in einen Topf werfen“. Dahingehend die Bemerkung mit den Maschinen und Werkzeugen.

    Zum Thema Auswertung.

    Die Fertigung sagt, qs-stat bringt mir eine n.i.O. Kennzahl. Bitte gleicht Toleranzen an, wenn ihr könnt, damit wir eine i.O. Kennzahl erhalten. Nun schaue ich mir die Kurven an und stelle Chargensprünge durch die unterschiedlichen Größen, welche in einen Topf geworfen wurden fest. Das lasse ich unter den Tisch fallen und mache (nach Prüfung) das , was die Fertigung sagt. Kann ich mir nun sicher sein, dass diese Maßnahme die „versprochenen“ ppm Werte nun erreicht werden oder ist das Augenwischerei.

    Ich kann doch mit diesen Programmen auch die wildesten Verteilungen durch Angleichen von Toleranzen so hinzaubern, dass Alles gut ist. Wie belastbar sind die Ergebnisse. Ich möchte verhindern, dass man in einem Jahr das nochmals macht, um dann zum Schluss zu kommen, dass reicht immer noch nicht oder die Tolerenanzen müssen nun vielleicht sogar verschoben werden! Manchmal ist für mich das Anwenden von diesen Tools nur dazu da, eine Zahl für ein Blatt Papier zu kreieren. Wenn die in Ordnung ist, dann muß Nix unternommen oder investiert werden.

    Vielleicht ist dies besser so dargestellt.

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Andreas,

    ein stabiler Prozess ist ein Prozess, der immer dasselbe Ergebnis liefert (mit ein bisschen Zufallsstreuung), d. h. die Lage (z. B. Mittelwert) und die Streuung (z. B. Standardabweichung) sind in jeder Stichprobe und im großen Topf sehr ähnlich.

    Bei einem instabilen Prozess ändern sich Lage und/oder Streuung zufällig oder systematisch. Das passiert relativ häufig, z. B. durch verschiedene Werkzeuge (-> unterschiedliche Mittelwerte), Verschleiß (-> zeitlicher Trend) oder unterschiedliche Einstellungen in den Maschinenparametern (-> wilde Wiese). Für einen instabilen Prozess kannst Du alles mögliche ausrechnen, nur bekommst Du keine belastbare Aussage zur Prozessleistungsfähigkeit, weil Du nie weißt, was morgen passiert.

    In der Realität sind instabile Prozesse sehr häufig, deshalb gab es in Deutschland auch lange nur 1 Norm zu Prozessfähigkeiten (DIN ISO 21747), bei der zeitabhängige Verteilungen einen großen Stellenwert hatten. Seit Juni 2015 ist die DIN ISO 21747 zurückgezogen und durch die DIN ISO 22514-2 ersetzt worden. Ein wichtiger Unterschied ist, dass es jetzt eine ganze Normenreihe zur Prozessfähigkeit gibt und nicht mehr nur 1 Norm.

    Ein weiterern wichtiger Unterschied zur Vorgängernorm ist der explizite Hinweis unter den Beispielen für die Verteilungszeitmodelle, dass alle Prozesse außer A1 (Normalverteilung) und A2 (andere Verteilung wie z. B. Logistisch) einen nicht-beherrschten Prozess zeigen. Im Klartext: Die Verteilungszeitmodelle B, C1, C2, C3, C4 und D sind für nicht-beherrschte Prozesse. Die so genannte „Mischverteilung“ ist übrigens keine statistische Verteilung (für den Fall A2), sondern eine Q-Das-Hilfskonstruktion, die so nach wie vor in der Statistik-Fachliteratur keine Erwähnung oder Anwendung bei der Prozessfähigkeit findet.

    Um sinnvolle und haltbare Entscheidungen zu einem Prozess treffen zu können, muss dieser Prozess so weit verstanden sein, dass die Ergebnisse vorhersagbar sind. Das geht mit Verteilungen über die Prozessfähigkeits-Kennzahlen, wenn keine systematischen bzw. deutlichen Veränderungen auftreten. Mit Veränderungen sind die Ergebnisse aus den Norm-Rechnereien ganz oft nur als Futter für den Papiertiger brauchbar.

    Es gibt in der Statistik diverse Möglichkeiten, Prozesse zu bewerten, auch wenn die durch Werkzeug-Unterschiede, Verschleiß, oder Anderes erstmal in der Kategorie „nicht beherrscht“ gelandet sind. Dazu gehören auch Toleranzberechnungen, die z. B. in dem folgenden Buch aufgelistet sind:

    Krishnamoorthy, Kalimuthu und Thomas Mathew (2009). Statistical Tolerance Regions: Theory, Applications, and Computation.
    Wiley. ISBN 9780470380260.

    Ich würde dieses Buch nur jemandem empfehlen, der sich mit Matrizenrechnung, nicht-parametrischen Methoden und Modellierung auskennt und Formeln mag [:D] (Der Inhalt hat nicht viel mit den normalen Simulations-Tolerierungsmethoden oder der Ingenieurs-Toleranzrechnung zu tun, sondern ist statistisch begründet. Zum Unterschied gibts hier ein paar Infos: Formeln für Varianz/Toleranz, versch. Sigma-Level)

    Kurz gesagt: Auf der Basis von Stichproben in einem großen Topf würde ich ohne weitere Informationen niemals Toleranzen ableiten wollen, weil die normalen Berechnungswege da versagen. Ggf. könnte es möglich sein darüber nachzudenken, wenn wirklich viele (>>5000) Messwerte vorliegen und dann über nicht-parametrische Methoden etwas ermittelt werden kann. Funktioniert allerdings auch nur dann zuverlässig, wenn im großen Topf ALLE Einflüsse drinstecken und nicht morgen eine neue Charge Rohmaterial geliefert wird, mit der die Ergebnisse plötzlich ganz anders aussehen.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Barbara,

    Danke Dir für die ausführliche Antwort. Das wichtigste, was ich daraus ableite ist das Thema Vorhersagbarkeit. Wenn ich etwas vorhersagen möchte, dann sollte das Stichprobenmodell mit dem des zukünftigen Prozesses konform laufen.

    Leider sieht die Praxis anders aus. In Wikipedia steht beispielsweise, dass die Toleranzauslegung nicht in der Hand des Prozeßeigners liegen sollte (so oder so ähnlich). Praktisch läuft es aber wahrscheinlich darauf hinaus.

    Der Prozeßeigner bekommt eine Kennzahl „übergebraten“, kann diese aufgrund fehlender Voraussetzungen nicht einhalten, müßte also das Schaffen der Voraussetzung einfordern, bekommt aber die Mittel nicht, muss aber trotzdem die Kennzahleneinhalten (da diese geschrieben und somit Gesetzt sind) und weiß sich nicht anders zu helfen, als eine andere Spezifikation zu fordern. Und dabei bekommt nicht mehr die Ursache uneingeschränkte Aufmerksamkeit sondern die plumpe Zahl! Hauptsache die stimmt, dann ist der Ärger mit dem Management behoben und die Welt wieder in Ordnung. Was die Zahl aussagt, wie diese interpretiert werden müßte usw. wird zur Nebensache. Ob da etwas für eine Vorhersage genutzt wird, was chaotisch ist und demzufolge schlecht geeignet ist insofern auch Nebensache, wenn qs-stat sagt „Kennzahl in Ordnung“.

    Mein Fall ist nun in die Verlängerung gegangen! Ich habe versucht, dass was hier im Forum geschrieben wurde sachlich darzulegen. Man scheint der Argumentation gefolgt zu sein. Ja und nun schaue ich einfach einmal, wie die Geschichte letztendlich ausgeht.

    Danke nochmal und liebe Grüße

    Andreas

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Andreas,

    genau, Vorhersagbarkeit ist ein ganz wichtiger Punkt, denn bei den Fähigkeitswerten wird auf Grundlage der Jetzt-Zahlen eine Kennzahl berechnet, die etwas über die aktuelle und die zukünftige Prozessleistung aussagen soll.

    Leider ist es in der Praxis oft genau so, wie Du beschrieben hast: Magische Grenzen werden ohne Sinn und Verstand (technische Grenzen, Anwendungsfall, Anforderung, Kritikalität) vorgegeben und sind oft genug in der Realität nicht erreichbar (z. B. Toleranzen auf Fähigkeit von 1,33 ausgelegt, jetzt magische Grenze bei 2,00). Dass dann eher die Zahlen geschönt werden, weil (scheinbar) weder Zeit noch Geld für die Prozess-Analyse und -Verbesserung da ist, ist für mich die logische Konsequenz. Spätestens bei den „hübschen“ Zahlen ist die Statistik zu einer Blendgranate geworden: Weil ich nichts mehr sehe, scheint alles in Ordnung zu sein – ich seh ja nichts, was dagegen spricht.

    Viel Erfolg bei der Umsetzung und halt uns auf dem Laufenden!

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 7 Beiträgen – 1 bis 7 (von insgesamt 7)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben