X/S Regelkarte2004-03-25T10:43:43+01:00

QM-Forum Foren Qualitätsmanagement X/S Regelkarte

Ansicht von 15 Beiträgen – 16 bis 30 (von insgesamt 41)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hi Jacky,

    der Mittelwert der Standardabweichung liegt bei 0.5? In Eurem Prozess oder generell? Wenn das für Euren Prozess gelten soll: Stimmt das wirklich bzw. wer hat das wann untersucht? Generell: Nein.

    S ist Deine Standardabweichung nehme ich an? Ist das bei Dir der Durchschnitt durch die Gruppen-Standardabweichungen ( 1/(n-1) *Summe(x_i – (x quer))^2 ), wenn Du jeweils 5 Messwerte eines Streifens als Gruppe nimmst? Oder hast Du eine andere Gruppeneinteilung bzw. Formel?

    Wie groß ist denn der Mittelwert Deiner Messwerte?

    Kann es sein, dass Du das C_p und C_pk vertauscht hast? Generell ist C_pk wegen der Formel kleiner oder gleich C_p und bei Dir ist es umgedreht.

    Wenn die Spezifikationsgrenzen LSL=6 und USL=16 sind und Deine Standardabweichung S=1 ist, ergibt sich für C_p:
    C_p = (USL – LSL) / 6*S = 10 / 6 = 1.67
    Und demnach würde Dein Prozess die Vorgaben erfüllen. Mir ist nur nicht so ganz klar, wie Du auf S=1 kommst, wenn Deine geschätzte Standardabweichung S=1,66 ist. (Damit ist C_p=1).

    Wie hast Du denn OTG und UTG bestimmt?

    Viele Grüße

    Barbara

    Ich habe den S wert mit 1,66 bestimmt und mir wurde gesagt der Mittelwert der Standartabweichung liegt bei 0,5. Den wert 1 hab ich mir auf Grund meiner Werte errechnet. Wenn ich ein S von 0,5 hätte, wäre ja alles super aber das ist es eben nicht. z.B OTG 11,5 UTG 10,4 S 0,84 cpk : 1,74 / cp: 0,87

    gruß jacky

    jacky
    Mitglied
    Beitragsanzahl: 13

    tja , ich bin jetzt leicht verunsichert, muss mir das in Ruhe mal ansehen, ich könnte dir so ne Regelkarte mal faxen, wenn du Lust hast, denn ich fürchte ich sollte mir das prinzipiell mal richtig erklären lassen, scheine da gravierende Lücken zu haben. Man gut das es sowas wie ein Forum gibt.

    gruß jacky

    QM-Planer
    Mitglied
    Beitragsanzahl: 73

    Hallo Jacky,

    wie wird die Schichtdicke gemessen und wie sehen Deine Cp- und Cpk-Werte aus?
    Wenn man dein Beispiel nimmt (Cp=1,74) heisst das, dass die Prozessstreuung im Vergleich zur Toleranzbreite gut liegt (ca. 57,5%). Anhand des Cpk=0,87 ist zu erkennen, dass ein Teil der Messwerte außerhalb der Toleranz liegt. Kann mann diesen systematischen Einfluß in eurem Prozess korrigieren?

    Hallo Barbara,

    das wird Jacky jetzt nicht weiter helfen, aber bei deiner Aussage mit der Normalverteilung muss ich dir widersprechen.
    Die Formeln für die normalverteilte Merkmale (Cp=T/6s und Cpk=min[(OGW-Xquer)/3s; (Xquer-UGW)/3s)] werden halt häufig erwähnt, weil sie am einfachsten zu behandeln sind.
    Es gibt aber auch Merkmale wie Form- und Lagetoleranzen, die eine natürliche Grenze haben. Z.B.: Ein Rundlauf kann nicht kleiner als Null sein; aber man erwartet, dass die meisten Messwerte dicht bei Null liegen. Die Messwerte werden sich hier voraussichtlich linkssteil verteilen. Solch eine Verteilung kann z.B. durch die logarithmische Normalverteilung beschrieben werden. Die logarithmische Normalverteilung wird wegen ihrer leichten Handhabung in der Regel aber nur noch bei manueller Auswertung herangezogen.
    Da Auswertungen heute meist mit entsprechender Software erfolgen, werden die o.g. Merkmale vorzugsweise durch eine Betragsverteilung 1.Art oder 2.Art angenähert. Hier rechnet man Cp=T/(99,865%-Punkte – 0,135%Punkt).
    Fährt man die Auswertung hier jedoch stur mit der Normalverteilung, sind die Fähigkeitsindizes (Cp und Cpk) kleiner.
    Die Mischverteilung gibt in der Regel die besten Ergebnisse für Cp und Cpk. Es handelt sich bei den angesprochenen Merkmalen um stetige Merkmale, die Poissonverteilung ist eine Verteilung für diskrete Merkmale.

    Grüße

    Arne

    jacky
    Mitglied
    Beitragsanzahl: 13

    Hallo Jacky,

    wie wird die Schichtdicke gemessen und wie sehen Deine Cp- und Cpk-Werte aus?
    Wenn man dein Beispiel nimmt (Cp=1,74) heisst das, dass die Prozessstreuung im Vergleich zur Toleranzbreite gut liegt (ca. 57,5%). Anhand des Cpk=0,87 ist zu erkennen, dass ein Teil der Messwerte außerhalb der Toleranz liegt. Kann mann diesen systematischen Einfluß in eurem Prozess korrigieren?

    Hallo Arne,
    Die Schichtdicke wird manuelle gemessen an 5 Messpunkten ,mit einem Gerät mit Messfühler,die nicht festgeschrieben werden können. Jeder Mitarbeiter hat eine eigene Art zu messen, was erschwerend hin zu kommt.Das Gerät rechnet Mittelwert und Standardabweichung selbst aus, was die MA nur übertragen müssen. Die Regelkarte muß manuell ausgerechnet werden.
    Das Merkwürdige ist, das die Messwerte schon in der Toleranz liegen, wenn ich den Mittelwert sehe, ich vermute das die Messwerte innerhalb des Mittelwertes abweichen.

    gruß jacky

    QM-Planer
    Mitglied
    Beitragsanzahl: 73

    Hallo Jacky,

    ich habe oben gelesen, dass die Teile rund sind. Messt ihr die Schichtdicke mit dem Messfühler genauso wie man den Rundlauf einer Welle misst?
    Wenn ja, wie groß ist dann der Einfluß des Grundkörpers?
    Du hast in deinem Messprozess scheinbar einige Einflüsse, die das Ergebnis negativ beeinflussen. Versuche diese Einflüsse zu quantifizieren. Sehr auffällig ist scheinbar der signifikante Einfluß der Bediener. Wie groß dieser Einfluß ist, kannst du durch eine Prüfmittelfähigkeit (Verfahren 3) herausfinden.
    Dass die Mittelwerte innerhalb der Toleranz liegen kannst du daran erkennen, dass der Cpk-Wert größer Null ist. Das ist nicht ungewöhnlich. Aber wenn du Cpk>1,33 erreichen möchtest, dürfen die Messwerte nicht mehr als 75% der Toleranzbreite streuen und der Mittelwert muss dicht am Sollwert liegen. Vielleicht wäre parallel die Führung einer Ur-Wert-Karte angebracht, dann kannst nämlich sehen wie die einzelnen Schichtdicken liegen, und diese Verteilung der Schichtdicken ist letztendlich entscheidend.
    Vielleicht könntest du mir nochmal genau den Messprozessbeschreiben, Toleranzen und Cp und Cpk nennen.

    Gruß

    Arne

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hi Arne,

    wenn Du die 99.85%- und 0.135%-Werte ausschließlich aus Deinen Daten schätzt, dann nimmst Du in Deine Schätzungen auch alle Messfehler auf, sowohl die zufälligen als auch die systematischen. Ganz egal, mit welcher Software Du das rechnest, die Messfehler werden so vernachlässigt. Wenn Du hingegen vorher die Verteilung der Daten untersuchst, kannst Du robustere Schätzer verwenden, wenn Deine Verteilung nicht normal oder kontaminiert ist.

    Natürlich muss das alles nicht immer in vollem Umfang analysiert werden, aber wenn es irgendwelche Schwierigkeiten gibt oder ein Prozess grundsätzlich verbessert werden soll, dann hilft Dir eine Kontrollkarte mit empirischen Werten nicht viel weiter, weil sie verrauschte Daten mit verrauschten Daten vergleicht. Und ein Histogramm, ein Boxplot und ein NQQ-Plot sind auch nicht solche riesigen Analyseverfahren (vorausgesetzt, man hat die entsprechende Software dafür). Ein Balkendiagramm kann man allerdings auch mit Excel oder jedem anderen Tabellenprogramm machen und manchmal ist da schon zu erkennen, dass die Werte keiner Normalverteilung folgen (Asymmetrie, keine Glockenform, o. Ä.)

    Du hast Recht: Die Poissonverteilung ist eine diskrete Verteilung, lässt sich aber relativ gut durch eine Normalverteilung approximieren.

    Um auf Jackys Daten zurück zu kommen: Theoretisch sollte ein Messprozess normalverteilt sein. Spätestens wenn der Faktor Mensch dazu kommt, muss immer mit einem systematischen Fehler gerechnet werden. Wenn Jacky also sagt, dass die Streuungen sehr unterschiedlich sind, macht es für mich Sinn, erstmal die Daten anzuschauen und nach den Ursachen zu suchen als sofort loszurechnen und auf der Basis von ggf. verzerrten Daten Kontrollkarten oder (neue) Grenzen zu konstruieren. Eine Kontrollkarte vergleicht das IST mit dem SOLL, aber sie vergleicht keine Untergruppen wie z. B. Unterschiede zu verschiedenen Messzeitpunkten. Insofern ist sie ein gutes Hilfsmittel, solange ein Prozess unter Kontrolle ist. Für die Prozessanalyse ist sie nur sehr bedingt geeignet, z. B. wenn eine zeitliche Abhängigkeit visualisiert werden kann.

    Es ist eben genauso wie im richtigen Leben: Die adäquate Wahl der Mittel ist entscheidend für die Zielerreichung. Eine Kontrollkarte ist für die Kontrolle eines Prozesses sehr hilfreich, aber nicht für die Analyse.

    Viele Grüße

    Barbara

    QM-Planer
    Mitglied
    Beitragsanzahl: 73

    Hallo Barbara,

    nichts anderes habe ich geschrieben, nur mit weniger Sätzen. „Es gilt die Einflüsse auf den Messprozess zu quantifizieren…..“. Der Hinweis mit der Urwertkarte sollte nur als eine Möglichkeit dazu dienen. Wenn das Messgerät automatisch Mittelwert und Standardab. berechnet, tauchen die Einzelwerte nirgends auf. Und gerade diese sind für eine Anaylse oft wesentlich aussagekräftiger. Z.B. kann man diese dann auch in einem Balkendiagramm (Excel) abbilden.
    Eine Prüfmittelfähigkeitsuntersuchung ermöglicht einem, z.B. den Einfluß der Bediener, des Aufstellorts oder des Messzeitpunkts zu ermitteln. Einen zeitlichen Einfluss kann man wiederum auch an den Einzelwerten erkennen.

    Für Jacky ist unsere Diskussion wahrscheinlich wenig hilfreich – zu viel Theorie.
    Und wie „im richtigen Leben“ sollte man auch dieses Problem prakmatisch angehen. Das ist natürlich auf diesem Weg etwas schwierig!
    Deswegen hatte ich um die genaue Beschreibung des Messprozesses und der Kennwerte gebeten!

    Gruß und eine schöne Woche!

    Arne

    PS:
    Ist der Faktor Mensch zufälliger oder systematischer Natur? Auch darüber streiten sich die Gelehrten.

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hi Arne,

    für mich ist der Mensch sowohl ein zufälliger als auch ein systematischer Faktor, weil er z. B. an guten Tagen anders misst als an schechten Tagen (zufällig) und dann auch noch grundsätzliche sprich systematische Unterschiede bestehen (können). Wie siehst Du das?

    Viele Grüße

    Barbara

    thomas
    Mitglied
    Beitragsanzahl: 10

    Hallo zusammen,

    obwohl ja irgendwie jeder recht hat, glaube ich Ihr habt Jaccky jetzt noch mehr verunsichert.

    Es sollte doch zuerst auf die Reihenfolge geachtet werden in der man an solche dinge heran geht.

    1. Prüfprozess qualifizieren (Prüfmittelfähigkeit) wenn das nicht stimmt, stimmt alles danach sowieso nicht.

    2. Maschinenfähigkeitsuntersuchung

    3. Kurzzeitprozessfähigkeit (inkl. aller Einflüsse, z.B. Bediener)

    4. Regelkarte

    wenn diese Reihenfolge, wie auch immer berechnet, Normalverteilung oder Mischverteilung nicht eingehalten wird,
    dann kommt man nie auf einen Nenner und schon gar nicht auf den richtigen.

    Beste Grüße,

    Thomas

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hi Thomas,

    was genau verstehst Du unter Kurzzeitprozessfähigkeit?

    Ansonsten hast Du vollkommen Recht: Das Pferd sollte einfach nicht von hinten aufgezäumt werden.

    Viele Grüße

    Barbara

    QM-Planer
    Mitglied
    Beitragsanzahl: 73

    Hallo Barbara,

    den Einflussfaktor Mensch sehe ich genauso wie Du.

    Es ist schon richtig, was Thomas sagt. Nur mit Punkt 1 stimme ich nicht überein (Bsp 3D-Messtechnik).

    Die Maschinenfähigkeitsuntersuchung (MFU) ist eine Kurzzeitfähigkeitsuntersuchung, deren Ziel es ausschließlich ist, maschinen-oder anlagenbedingte Einflüsse auf den Fertigungsprozess zu ermitteln.

    Die Prozessfähigkeitsuntersuchung (PFU) ist eine Langzeitfähigkeitsuntersuchungen, die unter den endgültigen Serienbedingungen durchgeführt wird. Im Laufe des Untersuchungszeitraumes werden alle wesentlichen Einflussgrößen auf den Fertigungsprozess betrachtet (5M).

    Zwischen MFU und PFU ist noch eine vorläufige PFU möglich/denkbar. Sie wird mit reduziertem Teileumfang gefahren.

    Das ist für Euch wahrscheinlich nichts neues.
    Diese Thematik wird im Forum leider viel zu selten diskutiert. In der Praxis gibt es damit immer wieder Probleme, weil sich zu wenige mit der Thematik auskennen.

    Gruß

    Arne

    jacky
    Mitglied
    Beitragsanzahl: 13

    Hallo zusammen,

    es freut mich hier so eine rege Diskussion angezettelt zu haben. Sehr interessant muss ich schon sagen. Ich muss euch da recht geben, diese Thematik wird wirklich selten behandelt, weiß der Geier warum. Für alle Statistikschulungen, für die ich mich angemeldet hatte, wurde wegen Teilnehmermangel abgesagt, gut ich gebe zu, hatte mich auch nicht darum gerissen aber ich hatte eben gemerkt das da ne Menge nachgeholt werden muss.

    gruß jacky

    dreichl
    Mitglied
    Beitragsanzahl: 167

    Hallo Jacky,
    wenn ich deine Problematik recht im Kopf habe, d.h. Beschichtungsdicken von 6-16 µm auf rundem Material, würde ich unbedingt beim Punkt 1 von Thomas nämlich der Prüfmittelfähigkeit anfangen. Ich spreche da leider aus Erfahrung. Hast du eine Methode, bei der du mit der nötigen Genauigkeit die Dicke messen kannst. Wenn ja, bitte näheres an mich, bin da noch auf der Suche nach einer Methode für unser Problemkind.
    Wenn nein, machen die anderen Punkte (leider) wenig Sinn.

    Gruß,
    Dieter

    Gruß,
    Dieter

    thomas
    Mitglied
    Beitragsanzahl: 10

    Hallo Jacky,

    Wenn Du auf der Suche nach einem SPC Seminar bist kann ich Dir das der InQ / Institut für Qualität ( http://www.vda-qmc.de ) sehr empfehlen,
    ich habe dieses Seminar vor 2 Wochen besucht und war wirklich positiv überrascht in welche Richtung sich das Thema SPC entwickelt.

    Wie Arne schon anfangs geschrieben hat ist bei nicht Normal verteilten Werten (z.B. Mischverteilung), was übrigens auf über 80% aller Prozesse zutrifft (Untersuchung Daimler Chrysler) die cpk Berechnung über die Prozessstreubreite zu berechnen.
    Das ist natürlich ein Vorteil für den Lieferanten, diese neue Denkweise der Automobilindustrie rührt daher, weil nach o.a. Untersuchung 60% aller untersuchten Prozesse cpk Werte < 1,25 aufwiesen und dennoch gute Teile geliefert wurden. (Angsttoleranzen)

    Arne,

    Was meinst Du mit keine PMFU bei 3D-Meßtechnik??

    Da sich hier einige Spezialisten für Schichtdickenmessung herumtreiben, ich bin seit langem auf der Suche nach einer Kostengünstigen und dennoch funktionierenden Methode zerstörungsfrei die Lackschichtdicke auf Kunststoffgehäusen zu messen. (Hauptproblem ist, das meistens keine plane Fläche vorhanden ist). Wäre dankbar für jede Anregung.

    Gruß,

    Thomas

    QM-Planer
    Mitglied
    Beitragsanzahl: 73

    Hallo Thomas,

    Es kommt halt schon mal vor, dass das Wunschverhältnis 1:10 (Toleranz zur Messgenauigkeit) deutlich überschritten wird (ist auch legitim). Das Messgerät kann dann schon für die Prozessregelung geeignet sein. Aber mit den PMFU-Kennwerten wird es schwierig.
    Für 3D-Messmaschinen gibt es eigene Verfahren nach VDI/VDE2617 und/oder ISO 10360-2 (Längenunsicherheit, Unsicherheit im Raum usw.).
    Grundsätzlich gilt aber, dass die Fähigkeit der Messmittel zu überprüfen ist. Das habe ich Jacky weiter oben auch schon empfohlen.

    Gruß

    Arne

Ansicht von 15 Beiträgen – 16 bis 30 (von insgesamt 41)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben