SPC bei gestutzt normalverteilten Merkmalswerte2006-10-06T16:59:03+01:00

QM-Forum Foren Qualitätsmanagement SPC bei gestutzt normalverteilten Merkmalswerte

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 21)
  • Autor
    Beiträge
  • uezguere
    Mitglied
    Beitragsanzahl: 13

    Ich möchte eine SPC für Stichprobenkennwerte gestutzt normalverteilter Merkmalswerte erstellen. In meinem konkreten Fall handelt es sich um ein Geradheitsmaß.

    Wie konzepiert man dafür eine sinnvolle Regelkarte?

    Ich habe bei normalverteilten Merkmalswerten die Regelkarten immer so konzipiert (nach Shewhart), dass der Stichprobenkennwert s mit einer Wahrscheinlichkeit von 99% innerhalb der Eingriffsgrenzen und mit einer Wahrscheinlichkeit von 95% innerhalb der Warngrenzen liegt. Die Eingriffsgrenzen sind somit die Grenzen des zweiseitigen 99%-Zufallsstreubereichs und die Warngrenzen die Grenzen des 95%-Zufallsstreubereich des betreffenden Stichprobenkennwertes bei ungestörtem Prozeß. Der ungestörte Prozeß hat somit eine Chance von 99% akzeptiert zu werden.

    geändert von – uezguere on 06/10/2006 17:00:11

    geändert von – uezguere on 06/10/2006 17:08:27

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo uezguere,

    kannst Du mal ein bisschen mehr zu den bei Euch üblichen Werten und Spezifikationen sagen? Danke!

    Viele Grüße

    Barbara

    _____________________________________

    „Was war das für eine Stimme?“ schrie Arthur.
    „Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
    Douglas Adams – Per Anhalter durch die Galaxis

    uezguere
    Mitglied
    Beitragsanzahl: 13

    Geradheitsangabe in der Zeichnung mit 0,15mm.
    Werte liegen aktuell normalverteilt um 0,05mm mit der geschätzten Streuung von 0,01mm.

    Barbara, hast Du das mit „üblichen Werten“ bzw. „Spezifikation“ gemeint? Kann man meine Frage nicht allgemein (von absoluten Werten unabhängig) beantworten?

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo uezguere,

    hab ich das jetzt so richtig verstanden:
    OSG = 0,15 mm
    USG bzw. absolute untere Grenze = 0,00 mm
    xquer = 0,05 mm
    S = 0,01 mm

    Nein, leider gibt es für die gestutzte Normalverteilung (=Betragsverteilung 1. Art) keine Formeln, mit denen Du das mal eben ausrechnen kannst.

    Wenn die absoluten Grenzen (wie Null) weit genug von den mittleren Werten weg sind, dann ist der Unterschied zwischen einer Normalverteilung und einer gestutzten Normalverteilung so klein, dass Du mit einer Normalverteilung rechnen kannst. Ein Beispiel dafür ist die Körpergröße von Menschen. Die ist normalverteilt, auch wenn kein Mensch kleiner als 0 cm sein kann.

    Wenn durch die Stutzung allerdings ein größerer Anteil abgeschnitten wird, dann muss das berücksichtigt werden und das geht nur über Algorithmen und leider nicht über Formeln.

    Einfacher ist dann eine QRK für die Mittelwerte von Stichprobengruppen zu verwenden, weil die nach dem ZGWS (Zentralen Grenzwertsatz) bei einem stabilen Prozess normalverteilt sind.

    Viele Grüße

    Barbara

    _____________________________________

    „Was war das für eine Stimme?“ schrie Arthur.
    „Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
    Douglas Adams – Per Anhalter durch die Galaxis

    uezguere
    Mitglied
    Beitragsanzahl: 13

    Meine absoluten Zahlenangaben hast Du völlig richtig interpretiert!

    Ma, da hätte ich ja auch selber drauf kommen können! Stichprobenmittelwerte sind ja (auf Grund der Summe der „Einflüsse“)auch normalverteilt. Dann kann ich praktisch ganz gewöhnlich meine Shewhart-Karte damit zwangsbeglücken ;-)

    In meinen Fall kann ich ich die Normalverteilung anwenden, da die Mittelwerte „weit“ von 0 entfernt liegen.

    Mich würde aber trotzdem interessieren, wie diese Algorithmen aussehen! Für ein Excelmarko wäre das ja ein leichtes diese zu implementieren, denke ich, oder?
    Najo, sagen wir solange es nicht ein um Welten komlizierterer Algo ist, als ein Standard-Algo, welcher zur PI-Berechnung herangezogen wird..

    geändert von – uezguere on 11/10/2006 08:24:14

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo uezguere,

    der Algorithmus ist schäbbich und zwar so richtig. Details findest Du z. B. in
    Groß, Jürgen [2001]: A normal distribution course, ISBN 3-631-52934-1, S. 126ff.

    Allerdings würd ich das never ever in Excel umsetzen, weil die Rechengenauigkeit von Excel einfach zu gering ist. Alternativ (und umsonst) ist das Statistik-Programm R, wobei auch dort keine Standardfunktion zum Schätzen der Parameter existiert.

    Viele Grüße

    Barbara

    _____________________________________

    „Was war das für eine Stimme?“ schrie Arthur.
    „Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
    Douglas Adams – Per Anhalter durch die Galaxis

    uezguere
    Mitglied
    Beitragsanzahl: 13

    der Algorithmus ist schäbbich und zwar so richtig.

    Was meinst Du mit schäbbich?
    MfG

    Wer ist weise?
    Derjenige, der von jedem etwas lernen kann…
    Außerdem bin ich aus Österreich und nicht aus Australien! Das Programmierung dieser website müsste einmal überprüft und korregiert werden ;-)
    (aus Japan)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo uezguere,

    schäbbich = arg unschön
    soll heißen:
    -aufwändig zu programmieren
    -funktioniert trotzdem nicht immer, aber wenigstens sehr oft

    Viele Grüße

    Barbara

    _____________________________________

    „Was war das für eine Stimme?“ schrie Arthur.
    „Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
    Douglas Adams – Per Anhalter durch die Galaxis

    Qualifight
    Mitglied
    Beitragsanzahl: 34

    Hallo Uezguere,

    zurück zu deiner Eingangsproblematik. Für die grafische Darstellung deiner B1-Verteilung nimmst du wie schon erwähnt, die normale Regelkarte.

    Für die Cpk-Berechnung bietet sich meiner Meinung nach die Percentilmethode an, die allgemein von den OEMs anerkannt wird.

    MfG

    Qualifight

    uezguere
    Mitglied
    Beitragsanzahl: 13

    Ok. Werde die Percentilmethode dafür verwenden!
    Ich möchte aber wissen, wie groß mein Fehler bei dieser Approximation ist!
    Vieles ist in der Norm anerkannt, aber d.h. nicht unbedingt, dass es der Weisheit letzter Schluss ist. Ich bin der Meinung man sollte immer praktisch vorgehen und wenn approximieren, dann bewusst approximieren!

    Wer ist weise?
    Derjenige, der von jedem etwas lernen kann…
    (aus Japan)
    Außerdem bin ich aus Österreich und nicht aus Deutschland, oder sonst wo! Die Programmierung dieser website müsste einmal korregiert werden!

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo zusammen,

    ich kenne keine Studie oder Untersuchung dazu, werd mich mal umhören. Oder ich schreib da meine Doktorarbeit zu.

    Ansonsten geb ich Dir, uezguere, nämlich recht: Die Unsicherheit beim Schätzen oder Approximieren sollte immer bekannt sein, bevor man etwas einsetzt.

    Viele Grüße

    Barbara

    _____________________________________

    „Was war das für eine Stimme?“ schrie Arthur.
    „Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
    Douglas Adams – Per Anhalter durch die Galaxis

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo nochmal,

    nachdem ich keine Studie auftreiben konnte hab ich selbst mal ein bisschen Daten simuliert und doch erstaunliche Ergebnisse bekommen. Zusammenfassend lässt sich feststellen, dass die empirischen Quantile komplett ungeeignet zur Abschätzung der Prozess-Streuung sind.

    Details hab ich Euch (uezguere & qualyfight) zugemailt.

    Viele Grüße

    Barbara

    _____________________________________

    „Was war das für eine Stimme?“ schrie Arthur.
    „Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
    Douglas Adams – Per Anhalter durch die Galaxis

    IsoMan
    Mitglied
    Beitragsanzahl: 421

    Hallo Barbara,

    wäre auch an den Modelldaten interessiert.

    Danke und schönes Wochenende!

    IsoMan

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo IsoMan,

    hab ich Dir gerade gemailt. Alle, die sonst noch daran interessiert sind, schreiben mir bitte direkt eine Mail an info@bb-sbl.de.

    Viele Grüße

    Barbara

    _____________________________________

    „Was war das für eine Stimme?“ schrie Arthur.
    „Ich weiß nicht“, brüllte Ford zurück, „ich weiß es nicht. Es klang wie Wahrscheinlichkeitsrechnung.“
    Douglas Adams – Per Anhalter durch die Galaxis

    Qualifight
    Mitglied
    Beitragsanzahl: 34

    Hallo Barbara,

    vielen Dank für Deine Untersuchung. Im Ergebnis sagst Du, daß die Percentilmethode zu ungenau ist.

    Dies bereitet mir nun doch etwas Kopfzerbrechen. Da wir uns in einem Grenzgebiet zwischen Technik und (mathematischer) Wissenschaft bewegen, gibt es nun mal unterschiedlichste Ansätze und Meinungen zu unserem Problem; nachzulesen in zahlreichen deutschen und amerikanischen Veröffentlichungen. Der Range für die Darstellung der Prozeßfähigkeit reicht von der Wahl einfach des oberen Cpk über die Anwendung diverser Transformationen bis zu eigenen Kennwert – Kreationen.

    Auf der anderen Seite gibt es eindeutige Vorschriften der OEMs, wie bei Ermittlung der Fähigkeiten vorzugehen ist, z.B. bei VW oder Papst, die die Percentil/Quantilmethode fordern. Ebenso ist diese Methode Grundlage mehrerer gängiger Software-Systheme, wie im Forum auch schon diskutiert; in diesem Fall muß den Anwender nicht unbedingt als erstes interessieren, welche Formeln im Hintergrund laufen.

    Beispiel Visual-Xsel für oberen Cpk:

    Cpk = (OTG – X50%) / (X99,865 – X50%)

    Ich habe obige Formel mal für ein nullbegrenztes Merkmal gerechnet und einen Vergleich mit einer Box-Cox-Transformation mit MiniTab gemacht; das Ergebnis unterscheidet sich nur in der zweiten Nachkommastelle.

    Nun ist die Frage, wie wir das Problem lösen; Parallelität oder Geradheit sind ja nicht gerade neue Erfindungen und man fragt sich, warum sich die Fachwelt wenigstens hierfür nicht auf einen Nenner bzw. Formel einigen kann, aber wahrscheinlich liegt das an den unterschiedlichen Ansätzen. Ich neige dazu, erst mal obige Methode zu nutzen, sie ist einfach, praktikabel und leicht in eigene Anwendungen umzusetzen; auch wenn die Genauigkeit vielleicht nicht die höchste ist, letztlich kommt es ja noch darauf an, wie weit OTG von meinem gesuchten Perzentil entfernt ist. Zum Glück oft weit genug.

    MfG

    Qualifight

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 21)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben