maschinenfähigkeit2005-02-11T09:34:25+01:00

QM-Forum Foren Qualitätsmanagement maschinenfähigkeit

Ansicht von 14 Beiträgen – 1 bis 14 (von insgesamt 14)
  • Autor
    Beiträge
  • jerry-q
    Mitglied
    Beitragsanzahl: 36

    hallo an alle,
    zunächst mal bin ich als „neuer“ hocherfreut über dieses forum.

    habe auch eine frage, an die kollegen qualitäter:

    wie geht ihr mit den verschiedenen möglichen verteilungsformen bei der ermittlung der maschinenfähigkeit um? lasst ihr nur die theoeretisch einzig denkbaren Normal- und log-normal-Verteilungen zu oder lasst ihr euer statistikprogramm selbst entscheiden? bin gespannt auf eure antworten.
    gruß von jerry, D nicht C

    by the way: Q hat Zukunft!

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jerry,

    aaaargh! (Das war meine Statistikerinnen-Seele)

    Also:

    JEDE Verteilung hat ihre speziellen Voraussetzungen und Annahmen.
    Für jede Verteilung gibt es im normalen Leben unterschiedliche Situationen, für die sie geeignet sind.

    Erstes Auswahlkriterium für eine mögliche Verteilung ist deshalb GMV (Gesunder Menschenverstand) und das kann Dir auch kein Programm abnehmen (auch wenn manche Programme behaupten das tun zu können).

    Messwerte ohne systematischen Fehler sind normalverteilt, d. h. wenn Deine Messwerte nicht glockenförmig verteilt sind, dann hast Du einen systematischen Fehler.
    Infos zur Überprüfung der Normalverteilung findest Du hier:
    http://www.bb-sbl.de/tutorial/verteilungen/ueberpruefungnormalverteilung.html

    Wenn Du einen systematischen Fehler hast, dann ist der Weg nicht, dazu eine passende Verteilung zu finden, sondern den systematischen Fehler zu identifizieren und dafür ein passendes Modell aufzubauen oder den systematischen Fehler durch ein modifiziertes Mess-System weitestgehend zu verkleinern.

    Wenn es z. B. einen systematischen Einfluss durch den Prüfer gibt, dann brauchst Du ein Modell
    Tatsächlicher Wert = Messwert + Prüfereinfluss + zufälliger Fehler

    Der zufällige Fehler, also das, was das Modell nicht erklärt, ist dann wieder normalverteilt (wenn es keine weiteren systematischen Fehler gibt).

    Was bringt Dir dieser Aufwand?
    Du weißt besser wodurch Dein Mess-System beeinflusst wird und kannst eine höhere Messmittel-Fähigkeit erreichen.

    Nur bei Normalverteilung machen die 6*S im Nenner der Fähigkeitsindizes einen Sinn, weil nur dann 99,73% der Werte mit der gewünschten Sicherheit innerhalb des vorgegebenen Intervalls liegen.

    Viele Grüße

    Barbara

    Frank_Hergt
    Teilnehmer
    Beitragsanzahl: 1530

    Hallo Barbara!

    Wie sieht es mit Größen aus, die eine natürliche Ober- oder Untergrenze haben und deshalb eine einseitige Verteilung aufweisen? Beispiele:
    – Rauhigkeit (nie <0)
    – Liefertermintreue (nie <100%)
    – Restverschmutzung (auch nie <0)

    Schöne Grüße

    Frank Hergt

    jerry-q
    Mitglied
    Beitragsanzahl: 36

    Hi Barbara, danke für deine schnelle antwort. deine statistikerinnen-seele hat mir aus derselben gesprochen.
    genauso sehe ich das auch und werde der meinung eines menschen, der meinte, ich könne bei einer MFU erst einmal ALLE verteilungen zulassen und prüfen lassen, welche zutrifft, jetzt noch fundierter als bisher widersprechen können.

    gruss J

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Frank,

    Wenn Prüfstücke über oder unter einem bestimmten Wert rausfallen und die Verteilung der Messwerte wie eine Normalverteilung aussieht, an der an einer oder an beiden Seiten jemand etwas abgeschnitten hat:
    Gestutzte Normalverteilung, dabei gibt es keine Werte unter bzw. über einem bestimmten Wert

    Wenn die Messwerte schief verteilt sind, je nach Hintergrund verschiedene (X², logNormal, etc.)

    Oder:
    Wenn die Messwerte aus einem stabilen Prozess kommen (Lage und Streuung sind stabil über die Zeit), dann kannst Du einfach Stichprobengruppen nehmen. Der Mittelwert und die Varianz der Stichprobengruppe ist dann wieder normalverteilt.

    Viele Grüße

    Barbara

    Anonym
    Gast
    Beitragsanzahl: 2122

    Hallo Leute,
    trotz der Vorrede muss ich mich als einer derjenigen outen, die erst einmal einen Rechner suchen lassen würden. Danach kommt der GMV und prüft die Plausibilität.

    Klarstellung: Es geht um Maschinenfähigkeit, nicht um Messystemanalyse!

    Erst einmal ist eine Maschine/ein Prozess wie er ist. Sind die Teile gut, ist der Prozess gut. Und ob er dann schief oder NV ist, ist mir ehrlich gesagt schnurzpiepegal. Natürlich ist es im ästhetischen Sinne angenehmer, einen NV-Prozess zu haben. Aber lohnt es sich deshalb, einen Cent mehr zu zahlen?

    Natürlich kann man auch davon ausgehen, dass ein nur zufällig streuender NV-Prozess eine gewisse „Grundstabilität“ hat, aber spätestens im Übergang von der MFU zu PFU wird ja sowieso geregelt. Also was juckts, wenn der Prozess weibullverteilt oder sonstwas ist. (Mit Log NV und Chi² wäre ich vorsichtig, die Dinger haben mathematisch gesehen unangenehme Eigenschaften …).

    Auch die gängigen Richtlinien gehen davon aus, dass keine NV vorliegen muss. Die Begründung, man brauche eine NV um mit den 6s rechnen zu können, die ist schon wahr, aber warum will ich mit 6s rechnen? Das klingt nach Anpassung der Realität an die Theorie, statt mit der Theorie die Realität zu beschreiben. Spätestens seit DIN 55319:2002 ist das doch out. Erst mal sage ich, wie der Prozess aussieht, dann beschreibe ich ihn mit einer Verteilung und daraus abgeleitet mit einem Fähigkeitsindex. Ich brauche dazu das 99,73%-Percentil und das hat jede Verteilungsform.

    Fazit: Sind die Teile gut ist der Prozess gut, ich beschreibe die Maschine mit der Verteilung, die das Ergebnis am korrektesten beschreibt (nicht die, die den besten Fähigkeitskennwert ergibt!!!), und wenn das krumm und schief ist, dann ist das halt so.

    @Frank: Die von Dir angeführten Beispiele ergeben i. a. dann schiefe Verteilungen, wenn der Prozess so liegt, dass er von der Nullgrenze gestört wird. Die Länge eines Bolzen ist auch Nullbegrenzt. Die Nullgrenze juckt mich aber nur dann, wenn der Bolzen nm-Dicke haben soll, bei cm-Länge ist mir das egal. Wenn Die Rauheit sehr hoch ist, kann sie NV sein, geht sie gegen Null, wird sie sehr wahrscheinlich schief. Der Übergang ist kontinuierlich.

    Antwortet mir! ;-)
    Loo

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Loo,

    natürlich ist ein Prozess erstmal so, wie er ist und muss auch nicht per se normalverteilt sein.

    Andererseits gibt es einen sehr wichtigen Satz in der Statistik. Wir haben ihn deswegen auch gleich „Zentralen Grenzwertsatz“ (ZGWS) genannt.

    Danach ist der Ausdruck:
    Z = Wurzel(Länge der Messreihe) * (*Mittelwert Messreihe* – *tatsächlicher Mittelwert*)
    / *tatsächliche Standardabweichung*
    approximativ standardnormalverteilt (N(0,1)), wenn:
    1. Die Werte unabhängig voneinander sind und alle aus derselben Verteilung stammen.
    2. Der Mittelwert für alle gleich ist (tatsächlicher Mittelwert).
    3. Die Standardabweichung für alle gleich ist (tatsächliche Standardabweichung)

    Das heißt übersetzt:
    Die Mittelwerte von Messreihen sind normalverteilt und wenn sie es nicht sind, dann ist mindestens eine Voraussetzung verletzt:
    a) Der Prozess ist nicht stabil.
    b) Die Messwerte sind zeitabhängig oder anders voneinander abhängig.
    c) Der Mittelwert ändert sich über die Zeit.
    d) Die Streuung ändert sich über die Zeit.

    Wenn Du also hingehst und den Rechner suchen lässt, dann ist das ungefähr so, als würde in Deinem Auto das Öl-Lämpchen leuchten und Du klebst ein Kaugummi drauf. Du ignorierst so sehr wertvolle Informationen über Deinen Prozess, denn es muss mindestens einen Grund (systematischen Fehler) geben, warum die Mittelwerte der Messreihen nicht normalverteilt sind.

    Wenn Du Dich darauf verlässt, dass das schon so weiter laufen wird, wenn es jetzt gut läuft, dann könnte sich aus dem systematischen Fehler eine echte Schwierigkeit entwickeln, nämlich dann, wenn er verschwindet oder verstärkt auf den Prozess einwirkt oder wenn Du den Prozess ändern willst. Denn Du weißt einfach nicht genug über den Prozess, um Prognosen über das zukünftige Verhalten zu machen.

    Prozessfähigkeits-Indizes (Cp’s) haben deshalb *alle* als Voraussetzung die Normalverteilung der Werte. Du kannst alle Indizes ohne Normalverteilung ausrechnen, nur kriegst Du durch jede Schätzung eine Unsicherheit und wenn die Mittelwerte der Messreihen nicht normalverteilt sind (egal ob bei MFU, PFU oder wo auch immer), dann kannst Du eine so große Unsicherheit in der Schätzung haben, dass der Wert des Indizes nichts mehr taugt.

    Wenn Dein Index z. B. 1,45 ist und mit 95%-iger Wahrscheinlichkeit im Intervall (0,2;2,7) liegt, dann nutzt Dir die Aussage Index=1,45 nichts. (Wenn Du darüber mehr wissen möchtest: Jessenberger „Prozessfähigkeitsindizes in der Qualitätssicherung“, das braucht allerdings ein gerüttelt Maß an statistischem Wissen,m Kernaussage: Ohne Normalverteilung taugen Fähigkeits-Indizes nix.)

    Und zuletzt: Die Verteilungen sehen sich teilweise sehr ähnlich, haben aber unterschiedliche Eigenschaften. Wenn Du die Auswahl einer passenden Verteilung darauf reduzierst, dass der Abstand zwischen Messwerten und Verteilung möglichst klein wird (rechner-basierte Auswahl), dann ignorierst Du eben diese Eigenschaften, die Dir viel über den Prozess sagen können.

    Viele Grüße

    Barbara

    Anonym
    Gast
    Beitragsanzahl: 2122

    Hallo Barbara,

    für mich sind das Theorien, die in sich schlüssig und schön sind, leider aber an der Praxis vorbei gehen. Wie Du so schön sagst:

    b) Die Messwerte sind zeitabhängig oder anders voneinander abhängig.
    c) Der Mittelwert ändert sich über die Zeit.
    d) Die Streuung ändert sich über die Zeit.

    zu b) natürlich sind sie das, weil Prozesse dynamisch sind
    zu c) natürlich macht er das, weil kein Prozess ohne Verschleiß oder Material- und Werkzeugwechsel etc.
    zu d) natürlich ändert sie sich aus verschiedensten Gründen.

    Damit ist die Annahme eine Normalverteilung eher die Aushnahme. Siehe dazu auch die Studie DaimlerChrysler und Ford von 1999 mit 2% NV-Prozessen.

    Aber Du sagst ja auch selbst „approximativ normalverteilt“, d. h. man macht nicht immer einen großen Fehler, wenn man NV nimmt, manchmal kann es auch gut gehen ;-)

    [qoute]
    Prozessfähigkeits-Indizes (Cp’s) haben deshalb *alle* als Voraussetzung die Normalverteilung der Werte.

    Schau Dir doch mal die gängigen Automotive-Richtlinien an. Keine ernstzunehmende Richlinie nach 1985 wagt das heute noch zu behaupten. In den DIN 55319 geht man ganz klar den entgegengesetzten Weg. Die propagierten 6s-Berechnungsmethoden können nur bei NV angewandt werden, aber das heißt nicht, dass Dein Prozess NV sein muss, das heißt nur, Du musst eine andere Methode wählen. Ich kann natürlich sagen, es gibt nur Jeans Größe 34 und alle müssen sich dem anpassen. ;-)

    Es gibt die Methode M4 nach DIN, die sogenannte Percentilmethode, die bei allen Prozessmodellen auf dem gleichen Ansatz für die Prozessstreubreite aufsetzt. Die liefert vergleichbare Ergebnisse für alle Verteilungen.

    Zu Deinem Öllämpchen-Beispiel: Das ist nicht das Ziel der Fähigkeitsindices. Betrachte das so: Setz Dich in das Auto und sage mir, ob es brauchbar ist: Fahreigenschaften, Ergonomie, die 5Ms eben. Und dann wird es bewertet und eine Fähigkeit berechnet. Wenn das Ergebnis nicht ausreichend ist (Cpk<1.33) dann fange ich an Ursache zu suchen. Ist Cpk ok, warum sollte ich auf Gedeih und Verderb Probleme suchen? Das Ding ist doch ok.

    Was Du mit dem Öllämpchen meinst, ist die Qualitätsregelkarte, die mir dann sagt, da stimmt was nicht.

    Natürlich bin ich auch dafür, den Prozess auf „gefährliche“ systematische Störungen abzutasten. Aber glaube mir, in der Praxis gibt es keine Prozesse ohne systematische Einflüsse, somit sind die Voraussetzungen für die Modelle, über die sich solche wunderbaren Bücher schreiben lassen, definititv nur in Ausnahmefällen gegeben.

    Erfreut über die Diskussion …
    Loo

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Loo,

    ich versuchs nochmal zu erklären, weil ich das Gefühl nicht loswerde, dass wir einfach aneinander vorbei reden.

    Ich will das schnellste Auto bauen, d. h. Zielgröße ist Geschwindigkeit und die soll maximal werden. Dazu baue ich mir einen hervorragenden Motor mit einer bestimmten Leistung und nehme den bestmöglichen Kraftstoff. Damit habe ich meine beiden Einflussgrößen Leistungsstärke des Motors und Kraftstoff.

    Mein Modell für die Geschwindigkeit sieht dann so aus:
    Leistungsstärke + Kraftstoff = Geschwindigkeit.

    Weil es natürlich im wahren Leben keine deterministischen Modelle gibt, weiß ich dass das Modell einen Fehler hat, d. h. es ist tatsächlich
    Leistungsstärke + Kraftstoff + Fehler = Geschwindigkeit

    Ich mache also meine Testfahrten und kann dann sagen, dass
    a) die Geschwindigkeit tatsächlich von den beiden Einflussgrößen abhängt (oder eben auch nicht)
    b) wie die Geschwindigkeit von den beiden Einflussgrößen abhängt, nämlich z. B.:
    2,3*Leistungsstärke + 0,5*Kraftstoff + Fehler = Geschwindigkeit

    Die Geschwindigkeit selbst ist natürlich nicht normalverteilt, aber das was das Modell nicht erklärt, die Reste oder der Fehler, das sollte normalverteilt sein.

    Wenn bei der Fehler-Analyse herauskommt, dass der Fehler nicht normalverteilt ist, dann ist das Modell noch nicht gut genug und es gibt unberücksichtigte Einflussgrößen bzw. systematische Einflüsse.

    Ich stelle also fest, dass mein Modell noch nicht genau genug ist, um gute Vorhersagen machen zu können. Nach scharfem Nachdenken fällt mir ein, dass der Druck auf das Gaspedal einen Einfluss auf die Geschwindigkeit hat, also mache ich neue Testfahrten und messe zusätzlich neben den beiden ersten Einflussgrößen noch den Druck auf das Gaspedal. Bei der erneuten Fehler-Analyse stelle ich fest, dass das Modell jetzt gut genug ist.

    Was habe ich nun davon? Ganz einfach:
    1. Ein gutes Modell für den Prozess
    2. Wegen der bekannten Zusammenhänge kann der Prozess optimal eingestellt werden
    3. Alle wichtigen Einflussgrößen sind entdeckt, d. h. der Prozess läuft ohne systematische Fehler.
    4. Es ist so relativ einfach auszurechnen, was passiert, wenn z. B. aus Kostengründen ein etwas weniger leistungsstarker Motor eingesetzt wird oder um wie viel sich die Geschwindigkeit erhöhen würde, wenn die Leistungsstärke um x angehoben würde, usw. D. h. ich habe vor einer Prozess-Änderung schon Informationen darüber, was mir die Änderung voraussichtlich bringen würde und kann damit einschätzen, ob sich das lohnt.
    5. Der Prozess kann robuster gemacht, besser eingestellt und kontrolliert werden.

    Wenn ich dann bei der Qualitätskontrolle feststelle, dass das Prozess-Ergebnis doch nicht so ist wie es eigentlich sein sollte, dann hat sich etwas in dem Prozess geändert (z. B. Lieferantenwechsel für den Kraftsstoff).

    Und natürlich können in solchen Modellen auch zeitliche Komponenten berücksichtigt werden. Am Ende gilt immer das gleiche:
    Wenn das Modell gut ist, dann bleibt nur zufälliges normalverteiltes Rauschen über.

    Wenn Du die Modellierung weglässt, kann das ganze nur in den seltensten Fällen (wie die von Dir angesprochenen 2%) direkt normalverteilt sein.

    Viele Grüße

    Barbara

    Carlos
    Mitglied
    Beitragsanzahl: 417

    Hoppla,
    Das nenne ich eine Erklärung!

    einfach, plausibel, direkt!

    Forum und Barbara sei dank!

    Gruss aus der immer noch kalten Schweiz!

    -3.°C ±1°C @ Qualiyman ;-)

    Carlos

    Carlos
    Mitglied
    Beitragsanzahl: 417

    Nachtrag:

    man sollze halt zuerst alles nochmals durchlesen!

    natürlich @ Blackberry!

    Gruss

    Carlos

    removed
    Mitglied
    Beitragsanzahl: 149

    off Toppic

    @ carlos:

    a) Danke ;-)
    b) MSA gemacht??? <grins>

    schönen Sonntag noch Leute!

    glockmane
    Mitglied
    Beitragsanzahl: 4

    Hallo zusammen,

    sehr interessanter Beitrag, allerdings weiß ich nicht wie ich Barbaras letzten Beitrag auf meine konkrete Aufgabe ummünzen kann, auch wenn Sie es mit einem Praxisbeispiel erläutert hat..

    Zur Aufgabe:

    – Maschinenfähigkeit einer neuen Maschine ermitteln mit Hilfe eines Teils (und dessen Cpk-Maßen), was später auf der Maschine in Serie gefertigt wird

    Ablauf:

    – Ich entnehme nach einem Werkzeugwechsel und Einstellung auf Toleranzmitte 50 Teile nacheinander

    Frage hierzu: Darf der Bediener hier im laufenden Prozess korrigieren, um den Werkzeugverschleiß zu kompensieren?

    Das Hauptproblem:

    – Ich messe das erste Cpk Maß bei diesen 50 Teilen und komme auf keine Normalverteilung

    Was ich bereits gelernt habe:

    – man kann die Werte transformieren -> nicht empfehlenswert
    – man kann ein anderes Rechenverfahren verwenden, was auch mit nicht normalverteilten Messergebnissen korrekte Aussagen liefert
    – man hat einen systematischen Fehler als Ursache für die unnormale Verteilung

    Im konkreten geht es um einen CNC-Drehautomaten.. Danke für eure Anregungen zum Thema!

    Gruß

    glockmane
    Mitglied
    Beitragsanzahl: 4

    Vielleicht noch ein paar Fragen zu meinem letzten Beitrag (direkt über diesem):

    Ist es hier zielführend (zielführend sicher, aber sinnvoll?) ersteinmal normalverteilte Messwerte zu erhalten?
    Wenn ja, wo kann hier ein systematischer Fehler vorliegen?

    Ich tappe im Dunklen [|)]

Ansicht von 14 Beiträgen – 1 bis 14 (von insgesamt 14)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben