cp/cpk bei nullbegrenzten Merkmalen2005-11-04T22:02:52+01:00

QM-Forum Foren Qualitätsmanagement cp/cpk bei nullbegrenzten Merkmalen

Ansicht von 8 Beiträgen – 16 bis 23 (von insgesamt 23)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Fritz,

    grundsätzlich sind Fähigkeitsindizes nur für stabile Prozesse sinnvoll. Wenn der Prozess instabil ist, dann kann ich auch nicht vorhersagen, wie er sich in Zukunft verhalten wird.

    Wenn die Prozess-Merkmale dann nicht normalverteilt sind, gibt es dafür Gründe. Erste Maßnahme bei nicht-normalverteilten Größen ist für mich deshalb die Frage nach dem Warum.

    Relativ einfach lässt sich das erklären, wenn das gemessene Merkmal einseitig oder zweiseitig eng begrenzt ist und dadurch keine Normalverteilung entstehen kann (-> Rundheit, Parallelität, etc.)

    Schwieriger wird es bei Merkmalen, die eigentlich nach GMV (Gesundem MenschenVerstand) normalverteilt sein müssten und es nicht sind.

    Auch da ist das Warum das Wichtigste, denn erst wenn geklärt ist, warum der Prozess so aussieht und nicht anders, kann ich auch zuverlässige Aussagen über seine Fähigkeit machen. Hierfür sind Modelle sinnvoll, weil damit nicht nur die Zusammenhänge, sondern auch die Stärke der Einflüsse *und* die Modell-Güte (d. h. wie gut erklärt das Modell die Messwerte) untersucht werden kann.

    Auch die Normalverteilung ist ein Modell für die Werte, denn natürlich gibt es sie nicht in reiner Form in einem Prozess. Die Normalverteilung ist immer eine Näherung an die Wirklichkeit – und diese Näherung muss gut sein, d. h. der Verlust durch das Ersetzen der Wirklichkeit durch das Modell muss klein sein. (Sonst taugt das Modell Normalverteilung für diese Situation nichts und es muss ein anderes aufgestellt werden, dass die Werte besser erklärt.)

    Wenn z. B. bekannt ist, dass die Zeit (z. B. durch Verschleiß) einen erheblichen Einfluss auf das Prozess-Ergebnis hat, dann ist ein Modell ohne Zeitkomponente nicht gut geeignet, um die Werte zu erklären. Wenn sich in der Praxis gezeigt hat, dass ein Prozess-Ergebnis einen logistischen Verlauf hat (z. B. bei chemischen Prozessen), dann kann das mit der Normalverteilung direkt kein gutes Modell geben.

    Wenn ich aber nicht weiß, warum die Werte so verteilt sind, wie sie es sind, dann habe ich zu wenig Informationen, um eine geeignete Verteilung bzw. ein geeignetes Modell auszuwählen (und zu validieren!)

    Schiefe und Wölbung spielen in der Statistik so gut wie keine Rolle, weil sie zu wenig Aussagekraft über Verteilungen haben und Verfahren, die darauf basieren, zu falschen Schlussfolgerungen führen können. Auch in anderen Bereichen wie Medizin, Marktforschung, etc. findest Du selten etwas direkt normalverteiltes.

    Ich kenne aber keine Veröffentlichung, die dann mit Pearson- oder Johnson-Transformationen arbeitet. Der bessere Weg ist:
    1. Finde die relevanten Einflüsse
    2. Stelle ein Modell auf:
    Zielgröße = f(Einflussgrößen) + Fehler
    mit f: Verbindungsfunktion, z. B. f(x) = a + b*x (Geradengleichung)
    3. Validiere das Modell:
    a) Zeige, dass das Modell die Daten gut erklärt
    b) Zeige, dass der Fehler klein und normalverteilt ist

    Warum sollte so etwas komplexes wie der Mensch bzw. sein Verhalten durch Modelle gut erklärbar sein und ein technischer oder chemischer Prozess nicht?

    Du schreibst, dass es im QM oft Abweichungen von der Normalverteilung gibt (logisch, die Prozesse sind ja auch komplex) und deshalb über Schiefe und Wölbung nach einer passenden Verteilung gesucht wird. Für mich ist das ein sehr unpragmatischer Weg, denn die Verteilung, die am Ende dabei herauskommt, sagt mir vielleicht noch etwas über das Prozess-Ergebnis, aber warum das Prozess-Ergebnis so aussieht und nicht anders, kann ich an einer Verteilung nicht ablesen. Das kann ich nur mit einem Modell machen.

    Und für ein Modell ist es völlig egal, ob ich den Einfluss auf die Streuung anschaue (z. B. mit Varianzanalyse-Modellen / ANOVA) oder ob ich den direkten Einfluss von Merkmalen auf das Prozess-Ergebnis betrachte (Regressions-Modelle, z. B. Ausgleichsgerade). Es gibt sogar Modelle, die alles auf einmal können (z. B. allgemeine lineare Modelle / GLM).

    Nicht desto trotz haben sich Schiefe und Wölbung als Methode der Wahl in vielen Bereichen des QM durchgesetzt. Dafür gibt es mehrere Gründe:

    *Statistik ist eine relativ junge Fachrichtung. In Deutschland wurde erst vor gut 30 Jahren die Studienrichtung Statistik eingeführt; insgesamt gibt es in Deutschland ca. 1000 Statistiker/innen und die meisten arbeiten in der Medizin, Marktforschung, bei Versicherungen, etc.

    *Im Qualitätsmanagement gibt es so gut wie keine Statistiker, dafür viele Autodidakten. Dadurch brauchen neue Methoden und Erkenntnisse relativ lange, bis sie auch im QM-Bereich angekommen sind, und noch viel länger, bis sie sich etabliert haben. (Ich hab nichts gegen Autodidakten, bin selbst in vielen Bereichen einer, aber die Tiefe, in der ich mir etwas selbst aneigne unterscheidet sich deutlich von der Tiefe eines Studiums.)

    *Shewart hat 1939 noch die Statistik als eine wenig sichere (und unwissenschaftliche) Methode beschrieben: „The statistician’s language is sometimes emotive.“ und das höre ich auch heute noch häufig als „Glaube keiner Statistik, die Du nicht selbst gefälscht hast.“ Zusätzlich werden in Deutschland fast alle Akademiker mit (mindestens) einem Statistik-Kurs gequält, in dem ihnen selten die interessanten Methoden und häufiger abstrakte Formeln um die Ohren mitgegeben werden.

    *Als nach Verfahren zur Beschreibung nicht-normalverteilter Prozess-Ergebnisse gesucht wurde (so ungefähr vor 20-30 Jahren), da war die Statistik in Deutschland noch nicht mal in den Kinderschuhen. Die Fachliteratur war ausschließlich auf Englisch erhältlich und dass überhaupt etwas mit statistischen Verfahren gemacht wurde, verdanken wir den Menschen, die damals über den Tellerrand hinaus geblickt haben. (Ein Schmankerl am Rande: Als der Fachbereich Statistik in Dortmund gegründet wurde, wurden größere Firmen angesprochen, ob sie denn Statistiker beschäftigen würden. Ein großer Automobilist aus Deutschland sagte damals: „Wir brauchen keine Statistiker und wir werden auch niemals welche einstellen.“ – 10 Jahre später haben sie dann den ersten Statistiker eingestellt.)

    *In dieser Situation gab es die Idee, dass nicht-normale Prozesse durch Familien von Verteilungen (Pearson und Johnson) beschrieben werden können. Das funktioniert auch. (Hilft nur leider nicht, den Prozess oder das System zu verstehen.)

    Da aber zu wenige da waren, die mit viel Hintergrundwissen einen alternativen Weg hätten angeben können, und weil es vor 20 Jahren einfach noch gar nicht so viel Wissen über statistische Methoden gab, hat sich die Suche nach der optimalen Verteilung an Stelle der Suche nach optimalen Modellen durchgesetzt.

    Leider wird oft nicht berücksichtigt, dass *jede* Verteilung bestimmte Voraussetzungen hat. Eine häufige Voraussetzung ist z. B. die zeitliche Stabilität bzw. die Unabhängigkeit der Messwerte über die Zeit. Die Pearson- und Johnson-Funktionen haben diese Voraussetzung, nur gibt es oft genug Verschleißerscheinungen oder andere wichtige, nicht-zeitlich konstante Phänomene in Prozessen.

    Insofern kann ein Prozess mit einer zeitlichen Komponente für einen begrenzten Zeitraum durch eine Pearson- oder Johnson-Kurve beschrieben werden, die zeitliche Struktur bleibt aber dabei unberücksichtigt. (Sprich: Informationen aus Daten werden nicht genutzt.)

    Zudem ist die Validierung der gefundenen Funktion schwierig: Bevor eine Verteilungsfunktion als Modell für die Messwerte angenommen werden kann, muss untersucht werden, ob sie auch die Daten hinreichend gut erklärt. (Womit wir wieder bei dem Fehler im Modell wären.)

    Ich interessiere mich deshalb weniger für das „nach welcher Pearson- oder Johnson-Kurve ist ein Prozess-Merkmal verteilt“ und mehr für das „warum ist das Prozess-Merkmal so verteilt“und kenne daher den Ansatz von Clements auch nicht und kann Dir nicht sagen, ob er in der Praxis funktioniert.

    Für mich ist Statistik der Weg, um aus Messwerten (oder allgemein: aus Daten) Informationen zu bekommen. Die meisten Informationen über einen Prozess oder ein System erhalte ich dann, wenn ich das System erkläre und nicht nur das, was am Ende herauskommt. Deshalb ziehe ich eine Modellierung immer einer geschätzten Verteilung vor.

    Viele Grüße

    Barbara

    ~~~~~~~~~~~~~~~
    Das Leben ist zu kurz, um es mit Suchen zu verbringen.

    Fritz
    Mitglied
    Beitragsanzahl: 66

    Hallo Barbara,
    nur kurz eine paar Bemerkungen zu Deinem ausführlichen Kommentar:
    Ich stimme prinzipiell Deiner Forderung zu, dass nur dann Prozesse verdichtet werden, wenn sie unter statistischer Kontrolle und vorhersagbar sind. Aber, und das haben Kaiser und Nowack durch die Analyse von 1000 Merkmalen bei Daimler Chrysler nachgewiesen, 1999, aber sicherlich auch noch heute erfüllen die wenigsten Prozesse in der Praxis diese Voraussetzung. Auch beim 6-Sigma-Programm wird von einer zeitlichen Streuung von +/-1,5 Standardabweichungen ausgegangen. Demnach dürfte es die Fähigkeitsbetrachtung in der industriellen Fertigung gar nicht oder nur in ganz vereinzelten Fällen geben. Zugegeben, beim Wahrheitsgehalt von Fähigkeitskennwerten ist noch alles vertreten, von der Lüge bis zum vertrauenswürdigen Kennwert alles zu finden. Prozessbegleitende Qualitätsaufzeichnungen und damit Fähigkeitskennwerte gehören aber heute zum Standart industriellen Zusammenlebens. Die Weichen sind längst gestellt. Primäres Ziel muss lauten: die Prozesskennzahlen müssen die Merkmalsgrößen so beschreiben, dass der GMV sie bejaht. Mittel- bis langfristiges Ziel muss es sein, die Streuprozesse, ihre Einflussgrößen und deren Gewichtung so zu verstehen, wie Du es schilderst. Auch ich finde es erschreckend, dass beim Ringen um gleichbleibende, hohe Qualität, der Feind Nummer 1, der Streuung, mit homöopathischen Mengen ausgebildeter Fachleute gekämpft wird. (Banken und Versicherung haben es längst erkannt, was das Wissen fundierter Statistik wert ist)
    Deine Forderung muss der Punkt am Horizont sein, auf den wir unsere Bemühungen ausrichten müssen. Alles andere, und davon bin ich überzeugt, bringt uns nicht weiter, sondern ist nur Wasser auf die Mühlen derer, die ja schon immer wussten, dass die Statistik nichts taugt und mit ausgestreckten Ellenbogen für weitere Toleranzgrenzen kämpfen.
    Gruß von der schönen blauen Donau
    Fritz

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Fritz,

    den QZ-Artikel kenne ich, aber wie genau die Autoren da vorgegangen sind, steht leider nicht drin. Insofern bleibt für mich auch die Frage offen, ob die Prozesse instabil sind oder ob sie einfach nicht direkt normalverteilt sind oder welche Kriterien für die Definition „scheinbar instabil“ verwendet wurde.

    Der Six Sigma-Shift von 1,5 hat mit Statistik nichts zu tun. Das wurde einfach von Motorola „aus dem Bauch heraus“ festgelegt. Böse Zungen behaupten ja, das wäre nur deshalb 1,5 damit sich die Methode „Six Sigma“ nennen kann. „Four point five Sigma“ klingt einfach nicht ganz so knackig ;-)

    Sei es wie es sei, für mich ist die Frage: Wann kann ein Prozess als stabil bezeichnet werden? Wenn es einen zeitlichen Shift gibt und der nicht eingefangen wird (z. B. durch ein entsprechendes Modell), wie kann ich dann wissen, wo mein Prozess morgen oder in zwei Monaten liegt? Das ist echt ambitioniert, um es mal vorsichtig auszudrücken.

    Du hast vollkommen Recht, Ziel muss es bei den Fähigkeitsindizes immer sein, den Prozess zutreffend zu charakterisieren. Ich bin mittlerweile schon froh, wenn überhaupt die Verteilung der Messwerte angeschaut wird und nicht einfach stumpf die Indizes berechnet werden. Und irgendwann da wird es sich herumgesprochen haben, dass Statistik mehr ist als die Berechnung von Kennzahlen.

    In diesem Sinne, schöne Grüße aus Dortmund!

    Barbara

    ~~~~~~~~~~~~~~~
    Das Leben ist zu kurz, um es mit Suchen zu verbringen.

    IsoMan
    Mitglied
    Beitragsanzahl: 421

    Hallo Barbara, Hallo Fritz,

    habe eure letzten Kommentare ausgedruckt und unserer techn. Abteilung nebst Leitung zukommen lassen. Gerade die Forderung nach grösseren Toleranzen, der ich leider tagtäglich begegne, zeigt doch die Unfähigkeit, sich mit den Prozessen in der gebotenen Tiefe zu beschäftigen, die notwendig wäre, um deren Fähigkeit zu verbessern. Diese Antworten zeigen mir, dass ich kein einsamer Rufer in der Wüste bin.

    IsoMan

    qualyman
    Teilnehmer
    Beitragsanzahl: 2072

    Hallo Babara,

    sorry, hatte mich evtl. nicht korrekt ausgetippt:
    Sollmaß: 125,0 max (keine Toleranzvorgabe!)
    cpk: 1,7 – hatte Lieferant errechnet!

    Frage: wie geht denn das ?

    Gute Zeit!

    Qualyman – Qualitäter aus Überzeugung !

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo qualyman,

    das geht gar nicht! Nix Soll, nix Fähigkeit oder Fähigkeitsindes. So einfach ist das ;-)

    Viele Grüße

    Barbara

    ~~~~~~~~~~~~~~~
    Das Leben ist zu kurz, um es mit Suchen zu verbringen.

    Fritz
    Mitglied
    Beitragsanzahl: 66

    Hallo qualyman,
    die Angabe
    Sollmaß : 125 mm (max)
    versteh ich jetzt nicht.
    Was bedeutet hier der Zusatz (max)?
    Ist das so zu interpretieren:
    Versuche möglichst 125 mm zu erreichen, aber auf keinen Fall mehr. Dann stelle das Zielmaß gleichzeitig einen oberen Grenzwert dar und dann kann über den Cpk-Werte das Prozessgeschehen zu dieser Grenze beschrieben werden.
    Oder liegt ich hier falsch?
    Eine weitere Frage:
    Gibt es überhaupt Maße, für die keine Toleranz- bzw. Grenzwerte festgelegt sind?
    Wie ist mit ihnen unzugehen? Müssen diese Merkmalsausprägungen unendlich genau oder dürfen sie beliebig ungenau ausgeführt werden? In diesem Falle würde meines Erachtens der Grundsatz der Vollständigkeit und Eindeutigkeit verletzt, dem alle masslichen Festlegungen unterliegen sollten. Steht z.B. bei geometrischen Massen keine Toleranzangabe in der Zeichnung, kommen automatisch die Allgemeintoleranzen (DIN ISO 2768)zum Tragen.
    Gruß von der schönen blauen Donau
    Fritz

    __________________________________________________________
    Null Fehler ist >OUT< – Null Streuung ist >IN<!

    Roxy
    Mitglied
    Beitragsanzahl: 7

    Hallo X-Tilde,

    lebst Du noch, nach dieser geballten Statistik-Know-how? Ohne alle obere Beiträge im Detail gelesen zu haben, möchte ich Dir eine Möglichkeit vorstellen, wie Du sehr einfach zu der geschätzten Aussage kommst. Diese haben wir benutzt, bevor wir durch qs-stat „entmündigt“ wurden.

    1. Null-begrenzte Merkmale (Rundheit, Profilabweichung) lassen sich sehr gut über log-normal-Verteilung abbilden. Geht bereits im Excel. Das ist Deine Ausgangssituation.
    2. Das Logarithmieren dieser Kurve ergibt eine Normalverteilung. Dies wir genutzt, um die Werte für den Mittelwert, die Streuung und Grenzwerte (nicht versuchen, Null zu logarithmieren) zu berechnen.
    3. Für diese rechne die Cp und Cpk, da es Normalverteilt ist. Für Cpk nehme nur den Wert zur oberen Grenze: Vorsicht Kurve wird „gedreht“ durch Logarithmus.

    Steht ausführlich mit den von dir gesuchten Formeln in Rinne, Prozessfähigkeitsmessung für die industrielle Praxis, 1999, ISBN 3-446-21117-9, in jeder TU-Bibliothek.

    Sind keine speziellen Formeln für Fähigkeit. Dies ist die Transformation. Ähnlich geht auch Software vor, verwendet jedoch komplexere Umrechnungen, aber im Kern nichts anderes.

    Gruß
    Roxy

Ansicht von 8 Beiträgen – 16 bis 23 (von insgesamt 23)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben