Quantile Excel 2007 ungleich qs-STAT2011-08-10T17:45:33+01:00

QM-Forum Foren Qualitätsmanagement Quantile Excel 2007 ungleich qs-STAT

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 15)
  • Autor
    Beiträge
  • Stampfi82
    Mitglied
    Beitragsanzahl: 8

    Hallo Barbara,
    hallo Mitforisten!

    Ich habe eine schöne Frage für euch – mit der Hoffnung, dass Ihr auch auf dieses Problem gestoßen seid und die Ursache – oder gar eine Lösung parat habt.

    Annahme:
    – Normalverteilter Prozess – 50 Messwerte
    – Berechnungsmethode M1 1,6 – Percentil (99,865% und 0,135% Quantil)

    Berechne ich mit qs-STAT die Fähigkeitswerte, erhalte ich andere Quantil-Werte als mit Excel und der „=Quantil(A:B;0,00135)“ Funktion. Mittelwert etc. sind bei beiden Programmen identisch – nur die Quantile variieren.

    Bisherige Informationen:
    – Berechnungsmethode von Excel:
    http://www.excel4managers.de/index.php?page=quantile01
    http://www.excel4managers.de/index.php?page=quartile_alg01

    Kontakt mit QDAS:
    1. Grund für die Abweichung:
    Excel berechnet alles basierend auf einer NV. (Beispieldateien für QDAS waren mischverteilt – aber selbst bei normalverteilten Werten kommen ungleiche Werte raus)
    2. Grund für Abweichung:
    Excel berechnet anscheinend die Quantile nicht symetrisch zum Mittelwert

    Ich habe bereits einige weitere Formeln in Excel verwendet, um die Quantile zu bestimmen – allerdings kam immer dasselbe Ergebnis wie mit der „=Quantil(…)“ Funktion raus.

    Ich habe einen Test-Dummy hochgeladen:
    http://www.file-upload.net/download-3651773/test_qsstat_excel.xlsx.html

    Im 1. Sheet ist die 1. Problembeschreibung enthalten, mit mischverteilten Werten
    Ab dem 2. Sheet sind 50 normalverteilte Messwerte verwendet worden, (1) – (4) sind unterschiedliche Rechenwege für die Quantilbestimmung, teilweise auch alternativ zur QUANTIL-Funktion.

    Hat jemand einen Hinweis, in welchem Punkt sich die Berechnungsmethoden von Excel und QDAS unterscheiden?

    Gruß und vielen Dank

    Michael :-)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stampfi82,

    das ist ja mal wieder eine nette Statistik-Frage für den Feierabend ;)

    Also:

    Quantil ist nicht gleich Quantil, wie Du ja auch schon festgestellt hast. Es gibt
    a) Quantile, die aus einer Verteilung berechnet werden
    b) Quantile, die (verteilungsfrei) aus Daten berechnet werden

    Der Unterschied ist liegt also darin, dass eine Verteilung verwendet wird (a) oder nicht (b).

    Die Festlegung der Verteilung funktioniert auch meist über Messdaten, d. h. es wird z. B. für die Normalverteilung Mittelwert und Standardabweichung berechnet und dann für die so bestimmte Normalverteilung das Quantil:
    a) Messdaten > Kennzahlen > Verteilung > Quantil
    b) Messdatan > Quantil

    Das sind schon mal zwei grundsätzlich verschiedene Ansätze, die auch verschiedene Werte liefern.

    Die Möglichkeiten, aus Messdaten Quantile zu berechnen, sind auch noch mal vielfältig. R (das Statistik-Programm) listet 9 verschiedene Möglichkeiten auf, Quantile zu berechnen.

    Ich hab mal Deine Messwerte aus dem Blatt „Quantil-Herleitung (1)“ durch R geschubst und die 10 verschiedenen Methoden durchprobiert: Verteilungsquantile und Quantile aus Messdaten 2011 08 10.xlsx und siehe da: qs-stat und Excel haben Recht. Und beide Programme haben eine Riesen-Schwachstelle: Die Dokumentation der verwendeten Funktionen (nicht unbedingt die Anwendung, sondern das was mathematisch dahinter steckt.)

    qs-stat hat mit Methode a) gerechnet und Du in Excel mit Methode b). Methode a) gibt es aber auch in Excel, das ist die Funktion NORMINV (für normalverteilte Werte).

    Bei der Mischverteilung wirds da schon deutlich hakeliger, weil Du die entsprechende Verteilungsfunktion aus qs-stat bräuchtest und diese dann noch invertieren müsstest, um die dort ausgegebenen Quantilwerte nachrechnen zu können. (Glaub mir einfach: Das macht keinen Spaß, nicht mal einer Gräfin von Zahl ;) )

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    geändert von – Barbara on 10/08/2011 18:46:55

    Stampfi82
    Mitglied
    Beitragsanzahl: 8

    WOW!

    Vielen Dank für die perfekte Antwort!
    R hatte ich mir heute auch installiert, nur bin ich an der Bedienung gescheitert ;-)

    Damit hätte ich mein Vergleich Excel – qs-STAT erfolgreich beendet, bzw. den Nachbau der qs-STAT Auswertestrategie in Excel.

    Meine spontane grobe Idee heute morgen war es – Berechnungsmethode M1 1,6 zu verwenden, alle Tests auf Verteilung sein zu lassen und in Excel mit der universalen M1 1,6 die Kennzahlen zu berechnen. Das wäre dann eine reine Excel Lösung gewesen, ohne qs-STAT.

    Die Grundidee beruhte auf den Quantilen in der M1 1,6 Formel, die ich – meiner Unwissenheit geschuldet – unabhängig vom Verteilungsmodell sah (da die Formel ja auch unabhängig vom Verteilungsmodell einsetzbar ist).

    Da ich – was du wunderbar dargestellt hast – die Quantile in Excel nur für die NV berechnen kann (und wir immer eine Mischverteilung haben), wird die Empfehlung auf den Kauf von qs-STAT hinauslaufen.

    :-)

    Gruß und erneut besten Dank,

    Michael

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Michael,

    hm, also meine Meinung zu diesen Mischverteilungen ist ziemlich dezidiert, würd jetzt aber ein bisschen lange dauern, das aufzuschreiben (-> Feierabend & morgen einen vollen Tag).

    Wenn die Mischverteilungen bzw. die M1-Methode der einzige Grund ist, qs-stat zu kaufen, dann ist das eine ganz schön preisintensive Entscheidung und ich mein das nicht nur von den Anschaffungs- und Wartungs-Kosten her, sondern auch von den möglichen Folgekosten durch „interessante“ Ideen, wie statistische Formeln angewendet werden können.

    Ich kann Dir gerne dazu noch was per Mail schicken, denn ab Freitag hab ich 3 Wochen ohne Büro/Mails/Telefon = Urlaub :)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Stampfi82
    Mitglied
    Beitragsanzahl: 8

    Hallo Barbara,

    du kannst mein Postfach (siehe Profil) gerne belasten :-)

    Ist es denn überhaupt möglich, eine praktische Lösung in Excel zu realisieren, die im Vergleich zu qs-STAT von der aufgewendeten Arbeitszeit her konkurrieren kann? (gerade bei monatlichen Auswertungen der Prozesslage bei mehreren Maschinen / Werken)

    Damit meine ich eine Lösung, die ein halbwegs fähiger Excel-Mensch erstellen kann, ohne große VBA Kenntnisse :-)

    Ich bin gespannt, was du mir schickst. In 3 Wochen habe ich dann auch schon Abgabe.

    Vielen Dank für den ganzen Input. Ich wünsch dir einen erholsamen (analogen) Urlaub!

    Gruß

    Michael

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Michael,

    Post hast Du auch in Deinem Postfach. Hier kommt jetzt für die Allgemeinheit ein bisschen was über Mischverteilungen.

    Fangen wir mal mit einem Beispiel zu Mischverteilungen an:

    Prozess: Eisherstellung / Batchfertigung
    Menge: 3 Kugeln
    Qualitätskriterium: Eis muss der QS des Kunden schmecken (Bildung eines Prozentwertes, bewertet werden Konsistenz, Textur und Geschmack von einer geschulten Gruppe von 8 Prüfern)

    Um zu schauen, ob der Herstellungs-Prozess die Anforderungen erfüllt, werden zunächst 125 Proben über verschiedene Produktionstage geprüft. Bei jeder der 25 Lieferung werden 5 Becher mit verschiedenen Sorten stichprobenartig ausgewählt (5*25 = 125 Proben) und in jedem Becher sind 3 Kugeln, die von den 8 Prüfern bewertet werden. Die 3 Kugeln sind eine Zufallsauswahl aus den Sorten Schokolade, Vanille, Erdbeer, Mango, Haselnuss, Zitrone, Malaga, Stratiatella, Jogurt, Ananas, Waldfrucht und Kirsche.

    Die ermittelten Kennzahlen zeigen eine relativ konstante Streuung bei den Bewertungen innerhalb jeder Probe. Das Histogramm der Prozentwerte sieht so aus und die Testergebnisse über die Zeit so (hier der Link zu den Messdaten). Zwischen den Proben gibt es teilweise deutliche Unterschiede, wobei alle Proben über der vorgegebenen Toleranzgrenze von 70% liegen (kleinster Wert: 85,54%, erwartete ppm-Zahl <10ppm).

    Alles prima. Die Lieferungen kommen täglich und zunächst geht auch alles gut. Plötzlich läuft irgend etwas aus dem Ruder: Die Prozentzahlen liegen deutlich unter 60%, d. h. die gelieferte Qualität entspricht nicht mehr den Anforderungen. Aber der Herstellungsprozess ist genauso wie vorher und auch der Rohstofflieferant ist immer noch derselbe. Natürlich werden nicht mehr dieselben Rohstoffe geliefert, denn die werden ja verbraucht.

    Was ist also passiert?

    Der Rohstofflieferant ist zwar derselbe, aber eine Geschmacksrichtung war neu. (Böse Zungen behaupten, der Einkauf hätte sich kostenbewusst für eine neue Sorte entschieden, aber das sind nur Gerüchte.) Es wurde jetzt die Sorte Schlumpf-Eis in der Mischung mit den 3 Kugeln geliefert und die schmeckte dem Kunden so überhaupt nicht.

    Merke:

    1. Nur weil etwas für Schokolade, Vanille, Erdbeer, Mango, Haselnuss, Zitrone, Malaga, Stratiatella, Jogurt, Ananas, Waldfrucht und Kirsche funktioniert, muss es noch lange nicht für alle anderen Geschmacksrichtungen (Kaugummi, Dino, Waldpilz,…) funktionieren.

    2. Solange nicht klar ist, worin die Unterschiede zwischen den Lieferungen bestehen, weiß niemand, ob es nicht morgen Schlumpfeis gibt.

    Wie ätzend. Da muss man sich ja mit den Unterschieden auseinandersetzen. Geht das nicht mit den Mischverteilungen (z. B. qs-stat) einfacher?

    [Da die Formatierungsmöglichkeiten in diesem Forum begrenzt sind, strukturier ich das Ganze über verschiedene Postings.]

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Steigen wir mal etwas in die Mathematik ein. (Für diejenigen unter Euch, die das nicht so brennen interessiert: Überspringt einfach dieses Posting und das nächste.)

    Was ist denn eine Mischverteilung überhaupt? Nach Dietrich&Schulze „Statistische Methoden zur Maschinen- und Prozessqualifikation“, 6. Auflage, ISBN 978-3-446-41525-6 (mehr oder weniger die Dokumentation von qs-stat, Edgar Dietrich ist der GF und Alfred Schulze ehemaliger GF von Q-Das) gibt es zwei Arten von Mischverteilungen (vgl. Abschnitt 5.5 „Mehrgipflige Verteilungen“, 5.5.1 „Mischverteilung über Momentenmethode“ und 5.5.2 „Michverteilung durch Überlagerung“).

    1. Mischverteilung über Momentenmethode

    Über die Momente einer Verteilung wird eine Funktion an die Messdaten angepasst. Momente sind eindeutig definiert (s. Wikipedia Momente_(Stochastik). Verwendet werden in qs-stat die zentralen Momente. Werden die Formeln normiert, ist das erste zentrale Moment der Erwartungswert (z. B. Mittelwert der Normalverteilung), das zweite zentrale Moment die Varianz, das dritte zentrale Moment die Schiefe und das vierte zentrale Moment die Wölbung (oder Kurtosis oder Exzess). In qs-stat werden deutlich mehr zentrale Momente verwendet, nämlich bis zum 27. Moment.

    Das ist ein Polynom 27. Grades – völlig unüblich in der Statistik. Nach dem Satz von Taylor kann zwar in einem beschränkten Bereich alles über ein Polynom n-ten Grades beschrieben werden, allerdings reicht meist ein Polynom 2. Grades. Manchmal muss auch noch der 3. Grad herhalten und ich hab auch schon 1 technischen Prozess gesehen, der aus technischen Gründen durch ein Polynom 10. Grades beschrieben wurde. Aber 27. Grades? Wieso gerade 27 und nicht 42?

    Wie genau jetzt aus einem solchen Polynom Quantile für die Prozessfähigkeit berechnet wird, verraten Dietrich & Schulze in ihrem Buch nicht.

    Mal abgesehene davon, dass die Formeln etwas wild sind, stellt sich mir deshalb auch die Frage, ob dieser Ansatz statistisch sinnvoll ist und stabile, zuverlässige Beschreibungen von Messdaten-Verteilungen ermöglicht. Mir ist keine Veröffentlichung bekannt, in der für komplexe, mehrgipflige Prozesse geprüft wurde, ob die Anpassung der Mischverteilung über die Momentenmethode halbwegs brauchbare / belastbare Ergebnisse insbesondere bei der Prozessfähigkeitsbewertung liefert. (Falls jemand dazu etwas hat, freue ich mich über jeden Hinweis.)

    Was allerdings bekannt ist, ist die Tatsache, das schon die dritten und vierten Momente (Schiefe und Wölbung) unsichere Kennzahlen bei der Beschreibung von Messdaten sind. Eigentlich soll die Kennzahl Schiefe (3. Moment) Informationen dazu liefern, wie schief (=unsymmetrisch) Messdaten sind. Bei einer symmetrischen Verteilung (wie der Normalverteilung) ist die Schiefe =0. Es gibt allerdings auch unsymmetrische Verteilungen, die ebenfalls eine Schiefe=0 haben (vgl. [1]).

    Die Wölbung/Exzess/Kurtosis (4. Moment) sollte eigentlich Angaben dazu machen, wie stark die Wölbung der Messdaten ist. Bei symmetrischen Verteilungen (wie der Normalverteilung) kann die Kurtosis dazu verwendet werden zu prüfen, ob die Verteilung genauso gewölbt wie die Normalverteilung ist oder ob sie spitzer oder flacher verläuft. Allerdings ist auch die Wölbung keine zuverlässige Kennzahl, denn es gibt sowohl verschiedene Verteilungen mit identischer Wölbungs-Kennzahl als auch nicht-normale Verteilungen mit Wölbung=3 (wie bei der Normalverteilung, vgl. [2]).

    Wenn jetzt aber schon das dritte und vierte Moment unsichere Kennzahlen für die Beschreibung von Messdaten-Verteilungen sind, wie sieht das Ganze erst aus, wenn die Momente 5-27 verwendet werden?

    Es gibt natürlich diverse Ansätze dazu, wie hochkomplexe (Prozess-)Systeme beschrieben werden können. Beispiele findet Ihr auf der Seite der TU Dortmund, Fakultät Statistik, Laufende Projekte am Institut (Mathematische Statistik und industrielle Anwendungen) und Projekte am Lehrstuhl (für computergestützte Statistik).

    Literatur:
    [1] Stuart, A.; Ord, J.K. [1994]: Kendall’s Advanced Theory of Statistics. Volume 1. Distribution Theory.
    6th edition, Edward Arnold, ISBN 978-0-4706-6530-5
    [2] Balanda, K.P.; MacGillivray, H.L. [1988]: Kurtosis: a critical review.
    American Statistician, 42, p.111-119

    geändert von – Barbara on 12/08/2011 20:05:29

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    2. Mischverteilung durch Überlagerung

    Diese Methode funktioniert darüber, dass für jede Stichprobe / zeitlichen Abschnitt die gleiche Verteilungsform angenommen wird, nämlich eine Normalverteilung mit identischer Standardabweichung in jeder Stichprobe bzw. in jedem zeitlichen Abschnitt. Ändern darf sich bei dieser Mischverteilung durch Überlagerung nur der Mittelwert. Die Mischverteilung ergibt sich dann als gewichtete Summe aus Normalverteilungen.

    Nach dieser Definition ist die Mischverteilung durch Überlagerung nur anwendbar für die Verteilungszeitmodelle C1 und C2: variierende Lage, konstante Streuung, Momentanverteilung: Normalverteilung (Abbildungen dazu finden sich in der ISO 21747:2007)

    Wenn nur kleinere Stichproben und/oder zeitliche Abschnitte betrachtet werden, gibt es kaum eine Chance zu prüfen, ob die Momentanverteilung tatsächlich eine Normalverteilung ist und ob die Standardabweichung für alle Stichproben dieselbe ist. Insofern kann auch bei der Anwendung der Mischverteilung durch Überlagerung nicht geprüft werden, ob die Annahmen und Voraussetzungen gelten.

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    So, jetzt solls dann auch mal genug mit den mathematischen Tiefen sein. Und auch genug von qs-stat, da gibt es doch eine Norm für! (Nur ein Schelm würde denken, dass eine in Deutschland entwickelte Norm irgend etwas mit den Möglichkeiten einer in Deutschland entwickelten Software zu tun hat.)

    Die Quantile für M1-M3 (z. B. d=6) aus der ISO 21747:2007 können laut Norm für beliebige Verteilungen verwendet werden. Was die Norm leider nicht so knackig sagt ist, dass dafür eine *bekannte* Verteilungsfunktion benötigt wird. Ohne bekannte Verteilungsfunktion wird das Berechnen von Streubereichen (wie 6*S für die Normalverteilung) und damit die Angabe einer Fähigkeit eine höchst wackelige Geschichte.

    Die Menge der sinnvoll anwendbaren Verteilungen in Prozessen ist ziemlich überschaubar: Normalverteilung, logarithmische Normalverteilung (z. B. Wachstumsprozesse), Betragsverteilung 1. Art / gestutzte Normalverteilung (begrenzte Merkmale, z. B. nach automatischer Sortierung oder bei technischer 0-Grenze), Betragsverteilung 2. Art (Rayleigh-Verteilung, z. B. zweidimensionale Abweichungen) und Weibullverteilung (Lebensdauer).

    Auf die Frage, welche Verteilungen denn verwendet werden können, findet sich nur ein kleiner Hinweis in der ISO 21747:2007, Abschnitt 3.1.2.7 und 3.1.2.8, nämlich dass für die Ermittlung der Quantile Wahrscheinlichkeitspapier verwendet werden kann (super Idee im Zeitalter des PCs…) oder mit Hilfe der ISO/TR 12783 (die aber anscheinend überhaupt nie fertig werden wird. In der Norm von 2007 steht sie auf dem Status „in Vorbereitung“ und auf iso.org gibts zu dieser Nummer nichts Neues).

    Was sich allerdings bei iso.org findet, ist die ISO/TR 22514-4: „Statistical methods in process management – Capability and performance – Part 4: Process capability estimates and performance measures“, erschienen 2007. Und da wird es dann auch schon spannend, denn hier finden sich keine Verteilungszeitmodelle. Null. Und auch keine Mischverteilungen.

    Vielmehr stehen dort folgende Verteilungen zur Auswahl: Normalverteilung, Lognormalverteilung, Rayleigh Verteilung (=Betragsverteilung 2. Art), Weibull Verteilung, gestutzte Normalverteilung (=Betragsverteilung 1. Art, gefaltete Normalverteilung) und der Hinweis, dass Statistikbücher noch diverse andere Verteilungen liefern. Wenn es eine solche Verteilung nicht gibt, kann an Hand der Pearson-Tabellen mit Schiefe und Kurtosis (Wölbung) die Prozessfähigkeit bestimmt werden. (Zu der Unzuverlässigkeit von Schiefe und Kurtosis steht schon weiter oben etwas.)

    Generell gibt es also laut Norm zwei Möglichkeiten:
    a) Quantile auf Basis einer Verteilung
    b) Quantile auf Basis der Pearson-Tabellen

    Die Mischverteilung nach der Momentenmethode (s. 1) ist aber keine Verteilung im statistischen Sinn, sondern eine Annäherung durch ein Polynom 27. Grades. Die Mischverteilung durch Überlagerung (s. 2) ist zwar eine Verteilung im statistischen Sinn, aber 1. keine gebräuchliche (damit auch nicht auf Zuverlässigkeit in der industriellen Anwendung untersucht) und 2. nur unter ganz bestimmten Voraussetzungen (z. B. konstante Streuung in normalverteilten Stichproben) einsetzbar.

    Nun könnte es ja sein, dass ich einfach nur eine verbohrte Statistikerin bin, die in der grauen Theorie herumläuft und alle pragmatischen Ansätze verteufelt (wer mich kennt weiß, dass dem nicht so ist). Ich frage mich allerdings, warum der Ansatz mit den Mischverteilungen eine rein deutsche Methode ist. Der Rest der Welt kommt ohne die Verteilungszeitmodelle aus. Sind die Prozesse im Rest der Welt andere als die in Deutschland?

    Wer mal über den Tellerrand schauen möchte, findet im größten englisch-sprachigen Qualitäter-Forum (Elsmar-Forum) diverse Beiträge von sehr unterschiedlichen Menschen zur Prozessfähigkeit. Mischverteilungen (mixed distributions) werden da allerdings nie als Berechnungsmethode empfohlen und tauchen auch sonst nur als Exoten-Lösung auf (s. z. B. Methods used to calculate Cpk value – Need help for Cpk Calculation). Dafür werden immer wieder die Standard-Methoden in der Statistik zur Prozess-Bewertung empfohlen:

    1. Ist der Prozess stabil?
    2. Ist das Mess-System fähig?
    3. Wenn es Anzeichen für Schwankungen gibt, woher kommen diese Schwankungen (-> Schlumpfeis)?
    usw.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Marcel78
    Mitglied
    Beitragsanzahl: 3

    Hallo Barbara
    Ich interessiere mich schon seit einer längeren Zeit mit dem Thema merkmalsbezogene Verteilungen. Hierzu finden sich im WEP klare Zuordnungstabellen zwischen Produktionsmerkmal und passendem . Z.B. Längen = NV, Rauheit = Betragsvert. 1.Art (0 Begrenzt), Position = Betragsverteil. 2.Art etc. Hier nun meine Frage an dich, wie sinnvoll erachtest du die Vorgehensweise, die Quantile 99.865%, 50% und 0.0135% anhand der vorgeschlagenen Verteilungsform für den entsprechenden Merkmalstyp zu berechnen, um daraus schlussendlich die Prozessfähigkeit zu bestimmen? Hast du eventuell eine Vorlage in Excel um Quantile für Betragsverteilung 1+2 zu berechnen?
    Vielen Dank für deine Antwort
    Marcel

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Marcel,

    grundsätzlich sind diese Zuordnungstabellen ganz brauchbar, jedoch muss im Einzelfall immer geprüft werden, ob die angenommene Verteilung auch für die Messdaten geeignet ist.

    Wenn es systematische Einflüsse gibt (z. B. Mittelwert-Verschiebungen bei verschiedenen Chargen o. Ä.), sieht die tatsächliche Messdaten-Verteilung oft anders aus als die Zuordnungs-Tabelle vorgibt. Dann kannst Du zwar Prozessfähigkeits-Kennzahlen über die Quantile berechnen, nur haben die keinerlei Aussagekraft. Eine zuverlässige Beurteilung von Prozessen über Prozessfähigkeits-Kennzahlen ist nur dann möglich, wennd die Messdaten auch in der Realität der Verteilung folgen und der Prozess stabil ist.

    Die Quantile der Betragsverteilung 1. Art (gestutzte Normalverteilung, truncated normal distribution) lassen sich meines Wissens nicht in Excel berechnen, weil es dafür in Excel keine Verteilungsfunktion gibt.

    Für die Quantile der Betragsverteilung 2. Art brauchst Du die inverse Funktion der Weibull-Verteilung mit beta=2. Die Betragsverteilung 2. Art ist die Rayleigh-Verteilung und die ist ein Spezialfall der Weibull-Verteilung (s. Wikipedia: Beziehung der Rayleigh-Verteilung zur Weibull-Verteilung und Engineering Statistics Handbook > Uses of the Weibull Distribution Model 3). Soweit ich weiß kennt Excel keine inverse Weibull-Verteilung.

    Wenn Du die Verteilungs-Parameter hast, kannst Du mit einem Programm Deiner Wahl wie beispielweise (R (das kann nachgewiesenermaßen rechnen – nur eben nicht in Excel) oder auch dem Excel-Addon NTRand (kenn ich nicht, behauptet aber das rechnen zu können) die Quantile bestimmen. Die größere Herausforderung ist, die Verteilungsparameter aus den Messdaten zu kriegen und zu prüfen, ob die Messdaten auch zu der Verteilung passen.

    Ich hoffe das hilft Dir trotzdem ein Stück weiter :)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Marcel78
    Mitglied
    Beitragsanzahl: 3

    Hallo Barbara
    Vielen Dank für deine Antwort.
    Ich sehe es wie du schreibst, dass nach der Theorie die Verteilungsform zum Merkmal passt, in der Realität wir es aber praktisch immer mit einer Mischverteilung zu tun haben. Heutige moderne Produktionsanlagen wie wir sie einsetzenbesitzen oft eigene interne Regelkreise durch welche systematisch in den laufenden Prozess eingegriffen wird. Somit ist es aus meiner Sicht für den Output immer mit einer Mischverteilung zu rechnen. Nun stellt sich mir die Frage ob man für Merkmale welche keine NV folgen (z.B. Rauheit, Position etc.) ich einfach mehr Daten erhebe (ca.750) und das Potenzial/ Fähigkeit anschliessen einer Rechtecksverteilung unterlege (Rangfolge aller Werte erstellen, Quantile aus der Rangfolge ablesen) um die Quantile zu berechnen?
    Welchen pragmatischen Ansatz würdest du anwenden, wenn man kein q-stat hat und mit Sicherheit
    Mischverteilungen vorfindet, falls keine NV vorliegt?
    Freue mich von dir zu lesen.
    Gruss
    Marcel

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Marcel,

    hach ja, da ist sie wieder, die Mischverteilung…

    Also: Um die Prozessfähigkeit zuverlässig zu bestimmen, brauchst Du ein zuverlässiges mathematisches Modell. Verteilungen wie die Normalverteilung, Betragsverteilung 1. Art und Weibullverteilung sind einfache Modelle für Prozesse, in denen keine (deutlichen) systematischen Einflüsse auftauchen. Diese Prozesse streuen zufällig, d. h. kleine Einflüsse überlagern sich und es ergibt sich eine bestimmte Verteilungsform.

    In der Realität ist es überwiegend so, dass es deutliche systematische Einflüsse gibt, z. B. die von Dir beschriebenen automatischen Regelungen oder auch Unterschiede durch Material-/Chargen-Qualitäten usw. So etwas kann ein einfaches Verteilungsmodell nur unzureichend beschreiben:
    Unzureichende Messdaten-Beschreibung = unzuverlässige Prozessfähigkeitswerte

    Das ist unabhängig von der Menge an Messdaten. Ob Du also 500 oder 5.000 oder 50.000 Werte hast, spielt keine Rolle: Ohne mathematisch belastbare Messdaten-Beschreibung gibt es keine zuverlässigen Prozessfähigkeitswerte.

    Es gibt zwei Ansätze, um eine bessere Messdaten-Beschreibung zu bekommen:

    1. Finden einer Verteilung, die die Messdaten-Struktur besser wiedergibt

    Zu diesem Ansatz gehört auch die Mischverteilungs-Geschichte, die in qs-stat über eine Mischung aus Normalverteilungen realisiert wird. Diese Normalverteilungen haben alle dieselbe Streuung (Standardabweichung) und unterscheiden sich im Mittelwert. Ich persönlich halte die Annahme für diskussionsbedürftig, dass sich bei systematischen Einflüssen ausschließlich die Mittelwerte ändern und die Standardabweichung gleich bleibt, denn meine Erfahrungen aus der Praxis sind andere.

    Anstelle der Mischverteilung wird alternativ irgend eine andere Verteilung genommen, die die aufgenommenen Messdaten besser wiedergibt. Verteilungen gibt es tonnenweise in der Statistik, da lässt sich auch immer eine finden, die so aussieht wie die aktuellen Messdaten.

    Wer mal einen Eindruck davon bekommen möchte, wie viele Verteilungen für variable Merkmale existieren, kann z. B. einen Blick in das Lexikon „Continuous Univariate Distributions“ Vol. 1 von Johnson & Kotz werfen. Auf über 700 Seiten werden dort Verteilungen beschrieben und allein für die Normalverteilung und deren Varianten gibt es über 120 Seiten (und im Schnitt auf jeder Seite eine neue Variante).

    Es findet sich also immer irgend eine freaky-funky-Verteilung, die so aussieht wie die aktuellen Messdaten. Blöd daran ist nur, dass Dir niemand sagen kann, ob der Prozess morgen noch genauso aussieht wie heute. Denn wenn es systematische Einflüsse gibt, verändert sich (voraussichtlich) auch das Aussehen der Messdaten. Die heute schick-passende Verteilung kann morgen völlig neben der Spur sein.

    Deshalb wird in der Statistik auch nicht nach einer passenden Verteilung gesucht, sondern ein anderer Ansatz gewählt, um einen Prozess zuverlässig zu beschreiben:

    2. Beschreibung des Prozesses über Modelle

    Mit einem Modell werden die unterschiedlichen Einflüsse und Wirkungen in einem Prozess beschrieben. Ein Modell liefert eine Funktion, die die Einflüsse quantifiziert und Dir z. B. sagt, dass sich die Länge eines gefertigten Teils um +0,08mm erhöht, wenn die Temperatur im Prozess um 1°C abgesenkt wird.

    Damit lassen sich nicht nur die Einflüsse finden und untersuchen, sondern auch feststellen, ob der Prozess mathematisch gut genug verstanden wurde (z. B. über Modell-Qualitäts-Kennzahlen wie die Anpassungsgüte R²).

    Die Prozessfähigkeit lässt sich dann in Abhängigkeit der Prozess-Einstellungen angeben. Bei veränderlichen Prozess-Bedingungen (systematische Einflüsse) kann mit dem Prozess-Modell simuliert werden, wo die Ergebnisse liegen (z. B. Länge mit 99,73% Wahrscheinlichkeit zwischen 2,35 und 2,47mm) und es kann das Risiko für außer-Toleranz-Teile bestimmt werden (z. B. Risiko für Länge <2,34 ist 0,03%=300ppm). Zusätzlich kannst Du aus einem Modell ablesen, welche Stellgrößen im Prozess besonders vorsichtig verändert werden sollten, um gute Prozess-Ergebnisse zu bekommen oder wie ungünstige Material-Qualitäten durch Prozess-Einstellungen kompensiert werden können.

    Unschön an den Modellen ist „nur“, dass sie deutlich aufwändiger zu bekommen sind als das Quantil einer Verteilung. Und Du brauchst für die Modellierung eine Statistik-Software (das kann qs-stat nicht!)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Marcel78
    Mitglied
    Beitragsanzahl: 3

    Hallo Barbara
    Das Thema Prozessfähigkeit bei nicht normalverteilten Merkmalen lässt mich nicht so schnell los. Durch Zufall bin ich im Simply-Quality Forum auf folgende Zusammenstellung gestossen:
    http://www.simple-quality.de/downloads/func-startdown/212/ Hier wird anhand einer Näherungsgleichung für Betragsverteilung 1+2 die Berechung der Quantile 99.865/0.135 beschrieben. Würden diese Gleichungen stimmen, wäre es ja ein leichtes diese in Excel zu übertragen um daraus den cpk zu berechnen. Nun meine Frage an dich als Expertin in diesem Bereich wie vertrauenswürdig stufst du diese Gleichungen ein. Ich habe diese Gleichungen bereits in Excel übertragen, nur fehlt mir nun ein Tool welches ebenfalls Betragsverteilung 1+2 rechnen kann um die Resultate zu verifizieren. Gruss Marcel

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Marcel78,

    das Verfahren in dem verlinkten pdf kann Dir nur den Cp-Wert liefern, nicht den Cpk, weil Du keine Formel für den Mittelwert der Betragsverteilung 1. Art hast. Der wird anders berechnet als der übliche Mittelwert und braucht auch eine Korrektur wegen der technischen Grenze.

    Was ich schade finde ich, dass die dort zitierte Quelle /N4/ leider nirgends im pdf aufgeführt ist. Ich kenne diese Formel nicht und verwende für diese Berechnungen die Schneider-Approximation (für die die Software allerdings die Betragsverteilung 1. Art bzw. gestutzte Normalverteilung kennen muss). Die Formeln und Beschreibung kannst Du hier nachlesen: Prozessfähigkeit bei technisch begrenzten Merkmalen.

    Ich hab mal die Ergebnisse aus den Formeln im pdf gegen die Ergebnisse aus den Schneider-Approximationsformeln geworfen und zwar für den gesamten angegebenen Anwendungsbereich für die Streuung sigma (1,3236 ; 3,0000), eine technische Nullgrenze und einen Mittelwert µ=1.

    Bei den unteren Quantilen x0,135% ist das ziemlicher Murks (s. Vergleich untere Quantile). Für das obere Quantil x99,865% sind die Ergebnisse halbwegs brauchbar (s. Vergleich obere Quantile).

    Um zu prüfen, wie sich die Ergebnisse auf die Cpk-Berechnung auswirken, hab ich eine untere Toleranzgrenze von USG=0,1 und eine obere Toleranzgrenze von OSG=2,0 festgelegt und in die pdf-Formeln den festgelegten Mittelwert µ=1 eingesetzt (was null theoretische Grundlage hat und einfach nur Zahlenspielerei ist):
    Cpku = (µ – USG) / (µ – X0,135%)
    Cpko = (OSG – µ) / (X99,865% – µ)

    Bei der Schneider-Approximation hab ich den korrigierten Mittelwert statt µ für die Cpku- und Cpko-Berechnung verwendet.

    Da die Bestimmung des unteren Quantil x0,1135% schon wackelig war und der übliche Mittelwert in der Formel steckt, liefert die Cpku-Berechnung mit den pdf-Formeln einen fast konstanten Wert zwischen 0,9 und 0,95 (s. Vergleich Cpku-Werte).

    Beim Cpko zeigt sich, dass bei einer kleinen bis mittleren Streuung so in etwa der gleiche Cpko-Wert herauskommt. Bei einer größeren Streuung (ca. ab korrigierte Standardabweichung>0,5) liefert die pdf-Formel kleinere Cpko-Werte (s. Vergleich Cpko-Werte).

    Nun haben Näherungsgleichungen natürlich immer eine gewisse Unschärfe, auch die Schneider-Approximation, nur ist die deutlich treffsicherer als die pdf-Formeln.

    Um mal Deine Ausgangsfrage zu beantworten: Ich würd die pdf-Formeln höchstens für Show-Program-for-Customer verwenden und nicht für eine belastbare Prozess-Beurteilung.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 15)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben