Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: Stichprobengröße und Probenplan #60362
Hallo Frederick,
willkommen im Qualitäter-Forum :)
Die Antwort auf Deine Frage ist: Es kommt darauf an.
Wenn die jetzt geprüften 1000 Teile genauso gefertigt worden sind wie die 9000 ausgelieferten Teile, kannst Du davon ausgehen, dass die 8% auch für die 9000 Teilen gelten. Wenn Ihr allerdings zwischendrin immer mal wieder am Prozess rumgeschraubt habt, kann die Ausschussrate in den 9000 Teilen sowohl kleiner als auch größer sein.
Bei der Frage wie viele Teile geprüft werden müssen, um eine ausreichende Absicherung zu bekommen, brauchst Du zwingend eine Definition von „ausreichende Absicherung“.
Verwendet werden hier zwei Kennzahlen:
1. Wo ist die Grenze, d. h. ab welcher Ausschussrate müsst Ihr eingreifen (z. B. 9%, 10%, 12%,…)? Dieser Wert ist auf jeden Fall größer als 8%, denn Du kannst nur eine Verschlechterung absichern und nie mit einer Stichprobenprüfung eine bessere Ausschussrate im Prozess erreichen. (Du kannst theoretisch auch eine Veränderung nach unten absichern, aber das ist für Deine Aufgabenstellung vermutlich weniger sinnvoll.)2. Wie sicher muss Eure Entscheidung sein, d. h. wie groß darf das Risiko für „Ausschussanteil ist größer als magische Grenze X und das wird bei der Stichprobenprüfung übersehen“ sein (Risiko für Fehler 2. Art beta)? Übliche Werte für Nebenfehler ist ein maximal tolerierbares Risiko von 10-20%, bei Hauptfehlern von 5% und bei kritischen Fehlern von 1%.
Nehmen wir mal ein paar Beispielzahlen:
Ausschussrate 8%
Grenzwert für Ausschussrate 10%
maximal tolerierbares Risiko für Fehler 2. Art beta=1%
maximal tolerierbares Risiko für Fehler 1. Art alpha=5% (Risiko für Fehlalarm)notwendiger Stichprobenumfang zur Absicherung
n = 3273Ups.
Das ist übrigens der Grund, warum es deutlich effizienter ist mit messbaren Größen zu arbeiten als mit 0/1-Merkmalen.
Du kannst aber auch anders herum rechnen. Nehmen wir mal an, Ihr prüft n=1000 Teile:
Ausschussrate 8%
maximal tolerierbares Risiko für Fehler 2. Art beta=1%
maximal tolerierbares Risiko für Fehler 1. Art alpha=5% (Risiko für Fehlalarm)
Stichprobenumfang n=1000Sicher identifizierbarer Ausschussrate:
Ausschussrate > 11,78%Je kleiner der Stichprobenumfang ist, desto später merkst Du erst eine Prozessverschlechterung (zu hohe Ausschussrate). Wenn Du z. B. nur 500 oder 100 Teile prüfst, steigt die sicher identifizierbare Ausschussrate an:
Ausschussrate 8%
maximal tolerierbares Risiko für Fehler 2. Art beta=1%
maximal tolerierbares Risiko für Fehler 1. Art alpha=5% (Risiko für Fehlalarm)a) Stichprobenumfang n=500
Sicher identifizierbarer Ausschussrate:
Ausschussrate > 13,56%b) Stichprobenumfang n=100
Sicher identifizierbarer Ausschussrate:
Ausschussrate > 22,12%Du kansnt natürlich auch nach Norm prüfen (AQL DIN:ISO 2859-1). Die Anwendung dieser Norm ist aus statistischer Sicht nicht empfehlenswert (da findest Du über die Suche-Funktion ganz viel zu in diesem Forum). Du kriegst für einen Losumfang von 10000 Teilen mit AQL=10% für normales Prüfniveau einen Stichprobenumfang von n=315. Bei denselben Kennzahlen wie oben für alpha=5%, beta=1% und die Ausschussrate bekommst Du dann:
Stichprobenumfang n=315
Sicher identifizierbarer Ausschussrate:
Ausschussrate > 15,22%Ich befürchte, keine dieser Zahlen macht Dich so richtig glücklich.
Vielleicht ist es sinnvoller, anstatt über die Prüfungen über eine Prozess-Optimierung nachzudenken, damit Ihr von den 8% runterkommt? Denn wenn Ihr nur Gutteile liefern wollt, müsst Ihr sowieso 100% prüfen, um den Ausschuss rauszusortieren (wie Frank auch gerade schon geschrieben hat).
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)@evereve: Frag mal in den Outdoor- und Fahrrad-Läden in der Umgebung. Viele bieten mittlerweile Leihgeräte an. Manchmal kann auch die Touri-Info weiterhelfen.
Oder wir planen einfach fürs nächste Usertreffen eine neue Runde und Du kommst auch :)
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo zusammen,
das Usertreffen war einfach wieder superobermegaklassenspitzenmäßig :)
Danke an alle, die da waren und einen ganz besonderen Dank an qualyman für die erstklassige Vor-Ort-Organisation und Robert (Mann+Hummel) für die tolle Firmenführung!
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Ist es das wert? #60302Hallo Dino,
ich hab erstmal ganz schön geschluckt, als ich Deinen Beitrag gelesen habe.
Es ist mit Sicherheit schwierig, eine Arbeit zu finden (egal in welchem Bereich), der Dich zu 100% über Jahrzehnte erfüllt. Allerdings sollte keine Arbeit krank machen!
Ich wünsche Dir von ganzem Herzen, dass Du gesund werden kannst und einen Weg zu einer gesundheits-erhaltenden Aufgabe/Beruf findest.
Viele Grüße
Barbara
PS: Danke auch an die offenen Worte der anderen. Es beeindruckt mich immer wieder, mit wie viel Offenheit, Mitgefühl und Herzlichkeit wir in diesem Forum miteinander umgehen.
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Maschinenfähigkeit für Anfänger #60274Hallo QMagic,
willkommen im Qualitäter-Forum :)
Fähigkeitwerte sollen Aussagen dazu liefern, wie groß die Streuung im Vergleich zur Toleranzbreite ist. Bei den Indizes mit „k“ (Cmk, Cpk, etc.) wird zusätzlich die Prozesslage mit der Toleranzmitte verglichen.
Wie Rainaari schon geschrieben hat, ist ein Cmk=1,67 dasselbe wie Toleranzbreite=10*Standardabweichung (bei einem zentrierten Prozess mit Mittelwert=Toleranzmitte). Für Deine Beispielwerte hieße das:
Toleranzbreite: T = 1,0mm
(Abstand zwischen USG=0,5mm und OSG=1,5mm)Standardabweichung: S = 1,0/10 = 0,1mm
Mittelwert: xquer = 1,0mmCmk.u = (xquer – USG)/(3*S) = (1,0-0,5)/(3*0,1) = 0,5/0,3 = 1,67
Cmk.o = (OSG – xquer)/(3*S) = 1,67
Cmk = min(Cmk.u , Cmk.o) = min(1,67 , 1,67) = 1,67
Hast Du jetzt aber auch noch eine Verschiebung der Prozesslage und Dein Mittelwert ist statt xquer=1,0mm tatsächlich xquer2=1,1mm, wird Dein Cmk deutlich kleiner, weil der Abstand zur oberen Toleranzgrenze kleiner ist:
Cmk.u = (xquer2 – USG)/(3*S) = (1,1-0,5)/(3*0,1) = 0,6/0,3 = 2,00
Cmk.o = (OSG – xquer2)/(3*S) = (1,5-1,1)/(3*0,1) = 0,4/0,3 = 1,33
Cmk = min(Cmk.u , Cmk.o) = min(2,00 , 1,33) = 1,33
Wenn Du nur 30-50 Werte hast, ist die Chance relativ klein, Werte außerhalb der Toleranz zu bekommen. Auch bei einem Cmk=1,33 sind nur maximal 63 Teile von 1.000.000 Teilen außerhalb der Toleranz, also 1 von 15873 Teilen. Und sogar bei einem Cmk=1,00 sind es maximal 2700 Teile von 1.000.000, d. h. 1 von 370. Es ist also sehr viel wahrscheinlicher, kein niO-Teil in 30-50 Messdaten zu haben, als „viele“ Werte außerhalb der Toleranz.
Diese ganze Rechnerei macht daher nur dann Sinn, wenn:
a) Der Prozess stabil ist.
b) Die Messdaten normalverteilt sind.
c) Ausreichend viele Messdaten vorliegen (mindestens 100).Andernfalls ist eine Cmk-Berechnung eine lustige Zahlenspielerei, aber keine Basis für die Beurteilung der Prozessleistung.
Unabhängig von den Anforderungen (Cmk=1,67, Cmk=1,33, etc.) würd ich wie QM-FK geschrieben hat auch erstmal überlegen, mit wie viel Fehlern Ihr leben könnt und wie groß der mögliche Schaden durch einen Fehler ist. Wenn die Prozessfähigkeiten Eure eigene Idee war. Wenn Ihr allerdings Zulieferer von dem schwedischen Möbelhaus oder anderen großen Möbelherstellern seid, liegt die Messlatte ein ganz klein bisschen höher – auch in der Möbelindustrie :)
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: ppm und Cp – 2 verschiedene Angaben #60262Hallo zusammen,
die Berechnung von ppm-Werten ist für den Cp nur dann gültig, wenn der Prozess auf die Toleranzmitte zentriert ist. Bei einem nicht-zentrierten Prozess muss natürlich auch die Abweichung von der Mitte berücksichtigt werden, und dafür wird dann zusätzlich der Cpk berechnet.
Meiner Erfahrung nach sind die Cp-/Cpk-Werte für die Anwender kaum verständlich, weil es ein abstrakter Index ist. Eine ppm-Zahl ist dagegen viel anschaulicher.
Um überhaupt mal zu sehen, wie viele ppm’s hinter einem bestimmten Cp-Wert stecken, hilft es zu schauen, wie viele ppm’s im günstigsten Fall (zentrierter Prozess) zu erwarten sind. Es ist auf jeden Fall sinnvoll sinnvoll, die Annahme des zentrierten Prozesses bei der Cp-ppm-Umrechnung mit anzugeben.
Oft wird ein bestimmter Cp- (oder Cpk-) Wert mit einer 0-Fehler-Produktion gleichgesetzt. Das stimmt nie, denn statistisch gesehen gibt es immer eine Wahrscheinlichkeit >0 für Werte außerhalb der Toleranz. Werden der Cp- und Cpk-Wert groß genug, ist die Wahrscheinlichkeit für Ausschuss so klein, dass bei einem stabilen Prozess kein Ausschuss zu erwarten ist.
In einem zentrierten Prozess ist ein Cp=2,00 dasselbe wie ein ppm-Wert ppm=0,002 (bzw. 2ppb / parts per billion / Teile pro Milliarde). Zu erwarten ist also, dass bei 1 Milliarde (10^9) Prozessdurchläufen 2 Teile außerhalb der Toleranz liegen. Bei Cp=2,33 in einem zentrierten Prozess sind es nur noch 0,003ppb bzw. 3 Teile auf 1 Billion (10^12) Prozessdurchläufe, bei Cp=2,67 noch 1 Teil auf 1 Billiarde (10^15) und bei Cp=3,00 noch 0,2 Teile auf 1 Trillion (10^18) Prozessdurchläufe. Rein rechnerisch zumindest ;)
Die Berechnungsformel von Thomas (s.o.)
ppm=(NORMVERT((-(6/2));0;1;WAHR)*2)*1000000
ist für einen zentrierten Prozess korrekt.Andere Werte ergeben sich dann, wenn der ominöse 1,5-Sigma-Shift aus der Motorola-Six-Sigma-Definition auftaucht. Motorola hat irgendwann (~1987) mal festgelegt, dass deren Prozess-Mittelwerte sich langfristig betrachtet um das 1,5fache der Standardabweichung in eine Richtung verschieben.
Daher wird nach der klassischen Six Sigma-Theorie diese Verschiebung um +1,5S (oder auch -1,5S, allerdings nur entweder nach links ODER nach rechts) berücksichtigt.
Das 3,4ppm-Ziel bei Six Sigma entspricht deshalb einem Prozess mit Cp=2,00, dessen Mittelwert zu einer Seite um 1,5*Standardabweichung vom der Toleranzmitte entfernt liegt.
Diese Mittelwert-Verschiebung ist auch der Grund dafür, dass bei einem Cp=1,00 (-> ppm=2700 bei einem zentrierten Prozess) unter Berücksichtigung der Verschiebung ein ppm-Wert von ppm=66810 angegeben wird. Der Wert von ppm=66807 entsteht schon auf der Seite, auf der mehr vom Prozess außerhalb der Toleranz liegt. Auf der anderen Seite sind aber auch noch 3,4ppm außerhalb, so dass sich insgesamt ein ppm-Wert von 66807+3=66810 ergibt.
Um das Ganze mal ein bisschen anschaulicher zu machen, hab ich ein paar Bildchen dazu gebastelt: Zusammenhang Cp, Cpk und ppm-Werte.
Insofern wiederhole ich mir gerne mal wieder drei Dinge, die bei der gebetsmühlen-artigen Forderung von Cp=1,33 oder Cp=1,67 oder Cp=2,00 gerne übersehen werden:
1. Die Abschätzung der Prozessleistung funktioniert mit den Mittelwert-Standardabweichungs-Formeln (z. B. Cp=T/(6S)) nur bei normalverteilten Messdaten.
2. Es ist immer notwendig, die Formeln mit anzugeben, damit Werte nachvollziehbar sind. (Das gilt für alle Arten von Fähigkeits-Berechnungen: Prozess-/Maschinen-/Kurzzeit-/Langzeit-/Messmittel-/Prüfmittel-Fähigkeiten!)
3. Egal wie hoch die Cp- und Cpk-Werte sind, es gibt IMMER das Risiko für Teile außerhalb der Toleranz.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo alle miteinander,
in zwei Wochen ist es soweit und unser diesjähriges Usertreffen startet in Speyer :)
Aktuell haben wir 7 Teilnehmer plus unseren Referenten Tim Gerdes:
Lutz
diamant-schwarz
Mr.Idea
Q-Sven
qualyman
kugi
BarbaraLutz ist (noch) nicht im Forum aktiv, sondern über andere finstere Kanäle auf unser Usertreffen aufmerksam geworden. (Er kommt aus der Six Sigma-Ecke und ich hab ihn auf einem Workshop kennengelernt.)
Ich freu mich schon auf unser Usertreffen!
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Quantile Excel 2007 ungleich qs-STAT #60180So, jetzt solls dann auch mal genug mit den mathematischen Tiefen sein. Und auch genug von qs-stat, da gibt es doch eine Norm für! (Nur ein Schelm würde denken, dass eine in Deutschland entwickelte Norm irgend etwas mit den Möglichkeiten einer in Deutschland entwickelten Software zu tun hat.)
Die Quantile für M1-M3 (z. B. d=6) aus der ISO 21747:2007 können laut Norm für beliebige Verteilungen verwendet werden. Was die Norm leider nicht so knackig sagt ist, dass dafür eine *bekannte* Verteilungsfunktion benötigt wird. Ohne bekannte Verteilungsfunktion wird das Berechnen von Streubereichen (wie 6*S für die Normalverteilung) und damit die Angabe einer Fähigkeit eine höchst wackelige Geschichte.
Die Menge der sinnvoll anwendbaren Verteilungen in Prozessen ist ziemlich überschaubar: Normalverteilung, logarithmische Normalverteilung (z. B. Wachstumsprozesse), Betragsverteilung 1. Art / gestutzte Normalverteilung (begrenzte Merkmale, z. B. nach automatischer Sortierung oder bei technischer 0-Grenze), Betragsverteilung 2. Art (Rayleigh-Verteilung, z. B. zweidimensionale Abweichungen) und Weibullverteilung (Lebensdauer).
Auf die Frage, welche Verteilungen denn verwendet werden können, findet sich nur ein kleiner Hinweis in der ISO 21747:2007, Abschnitt 3.1.2.7 und 3.1.2.8, nämlich dass für die Ermittlung der Quantile Wahrscheinlichkeitspapier verwendet werden kann (super Idee im Zeitalter des PCs…) oder mit Hilfe der ISO/TR 12783 (die aber anscheinend überhaupt nie fertig werden wird. In der Norm von 2007 steht sie auf dem Status „in Vorbereitung“ und auf iso.org gibts zu dieser Nummer nichts Neues).
Was sich allerdings bei iso.org findet, ist die ISO/TR 22514-4: „Statistical methods in process management – Capability and performance – Part 4: Process capability estimates and performance measures“, erschienen 2007. Und da wird es dann auch schon spannend, denn hier finden sich keine Verteilungszeitmodelle. Null. Und auch keine Mischverteilungen.
Vielmehr stehen dort folgende Verteilungen zur Auswahl: Normalverteilung, Lognormalverteilung, Rayleigh Verteilung (=Betragsverteilung 2. Art), Weibull Verteilung, gestutzte Normalverteilung (=Betragsverteilung 1. Art, gefaltete Normalverteilung) und der Hinweis, dass Statistikbücher noch diverse andere Verteilungen liefern. Wenn es eine solche Verteilung nicht gibt, kann an Hand der Pearson-Tabellen mit Schiefe und Kurtosis (Wölbung) die Prozessfähigkeit bestimmt werden. (Zu der Unzuverlässigkeit von Schiefe und Kurtosis steht schon weiter oben etwas.)
Generell gibt es also laut Norm zwei Möglichkeiten:
a) Quantile auf Basis einer Verteilung
b) Quantile auf Basis der Pearson-TabellenDie Mischverteilung nach der Momentenmethode (s. 1) ist aber keine Verteilung im statistischen Sinn, sondern eine Annäherung durch ein Polynom 27. Grades. Die Mischverteilung durch Überlagerung (s. 2) ist zwar eine Verteilung im statistischen Sinn, aber 1. keine gebräuchliche (damit auch nicht auf Zuverlässigkeit in der industriellen Anwendung untersucht) und 2. nur unter ganz bestimmten Voraussetzungen (z. B. konstante Streuung in normalverteilten Stichproben) einsetzbar.
Nun könnte es ja sein, dass ich einfach nur eine verbohrte Statistikerin bin, die in der grauen Theorie herumläuft und alle pragmatischen Ansätze verteufelt (wer mich kennt weiß, dass dem nicht so ist). Ich frage mich allerdings, warum der Ansatz mit den Mischverteilungen eine rein deutsche Methode ist. Der Rest der Welt kommt ohne die Verteilungszeitmodelle aus. Sind die Prozesse im Rest der Welt andere als die in Deutschland?
Wer mal über den Tellerrand schauen möchte, findet im größten englisch-sprachigen Qualitäter-Forum (Elsmar-Forum) diverse Beiträge von sehr unterschiedlichen Menschen zur Prozessfähigkeit. Mischverteilungen (mixed distributions) werden da allerdings nie als Berechnungsmethode empfohlen und tauchen auch sonst nur als Exoten-Lösung auf (s. z. B. Methods used to calculate Cpk value – Need help for Cpk Calculation). Dafür werden immer wieder die Standard-Methoden in der Statistik zur Prozess-Bewertung empfohlen:
1. Ist der Prozess stabil?
2. Ist das Mess-System fähig?
3. Wenn es Anzeichen für Schwankungen gibt, woher kommen diese Schwankungen (-> Schlumpfeis)?
usw.Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Quantile Excel 2007 ungleich qs-STAT #601792. Mischverteilung durch Überlagerung
Diese Methode funktioniert darüber, dass für jede Stichprobe / zeitlichen Abschnitt die gleiche Verteilungsform angenommen wird, nämlich eine Normalverteilung mit identischer Standardabweichung in jeder Stichprobe bzw. in jedem zeitlichen Abschnitt. Ändern darf sich bei dieser Mischverteilung durch Überlagerung nur der Mittelwert. Die Mischverteilung ergibt sich dann als gewichtete Summe aus Normalverteilungen.
Nach dieser Definition ist die Mischverteilung durch Überlagerung nur anwendbar für die Verteilungszeitmodelle C1 und C2: variierende Lage, konstante Streuung, Momentanverteilung: Normalverteilung (Abbildungen dazu finden sich in der ISO 21747:2007)
Wenn nur kleinere Stichproben und/oder zeitliche Abschnitte betrachtet werden, gibt es kaum eine Chance zu prüfen, ob die Momentanverteilung tatsächlich eine Normalverteilung ist und ob die Standardabweichung für alle Stichproben dieselbe ist. Insofern kann auch bei der Anwendung der Mischverteilung durch Überlagerung nicht geprüft werden, ob die Annahmen und Voraussetzungen gelten.
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Quantile Excel 2007 ungleich qs-STAT #60178Steigen wir mal etwas in die Mathematik ein. (Für diejenigen unter Euch, die das nicht so brennen interessiert: Überspringt einfach dieses Posting und das nächste.)
Was ist denn eine Mischverteilung überhaupt? Nach Dietrich&Schulze „Statistische Methoden zur Maschinen- und Prozessqualifikation“, 6. Auflage, ISBN 978-3-446-41525-6 (mehr oder weniger die Dokumentation von qs-stat, Edgar Dietrich ist der GF und Alfred Schulze ehemaliger GF von Q-Das) gibt es zwei Arten von Mischverteilungen (vgl. Abschnitt 5.5 „Mehrgipflige Verteilungen“, 5.5.1 „Mischverteilung über Momentenmethode“ und 5.5.2 „Michverteilung durch Überlagerung“).
1. Mischverteilung über Momentenmethode
Über die Momente einer Verteilung wird eine Funktion an die Messdaten angepasst. Momente sind eindeutig definiert (s. Wikipedia Momente_(Stochastik). Verwendet werden in qs-stat die zentralen Momente. Werden die Formeln normiert, ist das erste zentrale Moment der Erwartungswert (z. B. Mittelwert der Normalverteilung), das zweite zentrale Moment die Varianz, das dritte zentrale Moment die Schiefe und das vierte zentrale Moment die Wölbung (oder Kurtosis oder Exzess). In qs-stat werden deutlich mehr zentrale Momente verwendet, nämlich bis zum 27. Moment.
Das ist ein Polynom 27. Grades – völlig unüblich in der Statistik. Nach dem Satz von Taylor kann zwar in einem beschränkten Bereich alles über ein Polynom n-ten Grades beschrieben werden, allerdings reicht meist ein Polynom 2. Grades. Manchmal muss auch noch der 3. Grad herhalten und ich hab auch schon 1 technischen Prozess gesehen, der aus technischen Gründen durch ein Polynom 10. Grades beschrieben wurde. Aber 27. Grades? Wieso gerade 27 und nicht 42?
Wie genau jetzt aus einem solchen Polynom Quantile für die Prozessfähigkeit berechnet wird, verraten Dietrich & Schulze in ihrem Buch nicht.
Mal abgesehene davon, dass die Formeln etwas wild sind, stellt sich mir deshalb auch die Frage, ob dieser Ansatz statistisch sinnvoll ist und stabile, zuverlässige Beschreibungen von Messdaten-Verteilungen ermöglicht. Mir ist keine Veröffentlichung bekannt, in der für komplexe, mehrgipflige Prozesse geprüft wurde, ob die Anpassung der Mischverteilung über die Momentenmethode halbwegs brauchbare / belastbare Ergebnisse insbesondere bei der Prozessfähigkeitsbewertung liefert. (Falls jemand dazu etwas hat, freue ich mich über jeden Hinweis.)
Was allerdings bekannt ist, ist die Tatsache, das schon die dritten und vierten Momente (Schiefe und Wölbung) unsichere Kennzahlen bei der Beschreibung von Messdaten sind. Eigentlich soll die Kennzahl Schiefe (3. Moment) Informationen dazu liefern, wie schief (=unsymmetrisch) Messdaten sind. Bei einer symmetrischen Verteilung (wie der Normalverteilung) ist die Schiefe =0. Es gibt allerdings auch unsymmetrische Verteilungen, die ebenfalls eine Schiefe=0 haben (vgl. [1]).
Die Wölbung/Exzess/Kurtosis (4. Moment) sollte eigentlich Angaben dazu machen, wie stark die Wölbung der Messdaten ist. Bei symmetrischen Verteilungen (wie der Normalverteilung) kann die Kurtosis dazu verwendet werden zu prüfen, ob die Verteilung genauso gewölbt wie die Normalverteilung ist oder ob sie spitzer oder flacher verläuft. Allerdings ist auch die Wölbung keine zuverlässige Kennzahl, denn es gibt sowohl verschiedene Verteilungen mit identischer Wölbungs-Kennzahl als auch nicht-normale Verteilungen mit Wölbung=3 (wie bei der Normalverteilung, vgl. [2]).
Wenn jetzt aber schon das dritte und vierte Moment unsichere Kennzahlen für die Beschreibung von Messdaten-Verteilungen sind, wie sieht das Ganze erst aus, wenn die Momente 5-27 verwendet werden?
Es gibt natürlich diverse Ansätze dazu, wie hochkomplexe (Prozess-)Systeme beschrieben werden können. Beispiele findet Ihr auf der Seite der TU Dortmund, Fakultät Statistik, Laufende Projekte am Institut (Mathematische Statistik und industrielle Anwendungen) und Projekte am Lehrstuhl (für computergestützte Statistik).
Literatur:
[1] Stuart, A.; Ord, J.K. [1994]: Kendall’s Advanced Theory of Statistics. Volume 1. Distribution Theory.
6th edition, Edward Arnold, ISBN 978-0-4706-6530-5
[2] Balanda, K.P.; MacGillivray, H.L. [1988]: Kurtosis: a critical review.
American Statistician, 42, p.111-119geändert von – Barbara on 12/08/2011 20:05:29
als Antwort auf: Quantile Excel 2007 ungleich qs-STAT #60177Hallo Michael,
Post hast Du auch in Deinem Postfach. Hier kommt jetzt für die Allgemeinheit ein bisschen was über Mischverteilungen.
Fangen wir mal mit einem Beispiel zu Mischverteilungen an:
Prozess: Eisherstellung / Batchfertigung
Menge: 3 Kugeln
Qualitätskriterium: Eis muss der QS des Kunden schmecken (Bildung eines Prozentwertes, bewertet werden Konsistenz, Textur und Geschmack von einer geschulten Gruppe von 8 Prüfern)Um zu schauen, ob der Herstellungs-Prozess die Anforderungen erfüllt, werden zunächst 125 Proben über verschiedene Produktionstage geprüft. Bei jeder der 25 Lieferung werden 5 Becher mit verschiedenen Sorten stichprobenartig ausgewählt (5*25 = 125 Proben) und in jedem Becher sind 3 Kugeln, die von den 8 Prüfern bewertet werden. Die 3 Kugeln sind eine Zufallsauswahl aus den Sorten Schokolade, Vanille, Erdbeer, Mango, Haselnuss, Zitrone, Malaga, Stratiatella, Jogurt, Ananas, Waldfrucht und Kirsche.
Die ermittelten Kennzahlen zeigen eine relativ konstante Streuung bei den Bewertungen innerhalb jeder Probe. Das Histogramm der Prozentwerte sieht so aus und die Testergebnisse über die Zeit so (hier der Link zu den Messdaten). Zwischen den Proben gibt es teilweise deutliche Unterschiede, wobei alle Proben über der vorgegebenen Toleranzgrenze von 70% liegen (kleinster Wert: 85,54%, erwartete ppm-Zahl <10ppm).
Alles prima. Die Lieferungen kommen täglich und zunächst geht auch alles gut. Plötzlich läuft irgend etwas aus dem Ruder: Die Prozentzahlen liegen deutlich unter 60%, d. h. die gelieferte Qualität entspricht nicht mehr den Anforderungen. Aber der Herstellungsprozess ist genauso wie vorher und auch der Rohstofflieferant ist immer noch derselbe. Natürlich werden nicht mehr dieselben Rohstoffe geliefert, denn die werden ja verbraucht.
Was ist also passiert?
Der Rohstofflieferant ist zwar derselbe, aber eine Geschmacksrichtung war neu. (Böse Zungen behaupten, der Einkauf hätte sich kostenbewusst für eine neue Sorte entschieden, aber das sind nur Gerüchte.) Es wurde jetzt die Sorte Schlumpf-Eis in der Mischung mit den 3 Kugeln geliefert und die schmeckte dem Kunden so überhaupt nicht.
Merke:
1. Nur weil etwas für Schokolade, Vanille, Erdbeer, Mango, Haselnuss, Zitrone, Malaga, Stratiatella, Jogurt, Ananas, Waldfrucht und Kirsche funktioniert, muss es noch lange nicht für alle anderen Geschmacksrichtungen (Kaugummi, Dino, Waldpilz,…) funktionieren.
2. Solange nicht klar ist, worin die Unterschiede zwischen den Lieferungen bestehen, weiß niemand, ob es nicht morgen Schlumpfeis gibt.
Wie ätzend. Da muss man sich ja mit den Unterschieden auseinandersetzen. Geht das nicht mit den Mischverteilungen (z. B. qs-stat) einfacher?
[Da die Formatierungsmöglichkeiten in diesem Forum begrenzt sind, strukturier ich das Ganze über verschiedene Postings.]
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Quantile Excel 2007 ungleich qs-STAT #60171Hallo Michael,
hm, also meine Meinung zu diesen Mischverteilungen ist ziemlich dezidiert, würd jetzt aber ein bisschen lange dauern, das aufzuschreiben (-> Feierabend & morgen einen vollen Tag).
Wenn die Mischverteilungen bzw. die M1-Methode der einzige Grund ist, qs-stat zu kaufen, dann ist das eine ganz schön preisintensive Entscheidung und ich mein das nicht nur von den Anschaffungs- und Wartungs-Kosten her, sondern auch von den möglichen Folgekosten durch „interessante“ Ideen, wie statistische Formeln angewendet werden können.
Ich kann Dir gerne dazu noch was per Mail schicken, denn ab Freitag hab ich 3 Wochen ohne Büro/Mails/Telefon = Urlaub :)
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Quantile Excel 2007 ungleich qs-STAT #60169Hallo Stampfi82,
das ist ja mal wieder eine nette Statistik-Frage für den Feierabend ;)
Also:
Quantil ist nicht gleich Quantil, wie Du ja auch schon festgestellt hast. Es gibt
a) Quantile, die aus einer Verteilung berechnet werden
b) Quantile, die (verteilungsfrei) aus Daten berechnet werdenDer Unterschied ist liegt also darin, dass eine Verteilung verwendet wird (a) oder nicht (b).
Die Festlegung der Verteilung funktioniert auch meist über Messdaten, d. h. es wird z. B. für die Normalverteilung Mittelwert und Standardabweichung berechnet und dann für die so bestimmte Normalverteilung das Quantil:
a) Messdaten > Kennzahlen > Verteilung > Quantil
b) Messdatan > QuantilDas sind schon mal zwei grundsätzlich verschiedene Ansätze, die auch verschiedene Werte liefern.
Die Möglichkeiten, aus Messdaten Quantile zu berechnen, sind auch noch mal vielfältig. R (das Statistik-Programm) listet 9 verschiedene Möglichkeiten auf, Quantile zu berechnen.
Ich hab mal Deine Messwerte aus dem Blatt „Quantil-Herleitung (1)“ durch R geschubst und die 10 verschiedenen Methoden durchprobiert: Verteilungsquantile und Quantile aus Messdaten 2011 08 10.xlsx und siehe da: qs-stat und Excel haben Recht. Und beide Programme haben eine Riesen-Schwachstelle: Die Dokumentation der verwendeten Funktionen (nicht unbedingt die Anwendung, sondern das was mathematisch dahinter steckt.)
qs-stat hat mit Methode a) gerechnet und Du in Excel mit Methode b). Methode a) gibt es aber auch in Excel, das ist die Funktion NORMINV (für normalverteilte Werte).
Bei der Mischverteilung wirds da schon deutlich hakeliger, weil Du die entsprechende Verteilungsfunktion aus qs-stat bräuchtest und diese dann noch invertieren müsstest, um die dort ausgegebenen Quantilwerte nachrechnen zu können. (Glaub mir einfach: Das macht keinen Spaß, nicht mal einer Gräfin von Zahl ;) )
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)geändert von – Barbara on 10/08/2011 18:46:55
Hallo zusammen,
grundsätzlich ist es kein Problem, das Usertreffen nur teilweise zu besuchen. Allerdings sollte dabei das Programm berücksichtigt werden.
Da wir Samstag den gesamten Tag mit Tim Gerdes über die berufliche Weiterentwicklung sprechen wollen fänd ich es z. B. sinnvoll, den gesamten Samstag teilzunehmen, aber nicht unbedingt sinnvoll, erst nach dem Mittagessen aufzutauchen wenn wir schon mitten im Thema sind.
@Rossy: Wann wolltest Du denn Samstag vorbeischauen?
In der Zwischenzeit hat sich noch ein User angemeldet: diamant-schwarz und damit sind wir insgesamt mit unserem Referenten zu sechst :)
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge