Verfasste Forenbeiträge

Ansicht von 15 Beiträgen – 241 bis 255 (von insgesamt 2,697)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Martxel,

    inhaltlich kann ich zu Deinen Fragen leider nichts beitragen.

    Ich würd mir allerdings intensiv Gedanken dazu machen, ob ich ein Thema verwende, bei dem ich nicht wirklich sattelfest bin. Da könnte es bei Nachfragen durch den potentiellen Arbeitgeber schon ein bisschen holprig werden, insbesondere wenn Du auf (selbsternannte/echte) Experten triffst.

    Ich hab mal in einem Vorstellungsgespräch gesessen, bei dem der Chef mir eine komplett banale statistische Frage gestellt hat und einen speziellen Fachbegriff von mir hören wollte. Dieser Fachbegriff war sein Kriterium dafür, ob ich die von ihm angesprochene Methode ausreichend gut kenne.

    Zu der Methode selbst habe ich fundierte Kenntnisse, allerdings war/ist mein Sprachgebrauch ein anderer als der des Chefs. Nach (gefühlt) endlosem Hin und Her hat er mir dann „verraten“, was er hören wollte, nämlich einfach nur den aus seiner Sicht richtigen Fachbegriff.

    Aus dem Job ist zum Glück nichts geworden, war eh nicht so spannend und mit so einem Pseudo-Statistik-Fachmann als Chef wär das gruselig gewesen.

    Was ich damit sagen will ist etwas anderes: Stell Dich im Bewerbungsgespräch mit den Themen vor, die Du gut kannst, damit Du einen guten Eindruck machst. Da Du Dir das Thema frei aussuchen kannst, nimm eins mit dem Du auch nachts um 3h betrunken an der Bar noch Menschen begeistern kannst ;)

    Viel Erfolg bei der Bewerbung!

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Temperatur im Messraum. #61724

    Hallo Lump,

    Mr.Idea hat Recht: Der Ersatz für die DIN 102:1956-10 „Bezugstemperatur der Messzeuge und Werkstücke“ ist die
    DIN EN ISO 1:2002-10 „Geometrische Produktspezifikation (GPS) – Referenztemperatur für geometrische Produktspezifikation und -prüfung (ISO 1:2002)“.

    Die einfachste Möglichkeit auch zurückgezogene Normen (und deren Ersatz) zu finden, ist ein (kostenfreies) Kundenkonto bei beuth.de anzulegen und dann eingeloggt nach der Norm zu suchen. Wenn Du angemeldet bist, bekommst Du über die Suche auch alle zurückgezogenen Normen. Ohne Anmeldung siehst Du nur die gültigen Normen.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: UT 2013 #61684

    Hallo Mr.Idea,

    Du hast gerade Post bekommen. Die Kontoverbindung für die Kosten findest Du in der Rechnung.

    Ich freu mich schon darauf, Dich und die anderen in Ludwigshafen wiederzusehen :)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Dani,

    mit den Daten kann die Berechnung nicht funktionieren, weil die Daten nicht aus einer gestutzten Normalverteilung bzw. Betragsverteilung 1. Art stammen.

    Schau Dir mal ein Histogramm der Daten an: Es gibt viel zu viele 0-Werte und viel zu wenige Werte, die etwas größer als 0 sind (s. Histogramm mit gestutzter Normalverteilungskurve, Histogramm für Werte > 0).

    Die in der ersten Grafik eingezeichnete gestutzte Normalverteilung ist NICHT die Verteilung der Messwerte.

    Die Polynom-Methode funktioniert nur dann, wenn die Messwerte der gestutzten Normalverteilung folgen. Bei Deinen Werten ist omega = 3,96 und damit viel zu groß (sollte unter 0,6 liegen). Deshalb wird Qw deutlich negativ (Qw = -7,9).

    Dadurch lässt sich die Standardabweichung der gestutzten Normalverteilung nicht mehr berechnen, weil der Ausdruck in der Klammer negativ wird und die Wurzel aus einer negativen Zahl keine reelle Zahl ist.

    Die Werte in den Polynomen gelten allgemein, unabhängig von den Messwerten. Sie funktionieren allerdings nur für Werte, die auch einer gestutzten Normalverteilung folgen und bei denen der Stutzpunkt innerhalb des 3S-Bereichs um den Mittelwert liegt.

    Mal zurück zu der Frage, wie Du Deinen Prozess bewerten kannst. Hier meine Empfehlungen:

    1. Vergiss alle Berechnungen für variable Messwerte. Deine Daten stammen nicht aus 1 Verteilung, deshalb ist jede Berechnung super-wackelig und im Bereich Kaffeesatz-Leserei.

    2. Verwende Bewertungsmethoden für attributive Merkmale, also so etwas klassisches wie die Ausschussrate:
    61 Werte über OSG=0,1
    insgesamt 320 Werte
    -> Ausschussrate p=19,06% bzw. ppm=190.625

    Wenn unbedingt eine Fähigkeitskennzahl auftauchen muss, könntest Du hier angeben, dass p=19,06% einem Cpk-Level von 0,29 entspricht, wenn der Prozess einer Verteilung folgen würde und stabil wäre.

    Ansonsten würd ich mich eher darauf konzentrieren herauszufinden, warum der Prozess so aussieht und weniger Zeit dafür investieren, einen variablen Fähigkeitswert zu konstruieren. Der kann beliebig unscharf sein und damit ist fraglich, ob dieser Wert überhaupt dafür geeignet ist, die Fähigkeit des Prozesses gut/zuverlässig zu beschreiben.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo PaterKuschelbär,

    willkommen im Qualitäter-Forum :)

    Die Formel a) ist auf jeden Fall sehr ungewöhnlich, weil da oben im Bruch der Abstand zwischen der oberen Grenze und dem unteren Quantil steht und unten der Abstand zwischen oberem und unteren Quantil.

    Entweder hast Du unten eine technische Grenze und damit keine untere Spezifikationsgrenze. Dann bringt Formel a) nichts, weil Dich nicht die gesamte Streubreite interessiert sondern nur die im oberen Bereich (da wo Werte auch außerhalb der Spezifikation liegen können).

    Oder Du hast eine zweiseitige Tolerierung (gibts auch für technisch begrenzte Merkmale), dann muss oben im Bruch
    OSG – USG
    (Abstand obere zu unterer Toleranzgrenze)
    stehen und das ist die Formel für den Cp (nicht Cpk).

    Formel b) ist die übliche Formel für den Cpk bei einem einseitig nach oben toleriertes Merkmal.

    üblich = steht so in Prozessfähigkeitsnormen und der Standardliteratur (z. B. Rinne/Mittag, Montgomery)
    unüblich = Eigenkreationen einzelner Autoren

    Wie hast Du denn eigentlich die Quantilwerte bestimmt? Ohne Verteilung geht das nicht, deshalb wunder ich mich ein bisschen, weil Du anschließend schreibst, dass Du bei den Hilfsgrößen und Polynomen stecken geblieben bist.

    Kannst Du ein bisschen mehr dazu schreiben
    + welches Berechnungsmethode Du verwendest (da gibt es bei der Betragsverteilung 1. Art sehr unterschiedliche)
    + an welcher Stelle Du nicht weiterkommst?

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Summenlinie in QS-Stat #61659

    Hallo Martin,

    für die Punkte bei der Summenlinie und die in Wahrscheinlichkeitsnetzen werden Quantile der Rangstatistik verwendet.

    Hierfür gibt es diverse Formeln, die alle ihre Vor- und Nachteile haben. Was ich auf die Schnelle gefunden habe, sind folgende Formeln:

    1 [Bernard]: (i-0,3)/(n+0,4)*100

    2: (i-0,3175)/(n+0,365)*100

    3: (i-0,326)/(n+0,348)*100

    4 [Tukey]: (i-1/3)/(n+1/3)*100

    5 [Blom]: (i-3/8)/(n+1/4)*100 = (i-0,375)/(n+0,25)*100

    6: (i-0,4)/(n+0,2)*100

    7: (i-0,44)/(n+0,12)*100

    8: (i-0,567)/(n+0,134)*100

    9: (i-1)/(n-1)*100

    10 [Rankit = Hazen]: (i-0,5)/n*100

    11 [Herd-Johnson = Van der Waerden]: i/(n+1)*100

    12 [Kaplan-Meier]: i/n*100

    Quellen:
    deutsche Wikipedia: Quantile-Quantile-Plot
    Englische Wikipedia: Q-Q plot
    R- und Minitab-Hilfe

    Die Formel mit der Du gerechnet hast, ist Nr. 10 [Rankit = Hazen]:
    8,33; 25,00; 41,67; 58,33; 75,00; 91,67

    Die Formel, deren Werte mit den aus qs-stat abgelesenen Werte übereinstimmen, ist Nr. 5 [Blom]:
    10,00; 26,00; 42,00; 58,00; 74,00; 90,00

    Ob qs-stat allerdings immer diese Formel verwendet oder bei längeren Datenreihen eine andere Formel nimmt, kann ich Dir nicht sagen. Du kannst es ja mal ausprobieren und uns dann „einweihen“ ;)

    Viele Grüße

    Barbara

    PS: Darf ich an dieser Stelle nochmal erwähnen, dass ein gutes Statistik-Programm immer auf den Hilfeseiten verrät, mit welchen Formeln die Berechnungen durchgeführt wurden?

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jan,

    ach so, die VW Konzernnorm 10130. Die von 2005-02 ist auch in dem Buch von Dietrich & Schulze abgedruckt (S. 661ff.):

    Dietrich, Edgar ; Schulze, Alfred: Statistische Verfahren 6. Aufl.. 6. aktualisierte Auflage. München, Wien: Hanser Verlag, 2009. -ISBN 978-3-446-41525-6. S. 1-722

    Die Grundidee ist, die Streuung mit der Spannweite R zu ermitteln. Das ist problematisch, weil die Spannweite ausschließlich den kleinsten und den größten Wert berücksichtigt. Wie die Werte dazwischen aussehen, ist egal.

    Ein kleines Beispiel:
    Reihe 1: 2 11 11 11 11 11 11 11 11 20
    Reihe 2: 2 2 2 2 2 20 20 20 20 20
    Reihe 3: 2 4 6 8 10 12 14 16 18 20

    Alle drei Reihen haben dieselbe Spannweite R=20-2=18 und denselben Mittelwert xquer=11. Ich bezweifel allerdings, dass die Fähigkeiten der dazu gehörenden Prozess auch nur annähernd ähnlich ist.

    Die Standardabweichung S zeigt für dieses Beispiel sehr viel deutlicher, dass das Streuverhalten unterschiedlich ist:
    Reihe 1: 4,25
    Reihe 2: 9,49
    Reihe 3: 6,06

    Deshalb ist die Spannweite auch für 3 oder mehr Messwerte weniger informativ als die Standardabweichung und alle anderen Maße, die mit den ganzen Einzelwerten rechnen. (Bei 2 Messwerten ist die Spannweite identisch mit der Standardabweichung, aber 2 Werte sind definitiv zu wenig für Fähigkeitsbewertungen.)

    Neben dem geringen Informationsgehalt der Spannweite gibt es ein weiteres Problem bei der Ermittlung der Streubereichsgrenzen über die Spannweite: Es existiert keine Verteilung, auf deren Basis die Unsicherheit der Spannweite ermittelt werden kann. Alle Abschätungen (auch die mit „w“) sind empirisch ermittelt worden.

    Und die Grenzwerte, die über w bzw. den Erwartungswert der w-Verteilung d bestimmt werden, sind auch nur für normalverteilte Werte halbwegs belastbar. Das steht so auch als Anmerkung in der VW Norm:

    „Streng genommen wird für den Erwartungswert der w-Verteilung eine normalverteilte Grundgesamtheit der Einzelwerte vorausgesetzt. In Ermangelung einer geeigneteren Methode für die verteilungsfreie Berechnung der Fähigkeitskennwerte wird aber diese Voraussetzung nicht berücksichtigt.“ [S. 17, Fußnote 6]

    Damit heißt die Methode zwar „verteilungsfrei“ und soll für „nicht definierte Verteilungsmodelle“ angewendet werden, tatsächlich wird aber die Normalverteilung als Verteilungsmodell verwendet.

    Dann kann ich doch auch gleich mit den Normalverteilungs-Formeln rechnen und mir das Gewurschtel mit der Spannweite sparen.

    Ich würde immer empfehlen, in die englischen Normen zur Prozessfähigkeitsbewertung zu schauen, wenn es um neue/andere Ideen zur Prozessfähigkeitsbewertung geht:

    ISO/TR 22514-4:2007
    Statistical methods in process management — Capability and performance — Part 4: Process capability estimates and performance measures (Beschreibung auf iso.org)

    ISO/DIS 22514-2
    Statistical methods in process management — Capability and performance — Part 2: Process capability and performance of time-dependent process models (Beschreibung auf iso.org)

    Da stehen tatsächlich sinnvolle Sachen drin, die auch aus statistischer Sicht belastbar sind und damit eine sehr viel höhere Chance bieten, zuverlässige Fähigkeitskennzahlen zu liefern.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo QS-Mieze,

    den guten Wünschen zur neuen Arbeitsstelle schließe ich mich auch gerne an.

    Viel Erfolg & genügend Spaß dabei wünscht Dir

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jan,

    hast Du für die Berechnungs-Art ein Stichwort (z. B. Pearson, Clements)?

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stefan,

    wenn es technisch sinnvoll ist, die Daten in eine Normalverteilung zu transformieren, würd ich das machen, schon um auch die Unsicherheitsbereiche für die Fähigkeitswerte berechnen zu können. Das finde ich insbesondere bei kurzen Messreihen / wenigen Daten extrem wichtig, um die Schein-Sicherheit sichtbar zu machen.

    Streuung lässt sich unterschiedlich definieren (vgl. Wikipedia Streuung, z. B. MD und MAD). Das Problem bei abweichenden Formeln ist, dass Du damit nicht den 3S-Bereich bestimmst, sondern einen anderen Bereich.

    Damit sind die berechneten Werte nicht mehr mit den üblichen Fähigkeitskennzahlen vergleichbar und die Aussagen zu ppm bzw. Ausschuss können auch nicht mehr so einfach angegeben werden.

    Wichtig ist natürlich immer zu prüfen, ob die angenommene Verteilung auch in den Messdaten steckt (egal ob Lognormal- oder Normal- oder eine andere Verteilung).

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo hans.damp,

    der Hinweis, dass das zu wenig Werte für eine belastbare Fähigkeitsbewertung sind, ist richtig.

    Allerdings gibt es für nicht-normale Verteilungen keine Möglichkeit, einen Unsicherheitsbereich zu berechnen, auch wenn solche Zahlen in qs-stat oder anderen Programmen auftauchen. (In Minitab gibt es diese Werte nicht, wenn die Messdaten nicht normalverteilt sind.)

    Es gibt zwar Möglichkeiten, Unsicherheitsangaben für nicht-normalverteilte Werte z. B. über Bootstrap-Verfahren zu ermitteln, das hat aber nichts mit dem Berechnen über eine Formel zu tun. Nachlesen kannst Du das z. B. in Kapitel 5 „Fähigkeitsmessung bei nicht-normalverteilten Qualitätsdaten“ in dem Buch

    Mittag, Hans-Joachim ; Rinne, Horst: Prozeßfähigkeitsmessung für die industrielle Praxis. München, Wien: Hanser Verlag, 1999. -ISBN 978-3-446-21117-9. S. 1-480

    Der letzte Satz in diesem Kapitel ist (S. 322):
    „Wenn auch Bootstrapping keine perfekte Technik ist, sollte man sie doch einsetzen, um wenigstens eine ungefähre Größenordnung der Zufallsvariation der PFI-Schätzung [PFI: Prozess-Fähigkeits-Index] in jenen Situationen zu gewinnen, in denen die Normalverteilung für das Qualitätsmerkmal nicht gesichert ist.“

    Die Aussage, dass die Formeln für die Unsicherheitsbereiche bzw. Konfidenzintervalle nur und ausschließlich für normalverteilte Messdaten anwendbar sind, findet sich auch in dem Buch

    Montgomery, Douglas C.: Introduction to Statistical Quality Control. 6. Aufl. Hoboken NJ: John Wiley , 2008. -ISBN 978-0-4-70-16-9. S. 1-734
    p.359f.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stefan,

    Fähigkeitswerte für lognormalverteilte Werte lassen sich relativ einfach in R berechnen. Die Formeln dafür findest Du z. B. in der englischen Wikipedia: Log-normal distribution: parameter estimation.

    Etwas mehr zur Verwendung der Lognormal-Verteilung hab ich auch in dem Thread Berechnungsverfahren Fähigkeitsindex Excel/qs-STAT geschrieben. Um Unschärfen durch das Transformieren und Rück-Transformieren der Kennzahlen zu vermeiden, würd ich bei den Original-Werte (nicht-logarithmierte Werte) bleiben, weil durch den Logarithmus aus einer symmetrischen eine schiefe Verteilung wird.

    Das verändert auch die Fähigkeitswerte deutlich. In dem Beispiel-R-Code hab ich eine einseitige Begrenzung nach oben durch OSG=50 genommen. Wegen der einseitigen Grenze ist nur der Cpk.u (u: upper) berechenbar – aber den Rest kannst Du genauso hinbasteln, wenn Du ihn brauchst ;)

    ###################################

    daten = read.csv2(„Lognormal_Werte.csv“)
    summary(daten)

    Werte = subset(daten, daten[,1]>0)[,1]
    summary(Werte)
    # Werte stehen in Spalte 1 [,1]
    # es sollen nur nicht-fehlende Werte > 0 verwendet werden

    OSG = 50

    mwlog = sum(log(Werte))/length(Werte)
    sigma2log = sum((log(Werte)-mwlog)^2/length(Werte))
    sdlog = sqrt(sigma2log)
    mwlog
    sigma2log
    sdlog

    Cpk.logn.u=(OSG-qlnorm(.5,mwlog,sdlog))/(qlnorm(.99865,mwlog,sdlog)-qlnorm(.5,mwlog,sdlog))
    Cpk.logn.u

    # rechnen mit der Normalverteilung
    logWerte = log(Werte)
    logOSG = log(OSG)

    Cpk.nv.u=(logOSG-mean(logWerte))/(3*sd(logWerte))
    Cpk.nv.u

    ###################################

    Da gibt es einen deutlichen Unterschied in den Fähigkeitswerten:
    mit Lognormal: Cpk = 2,20
    mit Normal: Cpk = 1,67

    Die Lognormalverteilung ist wenig zuverlässig bei der Beschreibung von Messdaten für Fähigkeitswerte, deshalb würd ich die Variante mit der Normalverteilung wählen.

    Wie unterschiedlich die beiden Verteilungen aussehen, kannst Du mit folgendem R-Code darstellen (die Kennzahlen sind vorher aus den Messdaten berechnet worden, s. o.):

    ###################################

    xx = seq(0,55,length=1000)

    plot(xx,dnorm(xx,exp(mean(logWerte)),exp(sd(logWerte))), yaxs=“i“, ylim=c(0,max(dnorm(xx,exp(mean(logWerte)),exp(sd(logWerte))))*1.05), xlab=““, ylab=““, type=“n“, axes=FALSE)
    lines(xx, dnorm(xx,exp(mean(logWerte)),exp(sd(logWerte))), col=“blue“, lwd=2)
    lines(xx, dlnorm(xx,mwlog,sdlog), col=“seagreen“, lwd=2)
    abline(v=OSG, col=“red3″, lwd=2, lty=2)
    mtext(„OSG“, side=3, at=OSG, col=“red3″, cex=1.2, line=0)
    legend(„topleft“, col=c(„seagreen“,“blue“), lty=1, lwd=2, c(„logNormal“, „Normal“), bg=“white“, cex=0.8)
    axis(1)
    box()

    ###################################

    Viele Grüße

    Barbara

    PS: Interessante Fragestellung für den 2. Weihnachtstag ;)

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo QMB123,

    hm, das mit den einzelnen t-Tests find ich ein bisschen schwierig, weil es
    a) aufwändig ist,
    b) keinen gemeinsamen Vergleich (z. B. Messstelle & Messreihenfolge gleichzeitig) ermöglicht,
    c) keine Information über die Erklär-Qualität liefert und
    d) ein hohes Risiko für einen Fehlalarm bietet.

    zu a) aufwändig:
    Um alle Messstellen-Mittelwert bei 4 Messstellen miteinander zu vergleichen, hast Du insgesamt 6 Tests:
    1-2, 1-3, 1-4, 2-3, 2-4, 3-4

    Da würd ich auch ein bisschen Schwierigkeiten haben, die logisch auszuwerten und in Bezug zueinander zu setzen.

    zu b) kein gemeinsamer Vergleich mit Tests
    Ein Test (t-Test, F-Test,…) prüft immer nur 1 Hypothese. Bei den Wiederholmessungen an mehreren Messstellen z. B. die Hypothese „Mittelwerte sind gleich“ vs. „Mittelwerte sind ungleich“.

    Mit einem Test lassen sich daher auch keine komplexeren Einflüsse untersuchen, z. B. der Einfluss der Messstelle PLUS der Einfluss durch die Messreihenfolge 1, 2, 3 und 4. Für solche „mehr als 1 Einfluss“ und für „mehr als paarweiser Vergleich / mehr als 2 Gruppen“ Situationen gibt es statistische Modelle, die alles gleichzeitig unter Berücksichtigung der anderen Werte bewerten.

    zu c) keine Angaben zur Erklär-Qualität
    Der t-Test gibt Dir aus, ob der Unterschied signifikant oder ein Zufallsfund ist. (Andere Tests prüfen andere einfache Hypothesen.) Du bekommst aber keine Aussage dazu, ob
    *der untersuchte Einfluss auch das Ergebnis gut erklärt (Erklär-Qualität, z. B. Anpassungsgüte R²)
    *es Anzeichen für weitere wichtige Einflüsse gibt (Auswertung der Residuen)
    *die Messwerte abgesehen von dem berücksichtigten Einfluss (z. B. verschiedene Messstellen) nur zufällig über die Zeit streuen oder ob es einen globalen zeitlichen Trend gibt (z. B. Streuung nimmt zu, Trends, etc.)

    zu d) hohes Fehlalarm-Risiko
    Wenn Du mit dem Standardwert Vertrauensniveau 95% bzw. alpha=5% arbeitest, hast Du bei 1 Test eine Ausbeute an guten Entscheidungen von 95%. (Wenn das beta-Risiko unberücksichtigt bleibt.)

    Bei 2 Tests ist die Ausbeute an guten Entscheidungen 95% * 95% = 95%^2 = 90%.
    Bei 3 Tests ist die Ausbeute 86%.
    Bei 4 Tests 81%.
    Bei 5 Tests 77%.
    Und bei 6 Tests 74%.

    Anders herum ausgedrückt: Machst Du 6 Tests, hast Du eine Chance von 26%, einen Fehlalarm zu bekommen. Fehlalarm beim t-Test heißt: Du nimmst an, dass es einen signifikanten Unterschied gibt, obwohl tatsächlich kein Unterschied da ist.

    Fazit:
    Die Vielfach-Tests haben ihre Tücken. Modelle sind besser.

    In einem Modell würdest Du z. B. (gleichzeitig) vergleichen
    *ob es systematische Unterschiede bei den Messstellen gibt
    *ob es signifikanten einen Trend durch die Messreihenfolge (Wert 1, Wert 2, Wert 3, Wert 4) gibt und
    *ob es einen systematischen Effekt durch die Messreihenfolge in Abhängigkeit von der Messtelle gibt (z. B. Messstelle 1: Werte steigen von 1-4, Messstelle 3: Werte fallen von 1-4)

    Das statistische Modell für diese Situation ist ein allgemeines lineares Modell (auch GLM). Um das berechnen zu können, ist eine Statistik-Software hilfreich, schon allein weil die standardmäßig auch ganz viel zu der Erklärqualität und der Rest-Streuung (Residuen) mit ausgeben kann. (Ob das in Excel geht, weiß ich nicht. Wenn dann wäre es sehr aufwändig.)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    ########## Regelkarten ##########

    Es gibt verschiedene Ansätze, um Einzelwerten mit Regelkarten zu bewerten. Die einfachste Variante ist eine I-MR-Karte (I: Individual, MR: Moving Range / gleitende Spannweite), bei der die einzelnen Messwerte in die I-Karte eingetragen werden. Die Spannweite (Range) von jeweils 2 aufeinanderfolgenden Punkten sind die Werte, die in die MR-Karte eingetragen werden.

    Die Standard-I-MR-Karte setzt allerdings normalverteilte Werte voraus. Diese Annahme ist bei nullbegrenzten Merkmalen dann nicht gegeben, wenn der Mittelwert der Messdaten zu nah an der technischen Grenze liegt (s. a. Verteilungsauswahl). Um dennoch eine Bewertung der einzelnen Punkte zu bekommen, können als Grenzen in der Regelkarte die Quantile der tatsächlichen Messwerte-Verteilung gesetzt werden.

    Dafür wird in der I-Karte der übliche 99,73%-ige Streubereich durch die Grenzen eingezeichnet. Bei normalverteilten Werten sind die Grenzen bei
    xquer ± 3S
    und bei beliebigen Verteilungen (auch der Normalverteilung) bei
    Q0,135%
    und
    Q99,865%

    Die mittlere Linie ist bei normalverteilten Werten
    xquer
    und bei beliebigen Verteilungen bei
    Q50%
    (s. a. Formeln für Fähigkeitswerte)

    Die MR-Karte sollte grundsätzlich sehr vorsichtig interpretiert werden, weil sie dazu neigt, die Streuung zu überschätzen. Abgeraten wird in jedem Fall von MR-Karten, die mehr als 2 Punkte für die Berechnung der gleitenden Spannweite verwenden. Eine ausführlichere Diskussion dazu findest Du in
    Montgomery, Douglas C.: Statistical Quality Control : A Modern Introduction. 7. Auflage. : Wiley John + Sons, 2012. -ISBN 978-1-118-32257-4. S. 1-752

    Sinn und Zweck der Regelkarten für die Bewertung der Prozess-Stabilität bei den Fähigkeitswerten ist herauszufinden, ob es systematische Veränderungen oder Muster in den Einzelwerten gibt. Hier gibt es verschiedene Regeln, die auf nicht-zufällige Muster hinweisen. Die bekanntesten davon sind die Western Electric Company Rules, auch WECO Rules.

    Es geht also bei Fähigkeitswerten IMMER um Einzelwerte. Eine Regelkarte, bei der mehrere Einzelwerte zusammengefasst werden, ist deshalb in dieser Situation immer mit Vorsicht zu interpretieren.

    Das Prinzip mit der gleitenden Spannweite (MR) lässt sich in anderen Situationen auch mit dem Mittelwert oder der Standardabweichung machen. Das ist das, was Du in Dietrich & Schulze unter dem Punkte „Shewart-Karte mit gleitenden Kennwerten“ findest. „Pseudo“-Stichproben klingt allerdings etwas danach, als würde hier getrickst werden. Dem ist nicht so, vielmehr sind die dort beschriebenen Methoden schon lange bekannt und werden u. a. in der Zeitreihenanalyse verwendet um Daten zu glätten.

    Die MA-Karte (Moving Average, gleitender Mittelwert) ist etwas empfindlicher bei kleinen Veränderungen im Mittelwert als die I-Karte. Größere Hüpfer werden bei der MA-Karte dafür stärker herausgefiltert und später entdeckt. Ein Nachteil der MA-Karte ist, dass sie jeden Wert gleich stark gewichtet. Besser sind hier zeitlich gewichtete Karten wie die EWMA- (Exponentially Weighted Moving Average) oder die CUSUM-Karte (CUmulative SUM).

    Die gleitende Standardabweichung hat nicht mal eine übliche Abkürzung, weil sie so selten verwendet wird. Bei dieser Karte wird die Standardabweichung durch Veränderungen oder Hüpfer im Mittelwert stark verzerrt. Dadurch wird die Interpretation sehr schwer und die Streuung im Prozess überschätzt. Aus diesen Gründen findest Du auch nur sehr wenig Informationen zu der Regelkarte mit der gleitenden Standardabweichung (s. a. Montgomery).

    Alle gleitenden Kennzahlen-Regelkarten fassen mehrere Einzelwerte zu 1 Punkt zusammen. Das beißt sich mit der Fähigkeitsbewertung, weil hier jeder einzelne Wert wichtig ist. Oder um es mit einem plakativen Beispiel zu sagen: Wenn Du einmal links und einmal rechts am Hasen vorbeischießt, ist der Hase im Mittel tot. In echt hüpft er fröhlich weiter über die Wiese.

    ######

    So, das solls jetzt erstmal gewesen sein. Ich hoffe, das hilft Dir ein bisschen mehr Licht ins Dunkel zu bringen, auch wenn Du vermutlich mit einer kürzeren Antwort gerechnet hattest ;)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    ########## Formeln für Fähigkeitswerte ##########

    Die allgemeinen Formeln für Fähigkeitswerte sind:

    Cp = (OSG-USG)/(Q99,865%-Q0,135%)

    Cpku = (Q50%-USG)/(Q50%-Q0,135%)
    Cpko = (OSG-Q50%)/(Q99,865%-Q50%)
    Cpk = min(Cpku , Cpko)

    USG: Untere SpezifikationsGrenze
    OSG: Obere SpezifikationsGrenze
    Q99,865%: 99,865%-Quantil der Messwerte-Verteilung
    Q50%: 50%-Quantil der Messwerte-Verteilung (entspricht dem Median)
    Q0,135%: 0,135%-Quantil der Messwerte-Verteilung

    Diese Formeln gelten für alle Verteilungen.

    Bei normalverteilten Werten lassen sich diese Formeln vereinfachen. Es ist:

    Q50% = Mittelwert
    Q99,865%-Q50% = Q50%-Q0,135% = 3*Standardabweichung
    Q99,865%-Q0,135% = 6*Standardabweichung

    Mit Mittelwert xquer und Standardabweichung S gilt für normalverteilte Merkmale:

    Cp = (OSG-USG)/(Q99,865%-Q0,135%) = (OSG-USG)/(6S)

    Cpku = (Q50%-USG)/(Q50%-Q0,135%) = (xquer-USG)/(3S)
    Cpko = (OSG-Q50%)/(Q99,865%-Q50%) = (OSG-xquer)/(3S)
    Cpk = min(Cpku , Cpko)

Ansicht von 15 Beiträgen – 241 bis 255 (von insgesamt 2,697)