Verfasste Forenbeiträge

Ansicht von 15 Beiträgen – 256 bis 270 (von insgesamt 2,697)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    ########## Ungenauigkeit von Fähigkeitswerten ##########

    Die Ungenauigkeit in den Werten lässt sich leider nur für normalverteilte Werte direkt berechnen (Vertrauensbereiche/Konfidenzintervalle für Fähigkeitswerte). Die immer mal wieder auftauchenden Formeln für Vertrauensbereiche von Fähigkeitskenngrößen bei anderen Verteilungen stammen schlicht aus einer Fehlinterpretation von Fachartikeln, in denen die Voraussetzung der normalverteilten Messdaten überlesen wurde. Es gibt keine Formeln, mit denen Vertrauensbereiche für Fähigkeitswerte von nicht-normalverteilten Messdaten direkt berechnet werden können. In diesem Fall können Vertrauensbereiche z. B. über Monte-Carlo-Methoden simuliert werden. (Falls das für Dich irgendwie relevant ist oder für jemanden, der diesen Thread später mal findet: Die entsprechenden Literaturstellen kann ich liefern.)

    Um einen Eindruck über die Sicherheit oder Unsicherheit von Fähigkeitskennzahlen zu geben, nehm ich jetzt als Beispiel Fähigkeitswerte von normalverteilten Einzelwerten aus einem stabilen Prozess mit zweiseitiger Toleranz. „KI“ steht für KonfidenzIntervall (=Vertrauensbereich):

    n=61 Werte, Cp=Cpk=1,50
    95%iges KI für Cp: (1,2321 ; 1,7674), Breite: ±0,5353
    95%iges KI für Cpko: (0,9696 ; 1,4304), Breite: ±0,5622

    n=67 Werte, Cp=Cpk=1,50
    95%iges KI für Cp: (1,2445 ; 1,7550), Breite: ±0,5105
    95%iges KI für Cpko: (0,9803 ; 1,4197), Breite: ±0,5361

    n=100 Werte, Cp=Cpk=1,50
    95%iges KI für Cp: (1,2912 ; 1,7084), Breite: ±0,4172
    95%iges KI für Cpk: (1,0205 ; 1,3795), Breite: ±0,4378

    n=500 Werte, Cp=Cpk=1,50
    95%iges KI für Cp: (1,4069 ; 1,5930), Breite: ±0,1861
    95%iges KI für Cpk: (1,4025 ; 1,5975), Breite: ±0,1951

    Fazit: Diskussionen über die zweite Nachkommastelle sind völlig überflüssig, weil das alles im Bereich des Zufalls liegt. Auch die erste Nachkommastelle ist mit Vorsicht zu interpretiern, solange weniger als 500 normalverteilte Werte für die Fähigkeitskennzahlen verwendet werden.

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    ########## Verteilungsauswahl für Fähigkeitsbewertungen ##########

    Grundsätzlich ist es sinnvoller, auf Basis der Testsituation mit GMV (gesundem Menschenverstand) zu entscheiden, welche Verteilung passend ist, als über diverse Testmethoden die mathematisch optimale Verteilung auszuwählen.

    Das hat u. a. mit dem Risiko für eine Fehlentscheidung bei Mehrfachtests zu tun und damit, dass eine mathematisch optimale Lösung technischer Mumpitz sein kann. Die Verteilungen sind sich oft sehr ähnlich und eine Auswahl rein auf Basis der Werte kann wie bei Dir stark davon abhängen, welche Werte für die Verteilungsauswahl verwendet bzw. ausgeschlossen werden.

    Die Lognormalverteilung hat komplett andere Eigenschaften als die Weibullverteilung, so dass auch die Fähigkeitswerte auf Basis der Lognormalverteilung andere sein müssen als die auf Basis der Weibullverteilung, selbst wenn es „eigentlich“ die gleichen Messwerte sind.

    (Halbwegs) zuverlässige Fähigkeitskennzahlen bekommst Du nur dann, wenn die Verteilung vorab auf Basis der Messsituation korrekt ausgewählt wird. Halbwegs deshalb, weil jede Berechnung von Fähigkeitskennzahlen auf Basis einer Stichprobe eine gewisse Ungenauigkeit enthält (s. Ungenauigkeit von Fähigkeitswerten).

    In einem stabilen Prozess ohne systematische Einflüsse und ohne technische Grenze streuen die Messwerte zufällig um einen mittleren Wert. Damit sind die Werte normalverteilt. (Das ist in der Praxis eher selten, eben weil es systematische Einflüsse in den allermeisten Prozessen gibt.)

    Messwerte von nullbegrenzten Merkmalen haben eine technische Grenze. Die Messwertverteilung ist nicht symmetrisch (genug), wenn der Mittelwert der Verteilung zu nah an der 0-Grenze liegt. (Zu nah = Mittelwert ist weniger als 3*Standardabweichung von der 0-Grenze entfernt.) In diesem Fall kann die Messwerte-Verteilung nicht durch eine (symmetrische) Normalverteilung beschrieben werden.

    Die theoretisch passende Verteilung für diese Mess-Situation heißt gestutzte Normalverteilung (oder auch Betragsverteilung 1. Art). Eigentlich wäre damit alles schick, weil einfach die Verteilung ausgetauscht würde und damit die Fähigkeitswerte berechnet würden (Berechnung s. Formeln für Fähigkeitswerte).

    Uneigentlich lassen sich die Kenngrößen der gestutzten Normalverteilung nicht einfach so berechnen, sondern nur über iterative Verfahren oder Näherungsformeln. Deshalb wurde lange Zeit statt mit der sperrigen gestutzten Normalverteilung mit einer leichter berechenbaren unsymmetrischen Verteilung gearbeitet, z. B. mit der Lognormalverteilung oder der Weibullverteilung.

    Es hat sich allerdings gezeigt, dass die Lognormalverteilung Messwerte von nullbegrenzten Merkmale i. A. schlecht beschreibt. Und die Weibullverteilung sieht zwar so ähnlich aus wie die Messwerteverteilung, entsteht aber in einer völlig anderen Mess-Situation (Lebensdauer-Tests) und hat deshalb auch ganz andere Eigenschaften als die gestutzte Normalverteilung.

    Leider gibt es immer noch relativ wenig Software-Programme, mit denen die gestutzte Normalverteilung berechnet werden kann und die auch die Berechnung von Quantilwerten für die Fähigkeitskennzahlen ermöglicht (Excel kann das nicht). Bei einseitig gestutzten Merkmalen (wie den nullbegrenzten) gibt es einen halbwegs praktikablen Weg, das Ganze in R (O*penSource Statistikprogramm) auszurechnen. Eine Beschreibung dazu findest Du in meinem Artikel „Prozessfähigkeit bewerten“. (Der Artikel ist leider schon etwas älter; die Angaben zur ISO 21747 stimmen so nicht mehr. Der Rechenweg für die Betragsverteilung 1. Art ist immer noch so wie dort beschrieben.)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jan,

    ich splitte mal die Antwort in verschiedene Postings auf, damit es etwas übersichtlicher wird:

    ########## Allgemeiner Ablauf bei der Fähigkeitsbewertung ##########

    Ein Fähigkeitswert soll die Gesamtheit des Prozesses anzeigen. Wenn in dem Prozess verschiedene Werker, Maschinen, Materialien, Werkzeuge, usw. vorhanden sind, MÜSSEN diese Unterschiede auch in den Stichproben zu finden sein.

    Andernfalls repräsentieren die Stichproben nur einen Bruchteil des Gesamt-Prozesses und sind für die Gesamt-Prozessbeurteilung nicht aussagekräftig.

    Soll nur für einen Teilbereich des Gesamt-Prozesses (z. B. für die Fähigkeit von Maschine A12) eine Aussage gemacht werden, müssen alle Werte aus dem Teilbereich stammen und die relevanten Unterschiede dieses Teilbereichs enthalten.

    Um die richtigen Stichproben für die Fähigkeitswerte zu finden, ist Folgendes sinnvoll:

    1. Abgrenzung des zu bewertenden Prozesses bzw. Teilbereichs: ausgewählter Prozess
    2. Sammeln aller möglicherweise wichtigen Einflüsse für den ausgewählten Prozess (Werker, Maschinen, usw.)
    3. Auswahl einer geeigneten Verteilung für die Mess-Situation (s. Posting „Verteilungsauswahl“)
    4. Durchführen einer Mess-System-Analyse (MSA), mindestens Verfahren 1 und GRR% vom Prozess (und ggf. von der Toleranz)
    5. Wenn der Messprozess ausreichend zuverlässig ist: Finden oder aufnehmen von ausreichend vielen Messwerten, die die unter Punkt 3. aufgelisteten Veränderungen berücksichtigen (also mit Werker-Wechsel, verschiedenen Maschinen, usw.) Die empfohlene Mindestzahl sind 100 Werte bzw. 125 Werte bei Berücksichtigung von Teilgruppen in den Werten.
    5. Prüfen, ob es nicht-zufällige Muster in den Messwerten gibt oder ob der Prozess stabil ist (dazu schreib ich unter dem Punkt „Regelkarten“ noch was)
    6. Prüfen, ob die Messwerte der unter Punkt 4. ausgewählten Verteilung folgen (Stichworte: Wahrscheinlichkeitsnetz bzw. Quantil-Plot, Verteilungstest)
    7. Wenn der Prozess stabil ist, die Werte nur zufällig streuen und der ausgewählten Verteilung folgen: Berechnung der Fähigkeitskenngrößen auf Basis der ausgewählten Verteilung

    Was hier bewusst nicht steht: Auswahl und Herausnahme von Ausreißern. Es geht in der Fähigkeitsbewertung um die Gesamtheit eines Prozesses. Dazu gehören auch ungewöhnlich hohe oder niedrige Werte, es sei denn, die sind echte Messfehler oder Datenerfassungsfehler.

    Klar kannst Du Dir die Fähigkeitswerte schön rechnen, wenn Du die extremen Werte rausnimmst und die Messwerte dadurch glatt hobelst, nur repräsentieren die Messwerte dann nicht mehr den Gesamt-Prozess, sondern nur noch den Teil, den Du schön findest.

    Der Grubbs-Test ist übrigens für symmetrische, normalverteilte Werte. Bei schiefen Verteilungen würd ich darauf grundsätzlich verzichten.

    Soweit die Vorgehensweise bei der Prozessfähigkeitsbewertung. Wenn Du das so umsetzt, wirst Du sehr oft sehen, dass schon der Mess-Prozess viel zu unsicher ist oder der Prozess nicht stabil ist und nicht-zufällige Muster hat. Das ist auch logisch, weil es durch Werkzeug- oder Material-Wechsel oft eine systematische Veränderung des Prozesses gibt. In diesem Fall brauchst Du ein statistisches Prozess-Modell, was diese Veränderungen abbildet, um eine belastbare Aussage zur Prozessqualität treffen zu können.

    Weil das mit den Modellen dann ein bisschen aufwändiger ist als die Berechnung von Mittelwerten, Standardabweichungen und Quantilen, gibt es manchmal so Aussagen wie:
    „Statistik funktioniert nur für normalverteilte Messwerte.“
    „Die theoretischen Annahmen zur Prozess-Stabilität und Verteilung sind nur theoretisch. In der Praxis gibt es das sowieso nicht, deshalb kümmern wir uns auch nicht um die Voraussetzungen.“
    „Grau ist alle Theorie. In der Praxis nimmt mir die Software das Planen und Überlegen ab, da mus ich dann nur noch die Werte einsammeln, weil die Programmierer schon wissen, wie die Daten zu verwenden sind.“

    Diese drei Aussagen sind falsch.

    (Auch hierfür könnte ich jetzt diverse Fundstellen angeben. Wer genaueres wissen will, schicke mir bitte eine Mail oder poste in diesem Thread.)

    Klar kannst Du die systematischen Veränderungen im Prozess auch einfach ignorieren und den Fähigkeitswert trotzdem ausrechnen. Der ist nur dann wenig belastbar, kann irreführend sein und untermauert das Argument „Traue keiner Statistik, die Du nicht selbst gefälscht hast.“

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jan,

    danke für die Werte. Ich habs jetzt in Minitab nachgerechnet, sowohl zu Fuß nach den Formeln in der englischen Wikipedia (Log-normal distribution) als auch mit den internen Minitab-Funktionen, jeweils für die Werte und die Werte ohne „Ausreißer nach Grubs“-Angabe (=Werte bereinigt) und mit den Werten, die Du aus qs-stat hast.

    Der Cpko in qs-stat mit Cpko=1,09 ist für mich nicht nachvollziehbar:

    Werte (n=67) berechnet:
    Lage: -4,78975
    Skala: 0,695117
    Q99,865%: 0,0669095
    Q50%: 0,0083145
    Cpko: 1,56473

    Werte (n=67) aus Minitab-Menü:
    Lage: -4,790
    Skala: 0,7004
    Cpko: 1,54

    Werte bereinigt (n=61) berechnet:
    Lage: -4,92360
    Skala: 0,567342
    Q99,865%: 0,0398917
    Q50%: 0,0072729
    Cpko: 2,84275

    Cpko-Wert mit qs-stat Quantilwerten:
    Q99,865%: 0,06552
    Q50%: 0,008
    Cpko: 1,59944

    Kann es sein, dass Du statt 1,59 den Wert 1,09 abgeschrieben hast? Das wäre für mich die einfachste Erklärung, weil 1,59 ziemlich nah an dem mit den qs-stat-Quantilen nachgerechnetem Cpko-Wert ist.

    Es scheint auf jeden Fall nicht mit den bereinigten Messwerten gerechnet worden zu sein, weil die deutlicher größer als 2 sind.

    Unterschiede in der zweiten Nachkommastelle entstehen vermutlich durch interne Rechengenauigkeiten bzw. -ungenauigkeiten.

    Hilft Dir das weiter?

    Eins noch generell zur Berechnung von Prozessfähigkeitswerten: Es sollten immer mindestens 100 Werte verwendet werden, um halbwegs belastbare Aussagen zu bekommen.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jan,

    die Unterschiede scheinen mir auch etwas zu hoch zu sein.

    Kannst Du bitte entweder direkt hier oder mir per Mail Deine Messwerte geben, damit ich das mal nachrechnen kann? Anhand der Kennzahlen lässt sich schwer beurteilen, wo der Hund begraben sein könnte.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: UT 2013 #61590

    Jippie, es geht los :)

    Angemeldet sind bislang:
    Qualyman
    Frank Hergt
    Barbara

    @Frank: hab nicht so ganz verstanden, was Du da geschrieben hast. Was ist Dein „E-Mail-Einkommen“? (Deinen Eintrag bei der Mobilnummer hat mich zum Schmunzeln gebracht, sonst ist mir nix wildes bei Deiner Anmeldung aufgefallen.) Müssen wir uns Sorgen machen?

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo generaldirektor, hallo QM-FK,

    danke für Eure interessanten Antworten. Da sag ich nur Augen auf bei der Klassifizierung!

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Auch ich wünsche Euch eine friedliche und entspannte Vorweihnachtszeit, ein freudiges Weihnachtsfest und einen guten Start ins neue Jahr.

    Ach Mist, in 8 Tagen geht ja die Welt unter. Naja. Ist dann auch wurscht mit den guten Wünschen fürs neue Jahr ;)

    Auf jeden Fall möchte ich mich Frank anschließen und Euch allen für die vielen spannenden und interessanten Fragen und Antworten danken!

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: CHI² Anpassungstest #61569

    Hallo Martin,

    ach so. Die Beschreibung zu den qs-stat-Verfahren findest Du in deren Handbuch:

    Dietrich, Edgar ; Schulze, Alfred: Statistische Verfahren 6. Aufl.. 6. aktualisierte Auflage. München, Wien: Hanser Verlag, 2009. -ISBN 978-3-446-41525-6. S. 1-722

    Der Chi²-Test wird auf Seite 196 beschrieben. Dort steht nur leider auch nichts zur Ermittlung von k, allerdings findet sich da der Hinweis, dass Randklassen so zusammengefasst werden, dass
    a) alle Erwartungswerte >1 sind
    b) max. 20% der Erwartungswerte <5 sein dürfen

    Die Klassierung ist also vermutlich äquidistant (gleich große Klassen), sonst wären die Erwartungswerte nach der oben beschriebenen Methode alle gleich groß.

    Auf Seite 79 in dem Buch steht etwas zur Klassenwahl bei Histogrammen. U. a. gibt es die Angabe, dass nach CNOMO-Norm k als nächsthöhere Ganzzahl von
    k* = 1 + 10*log(n)/3
    verwendet werden soll (passt hier nicht, denn da wäre k*=16.4, also k=17). Alternativ wird noch ein Wert zwischen der zweiten und dritten Wurzel (DIN 55302) als Klassenanzahl beschrieben:
    100^(1/2) = 10
    100^(1/3) = 4,6
    mit der Forderung, dass zwischen 50-100 Werten mind. 10 Klassen, zwischen 100-1000 mind. 13 Klassen verwendet werden sollen.

    Viel Spaß beim Basteln ;)

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: CHI² Anpassungstest #61567

    Hallo Martin,

    nur kurz vorab als Hinweis: Der Chi²-Anpassungstest ist so ziemlich der schlechteste aller möglichen Tests, wenn es um die Qualität von Verteilungstests geht. Er sollte deshalb niemals für die Prüfung auf Verteilung eingesetzt werden.

    Eine Möglichkeit, die Daten zu klassieren, stammt von Moore [1]. Eine kurze Beschreibung dieses Verfahrens findest Du auch in Groß [2], S. 107ff.

    Dazu wird zuerst die Anzahl Klassen k berechnet:
    k* = 2n^(2/5)
    n: Anzahl Messwerte

    Die Anzahl Klassen k ist die nächstgrößere ganze Zahl von k*, also z. B. bei n=100
    k*= 2*100^(2/5) = 12,6
    und damit k=13.

    Die Klassengrenzen berechnen sich aus den Quantilen der Normalverteilung mit Mittelwert und Standardabweichung der zu prüfenden Messdaten.
    erste Klasse: (-unendlic;q1]
    zweite Klasse: (q1;q2]

    vorletzte Klasse: (q(k-2);q(k-1)]
    letzte Klasse: (q(k);+unendlich)
    mit
    q(j): (j/k)-tes Quantil der Normalverteilung mit Mittelwert und Standardabweichung der Messdaten
    runde Klammer ( oder ): Wert gehört zum Intervall
    eckige Klammer ]: Wert gehört nicht zum Intervall

    Nehmen wir an, dass Mittelwert xquer=30 und Standardabweichung S=5 für unsere 100 Messwerte mit k=13 Klassen ist.

    Die erste Klasse beginnt bei -unendlich und endet bei
    q1 = NV-Quantil(1/k,xquer,S) = NV-Quantil(1/13,30,5) = 22,8696
    q2 = NV-Quantil(2/k,xquer,S) = NV-Quantil(2/13,30,5) = 24,8996

    q11 = NV-Quantil(11/k,xquer,S) = NV-Quantil(11/13,30,5) = 35,1004
    q12 = NV-Quantil(12/k,xquer,S) = NV-Quantil(12/13,30,5) = 37,1304

    Dann wird gezählt, wie viele Werte in den Intervallen liegen und mit dem Chi²-Test ausgerechnet, ob die erwarteten Anzahlen und die beobachten Häufigkeiten gut genug übereinstimmen.

    Werden die Klassen wie oben beschrieben ermittelt, sind theoretisch gleich viele Werte in jeder Klasse:
    erwartete Anzahl Werte = n/k
    Im Beispiel:
    n/k = 100/13 = 7,69 Werte
    Die erwartete Anzahl Werte ist also selten eine ganze Zahl, wird aber dennoch so verwendet.

    Ich hoffe das hilft Dir, die Werte aus der Statistik-Software nachzuvollziehen. (Darf ich noch kurz anmerkent, dass eine gute Statistik-Software auch die verwendeten Methoden so dokumentiert, dass sie nachgerechnet werden können? Aber das ist ein anderes Thema.)

    Viele Grüße

    Barbara

    [1] Moore, D. S.: „Tests of the chi-squared type.“ In: D’Agostino, R. B. ; Stephens, M. ; Dagostino, Dagostino: Goodness-of-Fit Techniques. New York: Dekker, 1986. -ISBN 978-0-824-77487-5. S. 1-560
    [2] Groß, J.: „A normal distribution course.“ Frankfurt: Peter Lang, 2004. -ISBN 978-0820473482. S. 1-221

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo QM-FK,

    jupp, meistens wird Excel nicht für statistische Auswertungen sondern andere Dinge verwendet.

    Die Frage „wozu brauchen wir denn spezielle Statistik-Software? Wir haben doch Excel!“ hör ich allerdings schon des öfteren. Ich hoffe, dem einen oder anderen User hilft diese Information als Argument für eine echte Statistik-Software. Oder schärft ein wenig das Bewusstsein, Excel-Ergebnissen mit einem gesunden Misstrauen gegenüberzutreten.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Die Links von medi12 funktionieren leider nicht mehr, weil aus der GHTF im Oktober 2011 die IMDRF (International Medical Device Regulators Forum) geworden ist (s. hier) und die GHTF-Seite leer ist (http://www.ghtf.org/) bzw. nur noch einen Link zur IMDRF anzeigt.

    Der Powerpoint-Vortrag lässt sich nicht mehr finden. Das Papier zur Validierung von Prozessen steht jetzt in der Liste der finalen GHTF-Dokumente der Study Group 3 (SG3) Quality Systems: http://www.imdrf.org/documents/doc-ghtf-sg3.asp unter dem Eintrag „GHTF SG3 – QMS – Process Validation Guidance – January 2004“ (als DOC oder PDF).

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: MSA Verfahren I und III #61559

    Hallo Thorsten,

    es gibt das Verfahren 1 NICHT in der MSA4 „Measurement System Analysis MSA“, sondern nur und ausschließlich in VDA5 „Prüfprozesseignung“.

    Nach MSA4 stellt diese Art der Messmittelbeurteilung nur einen sehr kleinen Teil der Messunsicherheit dar und ist deshalb allenfalls als kurzfristiges Bewertungskriterium verwendbar, weil lediglich 1 Teil ohne weitere Veränderungen verwendet wird.

    In der Messprozess-Norm ISO 22514-7 (die ist neu, kam im Oktober 2012 raus) gibt es eine Messsystem- und eine Messprozess-Fähigkeit. Die errechnet sich allerdings aus diversen Unsicherheitskomponenten des Mess-Systems bzw. des Mess-Prozesses und nicht allein aus der Wiederholstreuung an 1 Teil (u_EVO bzw. u_EVR). Außerdem kennt die Norm keinen Cgk, da nur die Streuung in Bezug zur Toleranzbreite gesetzt wird (heißt dann C_MS oder C_MP).

    Ansonsten ist Deine Zusammenfassung von Verfahren 1 nach VDA5 ist korrekt. Du könntest zusätzlich zum Cg und Cgk noch ein paar andere Kennzahlen aus den Daten berechnen (z. B. absolute Höhe der systematischen Abweichung).

    Verfahren 3 gibt es unter der Bezeichnung auch nur in VDA5. Die Auswertungsmethoden (ANOVA mit zufälligen Effekten / Varianzkomponeten) finden sich so auch in MSA4 und ISO 22514-7. Die Fähigkeitskennzahlen Cg und Cgk werden hierbei NIE verwendet, die beziehen sich IMMER auf 1 Teil und Verfahren 3 braucht immer mehrere Teile.

    Warum ist Deine Toleranz eigentlich in Verfahren 1 ±0,05 und in Verfahren 3 ±0,1? Das müsste doch eigentlich die gleiche Toleranz sein, oder?

    Du solltest einen Prüfereinfluss wirklich sicher ausschließen können, wenn Du auf eine Untersuchung des Prüfereinflusses verzichtest. Z. B. könnten verschiedene Prüfer die Teile unterschiedlich einlegen/einspannen/zentrieren. Wenn Du den Prüfereinfluss NICHT SICHER ausschließen kannst, mach lieber Verfahren 2 (bzw. die Standard Gage R&R).

    Bei der Messdatenaufnahme zu Verfahren 3 gibt es zwei wichtige Punkte:

    1. Die ausgewählten Teile müssen die gesamte Bandbreite (der Toleranz/des Prozesses) abdecken. Sie müssen deutlich unterschiedlich sein, je unterschiedlicher desto besser.

    2. Die Messreihenfolge sollte IMMER ZUFÄLLIG sein, um in der Auswertung zeitliche Veränderungen von Teile-Unterschieden trennen zu können (so genannte randomisierte Reihenfolge, kennst Du vielleicht aus der Versuchsplanung / DoE).

    Zu 2. steht in VDA5, dass die Teile immer in der gleichen Reihenfolge aufgenommen werden sollen. Das ist NICHT EMPFEHLENSWERT!!!

    Ein kleines Beispiel, warum Messungen immer in verschiedener Reihenfolge aufgenommen werden sollten:

    Stell Dir vor, Du sollst die Weinqualität bewerten. Du hast 25 Weine, die verkostet werden (natürlich nicht getrunken). Ich würde in jedem Fall davon ausgehen, dass Deine Bewertungen der ersten 5 Flaschen anders sind als die Bewertung der letzten 5 Flaschen, einfach weil sich Dein Geschmacksempfinden mit der Zeit verändert (auch mit zwischendurch ausspülen, usw.) Es gibt also – unabhängig von der Weinqualität selbst – einen zeitlichen Effekt.

    Um Dein Bewertungsergebnis von diesem zeitlichen Effekt zu trennen, werden die Flaschen also in zufälliger Reihenfolge verkostet. Damit hat jede Flasche die gleiche Chance, als erstes, zweites, drittes, usw. in der Reihe zu stehen. Insbesondere ist die Reihenfolge bei der zweiten Verkostung eine neue (zufällige) und Du kannst dann in der Auswertung die Qualitätsbewertung von dem zeitlichen Effekt trennen.

    Verkostest Du die 25 Weine immer in derselben Reihenfolge, sind die zeitlichen Effekte mit der Bewertung überlagert (vermischt, confounded).

    Solche zeitlichen Effekte können auch in Mess-Prozessen auftauchen, z. B. durch Erwärmung oder Verschleiß oder ansteigende Streuung je länger die letzte Zentrierung zurückliegt, usw. Deshalb sollten Versuche immer in zufälliger Reihenfolge durchgeführt werden.

    Und auch bei Verfahren 3 sollte nach jedem Bauteil eine neue Messung gemacht werden (mit ein- und ausspannen), wenn das auch im normalen Prüfprozess gemacht wird.

    So, genug geschwätzt ;)

    Viel Spaß mit den Versuchen!

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: ndc auch bei VDA 5 #61547

    Hallo Stefan,

    ndc ist ausschließlich in MSA4 gefordert. Das passt auch nicht zur Grundidee von VDA5, weil die ndc als Bezugsbereich die Prozess-Streuung verwendet. In VDA5 wird als Bezugsbereich die Toleranzbreite genommen.

    Ob Du nach 7.6.1 eine MSA gemäß MSA4 durchführen musst, hängt davon ab, was Dein Kunde haben will. Wenn der sich auf VDA5 einlässt bzw. VDA5 fordert, brauchst Du keine ndc und auch keine anderen MSA-Methoden anzuwenden.

    Was ich allerdings überlegen würde ist, ob die MSA-Methoden nicht einfach sinnvoll sind, und zwar im Hinblick auf die Frage
    „Kann ich meinen Prozess über die Messwerte beurteilen?“

    Das ist u. a. für Prozessfähigkeiten und SPC/Regelkarten eine extrem wichtige Frage, deshalb sind die MSA4-Methoden auch grundsätzlich sinnvoll. Der Mehraufwand für die MSA-Bewertung (Linearität, systematische Abweichung, Gage R&R, zeitliche Stabilität) liefert sehr wichtige Informationen zur Qualität des Mess-Prozesses, die durch die Anwendung von VDA5 nicht erreicht werden können.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo QMB123,

    jetzt bin ich gerade etwas verwirrt: Ging es nicht um die Oberfläche von Werkstücken? (Du hast etwas von Form-Bestimmung geschrieben.)

    Klar ist es schon ganz gut, verschiedene Mess-PUNKTE zu haben und die Werte geschickt miteinander zu verknüpfen. An die Aussagekraft einer Mess-FLÄCHE kommst Du mit einzelnen Punkten nie heran bzw. nur dann, wenn Du genauso viele Punkte aufnehmen würdest, wie für die Fläche aufgenommen werden (was ein bisschen arg aufwändig wäre.)

    Ohne zu wissen, wie groß Deine Werkstücke sind oder wie stark die Werte auf 1 Werkstücke an verschiedenen Messpunkten variieren (mehr als 5 Messpunkte!), ist es auch für mich schwierig, Deinen Auswertungs-Ansatz zu einzuschätzen.

    Grundsätzlich würde ich folgende Fragen untersuchen:
    1. Gibt es zwischen den Werkstücken Unterschiede (Material, Maße, Fertigungsverfahren, usw.)?
    2. Bezogen auf 1 Messverfahren: Wie groß sind die Werte-Unterschiede
    a) an 1 Punkt von 1 Werkstück (Wiederholmessungen)
    b) an verschiedenen Punkten von 1 Werkstück
    c) an ähnlichen/gleichen Punkten verschiedener Werkstücke
    d) an verschiedenen Punkten verschiedener Werkstücke (Streuung insgesamt)
    3. Wie groß sind die Unterschiede bei verschiedenen Messverfahren? (Auch hier die Unterpunkte a)-d) aus 2.)

    Mittelwert und Standardabweichung sind häufig verwendete Kennzahlen. Aussagekräftig sind sie allerdings nur dann, wenn die Messreihe(n) normalverteilt sind. (Dazu hattest Du glaub ich noch nichts geschrieben.)

    Wenn Du die ganzen Punkte/Fragen einzeln untersuchst, erschlagen Dich die vielen Ergebnisse vermutlich relativ bald. Deshalb würde ich das in eine Gesamt-Betrachtung packen und ein Modell für die Messwerte aufstellen:

    Messwert = Messverfahren + Messpunkt + Werkstück + Rest-Streuung
    (ggf. noch + Prüfer oder andere mögliche Einflüsse)

    Übersetzt in Normalsprache: Der Messwerte ergibt sich aus dem Einfluss des Messverfahrens, des Messpunktes und des Werkstücks sowie einer Rest-Streuung bzw. Rest-Unsicherheit. (Sinnvoll könnte es auch noch sein, Kombinationen der Einflüsse zu betrachten. Das sind die Interaktionen bzw. Wechselwirkungen.)

    Da alle Einflüsse in dem Modell attributiv sind (Einstellwerte bzw. Gruppen/Arten/Sorten), ist dieses Modell ein Varianzanalyse oder ANOVA-Modell.

    Einen ähnlichen Ansatz findest Du auch in VDA Band 5 bzw. ISO 22514-7. Hier wird die Größe von Unsicherheitskomponenten u_i aus verschiedenen Bereichen untersucht, z. B. die Unsicherheitskomponente (Streuung) durch verschiedene Messverfahren.

    Die Modell-Auswertung liefert Dir dann die Antworten auf die Fragen von oben, z. B. auf die Frage, ob es deutliche (signifikante) Unterschiede zwischen den Werten an verschiedenen Messpunkten und/oder Werkstücken gibt.

    Für die Auswertung ist eine Statistik-Software sinnvoll, weil Du da nicht nur die Signifikanz-Tests bekommst (die gibts auch in Excel), sondern auch Auswertungsmethoden für die Rest-Streuung. Beispiele für Statistik-Software, die das kann: R, Minitab, JMP, Statistica, destra. (qs-stat kann das nicht.)

    In einem guten Modell sollten die wichtigen Einflüsse viel von dem Messwert erklären (Anpassungsgüte/Bestimmtheitsmaß hoch) und die Rest-Streuung sollte klein sein (verglichen mit der Einheit und dem Anwendungsbereich) und nur Zufallsstreuung enthalten. Damit ist die Rest-Streuung normalverteilt. (Die Messwerte in dem Modell können irgendwie verteilt sein, das gleiche gilt auch für die Einstellwerte.)

    Eine ähnliche Modellierung lässt sich auch für die Streuung der Messwerte basteln. Oft wird auch einfach „nur“ getestet, ob die Streuungen in den einzelnen Gruppen ähnlich sind (z. B. Levene- oder Brown-Forsythe-Test).

    Ich hoffe, damit hab ich Deine Frage etwas beantworten können ;)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 15 Beiträgen – 256 bis 270 (von insgesamt 2,697)