Verfasste Forenbeiträge

Ansicht von 15 Beiträgen – 16 bis 30 (von insgesamt 2,697)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo frunk,

    die Statistik ist da ziemlich flexibel. Typischerweise werden bei der MSA Verfahren 2 verschiedene Bediener miteinander verglichen. Die Formeln bleiben allerdings dieselben, wenn Du statt einem Bediener-Vergleich einen Geräte-Vergleich oder einen Orts-Vergleich machst.

    Du brauchst dafür keine Teile mit bekanntem Referenzwert. Du brauchst unterschiedliche Teile, die den gesamten Anwendungsbereich und/oder Toleranzbereich abdecken, damit Du für den Anwendungs- bzw. Toleranzbereich eine Aussage hast, ob die Messunsicherheit überall klein genug ist.

    Bei der Auswertung wird die Streuung den einzelnen Streuungs-Ursachen zugeordnet. Typischerweise ist das im Verfahren 2 der Bediener, die Wiederholstreuung durch Mehrfachmessung (auch Messmittel- oder Equipment-Streuung) und die Streuung durch die Unterschiedlichkeit der Teile. Bei Dir wäre dann eben statt des Bedieners die Streuungsursache „Gerät“ in der Auswertung.

    Viele Grüße
    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo QM-FK,

    ein ganz klares Jein ;)

    Du hast natürlich Recht, dass die Statistik allgemein durchaus in der Lage ist (und auch davon ausgeht), dass es diverse verschiedene Einflüsse in jedem Prozess gibt und diese Einflüsse sich auch auf die Ergebnisse niederschlagen. Dafür ist u. a. das Design Space-Konzept der FDA gedacht. Alle Arten von Ursache-Wirkungs-Beziehungen (DoE, Regression, ANOVA usw.) nutzen die mathematische Beschreibung von Einflüssen. Auch bei Qualitätsregelkarten kann diese Wissen verwendet werden, wenn gezeigt werden kann, dass die Ergebnisse bis auf die Einflüsse nur zufällig streuen. (Wen das interessiert: Montgomery „Statistical Quality Control“, control charts for residuals.)

    Wo das NICHT funktioniert, ist bei Prozessfähigkeitswerten. Die brauchen Messwerte, die ohne deutliche Einflüsse einfach nur zufällig streuen. Es gibt bis heute keine wissenschaftliche Berechnungsmethode, mit der Einflüsse zuverlässig berücksichtigt werden können & die im Ergebnis einen Prozessfähigkeitwert ausgibt. (Also eine Methode, die nicht ppm-Werte simuliert und ein Prozessfähigkeits-Äquivalent angibt, sondern direkt unter Berücksichtigung der Einflüsse belastbare Prozessfähigkeitskennzahlen ausrechnet.)

    Vielmehr gilt für nicht-stabile Prozesse (=Prozessmodelle B, C, D nach 22514-2 bzw. der zurückgezogenen 21747) „The actual capability concept and the corresponding indices are only valid for a process under statistical control.“ (ISO 22514-1, p. 22).

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Guten Morgen,

    schön, dass die Anregungen so schnell umgesetzt werden :)

    Die erweiterte Funktionalität des Editors für die Antworten ist sehr gut. Beim Thema Schriftarten und -größe könnte imho noch etwas geschraubt werden:

    1. Die Schriftgröße der Zitate sind deutlich größer als die des Textes. Angenehmer wäre eine gleiche Schriftgröße oder ggf. sogar eine etwas kleinere (weil das Zitat schon in voller Pracht und Schönheit oben drüber steht).
    2. Die Schrift im Editor ist irgendwas mit Serifen und größer als die Schrift in den geposteten Antworten. Besser fände ich die gleiche Schriftart und -größe.

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Interpretation GRR #102183

    Hallo zusammen,

    GRR betrug 36%; PV lag bei 175% und der ndc betrug 6.

    damit die Zahlen interpretierbar sind, muss mit angegeben werden, mit welcher Bezugsgröße die GRR% berechnet wurde. Gängig sind 3:

    1. Prozess-Streuung bzw. historische Standardabweichung
    2. Streuung in der Untersuchung
    3. Toleranzbreite

    Für die Beurteilung, ob das Mess-System in der Lage ist, Veränderungen im Prozess zu erkennen, ist die Bezugsgröße 1. (Prozess-Streuung) besser, weil damit direkt erkennbar wird, welcher Anteil der Prozess-Streuung allein durchs  Messen entsteht. Bei 2. (Streuung in der Untersuchung) ist die ndc eher ein Maß dafür, ob die Teile unterschiedlich genug ausgewählt wurden, denn ndc berechnet sich aus Wurzel(2)*GRR/PV.

    Bei der Frage, ob mit dem Mess-System zuverlässig zwischen in Toleranz und außerhalb Toleranz entschieden werden kann, ist die 3. Variante (Toleranzbreite) die geeignete für GRR%.

    Sinnvoll ist es deshalb, 2 GRR%-Werte anzugeben, einen bezogen auf die (Prozess-)Streuung und einen bezogen auf die Toleranzbreite.

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Interpretation GRR #102157

    Hallo Torsten,

    willkommen im QM-Forum :)

    GRR wird aus EV und AV berechnet: GRR = Wurzel( EV^2 – AV^2)

    Wenn AV = 0 ist, muss GRR = EV sein.

    AV ist die Streuung, die durch verschiedene Prüfer in die Messdaten kommt (AV: appraiser variation). Bei Deiner GRR sind keine Unterschiede zwischen den Prüfern feststellbar.

    Das kann verschiedene Gründe haben, z. B. können die Prüfer-Unterschiede in der Messmittel-Streuung (EV: equipment variation) untergehen, weil sie im Vergleich sehr viel kleiner sind. Oder die Studie war ungünstig aufgebaut und die Prüfer haben sich untereinander an den Werten der anderen orientiert, so dass es zu übereinstimmenden (bzw. abgesprochenen) Ergebnissen kommt. Variante 3 könnte eine nicht-randomisierte Messreihenfolge sein, bei der durch einen deutlichen zeitlichen Effekt wie beispielsweise Erwärmung oder Verschleiß die Prüfer-Unterschiede von dem zeitlichen Effekt überlagert werden. Alternativ kann es auch sein, dass sich die Umgebungsbedingungen während der Prüfung geändert haben, so dass scheinbar die gesamte Streuung aus dem Messmittel kommt. Vielleicht sind auch einfach zu wenig Messwerte aufgenommen worden, um Prüfer-Unterschiede entdecken zu können.

    Die Berechnungsmethode hinter der Gage R&R ermittelt die Streuungs-Anteile über Varianzkomponenten. Die können rechnerisch auch Werte unter 0 haben. Weil negative Streuung unsinnig ist, wird der Wert dann auf 0 gesetzt. Einige mathematische Gründe dafür, warum Varianzkomponenten 0 sein können, sind hier beschrieben: Why is the variance of my random effect negative? und Negative Variance Component Estimates

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jonathan,

    ein Prozess ist beherrscht oder stabil, wenn sein nächster Messwert bzw. sein nächstes Ergebnis vorhersehbar ist.

    Dafür muss er insbesondere über die Zeit zufällig streuen, d. h. keine Muster, Sprünge, Trends, Zyklen oder andere systematische Veränderungen zeigen.

    Geprüft wird das mit einem Zeitreihendiagramm oder einer Qualitätsregelkarte (=Zeitreihendiagramm mit weiteren Hilfslinien). Die Hilfslinien in der Qualitätsregelkarte sind Prozess-Streugrenzen und unabhängig von den Toleranzgrenzen.

    Ob und wie viele Regeln zum Erkennen von nicht-zufälligen Verläufen verwendet werden, ist nirgends festgelegt. Es ist sinnvoll bei den Regeln eine gute Auswahl zu treffen, um nicht zu viele Fehlalarme zu haben (wenn viele Regeln geprüft werden) und andererseits möglichst wenig zu übersehen. Letztlich hat jede Regel ihre Berechtigung, manche sind nur zuverlässiger in der Entdeckung von Strukturen als andere. Und jede Regel hat auch ihr Fehlalarm-Risiko, d. h. irgendwann bekommst Du auch bei einem absolut zufällig verlaufenden Prozess eine Regelverletzung angezeigt.

    Es gibt keine Regel, mit der Du nachweisen kannst, dass ein Prozess stabil ist. Am Ende ist es eine Einschätzung „wie Sie sehen, sehen Sie nichts“ kombiniert mit einem scharfen Blick auf die Zeitreihe oder Qualitätsregelkarte und der Feststellung, dass es stabil genug aussieht.

    Auf LinkedIn gab es vor einiger Zeit eine Diskussion dazu, welche Regeln am liebsten verwendet werden. Einer schrieb, er würde seinen Teilnehmern die 5-Sekunden-Regel beibringen: Schau 5 Sekunden auf die Grafik. Wenn Dir innerhalb der 5 Sekunden ein Muster auffällt, solltest Du weiter nachschauen.

    Viele Grüße
    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Moin,

    eins hab ich noch: nach dem Einloggen lande ich auf der Einstiegsseite für beide Foren, wenn ich auf einen Beitrag antworten möchte und mich dazu bei geöffnetem Beitrag einlogge. Es wäre sehr viel angenehmer, wenn ich auf derselben Seite bleiben würde.

    Viele Grüße
    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Guten Morgen,

    mir gefällt das neue Design sehr gut. Aktuell vermisse ich nur die Erläuterung zum Markup z. B. für Links usw.

    Viele Grüße
    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Jannils,

    ein sehr gelungenes Anschauungsbeispiel zur Umsetzung der 9001 ist Giovanniy Pizzaservice:
    http://www.blog.loesungsfabrik.de/giovanni-fuehrt-in-seinem-pizzaservice-ein-qualitaetsmanagement-ein/
    http://oi47.tinypic.com/4jl2j8.jpg

    Dazu findest Du hier im Forum auch noch ältere Beiträge.

    Viele Grüße
    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stefan,

    Verfahren 1 steht in KEINER Norm. Das taucht ausschließlich in VDA Band 5 auf. Wenn das zwingend notwendig wäre, müssten sich die amerikanischen Automobilhersteller warm anziehen. Die kennen Verfahren 1 oft nicht mal (s. Diskussionen bei elsmar.com).

    Die Norm, in der es um die Fähigkeit von Mess-Systemen und Mess-Prozessen geht, ist die ISO 22514-7: Statistical methods in process management — Capability and performance — Part 7: Capability of measurement processes. Ich kenne allerdings nach wie vor kein Unternehmen, das diese Norm umsetzt. (Das könnte auch daran liegen, dass die Anforderungen derart scharf sind, dass die Norm vielfach nicht anwendbar ist und/oder die Kriterien gerissen werden.)

    Es ist sicherlich aus ganz vielen Gründen sinnvoll, die Zuverlässigkeit von Messwerten vor der Verwendung zu prüfen. Welche Methode dafür geeignet ist, hängt stark von der Messaufgabe ab. Verfahren 1 ist nur und ausschließlich für zweiseitig tolerierte Merkmale anwendbar, wenn ein Referenzteil mit bekanntem Referenzwert vorhanden ist. Die systematische Abweichung von Referenzwerten und die Gleichmäßigkeit der Wiederhol-Streuung im Anwendungsbereich können z. B. auch mit der Methode „Linearität und systematische Abweichung“ (linearity and bias study) wie in MSA Band 4 beschrieben bewertet werden.

    Ich halte es für gefährlich, 1 Methode (egal welche) als zwingend notwendig vorzugeben. Es gibt immer wieder Anwendungsfälle, in denen Standardmethoden völlig unsinnig sind. Deshalb ist für mich als erstes die Frage, welche Messaufgabe bewertet werden soll und wie kritisch unzuverlässige Messwerte bei dieser Messaufgabe sind. Im nächsten Schritt kann dann entschieden werden, welche Verfahren in welchem Umfang sinnvoll sind.

    Viele Grüße
    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Frohe Weihnachten ! #63652

    Liebes QM-Forum,

    auch ich wünsche Euch ein entspanntes Weihnachtsfest, ein bisschen Ruhe zwischen den Tagen und alles Gute für 2018 [:)]

    Viele Grüße
    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stefan,

    für mich klingt das nach einer Checkliste, die Dein Kunde gerne abgehakt hätte. Einen Einstellmeister für Positionstoleranzen zu haben ist schon ganz schön viel Aufwand. Andererseits darf der Kunde natürlich auch gegen ein entsprechendes Entgelt diverse Dinge nachgewiesen bekommen. Vielleicht hilft es, wenn Du ihm vorab mitteilst, wie viel Euronen er dafür in Rechnung gestellt bekommt.

    Kalibrieren in Kombination mit Verfahren 2 ist für eine Positionstoleranz nach meiner Erfahrung eher üblich als Verfahren 1 zwingend durchzuführen.

    Bei der MSA geht es darum, die Messunsicherheit oder Messgenauigkeit zu erfassen. Deshalb verwendest Du als Messgröße auch das Merkmal, das geprüft werden soll. Dabei ist es unerheblich, ob die Positionstoleranz auf Normale rückführbar ist, denn es geht bei Verfahren 2 um die Frage, wie viel Streuung durch Wiederholmessungen entsteht (Repeatability) und wie viel Streuung durch verschiedene Prüfer (Reproducability).

    Viele Grüße
    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stefan,

    die engste Toleranz ist ein Kriterium für die Mess-Situation, in der die Messunsicherheit der Messmaschine besonders deutlich wird. Eine andere Mess-Situation ist die, in der (kleine) Prozess-Änderungen besonders wichtig sind und frühzeitig erkannt werden sollen. Das kann da sein, wo die Toleranzen besonders eng sind, muss aber nicht.

    Was Du auf jeden Fall annimmst, wenn Du nur das Merkmal mit der engsten Toleranz betrachtest, ist, dass Deine Mess-Unsicherheit im gesamten Messbereich gleich groß ist. Wenn ich Dein Kunde wäre, hätte ich dafür gerne einen Nachweis (z. B. Untersuchung der Linearität und systematischen Abweichung im gesamten relevanten Messwertebereich).

    Zusätzlich wäre eine fundierte Bewertung der Schwierigkeit der Messaufgaben über alle Projekte und Merkmale wichtig. Wenn Du z. B. Maße am Armaturenbrett aufnimmst, sind manche Punkte für die Messmaschine sehr viel schwieriger erreichbar als andere (vorne Mitte vs. hinten unten links hinter der Ecke). Das könnte sich genauso auf die Mess-Unsicherheit auswirken wie Unterschiede im verarbeiteten Material (Kunststoff vs. Mahagoni).

    Du könntest auch Deinen Kunden fragen, ob er mit diesen Nachweisen und Überlegungen von seiner „Checklisten müssen abgehakt werden!“-Einstellungen weggehen kann. Wenn nicht, bleibt Dir nichts anderes übrig, als das Formblatt zu füllen (und die Kosten dafür dem Kunden in Rechnung zu stellen, versteht sich).

    Viele Grüße
    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Werner,

    die Untergruppen (auch Teilgruppen, Stichprobengruppen, Teilmengen, Stichproben…) haben etwas mit der Messwert-Aufnahme zu tun. Wenn Du z. B. jede Stunde 5 Werte aufnimmst, dann bekommst Du 1 Untergruppe pro Stunde mit 5 Werten.

    Bei der Prozessfähigkeits-Bewertung werden für die Gesamt-Prozessfähigkeit typischerweise alle Werte gleichzeitig betrachtet (d. h. ohne Berücksichtigung der Untergruppen), weil der Kunde auch Teile aus dem großen Topf bekommt (und nicht nur die von Montag um 10 Uhr).

    Es gibt auch Berechnungsmethoden, bei denen die Streuung nicht aus allen Messwerten, sondern aus den Untergruppen-Streuungen berechnet wird. Dann kann z. B. in der Prozessfähigkeits-Bewertung die mittlere Streuung der Untergruppen auftauchen. Das macht wenig Sinn, wenn es um die Gesamtbewertung von Prozessen geht, weil der Kunde eben auch die Gesamt-Streuung in den Teilen hat. Sinnvoll kann das z. B. sein, wenn Ihr intern herausfinden möchtet, wie klein die Streuung wird, wenn Unterschiede zwischen den Untergruppen z. B. durch das stündliche Kalibrieren oder Rüsten vernachlässigt werden.

    Welche Buchstaben-Kombination (Cp, Cpk, Pp, Ppk dann vor Deiner Kennzahl steht, hängt davon ab, aus welchem Handbuch oder welcher Norm Deine Formel stammt. Nach DIN ISO 22514 dürfen Cp und Cpk nur für Prozesse verwendet werden, bei denen die Prozess-Stabilität nachgewiesen wurde. In Deutschland ist es üblich, immer die Buchstaben Cp und Cpk zu verwenden, ganz egal ob der Prozess stabil ist oder nicht. Eine andere Definition für Cp und Cpk findest Du im SPC 2-Handbuch der AIAG.

    Viele Grüße
    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Messmittelfähigkeit #63609

    Moin,

    ich mag da noch etwas ergänzen:

    Bei der Prozessfähigkeit (Cp, Cpk, Pp, Ppk mit kleinem p im Index für process oder Pm, Pmk, Cm, Cmk mit kleinem m im Index für machine) ist es so, wie Rainaari geschrieben hat. Da wird standardmäßig und nach Norm der 6S-Bereich mit einer Abdeckung von 99,73% als Bezugsbereich verwendet.

    Bei der Messmittelfähigkeit (Cg, Cgk mit kleinem g im Index für gage oder gauge) ist das anders. Erstens gibt es dafür sehr unterschiedliche Formeln, die mal mit 4S (+/-2S) und mal mit 6S (+/-3S) arbeiten. Zusätzlich werden unterschiedliche Anteile der Toleranz verwendet (20%, 15%..) Damit sind die Cg/Cgk-Werte weder direkt vergleichbar noch so einfach interpretierbar wie die Prozessfähigkeitswerte.

    Die Cg/Cgk-Werte sind ausschließlich im VDA Band 5 „Prüfprozesseignung“ definiert. Varianten finden sich z. B. bei Dietrich & Schulze „Eignungsnachweis von Prüfprozessen“. Es gibt allerdings – anders als bei der Prozessfähigkeit – kein anderes Handbuch außer VDA 5 und KEINE Norm (DIN, ISO), in der die Messmittelfähigkeits-Werte Cg/Cgk beschrieben werden.

    Tendenziell ist es bei Cg/Cgk auch so, dass größere Werte eine kleinere Streuung und/oder kleine systematische Abweichung vom Referenzwert anzeigen. Da die Formeln extrem unterschiedlich sind, ist der Wert 1,33 als Mindestwert (anders als bei der Prozessfähigkeit) eine ziemliche Gummi-Grenze, weil er je nach Formel einfacher oder schwerer einzuhalten ist. Deshalb ist eine Bewertung von Cg/Cgk nur dann ansatzweise möglich, wenn die Formel mitgeliefert wird.

    Viele Grüße
    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 15 Beiträgen – 16 bis 30 (von insgesamt 2,697)