Verfasste Forenbeiträge

Ansicht von 15 Beiträgen – 61 bis 75 (von insgesamt 2,697)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Chi-Quadrat-Test #63214

    Hallo QM-FK,

    „schief“ ist vermutlich genau der springende Punkt: Die Häufigkeiten sind dermaßen unterschiedlich, dass die Chi²-Testergebnisse beliebig wackelig werden. Für extrem ungleiche Häufigkeiten funktionieren die ganzen Tabellen-Tests (Chi², Fisher…) nicht wirklich gut.

    Allgemein sollte nie eine Zelle eine Häufigkeit kleiner als 5 haben und schon gar nicht kleiner als 1. 0 ist einfach extrem wenig, vor allem verglichen mit den anderen sehr großen Zahlen. Und dann gibt es auch nicht DEN Chi²-Test, sondern diverse Testverfahren, die mal mit und mal ohne Korrekturfaktoren gerechnet werden. Bei sehr kleinen Häufigkeiten wird z. B. die Yates Korrektur eingesetzt (Wikipedia (en) Yates’s correction for continuity), nur so richtig helfen tut die in diesem Fall auch nicht.

    Was genau in Deinem Test nicht funktioniert, konnte ich nicht nachvollziehen, weil ich Deine p-Werte nicht reproduzieren konnte. Ich könnte mir vorstellen, dass das eine Testergebnis mit Korrektur und das andere ohne Korrektur gerechnet wurde oder dass nur in einem Fall eine Korrektur verwendet wurde.

    Wenn (sehr) kleine Häufigkeiten oder Anteilswerte miteinander verglichen werden sollen, würde ich eher einen Poisson-Test (Vergleich von Häufigkeiten) oder einen Binomial-Test (Vergleich von Anteilen) verwenden. Die liefern mit diesen Werten das eher zu erwartende Ergebnis, dass in beiden Fällen die Unterschiede signifikant sind.

    Hilft Dir das weiter?

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Spezielle Prüfniveaus #63192

    Hallo Kurt,

    eine statistische Herleitung für die speziellen Prüfniveaus S1 bis S4 würde ich auch gerne mal sehen.

    Wie Rainaari auch schon geschrieben hat: Die OC-Kurve und die Antwort auf die Frage „Wie unschön wird es, wenn uns schlechte Qualität durchrutscht?“ (Begrenzung des beta-Risikos) hilft sehr viel gezielter, eine hohe Sicherheit nachweisen zu können.

    Relativ kleine Stichprobenumfänge liefern auch eine relativ kleine Sicherheit, dass die Produkt-/Prozess-Qualität hoch genug ist. Ich wünsche mir häufiger mal, dass DAS bei der Entscheidung, wie viel geprüft wird, stärker einfließt.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Manuel,

    bei den 50 / kurzfristig bin ich überfragt. Vermutlich ist es so etwas wie „die Hälfte von dem, was wir für die Langzeitfähigkeit brauchen“ (also nichts Statistisches).

    Die 100 ergibt sich als sinnvolle Grenze, weil ab dieser Anzahl Messwerte die Prozessfähigkeitsunschärfe oder auch die Breite des Vertrauensbereichs relativ stabil ist. Bei weniger als 100 Messwerten sind die Grenzen des Vertrauensbereichs deutlich breiter. (Die Breite des Vertrauensbereichs lässt sich nur und ausschließlich für normalverteilte Einzelwerte berechnen.) Es macht allerdings tatsächlich so gut wie keinen Unterschied, ob 99 oder 100 oder 102 Messwerte aufgenommen werden.

    Hinweis: Für andere Verteilungen (Lorgnormal, Weibull…) sind nach ISO 22514 mindestens das 1,5-fache also 150 Messwerte notwendig, um aussagekräftige Fähigkeitskennzahlen angeben zu können. Wenn die Messwerte durch keine Verteilung beschrieben werden können und der Streubereich direkt (ohne Verteilungsannahme) aus den Messwerten berechnet wird, muss die Anzahl Messwerte deutlich höher sein.

    Die 125 = 5*25 stammen von Walter Shewart, dem Erstbeschreiber von Qualitätsregelkarten. Die Zahlen sind Erfahrungswerte von ihm.

    Der Zeitraum von 20 Tagen hat IMHO nichts mit Statistik zu tun, sondern soll lediglich eine Orientierungshilfe geben. Ich halte diese Zahl für völligen Blödsinn. Wenn pro Woche 1 Million Teile ausgeliefert werden ist das etwas völlig anderes, als wenn pro Jahr 200 Teile produziert werden.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Retti,

    Deine Vorgehensweise ist nachvollziehbar und die von Dir genannten Punkte zu den Voraussetzungen bei der Anwendung (Prozess-Schritte korrekt abgearbeitet usw.) sind korrekt. Eine konkrete Prüfunplanung aus der etwas wolkigen Aufgabenstellung abzuleiten, ist extrem schwierig, weil es ganz viele „Es kommt darauf an“-Entscheidungen dabei gibt.

    Bei der Prüfplanung ist es IMMER empfehlenswert, Messdaten und keine Attribute (Prüfergebnisse) zu verwenden, weil Messdaten viel mehr Informationen zum Prozess liefern. Wenn Du also die Zugfestigkeit prüfst, nimm wenn möglich den Messwert und vermeide für die Prüfplanung die optische Bewertung des Testergebnisses.

    Für Attribute/Prüfergebnisse ergeben sich extrem hohe Stückzahlen, um eine belastbare Aussage zu „Ist die Qualität in Ordnung?“ treffen zu können. (Such einfach hier im Forum nach AQL. Dazu gibt es einige sehr umfangreiche Beiträge.)

    Stichprobenpläne für Messwerte unterscheiden sich danach, ob es eine „normale“ messende Prüfung (z. B. Länge) oder eine Belastungsprüfung (z. B. Zugversuch) ist. Für beide Testsituationen gibt es unterschiedliche Berechnungswege zum Prüfplan. Bei der Belastungsprüfung sind es Methoden aus dem Bereich der Zuverlässigkeit und Lebensdauer-Analyse, oft mit der Weibullverteilung. Teilweise finden sich bei diesen Testvefahren auch Prüfpläne nach Squeglia (zero defects plan).

    Bei der Probennahme ist unabhängig vom Prüfmerkmal wichtig, dass die Teile zufällig entnommen werden und so jedes produzierte Teil dieselbe Chance hat, in der Stichprobe zu landen. Eine systematische Auswahl wie „jedes 100. Teil“ kann irreführend sein wenn z. B. zwischendrin um das 60. Teil eine Messwertveränderung oder eine Fehlerhäufigkeit ist, die so übersehen wird.

    Rainaari hat schon darauf hingewiesen, dass es in der Aufgabenstellung wenig zum Risiko gibt außer den Hinweis, dass die Zugfestigkeit ein kritisches Merkmal ist. Für die Berechnung der Probenanzahl oder notwendigen Anzahl Messwerte bräuchtest Du sinnvolle Annahmen zu den zwei Risiken bei Stichprobenprüfung alpha und beta. Üblich wäre alpha=5% (Standardwert). Wegen der Kritikalität der Zugfestigkeit sollte beta kleiner als 5% sein, z. B. 1%.

    Prozessfähigkeitsbewertungen sind eine Möglichkeit serienbegleitend das Qualitätsniveau eines Prozesses zu überwachen, wenn bestimmte Voraussetzungen erfüllt sind (was sehr oft nicht der Fall ist). Eine Voraussetzung dabei ist, dass die Prüfergebnisse Messwerte sein müssen. Attributive gut/schlecht-Prüfergebnisse können zwar auch in einen Prozessfähigkeitswert umgewandelt werden, nur brauchst Du dafür zwingend mindestens 1 defektes Teil in Deiner Stichprobe.

    Aus meiner Erfahrung ist es bei zerstörenden Prüfungen schwierig, mit einer Prozessfähigkeitsanalyse die Qualität serienbegleitend abzusichern. Du brauchst für 1 aussagekräftigen Fähigkeitswert mindestens 100 Messwerte, eigentlich noch mehr, weil die Zugfestigkeit nicht normalverteilt sein wird. Das ist ein ziemlicher Prüfaufwand und die Teile sind hinterher unverkäuflich. Ich würde deshalb nach der ersten (erfolgreichen und umfangreichen) Stichprobenprüfung eher über Qualitätsregelkarten für die begleitende Prüfung nachdenken, z. B. xquer-S-Karten.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo,

    es geht bei dieser Frage nicht um eine Entscheidung, ob ich lieber Schokoladen- oder Vanille-Eis esse. Statistik ist trotz anders lautender Vermutungen eine Naturwissenschaft. Damit gibt es auch in der Statistik Möglichkeiten um zu prüfen, wie gut oder schlecht Methoden funktionieren, z. B. Effizienz, Erwartungstreue, ARL usw.

    Wenn eine neue Methode entwickelt wird oder für eine Anwendung sinnvoll erscheint, wird untersucht, wie gut diese Methode funktioniert. Dazu gehört z. B. die Frage, wie zuverlässig nicht-zufällige Ursachen (special causes) auf einer Qualitätsregelkarte angezeigt werden. Für die erweiterten Eingriffsgrenzen kenne ich solche Untersuchungen nicht. So etwas wird üblicherweise in Fachzeitschriften wie dem Journal of Quality Technology (JQT, herausgegeben von der ASQ) oder Quality and Reliability Engineering (QREI, herausgegeben von Wiley) veröffentlicht.

    Es stimmt, dass Prozesse oft Verschiebungen im Mittelwert der Stichproben oder Teilgruppen zeigen, weil sich die Proezsslage durch Chargen- oder andere Wechsel verändert. Warum ist die Statistik-Fachwelt so ignorant und veröffentlicht nichts zu den erweiterten Eingriffsgrenzen, wo das doch für die Praxis so wichtig ist? Sind Statistiker so weltfremd?

    Selbstverständlich gibt es wie schon oben geschrieben zu den Prozessen mit Sprüngen eine aktuell gültige Norm, die (DIN) ISO 22514-2 (Nachfolgenorm der (DIN) ISO 21747). Dort findet sich auch explizit die Bewertung, dass Prozess mit Sprüngen nicht beherrscht bzw. not under statistical control sind. Prozess-Stabilität (=Prozess zeigt nur zufälliges Rauschen, keine „special causes“) ist eine Basisanforderung dafür, dass Qualitätsregelkarten zuverlässig systematische Prozess-Veränderungen (special causes) anzeigen können.

    Zwei Zitate von Rinne & Mittag, die in ihren Büchern zu Qualitätssicherung und Prozessfähigkeit zahlreiche Methoden beschreiben und bewerten, sowie Donald Wheeler, einem der weltweit führenden Statistiker mit starkem Fokus auf praktikable Methoden (z. B. Short Run SPC):

    Ändert sich der Prozeßzustand in der Zeit, egal ob schleichend oder kontinuierlich oder plötzlich und abrupt, so wird sich dadurch die Verteilung von X [Anmerkung: Qualitätsmerkmal] ändern (Auftreten beeinflußbarer Störungen, sog. „‘special causes“’ im Sinne von W. A. Shewart ). In diesem Fall heißt der Prozeß nicht beherrscht oder außer statistischer Kontrolle.[…] Bei einem nicht beherrschten Prozess ist die Wahrscheinlichkeit dafür, daß das betrachtete Qualitätsmerkmal in einen gegebenen Bereich fällt, weder konstant noch vorhersagbar.[…] Bei nicht beherrschten Prozessen macht die Unterscheidung zwischen „‘fähig“’ und „‘nicht fähig“’ keinen Sinn. Nicht beherrschte Prozesse sollten stets als nicht fähig gelten.
    Rinne , Horst; Mittag, Hans-Joachim (1999). „Prozeßfähigkeitsmessung für die industrielle Praxis.“
    Fachbuchverlag Leipzig. ISBN : 9783446211179. S. 9

    You cannot compute your way around the problem of an unpredictable process. No amount of data manipulation will ever make an unpredictable process predictable. When a process is unpredictable, the past cannot be used as a reliable guide to the future.
    Wheeler , Donald J. (2000). „Beyond Capability Confusion.“
    2. Auflage, SPC PRESS (Statistical Process Control). ISBN : 9780945320579. S. 46

    Ein Anwender, der mit erweiterten Eingriffsgrenzen arbeitet, entscheidet sich damit für eine statistisch nicht geprüfte und somit diskussionswürdige Methode. Dabei ist es unerheblich, wie viele Anwender diese Entscheidung treffen. Viele Anwender gehen davon aus, dass eine Methode, die in der Automobilwelt weit verbreitet ist, auch gut/brauchbar ist. Die allermeisten wissen nicht, mit welchem Risiko sie dabei unterwegs sind.

    Mich erinnert das ein bisschen an die Diskussion um Johnson-Transformationen. Diese Transformationen wurden eine Zeit lang extrem oft bei nicht-normalverteilten Messdaten angewandt. Mittlerweile hat sich bei einigen herumgesprochen, dass diese Transformation ein hohes Risiko für falsche Bewertungen bei der Prozessfähigkeit hat (s. z. B. ISO/TR 22514-4). Dennoch gibt es immer noch (gerade in der Automobilwelt) viele, die die Johnson-Transformation anwenden und nicht wissen, dass damit ein hohes Risiko verbunden ist.

    Wenn ich mich hinstelle und behaupte 1+1 = 5, dann muss ich auch zeigen, dass das so ist. „Beweis mir doch das Gegenteil“ zu brüllen ist etwas schräg, wenn sich der Rest der Menschheit (inklusive der Mathematiker und Statistiker) einig ist, dass 1+1 = 2 ist. Vielleicht gibt es irgendwann eine wissenschaftliche Untersuchung zur Aussagekraft von erweiterten Eingriffsgrenzen. Bis dahin ist das aus wissenschaftlicher Sicht eine experimentelle Methode mit unbekanntem Risiko.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Blackman,

    es geht mir hier NICHT um meine Meinung, sondern darum zu erklären, wie z. B. erweiterte Eingriffsgrenzen in scheinbar neutrale Handbücher des VDA kommen.

    Stefan hatte ursprünglich danach gefragt, wo es Bücher, Veröffentlichungen o. Ä. zu erweiterten Eingriffsgrenzen und der Beurteilung der Regelkarten mit den erweiterten Eingriffsgrenzen gibt. Dazu habe ich geschrieben, dass ich keine neutralen Veröffentlichungen dazu kenne, die außerhalb der Q-Das-Welt sind.

    Weder im Dietrich/Schulze noch im VDA Band 4 steht irgend etwas zu Runs, Trends oder anderen nicht-zufälligen Mustern bei Regelkarten mit erweiterten Eingriffsgrenzen, also bleibt meine Aussage: Ich kenne kein Statistik-Fachbuch, Veröffentlichung o. Ä., in dem diese Art von Grenzen oder das Führen von solchen Regelkarten beschrieben wird.

    Da ich genauso wenig allwissend bin wie alle anderen Menschen also die Frage an Dich: Wo gibt es mehr veröffentlichte Informationen über Regelkarten mit erweiterten Eingriffsgrenzen?

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stefan,

    das VDA Handbuch 4 kenne ich und finde es aus fachlichen Gründen bemerkenswert. Da stehen einige fragwürdige und veraltete Sachen drin, z. B. zur Prozessfähigkeit.

    Ich bewege mich im übrigen NICHT in der Theorie, sondern in der industriellen Praxis und dort sehr oft im regulierten Bereich, sprich bei den Themen, an denen Zulassungsbehörden die Entscheidung treffen, ob ein Produkt so auf den Markt kann oder nicht. Da sind die Anforderungen an saubere statistische Methoden und zuverlässige Ergebnisse hoch, weil Fehler lebensgefährlich sein können. Natürlich gibt es auch dort immer wieder Chargen-Abhängigkeiten, Werkzeug-Verschleiß oder andere systematische Einflüsse auf einen Prozess. Um das angemessen zu beschreiben und zu bewerten, kennt die Statistik entsprechende Methoden. Die sind allerdings deutlich anspruchsvoller als das, was sich in einer Norm oder einem Handbuch abbilden lässt, gerade auch weil die Einflüsse in Art und Stärke sehr unterschiedlich sind.

    Wie schon gesagt: Literatur AUßERHALB der Q-Das-Welt kennt keine erweiterten Eingriffsgrenzen. (Versuch einfach mal herauszufinden, wer den Teil 4 des VDA Handbuchs mitgeschrieben hat, wirf einen Blick in die genannten Automobilhersteller und deren Werksnormen und schau in die Literaturliste, dann siehst Du, auf welcher Basis dieser Teil entstanden ist.) Wo sind die Untersuchungen dazu, wie gut die Absicherung von Prozessen mit diesen Grenzen funktioniert (Fehlalarm-Risiko, ARL / average run length)? Ich lerne wirklich gerne dazu und wenn es irgendwo saubere, unabhängige Studien dazu gäbe, wie belastbar die Prozesskontrolle mit den erweiterten Eingriffsgrenzen ist, würde ich die gerne sehen.

    Auch ohne wilde Formeln ist für mich schon der erste Schritt bei den erweiterten Eingriffsgrenzen nicht nachvollziehbar: Üblicherweise decken die Shewart-Regelkartengrenzen 99,73% des Prozessbereichs ab (+/-3*S-Bereich bei Normalverteilung). Bei den erweiterten Eingriffsgrenzen ist das anders. Dort wird für die Streuung innerhalb der Stichprobengruppen der 99,73%-Bereich verwendet. Für die Streuung der Mittelwerte (z. B. Chargen-Unterschiede) wird allerdings nur der +/-1,5*S-Bereich verwendet, der nur 86,64% der Mittelwert-Streuung abdeckt. Warum sollen denn die Mittelwert-Streuung deutlich stärker eingeschränkt werden als die Streuung innerhalb der Stichprobengruppen?

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stefan und Ihr anderen,

    die Methode mit den erweiterten Eingriffsgrenzen stand so auch nie in der (DIN) ISO 21747. Dort gab es eine nicht näher beschriebene Methode, mit der zusätzliche Streuung einbezogen werden sollte. Weder in der Norm noch in Statistik-Fachbüchern stand, wie genau das gemacht werden soll und ob das tatsächlich dazu führen kann, dass ein Chargen-abhängiger Prozess gut bewertet werden kann. Deshalb bin ich froh, dass dieser Teil aus der (DIN) ISO 22514-2 herausgenommen wurde.

    Unter dem Strich bleibt es wie so oft logisch: Wenn ein Prozess wild herumhüpft, ist er nicht beherrscht, ganz egal, ob sich die Hüpfer auf einen Chargen-Wechsel zurückführen lassen oder nicht. In einem beherrschten Prozess ist vorher klar, was hinten rauskommt (mit einer gewissen Wahrscheinlichkeit). Das lässt sich für einen Prozess mit Sprüngen nicht hinkriegen, weil niemand vor der neuen Charge weiß, wie sich die Messwerte verändern werden. Erst wenn der Prozess so weit verstanden ist, dass VORHERSEHBAR wird, welches Ergebnis auftaucht, ist der Prozess auch beherrscht.

    Ja, ich weiß, dass sich das leicht sagt und schwer in der Praxis umzusetzen ist. Deshalb gibt es ja auch so viele Menschen, die froh sind, wenn sie mit einem (scheinbar/angeblich anerkannten) Schema der erweiterten Eingriffsgrenzen einen hüpfenden Prozess „kontrollieren“ bzw. „überwachen & regeln“ können. Wenn das so eine hervorragende Methode ist, warum hat sie dann immer noch keinen Eingang in die SPC-Methoden außerhalb der Q-Das-Welt genommen?

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Nafets,

    das Verteilungszeitmodell C4 gibt es in der (DIN) ISO 22514-2; die Beschreibung stand so ähnlich auch in der DIN ISO 21747. In den Stichprobengruppen sind die Werte normaleverteilt (kurzzeitige Betrachtung). Über alle Messwerte hinweg sind die Messdaten wegen Veränderung in den Mittelwerten NICHT normalverteilt sondern irgendwie anders, z. B. mehrgipflig. Das Verteilungszeitmodell C4 kann beispielsweise bei Chargen-Abhängigkeit auftreten. Der Prozess ist nicht beherrscht, weder bei C4 noch bei allen anderen Verteilungszeitmodellen außer A1 (Kurzzeit-Verteilung und Verteilung über alle Werte = Normalverteilung).

    Was es allerdings weder in der ISO 22514-Reihe noch im AIAG Manual (MSA4 oder SPC2) gibt, ist eine Erwähnung vor erweiterten Eingriffsgrenzen. Diese finden sich nur und ausschließlich in den Büchern von Dietrich/Schulze (frühere Q-Das Geschäfsführer) und in ihren Software-Produkten. Zu diesem Thema gibt es hier im Forum schon einige Beiträge, z. B.
    Bitte um Hilfe bei Sachverhalt instabiler Prozess
    Prozessfähigkeit mit qs-STAT ja/nein

    Ich kenne nach wie vor kein Statistik-Fachbuch oder Norm, in dem bei einem nicht-beherrschten Prozess (wie z. B. Verteilungszeitmodell C4) erweiterte Eingriffsgrenzen für die Bewertung des Prozesses verwendet. (Falls jemand da etwas hat, freue ich mich immer über eine Horizonterweitertung!)

    Es gibt für diese Art der Grenzwertberechnung nicht mal eine englische Übersetzung, weil dieses Konzept einfach nicht auftaucht. In der Statistik werden solche Prozesse so untersucht:

    1. Finde die Ursache für die Sprünge/Veränderungen
    2. Finde eine mathematische Beschreibung für die Veränderungen
    3. Prüfe, ob Du wirklich die Ursachen gefunden hast
    4. Überwache den Prozess mit Berücksichtigung der mathematischen Beschreibung

    Bei 1. ist die Chargen-Abhängigkeit eine erste Spur, nur ist das für den zweiten Punkt noch viel zu wenig. Eine Chargen-Abhängigkeit entsteht durch die Qualität oder Eigenschaften der Charge (und nicht durch die bloße Nummer oder Chargenbezeichnung selbst). Um herauszufinden, welche Qualität/Eigenschaft die Unterschiede im Prozess verursacht, werden Chargen-Qualitäten/-Eigenschaften und die mit ihnen erreichten Prozess-Ergebnisse verglichen.

    quote:


    Ursprünglich veröffentlicht von Nafets
    Er möchte gerne wissen, WO es schriftlich fixiert ist, dass das Prozessmodell C4 die Betrachtung von Runs und Trends ausschließt. Ich hab nix gefunden. Kennt jemand eine Norm/Handbuch etc., auf das wir uns berufen können?


    Nein. Selbst in den Veröffentlichungen von Dietrich/Schulze wird nirgends erwähnt, dass die erweiterten Eingriffsgrenzen eine Betrachtung von Runs oder Trends ausschließt. Und da diese Autoren (nach meinem Kenntnisstand) die einzigen sind, die etwas zu erweiterten Eingriffsgrenzen schreiben, wüsste ich auch nicht, wo sonst etwas zu finden wäre.

    SPC-Methoden sollen ja gerade dazu dienen, möglichst frühzeitig mitzubekommen, wenn sich im Prozess Lage, Streuung oder anderes ändert. Dafür werden u. a. auch Trends oder andere zeitliche Veränderungen betrachtet, denn wie soll sonst festgestellt werden, dass der Prozess sich geändert hat?

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Markus,

    hach ja, wie schön, dass die statistischen Methoden gleich mal gar nicht explizit erwähnt werden. Das erleichtert die Diskussionen über Sinn und Zweck von Statistik nicht [}:)]

    Die Antwort auf die Frage, ob eine MSA notwendig ist, lautet: Es kommt darauf an.

    Wenn bei der Risikobewertung für eine Messdatenaufnahme festgestellt wird, dass es sich um ein qualitätsrelevantes Maß handelt, muss es überwacht werden. Die Überwachung verwendet Messdaten (oder auch Prüfergebnisse bei attributiven Merkmalen) um zu entscheiden, ob die Messwerte gut genug sind.

    Wichtige Entscheidung auf Basis von Messdaten heißt, dass die Messwerte belastbar sein müssen. Um das Festzustellen, gibt es verschiedene Möglichkeiten, z. B. den theoretischen Ansatz (Methode A, s. VDA Band 5, ISO 22514-7) und den praktischen Ansatz (Methode B, s. VDA Band 5, MSA 4, ISO 22514-7). Wie viel und welche Methoden zum Einsatz kommen, ist wiederum eine Entscheidung in der Risikobewertung.

    Meine Empfehlung ist gerade bei kritischen Merkmalen immer, in der praktischen Anwendung zu schauen, ob das gut genug funktioniert für die Auswertungen, die ich machen möchte oder muss, z. B. Produkt-Bewertung, Prozess-Bewertung, Prozess-Überwachung, DoE usw. Ich hab leider schon viel zu oft gesehen, dass scheinbar super Messmittel/-prozesse in der tatsächlichen Anwendung eine viel zu hohe Streuung oder einen systematischen Versatz oder irgend etwas anderen Unschönes hatten. Besonders ärgerlich ist das, wenn Du erst nach mehreren Jahren feststellst, dass Deine Prozess-Probleme tatsächlich Messunsicherheits-Probleme sind und es niemand gemerkt hat, weil „wir so viele andere wichtigere Dinge machen müssen“.

    Also kurz gesagt: keine MSA-Pflicht für jedes Messmittel, aber eine (dokumentierte!) Risikobewertung und die Umsetzung der Entscheidung aus der Risikobewertung. So verstehe ich das und bin gespannt, was die anderen meinen.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: MSA Verfahren 1 oder 4? #63077

    Hallo Christopher,

    Ursprünglich veröffentlicht von Christopher4416Ich habe verstanden, dass eine Durchführung des Verfahrens 1 erforderlich ist./quote]
    Nupp, das Verfahren 1 ist EINE von unterschiedlichen Möglichkeiten, um Messmittel zu bewerten. Es handelt sich um eine „deutsche“ Methode, die vom VDA (Verband der Automobilindustrie) entwickelt wurde. Weltweit finden sich häufiger Anwendungen für MSA 4 (AIAG, amerikanischer Automobilherstellerverband), in der kein Verfahren 1 auftaucht und auch keine ähnliche Methode.

    Allerdings hast Du ohne Normal oder Masterteil/Referenzteil, für das Du den Wert kennst, keine Chance, eine systematische Abweichung zu untersuchen. Das ist dann egal, wenn die systematische Abweichung konstant (auch über die Zeit) ist und es Dir nicht um die Messwerte selbst, sondern um die Streuung von Wiederholmesswerten in der Anwendung Deines Messmittels geht.

    Dasselbe gilt für ein Referenzteil, das keine Messdaten mit Deinem Messsystem oder völlig andere Messprinzipien als Deine eigentlichen Proben erfordert. Damit lässt sich keine systematische Abweichung ermitteln.

    So etwas Ähnliches gilt auch für Verfahren 4 (Untersuchung von Linearität und systematischer Abweichung, Beschreibung in MSA 4 oder Bosch-Heft 10): ohne Normale oder Referenzteile, die dem normalen Anwendungsspektrum entsprechen, lässt sich auch bei mehreren Normalen und Referenzteilen bzw. -proben keine Aussage machen, ob Dein Messmittel für die Anwendung ausreichend genau ist. Verfahren 4 erfordert 5 echt unterschiedliche Teile oder Proben, die den gesamten Anwendungs-Wertebereich abdecken.

    Wenn es Dir „nur“ um die Genauigkeit, sprich Wiederholbarkeit und Reproduzierbarkeit von Messwerten geht, sind weder Verfahren 1 noch Verfahren 4 geeignet. Dann ist es eher die Gage R&R mit Verfahren 2 (mit Bedienereinfluss) oder Verfahren 3 (ohne Bedienereinfluss) sinnvoll, ggf. auch als geschachtelte Variante wenn die Probenqualität/-messwerte zeitlich instabil ist und die Prüfung damit als zerstörende Prüfung eingestuft wird.

    Alternativ kannst Du die Unsicherheiten von allen möglichen Komponenten Deines Messmittels zusammensammeln und eine Messsystem- und Messprozess-Unsicherheitsbewertung nach ISO 22514-7 durchführen. Erinnert ein bisschen an das, was auch im VDA Band 5 steht in Kombination mit GUM.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo hawaiitoast,

    wenn Dein Kunde eine Fähigkeit nach VDA Band 5 fordert, ist damit (vermutlich) die Messmittelfähigkeit nach Verfahren 1 gemeint. Ohne Normal oder Masterteil, von dem Du den wahren Wert kennst bzw. ermittelt hast, kannst Du bei der Messmittelfähigkeit keine systematische Abweichung ermitteln und damit auch keinen (sinnvollen) C_gk-Wert angeben. Und wenn der Kunde diese Fähigkeitskennzahlen sehen will, kannst Du den Schritt auch nicht einfach überspringen, wenn kein Normal vorhanden ist. Ich würd einfach mal den Kunden anrufen und ihn fragen [:)] Es gibt im VDA Band 5 für die Messmittelfähigkeit keinen Alternativweg ohne Normal und auch keinen für einseitige Toleranzen.

    Ob die Justierung mit den Platten ausreicht, kann ich nicht beurteilen. Letztlich muss über die Risikobewertung entschieden werden, ob die Justierung für Euren Anwendungsfall ausreichend gut ist. (Das ist keine statistische Fragestellung.)

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo hawaiitoast,

    es gibt nicht „die“ MSA, sondern verschiedene Methoden mit unterschiedlichen Anforderungen an die Teile-Anzahl und bekannte Referenzwerte (Referenzwert = Wert, der als wahrer/tatsächlicher Wert des Teils verwendet wird). Häufige MSA-Methoden sind:

    +Verfahren 1 / Typ 1 / Prüfmittelfähigkeit / Messmittelfähigkeit:
    Wiederhol-Messwerte durch 1 Prüfer an 1 Teil mit bekanntem Referenzwert

    +Linearität & systematische Abweichung
    Wiederhol-Messwerte an 3-5 Teilen mit bekanntem Referenzwert durch 1 Prüfer

    +Verfahren 2 / Gage R&R (mit Bedienereinfluss) / Mess-System-Analyse gekreuzt / Mess-System-Analyse geschachtelt
    Wiederhol-Messwerte (gekreuzt) oder Quasi-Wiederhol-Messwerte (geschachtelt) an 5-10 Teilen bzw. Teile-Typen (höhe Ähnlichkeit für jeden einzelnen Teile-Typ, z. B. gleiche Herstellungsbedingungen, Chargen usw.) durch 2-3 Prüfer
    Die ausgewählten Teile bzw. Teile-Typen sollten unterschiedlich sein. Referenzwerte werden nicht benötigt.

    +Verfahren 3 / Gage R&R (ohne Bedienereinfluss)
    Wiederhol-Messwerte an 25 verschiedenen Teilen bzw. Teile-Typen wenn Messwerte unabhängig von Prüfern sind (z. B. vollständig automatische Inline-Messung)
    Die ausgewählten Teile bzw. Teile-Typen sollten unterschiedlich sein. Referenzwerte werden nicht benötigt.

    Und dann gibt es noch diverse andere Bewertungsmethoden, die u. a. in der ISO 22154-7 beschrieben werden, z. B. die Berücksichtigung der Unsicherheit am Prüfobjekt, die Frank Hergt angesprochen hat.

    Wenn Du nur 1 Teil mit bekanntem Referenzwert und keine anderen Teile hast, kannst Du nur Verfahren 1 machen. (Ob das dann wirklich ausreichend ist, ist ein anderes Thema. Nur weil irgendwo das Wort „Fähigkeit“ auftaucht, ist das meiner Erfahrung nach oft zu wenig für die Bewertung der Messunsicherheit in der praktischen Anwendung.)

    Wenn Du eine Handvoll oder mehr Teile (mit oder ohne Referenzwert) hast, kannst Du Verfahren 2 oder Verfahren 3 durchführen.

    Wenn Du 3 (lt. VDA) bzw. 5 (lt. AIAG) Teile mit bekannten Referenzwerten hast, kannst Du die Linearität und systematische Abweichung untersuchen.

    Um zu entscheiden, welche Methode(n) ausreichen, musst Du Dich fragen, wie intensiv Du die US-Messung untersuchen willst und welche Unsicherheits-Komponenten wahrscheinlich sind und bewertet/untersucht werden sollen. Ich würde auf jeden Fall verschiedene Prüfer nehmen (Verfahren 2), wenn unterschiedliche Personen Messwerte aufnehmen. Ggf. können auch unterschiedliche Materialien interessant sein, je nachdem wie unterschiedlich die Sinter-Rohstoffchargen sind. Manchmal hilft auch die Nachfrage beim Messmittel/Messgeräte-Hersteller, welche Unsicherheitskomponenten dort bei der Unsicherheitsbewertung berücksichtigt werden und wie systematische Abweichungen ermittelt werden können.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Moin,

    die 10%-von-Toleranzbreite kenne ich aus MSA 4 (AIAG), wobei sich diese Forderung auf die Anzahl Messwerte im Toleranzbereich bezieht, NICHT auf den zeitlichen Einsatz eines Prüfmittels und es streng genommen auch keine Vorgabe zur Toleranz, sondern zum Anwendungsbereich ist.

    Kann es sein, dass es da mit dem Kunden eine Missverständnis bei der Frage nach dem Prüfintervall gab?
    Messmittelbewertung: Prüfintervall = Wertebereich, in dem das Messmittel angewendet wird (z. B. 5-10mm)
    Prüfmittelüberwachung: Prüfintervall = (Ende des) Zeitraum(s), im dem das Messmittel eingesetzt werden darf (z. B. 03.01.2015-02.01.2016)

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stefan,

    es gibt keine Berechnungsmethode, die unabhängig von der Art der Messdaten, des Prozesses und der Einflüsse im Prozess belastbare Fähigkeitskennzahlen liefert. Auch die nicht-parametrischen Fähigkeitswerte aus dem R-package „tolerance“ funktionieren nur dann zuverlässig, wenn die Prozess-Ergebnisse in jeder Stichprobe dieselbe Verteilung haben. Es ist nur unwichtig, wie genau diese Verteilung aussieht, solange sie immer gleich aussieht.

    Sobald wichtige Einflüsse im Prozess die Messwerte verändern, so dass sie schief werden, mehrere Häufungspunkte / Gipfel haben, über die Zeit Trends / Hüpfer / Sprünge auftreten, müssen die Einflüsse gefunden und mathematisch erfasst werden, um die Prozessleistung beurteilen zu können. Eine zuverlässige Bewertung von Prozessen mit Einflüssen ist mit keiner der heute gängigen Berechnungsmethoden für Prozessfähigkeitswerte möglich.

    Kennzahlen mit wenig bis keiner Aussagekraft gibt es natürlich immer. Und klar kennt die Statistik auch Möglichkeiten, Prozesse mit Einflüssen hinsichtlich ihrer Leistungsfähigkeit zu bewerten, nur eben nicht mehr über 1-3 Formeln. (Kurzer Werbeblock: In meinem Buch steht eine Schritt-für-Schritt-Anleitung, wie das geht. Infos dazu NOT-Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R. )

    Auch bei den Toleranzberechnungen ist für Kennzahlen nach den verwendeten Formeln in „tolerance“ ein Prozess ohne relevante Einflüsse Voraussetzung. Im Unterschied zu Prozessfähigkeitswerten gibt es für die Toleranzrechnungen Formeln, mit denen für Prozesse mit Einflüssen die Toleranzgrenzen ermittelt werden können. Dafür müssen die Einflüsse zuerst über ein statistisches Prozess-Modell (z. B. ANOVA, Regression,…) beschrieben werden.

    Diese Formeln sind allerdings nicht Excel-tauglich und ich kenne kein Programm, in dem die hinterlegt sind. Beschrieben werden die Formeln in

    Krishnamoorthy, Kalimuthu; Mathew,Thomas (2009). Statistical Tolerance Regions: Theory, Applications, and Computation.
    Wiley. ISBN: 9780470380260.
    Achtung: Das ist ein Statistik-Fachbuch und auch mit mathematischem Hintergrundwissen eine Herausforderung (s. Blick ins Buch bei Amazon).

    Letztlich ist die Prozessfähigkeitsbewertung auch mit statistischen Methoden davon abhängig, wie gut Du Deinen Prozess und die Einflüsse im Prozess kennst, nur dass bei der Statistik eben noch ein paar mehr Verfahren dazu kommen, sobald es relevante Einflüsse im Prozess gibt (was meiner Erfahrung nach so gut wie immer der Fall ist). Wenn Du wenig bis kein greifbares Wissen über die Einflüsse und Wirkstrukturen im Prozess hast, kann kein Prozessfähigkeitswert bzw. keine Formel eine belastbare Bewertung liefern.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 15 Beiträgen – 61 bis 75 (von insgesamt 2,697)