Verfasste Forenbeiträge

Ansicht von 15 Beiträgen – 76 bis 90 (von insgesamt 2,697)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Und noch ein Nachtrag: Selbst mit 100 Messwerten ist ein Cpk-Wert von 1,4 immer noch reichlich unscharf:

    Cpk = 1,4 mit n=100
    95%-KI: (1,194 ; 1,606)

    Diskussionen über die zweite Nachkommastelle sind unsinnig, wenn nicht mehrere hundert Werte vorliegen (und die Voraussetzungen erfüllt sind).

    Hier noch ein Bild zum Unsicherheits-Streubereich des Cpk für Cpk=1,4: Cpk Streubreite

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Robert,

    auch wenn es auf den ersten Blick merkwürdig erscheint, sind die Cpk-Zahlen 1,4 (mit 5 Werten) und 1,0 (mit 50 Werten) aus statistischer Sicht gleich. (Natürlich wissen auch Statistiker, dass die Zahl 1,0 und die Zahl 1,4 unterschiedlich sind [:D])

    Kennzahlen sind zusammengefasste Informationen. Je breiter die Informationsbasis ist (=je mehr Messwerte vorliegen), desto stabiler bzw. zuverlässiger ist eine Kennzahl. Je weniger Messwerte vorhanden sind, desto schmaler wird die Basis und desto wackeliger oder weniger aussagekräftig die Kennzahl.

    Die Aussagekraft von Kennzahlen ist unterschiedlich empfindlich, d. h. eine halbwegs robuste Kennzahl wie der Mittelwert lässt sich bei normalverteilten Messreihen ganz brauchbar mit 30 oder mehr Werten angeben, während sehr empfindliche Kennzahlen wie der Cpk (oder jede andere Prozessfähigkeitskenngröße) erst bei 100 oder mehr Werten halbwegs belastbare Ergebnisse liefert (immer vorausgesetzt, die anderen Voraussetzungen an Mess-System, Verteilung und Prozess-Stabilität sind erfüllt).

    Weil die allermeisten Kennzahlen aus Stichproben berechnet werden (und nicht aus 100% Aufnahmen), verwenden sie immer nur einen Teil der möglichen Informationen. Die Gesamtheit der Werte wäre z. B. für Deinen Prozess alle Werte aller gefertigten Teile aus dem 50-fach Werkzeugen seit der Inbetriebnahme (=Grundgesamtheit). Aus dieser Grundgesamtheit wird eine Stichprobe entnommen, z. B. 5 Werte. Diese Werte enthalten damit nur einen minimalen Bruchteil aller möglicher Informationen aus der Grundgesamtheit. Dennoch wird oft versucht, aus wenigen Werten auf das große Ganze zu schließen, z. B. aus 5 Werten den tatsächlichen Mittelwert aller gefertigten Teile einer Stunde zu berechnen (geschätzter Mittelwert).

    Um die Sicherheit oder Aussagekraft einer Kennzahl besser einschätzen zu können, werden Unsicherheits-Streubereiche / Vertrauensbereiche / Konfidenzbereiche / Konfidenzintervall (KI) verwendet, die ein Intervall angeben, das den tatsächlichen Wert mit einer vorgegebenen Sicherheit oder Wahrscheinlichkeit überdeckt. Ein Beispiel: Wenn Du 5 Messwerte von einem normalverteilten Merkmal hast mit einem berechneten Mittelwert von 20µm und einer Standardabweichung von 0,2µm, dann liegt der tatsächliche Mittelwert in Deiner Grundgesamtheit mit 95%-iger Sicherheit/Wahrscheinlichkeit zwischen 19,77µm und 20,23µm (was ein ganz schön großer Bereich für den tatsächlichen Mittelwert ist).

    Für normalverteilte Werte gibt es Formeln, mit denen der Unsicherheits-Streubereich für den Cpk berechnet werden kann (s. z. B. Size matters. How good is your Cpk really?, diese Formel verwendet auch Minitab). Hier einige Beispiel-Werte:

    Cpk = 1,4 mit n=5 Werten
    95%-KI für Cpk: (0,387 ; 2,413)
    D. h.: Mit 95%-iger Sicherheit liegt der tatsächliche Cpk-Wert Deiner Maschine zwischen Cpk=0,387 und Cpk=2,413.

    Cpk = 1,0 mit n=50 Werten
    95%-KI für Cpk: (0,782 ; 1,218)
    D. h.: Mit 95%-iger Sicherheit liegt der tatsächliche Cpk-Wert Deiner Maschine zwischen Cpk=0,782 und Cpk=1,218.

    Da sich die beiden Unsicherheits-Streubereiche überschneiden, gibt es keine echten Unterschiede zwischen 1,4 und 1,0, wenn die Unsicherheit in den Cpk-Kennzahlen berücksichtigt wird.

    Da es eine sehr große Chance gibt, dass die mit wenigen Werten berechneten Cpk-Werte auch (zufällig) mal deutlich kleiner als 1,33 sind und auf einmal viele Menschen extrem hektisch werden (obwohl der Prozess völlig normal läuft), würde ich dringend über die Auswertungsstrategie nachdenken. Zuverlässiger wären Qualitätsregelkarten für Mittelwert und Standardabweichung, weil die auch mit Stichprobengruppen von 5 Werten Tendenzen und Prozess-Veränderungen anzeigen können. Wenn es ganz unbedingt Cpk-Werte sein müssen, würde ich mindestens die letzten 100 Werte nehmen, um zusammen mit anderen Prüfkriterien (z. B. Prozess-Stabilität) die Prozessleistung halbwegs belastbar einschätzen zu können.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Frohe Weihnachten ! #63028

    Einen guten Start in ein gesundes und erfolgreiches 2016 wünsch ich Euch [:)]

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: MSA #63007

    Hallo mk,

    erstmal vorweg: Seit Mitte 2010 (Erscheinen MSA4) wird für die Auswertung die ANOVA-Methode statt der Mittelwert-Spannweiten-Methode von AIAG & VDA empfohlen, vgl. MSA4, S. 124, 3. Absatz, letzter Satz:
    „The ANOVA method as described in the following sections is advised, especially if a computer is available.“
    Ich würd deshalb vermeiden, jetzt ein weiteres Excel-Sheet mit der Mittelwert-Spannweiten-Methode zu validieren und wenn die ANOVA-Methode verwenden. Das geht auch in Excel; ein Beispiel dafür findest Du u. a. in der Q4U-Vorlagensammlung.

    BTW: Ich würde grundsätzlich in Frage stellen, ob das Kosten-Nutzen-Verhältnis aus Aufwandssicht tatsächlich positiv für Excel bei Auswertungen ist, die mehr als nur eine Handvoll Kennzahlen berechnen.

    Mal zurück zu Deiner Frage: Welche Arten von Grenzen UGW und OGW meinst Du? Wenn es um die Grenzen für den Referenzbereich geht, um GRR% auszurechnen, findest Du diverse Möglichkeiten auf Seite 121 oben (mit Erläuterungen auf 121 und 122), z. B. die Streuung in der Untersuchung (study variation), die Fertigungsstreuung (historical variation information) oder die Toleranz.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: 9001:2015 Prozesse #63006

    Hallo Markus,

    Tabellen zum Anschauen & damit-Arbeiten find ich brauchbar, wenn in den Zellen kurze, knappe Dinge wie z. B. Zahlen oder eine sehr kleine Menge Buchstaben stehen. Bei größeren Textblöcken leidet die Lesbarkeit zu stark, deshalb würd ich keine Tabellen dafür nehmen.

    Just my 2cents [:)]

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo fury,

    hach, Göttin – ick fühl ma geschmeichelt [:D]

    In Minitab findest Du Stichprobenumfänge bzw. Prüfpläne für die messende Prüfung unter

    Statistik > Qualitätsmanagement > Annahmestichprobenprüfung nach Variablen > Erstellen/Vergleichen

    Dafür brauchst Du folgende Kenngrößen:
    AQL (akzeptable Ausschussrate)
    LQ/RQL (Ausschussrate, die gefunden werden soll)

    Lieferantenrisiko alpha: max. Risiko für Fehler 1. Art (Fehlalarm), typischerweise 5% = 0,05
    Abnehmerrisiko beta: max. Risiko für Fehler 2. Art (Nicht-Entdecken schlechter Qualität), keine typischen Werte, Festlegung nach Risikobewertung, z. B. 1% = 0,01 für kritische Fehler

    Spezifikationsgrenze oder Spezifikationsgrenzen (je nach Vorgabe)
    historische Standardabweichung (immer sinnvoll, wenn Du einen belastbaren Wert aus der Fertigung dafür hast)

    Losumfang kann leer bleiben (wird NICHT für die Berechnung des Stichprobenumfangs benötigt, sondern nur für die Prüfung, ob genügend Teile für die Prüfung vorhanden sind)

    > OK

    In dem Menü kannst Du auch die Risiken und Annahmewahrscheinlichkeiten von verschiedenen Plänen miteinander vergleichen. (Liefert oft sehr interessante Ergebnisse, wenn Du den berechneten Plan mit dem AQL-Plan nach DIN 3951 vergleichst.)

    Wenn Du die benötigte Anzahl Werte zusammen hast, kannst Du über

    Statistik > Qualitätsmanagement > Annahmestichprobenprüfung nach Variablen > Los annehmen/zurückweisen

    die Entscheidung treffen oder auch mit dem angegebenen k-Faktor aus der Berechnung des Stichprobenumfangs.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo fury,

    ob Eure Vorgehensweise für die FDA ausreicht, lässt sich nicht allgemein beantworten. Ich kenne sowohl Firmen, bei denen AQL durch die FDA-Inspektoren (noch) akzeptiert wird als auch Firmen, deren Produktion stillgelegt wurde, weil die Begründungen für die AQL-Verwendung zu schmal war.

    Die heute wichtigste Frage bei der Wahl der Stichprobenprüfung ist: „Können wir damit ZUVERLÄSSIG Risiken (möglichst frühzeitig) erkennen?“

    Beim AQL-System ist nach Durchsicht der benötigten Stichprobenumfänge um 1940 entschieden worden, dass die Kosten-Nutzen-Relation unwirtschaftlich ist (meine Vermutung), und es wurden Stichprobenumfänge nach dem Motto „Hab ich viel prüf ich viel, hab ich wenig prüf ich wenig“ erstellt. Das hat mit Absicherung und Risikomanagement nur am Rande zu tun, deshalb haken FDA-Inspektoren und andere Auditoren auch gerne mal nach, was hinter der Prüfung steckt und wie die Rationale aussieht.

    Die zero-acceptance-Pläne von Squeglia sind schon etwas näher an berechneten Stichprobenplänen dran, d. h. hier wird echt gerechnet und damit zumindest ein Teil des Risikos bei statistischen Tests berücksichtigt. (Genauer: Risiko für Fehler 1. Art alpha bzw. Vertrauensniveau wird vorgegeben.) Bei den Stichprobenplänen von Squeglia fehlt allerdings genauso wie bei AQL die Bewertung bzw. Berücksichtigung des zweiten Risikos „Wie hoch ist das Risiko zu übersehen, dass der Prozess schlecht läuft?“ (beta-Risiko, auch Konsumentenrisiko, 1-beta = Trennschärfe, Güte, Power).

    In Deutschland sind diese Pläne u. a. beim VDA (Band 3.2) unter dem Stichwort „Success Run“ oder „0-failure-plan“ zu finden, alternativ in dem von Dir angesprochenen Buch von Squeglia (Beschreibung Squeglia Buch 5. Edition bei ASQ.org). Allerdings sind die Pläne von Squeglia nur und ausschließlich für die prüfende/attributive Prüfung gedacht, d. h. für messende Prüfungen ungeeignet. Wenn Ihr also überwiegend Messwerte habt (was immer mehr Informationen als Attribut-Prüfungen liefert und deshalb bevorzugt verwendet werden sollte), kommt ihr mit Squeglia nicht weiter.

    Ein kleines Beispiel dazu: Auf der Seite http://www.sqconline.com gibt es neben vielen Informationen zu Stichproben-Normen und -Plänen auch einen Stichproben-Rechner für Squeglias Pläne. Als Beispiel habe ich AQL = 1,0% gewählt für eine Lot-Größe von 51 bis 90. Hier sollen 13 Teile geprüft werden (mit Annahmezahl c=0 natürlich).

    Was für eine Informationsgehalt hat diese Prüfung? Frank Hergt hatte hier mal eine sehr schöne Daumenregel für die attributive Prüfung beschrieben, sinngemäß: Deine Stichprobe sollte mindestens so groß sein, dass Du eine Chance auf mindestens ein Ausschussteil hast. Bei einem AQL-Wert von 1,0% (= 1% Ausschuss ist AKZEPTABEL!!!) müssen mindestens 100 Teile geprüft werden, damit die Chance auf 1 Ausschussteil besteht. (Tatsächlich muss der Stichprobenumfang noch sehr viel höher sein, damit auch eine sichere Entscheidung getroffen werden kann, nur weniger als 100 Teile sind in jedem Fall zu wenig.)

    Die Statistik liefert nicht nur seltsame Formel-Zeichen, sondern kann auch dabei helfen einzuschätzen, wie sinnvoll ein Stichprobenplan ist bzw. wie viel Sicherheit die Prüfung liefert.

    Attributive Prüfung mit AQL = 1%, Losumfang 51 bis 90 Teile
    0-acceptance Plan nach Squeglia: n=13 prüfen, c=0 Annahmezahl

    Fall 1: Im Los sind tatsächlich 1% Schlecht-Teile
    Annahmewahrscheinlichkeit für dieses Los = 99,9% (scheint ok zu sein, denn AQL=1% wurde angenommen)

    Fall 2: Im Los sind tatsächlich 5% Schlecht-Teile (= 5 mal so viel wie akzeptabel)
    Annahmewahrscheinlichkeit für dieses Los = 99,4%. Ups.

    Je kleiner die AQL-Werte werden, desto weniger Sicherheit kann mit einer Handvoll Prüfergebnissen (attributive Prüfung) erreicht werden.

    Was für ein Glück, dass Du überwiegend messende Prüfungen hast [:D]

    Hier funktioniert das Rechnen deutlich besser als das Ablesen aus Normen oder Büchern (besser = gezieltere Auswahl & Vorgabe der Absicherung bei angemessenem Stichprobenumfang). Das Berechnen selbst ist ein schrittweises Verfahren, deshalb ist die Verwendung einer Statistik-Software sehr sinnvoll, z. B. GPower oder Minitab. Um die Stichprobenumfänge zu berechnen, brauchst Du Kennzahlen aus dem Prozess und Prozess-Wissen. Nach meiner Erfahrung wird diese Vorgehensweise von Auditoren und der FDA akzeptiert, wenn die Begründungen nachvollziehbar sind.

    Hope this helps,

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: QM-F #62991

    Hallo varela,

    bitte poste Deine Frage im Thread QM-Prüfung.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Patrick,

    freut mich, dass Dir meine Beiträge weiterhelfen [:)]

    quote:


    Ursprünglich veröffentlicht von Dickes_P
    Wenn ich (angelehnt an das Bild meines letztens Pots) Resonator 3 heranziehe – der schlechteste von den akzeptierten Resonatoren – kann ich darauf basierend natürlich keine OEG/UEG bestimmen.

    Viel mehr bestimme ich dann TOLERANZgrenzen (deswegen ja auch dein Hinweis auf „Produktbewertung“ in Abgrenzung zur SPC in deinem vorigen Post).


    Es ist völlig egal, ob Du Regelkarten-Grenzen oder Toleranz-Grenzen ermittelst. Solange Du mit Mittelwerten und Standardabweichungen rechnest, läuft im Hintergrund bei diesen Verfahren IMMER die Annahme mit, dass die Messwerte normalverteilt sind und der Prozess stabil ist.

    Bei der statistischen Toleranzgrenzen-Berechnung gibt es allerdings (anders als bei den üblicherweise verwendeten Regelkarten) eine alternative Berechnungsmethode über so genannte verteilungsfreie oder nicht-parametrische Verfahren. Dafür wird keine Normalverteilung benötigt, vielmehr müssen in den Messdaten alle wie auch immer gestalteten Strukturen drinsein, d. h. dafür werden VIELE Messwerte benötigt.

    Um z. B. einen Toleranzbereich mit 99,73% Abdeckung und einem Vertrauensniveau von 95% OHNE Normalverteilung berechnen zu können, brauchst Du ca. 1800 Messwerte, d. h. die Ergebnisse von 60 Resonatoren, die die gesamte Bandbreite mit allen Kühlmittel-Effekten und sonstigen Einflüssen beinhalten (jedenfalls von den noch akzeptablen Resonatoren). Die Formeln für diese Toleranzgrenzen sind frei von Mittelwert und Standardabweichung und ermitteln die Grenzwerte iterativ.

    quote:


    Ursprünglich veröffentlicht von Dickes_P
    Aber wie realistisch ist diese Forderung:
    +gleiche Mittelwerte
    +gleiche Streuung
    +zeitliche Stabilität
    in ALLEN Messwerten.

    überhaupt?

    Ich denke hier an zahlreiche Faktoren bei einer Produktionsanlage:
    –> wechselnde Bediener
    –> schwankende Qualität des Rohmaterials
    –> schwankende Umgebungsbedingungen
    –> Werkzeugverschließ
    … etc.


    Prozess-Stabilität fällt selten vom Himmel. Meistens sind größere Anstrengungen notwendig, um einen Prozess und seinen Einfluss-Strukturen ausreichend gut erfassen zu können. Wenn diese Strukturen erkannt und zahlenmäßig greifbar sind, bleiben noch kleine Unsicherheits-Effekte über, die sich meist aufaddieren und schwups, ergibt sich eine Normalverteilung (für die Residuen). Selbstredend wird das nie eine theoretisch perfekte Kurve, sondern immer eine Annäherung, nur müssen die Unterschiede zwischen Messwerten bzw. Residuen und Annahmen klein genug sein, damit die Methoden wie SPC/Regelkarten zuverlässig funktionieren und mehr sind als „Show Program for Customer“.

    Prozess-Stabilität aus statistischer Sicht heißt NICHT, dass alle Messwerte normalverteilt sind, sondern dass ein Zustand erreicht wird, in dem die Prozess-Ergebnisse für die nächste Stunde, den nächsten Tag, die nächste Woche… zuverlässig genug vorhersagbar sind.

    Das ist keine theoretische Elfenbeinturm-Anforderung von Statistikern mit zu viel (Forschungs-)Zeit [:o)], sondern ein auch für die Praxis sinnvoller Ansatz, weil nur mit stabilen Prozessen dauerhaft eine hohe Prozess- und Produkt-Qualität zuverlässig erreicht werden kann. Die Anforderung zur Prozess-Stabilität ist auch kein neumodischer Schnickschnack, sondern seit mehr als 50 Jahren z. B. durch Deming, Montgomery, Taguchi, Wheeler u. v. m. beschrieben, begründet und gefordert.

    In Deutschland ist das mit der Statistik in Unternehmen bzw. in der Industrie außerhalb des Marketings immer noch schwierig, weil oft angenommen wird, die Voraussetzungen bei bestimmten Verfahren wären nur theoretische Hürden oder Futter für den Papiertiger. Ein Grund dafür ist aus meiner Sicht, dass es zu wenig Statistik-Fachwissen in den Unternehmen gibt und jeder sich ein bisschen durch den (Normen-)Dschungel kämpft, aber nur ein bisschen, weil das keinen Spaß macht, selten ein Mehrwert erkennbar ist und jeder auch noch viele andere wichtige Aufgaben hat. Das kann ich verstehen. Dennoch behindert das den Einsatz und die Umsetzung sinnvoller und geeigneter statistischer Methoden, die einen Mehrwert für Prozesse und Produkte liefern.

    quote:


    Ursprünglich veröffentlicht von Dickes_P
    Das funktioniert ja nur, wenn die Streuung in den Stichproben (also Resonatoren) nicht zu unterschiedlich ist. Doch was heißt das?
    Darf ein F-Test auf unterschiedliche Varianzen nicht zur Ablehnung von H0 „Varianz 1 = Varianz 2“ führen – und muss ich so alle Stichproben/Resonatoren vergleichen?


    Es wäre ziemlich aufwändig, jede Einzel-Paarung nacheinander zu testen, und es würde das Risiko für einen Fehlalarm deutlich nach oben treiben:
    1. Test: Ausbeute 95% richtige Testentscheidungen (wenn Varianzen gleich)
    2. Test: Ausbeute 95%*95% = 95%^2= 90%
    3. Test: Ausbeute 95%*95%+95% = 95%^3 = 86%
    5. Test: Ausbeute 95%^5 = 77%
    10. Test: Ausbeute 95%^10 = 60%
    15. Test: Ausbeute 95%^15 = 46%

    Für Streuungsvergleiche bei mehreren Messreihen gibt es z. B. die Tests nach Bartlett oder Levene, die die Hypothese „Ist mindestens eine Varianz/Dispersion/Streuung anders als die anderen“ prüfen.

    Alternativ könntest Du Dir auch die Unterschiede in den Kennzahlen der vier Berechnungsmöglichkeiten für die Streuung anschauen und prüfen, ob es größere Unterschiede gibt. Bei einem stabilen Prozess ist die Momentan-Streuung genauso groß wie die Langzeit-Streuung, d. h. die Kennzahlen sollten ähnliche Werte haben.

    Bei Regelkarten wird die Prüfung auf gleiche Varianzen meist grafisch ohne Testverfahren gemacht. Dafür werden die Messwerte der Reihe nach aufgezeichnet (Zeitreihe) und geschaut, ob sich Muster oder Strukturen erkennen lassen. Zur visuellen Unterstützung können hier auch schon Regelkarten-Grenzen in den Grafiken verwendet werden, auch wenn noch nicht klar ist, ob der Prozess stabil ist oder nicht. (Für die laufende Prozess-Bewertung und -Regelung benutzt sollten diese Grenzen erst nach dem Nachweis der Prozess-Stabilität werden!)

    Die Prüfung auf Prozess-Stabiltät, gleiche Varianzen/Streuungen und stabile Mittelwerte/Messwerte ohne Sprünge, Trends o. Ä. ist ein wichtiger Bestandteil der Vorserie/Phase I. Wenn der Prozess stabil ist, können die Regelkarten-Grenzen auf Basis der Messwerte in Phase I berechnet und für die fortlaufende Prüfung des Prozesses in der Serie/Phase II verwendet werden.

    Es gibt jede Menge Regeln für Regelkarten, mit denen systematische Effekte gefunden werden können. Eigentlich wäre das also eine Super-Spielwiese für die automatisierte Messwert-Bewertung, wenn da nicht die Probleme mit der Ausbeute bei Mehrfach-Tests wären (s. oben) und die Ungenauigkeiten bei der Muster-Erkennung.

    Wenn alle möglichen Tests auf systematische Effekte eingesetzt werden, gibt es ein sehr hohes Risiko für einen Fehlalarm (z. B. 40% bei 10 Tests). Deshalb ist es zielführender, sich auf wenige Tests zu beschränken und NIEMALS das Hinschauen und Überlegen wegzulassen. Da selbst bei Verwendung aller etablierten Regeln für Qualitätsregelkarten diverse Muster unerkannt bleiben können (z. B. kleinere Sägezahn-Muster) ist das Hinschauen und Beurteilen NOTWENDIG.

    D. h. das, was die Bediener/Prüfer heute schon bei den Resonatoren machen, ist ein essentieller Bestandteil der statistischen Prozesskontrolle/Qualitätsregelkartentechnik und wird höchstens durch ein paar weitere Kriterien ergänzt.

    quote:


    Ursprünglich veröffentlicht von Dickes_P
    Den Grad an Übereinstimmung zwischen den Beurteilern habe ich noch nicht statistisch untersucht, aber wir haben a) Erfahrungswerte vorliegen, dass der eine Beurteile Messungen akzeptiert, bei denen ein anderer, Instabilitäten erkannte.
    Und b) habe ich selber in einem Experteninterview den Test mit 4 Personen gemacht und konnte wieder diese Widersprüche feststellen.

    Den Grad an Übereinstimmung muss ich nicht quantifizieren – die bisherigen Erfahrungen motivieren schon genug, die Bewertung quantitativ auszulegen [;)]


    Wie oben schon geschrieben: Wenn Du einen quantifizierbaren, zahlenbasierten Ansatz für die Produktprüfung willst, finde einen alternativen Ansatz, in dem keine Qualitätsregelkarten auftauchen. Qualitätsregelkarten leben vom Prozess-Wissen und den Prozess-Kenntnissen der Mitarbeiter.

    Wenn sich die Mitarbeiter uneins sind, wann ein Prozess/Produkt gut oder schlecht ist, taugt die jetzt verwendete Prüfung nichts bzw. muss erst eine (modifizierte) Prüfung gefunden werden, bei der die Mitarbeiter konsistente Bewertungen zum Prozess/Produkt haben.

    quote:


    Ursprünglich veröffentlicht von Dickes_P
    Daraufhin kam die Idee, das Regelkartenprinzip einzusetzen trotz nicht idealer Datenlage. Anschließend kam die Idee, ein Excel-Tool zu „basteln“, welches die Messdaten einliest und per Knopfdruck die stat. Kennwerte berechnet und warnt, wenn Grenzen überschritten werden.


    Ich bin mir nicht ganz sicher, ob ich verzweifelt seufzen oder lachend auf dem Boden wälzen soll. Hoffentlich ist nach den ganzen Buchstaben oben klar, warum [xx(]

    Für mich sieht das nach einem toten Pferd aus, das gerade gesundgebetet werden soll (s. Weisheit der Dakota-Indiander. Da kannst Du nix für und vermutlich wusste Dein Chef/Betreuer auch nicht so genau, warum diese Vorgehensweise für eine statistische Absicherung wenig tauglich ist. Eine Prüfung, bei der die Zuverlässigkeit im Bereich des Kaffeesatz-Lesens liegen, ist für die belastbare Bewertung von Prozessen oder Produkten ungeeignet.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Teil 2: Geschachtelte MSA für die zerstörender Prüfung

    5 Teile-Typen sind ein Anfang, mehr unterschiedliche wären besser.

    Hast Du die 56 Wiederholmessungen an 1 Teile-Typ gemacht oder verschiedene verwendet?

    Auf die Frage, ob das Messsystem prinzipiell geeignet ist, gibt es nur die immer gültige Antwort „Es kommt darauf an.“ Über den dicken Daumen gepeilt: Wenn Deine Teile-Typen Mittelwerte von 20, 21, 22, 23, 24 haben, ist die Streuung mit 1,9 relativ groß und es wird schwierig, die unterschiedlichen Teile-Typen über die Messung voneinander zu unterscheiden. Hast Du dagegen Teile-Typen mit Mittelwerte von 15, 20, 25, 30, 35 sieht das schon anders aus.

    Bei der MSA werden grundsätzlich 2 verschiedene Kriterien untersucht:

    1) Ist die Prozess-Qualität über die Messung beurteilbar?
    Das ist die klassische Frage nach AIAG MSA 4, bei der die Streuung der Messung mit der Prozess-Streuung (in Minitab: historische Standardabweichung) oder mit der Streuung in der Untersuchung (weniger günstig) verglichen wird.

    2) Ist die Produkt-Qualität über die Messung beurteilbar?
    Hier geht es darum, wie gut iO- und niO-Teile über die Messwerte voneinander unterschieden werden können. Diese Frage stammt eher aus dem Bereich GUM, VDA Band 5, ISO 22514-7.

    Selbst wenn Du (noch) keine Toleranz hast, kannst Du prüfen, ob Frage 1) gut genug beantwortet werden kann und Du kannst auch ausrechnen wie groß Deine Toleranz mindestens sein müsste und das mit den voraussichtlichen Anforderungen vergleichen.

    Die MSA (gekreuzt und geschachtelt bzw. Verfahren 2 oder 3) untersucht immer nur, wie groß die Streuung ist. Ob das Messmittel eine systematische Abweichung hat, ist dabei irrelevant, deshalb reicht Verfahren 2 oder 3 alleine nicht aus.

    Um die systematische Abweichung zu ermitteln brauchst Du immer ein Referenzteil mit bekanntem Wert, entweder ein Normal oder ein entsprechend qualifiziertes Teil. Das ist natürlich bei der zerstörenden Prüfung eine Herausforderung. Da der Hersteller der Messmaschine und Kalibrierlabore sich damit beschäftigen, würde ich die danach fragen, wie systematische Abweichungen dort ermittelt werden. Eine Patentlösung gibt es dafür nicht.

    Ein Arbeitsblatt für die geschachtelte MSA sieht genauso aus wie ein Arbeitsblatt für die gekreuzte MSA mit dem Unterschied, dass statt der Teile-Nr. die Teile-Typ-Nr. verwendet wird. Erzeugen kannst Du solche Formulare in Minitab über

    Statistik > Qualitätswerkzeuge > Messsystemanalyse (MSA) > Arbeitsblatt für Messsystemanalyse erstellen
    oder
    Assistent > Messsystemanalyse (MSA) > Arbeitsblatt für Messystemanalyse

    Die geschachtelte MSA ist nur dann sinnvoll einsetzbar, wenn es außer den Teile-Typen noch (mindestens) eine weitere Unsicherheitsquelle wie z. B. den Prüfer gibt. Wenn ausschließlich Teile-Typen (und nichts sonst) miteinander verglichen werden, sind die Ergebnisse der MSA gekreuzt und MSA geschachtelt identisch.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Phil,

    willkommen im Qualitäter-Forum [:)]

    Ich teile meine Antwort auf 2 Beiträge auf, um es ein bisschen übersichtlicher zu kriegen.

    Teil 1: Auswertung von allgemeinen vollfaktoriellen Versuchsplänen
    (mehrstufige Pläne)

    Allgemeine vollfaktorielle Pläne sind nur und ausschließlich dafür gedacht, Kombinationen miteinander zu vergleichen und zu prüfen, ob es Kombinationen mit deutlich höheren oder niedrigeren Werten gibt. Z. B. kann damit untersucht werden, ob die Ergebnisse für
    (Form 1, Federlänge 175, Anpresskraft 40, Anpresszeit 5)
    mit
    (Form 1, Federlänge 195, Anpresskraft 30, Anpresszeit 15)
    vergleichbar oder anders ist.

    Es geht dabei NICHT um die Einstellwerte als solche, sondern nur um den Vergleich der Kombinationen. Wenn Du z. B. bei der Anpresskraft den Wert 20 auf 10 änderst, wirst Du im Ergebnis bei der Auswertung über das DoE-Menü in Minitab die identischen Werte im Sessionfenster & Grafiken bekommen. (Das ist keine Minitab-Eigenart, sondern eine DoE-allgemein-faktorielle-Pläne-Eigenart.)

    Die Ergebnisse aus dem DoE-Menü lassen sich exakt auch mit dem Varianzanalyse- (ANOVA) und dem Regressions-Menü in Minitab erzeugen, wenn in allen drei Menüs dieselben Vorgaben verwendet werden. Folgende Schritte liefern dasselbe für den allgemeinen vollfaktoriellen Plan (Schritte in Minitab 17, in 16 ist der Ablauf etwas anders):

    Statistik > Versuchsplanung (DOE) > Faktoriell > Faktoriellen Versuchsplan analysieren
    Antwort: Y (oder Messwert oder wie auch immer die Spalte mit den Ergebnissen heißt)
    > OK

    Statistik > Varianzanalyse (ANOVA) > Allgemeines lineares Modell > Allgemeines lineares Modell anpassen
    Antwort: Y
    Faktoren: Form Federlänge Anpresskraft Anpresszeit
    Kovariaten: [leer lassen]
    > Modell: alle Faktoren auswählen, Wechselwirkung bis Ordnung 4 hinzufügen
    > OK

    Statistik > Regression > Regression > Regressionsmodell anpassen
    Antwort: Y
    Stetige Prädiktoren: [leer lassen]
    Kategoriale Prädiktoren: Form Federlänge Anpresskraft Anpresszeit
    > Modell: alle Faktoren auswählen, Wechselwirkung bis Ordnung 4 hinzufügen
    > Kodierung: (-1;0;+1) auswählen
    > OK

    Standardisierte Effekte und Pareto-Diagramme der Effekte gibt es für allgemeine vollfaktorielle Versuchspläne nicht.

    Sinnvoller als die übliche DoE-Auswertungsstrategie für allgemeine vollfaktorielle Pläne mit dem Vergleich von Kombinationen ist es, die variablen Faktoren wie Federlänge, Anpresskraft und Anpresszeit auch als variable Einflüsse im Modell zu berücksichtigen. Das geht nicht über das DOE-Menü in Minitab, sondern nur über Varianzanalyse oder Regression.

    Statistik > Varianzanalyse (ANOVA) > Allgemeines lineares Modell > Allgemeines lineares Modell anpassen
    Antwort: Y
    Faktoren: Form
    Kovariaten: Federlänge Anpresskraft Anpresszeit
    > Modell: alle Faktoren auswählen, Wechselwirkung bis Ordnung 4 hinzufügen
    > Kodierung:
    Kodierung der Faktoren: (-1;0;+1) auswählen
    Kovariaten standardisieren: Kodierung von -1 bzw. +1 für tiefe bzw. hohe Stufe festlegen
    > OK

    Statistik > Regression > Regression > Regressionsmodell anpassen
    Antwort: Y
    Stetige Prädiktoren: Federlänge Anpresskraft Anpresszeit
    Kategoriale Prädiktoren: Form
    > Modell: alle Faktoren auswählen, Wechselwirkung bis Ordnung 4 hinzufügen
    > Kodierung:
    Kodierung für kategoriale Prädiktoren: (-1;0;+1) auswählen
    Stetige Prädiktoren standardisieren: Kodierung von -1 bzw. +1 für tiefe bzw. hohe Stufe festlegen
    > OK

    (Beide Wege liefern identische Ergebnisse. Ggf. kann auch über „Schrittweise“ automatisch eine Vorauswahl der relevanten Terme gewählt werden.)

    Bewertet werden die Effekte über die p-Werte in der Varianzanalyse-Tabelle, egal ob es eine DoE-Auswertung, ein ANOVA- oder ein Regressions-Modell ist. Dabei werden die nicht-signifikanten Terme von unten nach oben (von 4-fach bis direkter Wirkung) ausgeschlossen, i. A. bei der automatischen Auswahl mit einem Grenzwert für p von 0,15=15% und bei der manuellen (Nach-)Auswahl mit einem Grenzwert für p von 0,05=5%. Das Modell sollte dabei immer hierarchisch sein, um eine möglichst hohe Stabilität in den Aussagen zu bekommen.

    WIchtig und sinnvoll ist auch ein Blick auf die Residuendiagramme, die in den DoE-, ANOVA-, Regressions-Menüs jeweils unter dem Knopf „Grafiken“ angefordert werden können.

    Wenn die Modell-Qualität hoch genug ist und es keine Anzeichen für eine unzureichende Erklärung der Ursache-Wirkungs-Beziehung gibt, sind die Faktordiagramme in den DoE-, ANOVA-, Regressions-Menüs sehr gut, um die Wirkungen der Einflussgrößen grafisch darzustellen. Auch nett sind Konturdiagramme oder (wer es 3-dimensionaler mag) Wirkungsflächendiagramme.

    Diese Grafiken lassen sich nach der Modellierungs-Rechnung in den jeweiligen Menüs zu DOE, ANOVA und Regression finden (nur in dem Menü, mit dem auch das Modell gerechnet wurde!) Ich bevorzuge dafür das Regressions-Menü, weil dort auch für die variablen Einflüsse Faktordiagramme verfügbar sind, während im ANOVA-Menü nur für die attributiven Einflüsse Faktordiagramme erstellt werden.

    Beim Finden von günstigen oder ungünstigen Einstellungen hilft die Zielgrößenoptimierung, die in Minitab 17 in allen drei Menüs DOE, ANOVA, Regression verfügbar ist, sobald ein Modell berechnet wurde.

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Patrick,

    danke für Deine Ergänzungen [:)]

    Damit für einen Prozess belastbare, zuverlässige, brauchbare Regelkarten-Grenzen UEG und OEG berechnet werden können, MUSS dieser Prozess stabil sein und damit auch stabile Messwerte liefern. Stabil heißt insbesondere:
    +gleiche Mittelwerte
    +gleiche Streuung
    +zeitliche Stabilität
    in ALLEN Messwerten.

    Deine Bilder zeigen dagegen, dass weder die Mittelwerte noch die Streuung stabil sind und es systematische Veränderungen über die Zeit (mit den 30 Messwerten bei 1 Resonator) gibt. Damit sind die UEG- und OEG-Werte egal nach welcher Formel unzuverlässig und liefern keine haltbare Grundlage für die Beurteilung neuer Messwerte/Resonatoren.

    Eine direkte Auswirkung der Berechnung von UEG und OEG auf Basis von nicht-stabilen Messwerten ist, dass die Formeln mit der durchschnittlichen gleitenden Spannweite (MRquer) und die mit der Standardabweichung (S) sehr unterschiedliche Ergebnisse liefern. Bei einem stabilen Prozess wären die Ergebnisse ähnlich, weil die mittelere lokale Streuung (von jeweils 2 benachbarten Werten) und die globale Streuung (Gesamt-Standardabweichung) ähnlich wären.

    Wheeler hat Recht, wenn er darauf hinweist, dass bei Einzelwertkarten nicht einfach statt des mittleren MR-Werts mit dem Faktor 2,66 die Gesamt-Standardabweichung mit dem Faktor 3 verwendet werden kann/sollte. (Zur Bezeichnung: Wheeler spricht von XmR Regelkarten, die sonst meist als ImR / Individual-moving-Range / Urwertkarten bezeichnet werden.) Beide Formeln sind im NIST/SEMATECH e-Handbook of Statistical Methods angegeben, das auch für andere Fragen eine gute Quelle für Statistik-Anwendungen ist:
    6.3.2.2. Individuals Control Charts (Formel mit Standardabweichung am Ende der Seite)
    6.3.2. What are Variables Control Charts? (Berechnung des Faktors c4)

    Allerdings sind die Unterschiede zwischen der korrekten Formel mit der Standardabweichung inkl. Konstante c4 und der 3-fachen Standardabweichung sehr klein, wenn in der Gesamt-Standardabweichung mehr als 26 Werte verwendet werden. Für Deine 30 Werte berechnet sich der c4-Faktor zu 0,9914, d. h. es wird nicht die 3-fache Standardabweichung sondern
    3/c4 = 3/0,9914181 = 3,0260
    verwendet, d. h. einen Hauch weitere Grenzen als ohne c4-Korrekturfaktor.

    Wie kriegst Du da jetzt die Kuh statistisch sauber vom Eis geschubst?

    Du brauchst eine belastbare Aussage zur Streubreite des Prozesses. Das geht so einfach direkt aus den Messwerten nicht, weil dort systematische Effekte (z. B. Kühlwasser) auftreten. Ein möglicher Ausweg wäre, die systematischen Effekte aus den Daten herauszurechnen (Stichwort: Modellierung mit Regression/ANOVA/Kovarianzanalyse/statistischen Prozess-Modellen) und wenn das Ergebnis belastbar ist, die Streubreite aus den unerklärten Resten (Residuen) abzuschätzen. Hinweise zur Verwendung von Residuen in Qualitätsregelkarten finden sich z. B. bei
    Montgomery, Douglas C. (2012). Statistical Quality Control.
    7. Auflage, Wiley. ISBN: 9781118146811.
    unter dem Stichwort „Control Charts on Residuals“

    Alternativ könntest Du auch untersuchen, wie groß der Grad an Übereinstimmung oder Abweichung der jetztigen Beurteiler ist, um zahlenmäßig greifbarer zu machen, wie gut die aktuelle Prüfung funktioniert (Stichwort Prüferübereinstimmung bei attributiven Daten). Damit hättest Du keine andere Bewertung, aber immer noch ein bisschen was an Statistik für die Abschlussarbeit.

    Denn ob Du die systematischen Effekte aus den Messwerten gut genug rausrechnen kannst, lässt sich so einfach für mich nicht feststellen. Das Ergebnis „nicht-stabile Mittelwerte und nicht-stabile Streuung“ lässt darauf schließen, dass mehr als 1 Faktor/Einfluss einen Effekt auf die Messwerte in der 1h-Messung hat. Und wenn Du noch weiter mit/in der Firma arbeiten möchtest, wäre es schon wünschenswert, wenn Du kein wildes neues Bewertungskriterium beschreibst, was in der Praxis nichts taugt und die Streuung der Resonatoren unzureichend beurteilt.

    quote:


    Ursprünglich veröffentlicht von Dickes_P
    Auch laut einem Buch von Dietrich, Schulze (Q-Das) führt k=3 zu zu weiten Grenzen, weshalb sich k=2 als praktikabel erwiesen hat. Bei mir jedoch führt dies zu zu engen Grenzen.


    Das haben Dietrich und Schulze so nicht für Qualitätsregelkarten geschrieben, sondern für die Messmittelfähigkeit nach Verfahren 1 (Cg und Cgk, VDA Band 5). Bei den Qualitätsregelkarten geben sie bei den Eingriffsgrenzen sowohl die 99% als auch die 99,73%-Grenzen an, s.
    Dietrich, Edgar und Alfred Schulze (2009). Statistische Verfahren zur Maschinen- und Prozessqualifikation.
    6. Auflage, Hanser Fachbuchverlag. ISBN: 9783446415256, z. B. S. 265
    (Ich empfehle dieses Buch nicht, weil es aus statistischer Sicht fragwürdige Empfehlungen enthält, beispielsweise zur Prozessfähigkeitsbewertung bei nicht-stabilen/zeitabhängigen Prozessen insbesondere über die von ihnen so genannte Mischverteilung, der Berechnung von Cp und Cpk bei technischen Grenzen usw.)

    Allgemein werden die Eingriffsgrenzen in Qualitätsregelkarten so ermittelt, dass sie 99,73% aller Messwerte bei einem stabilen Prozess abdecken. Das entspricht bei der Normalverteilung den +/-3S-Grenzen.

    Viele Grüße

    Barbara

    quote:


    Ursprünglich veröffentlicht von Dickes_P
    P.S.: Du bist hier echt aktiv in dem Forum [:)] Ich denke mal, du bist auch beruflich im Qualitätsmanagement unterwegs?


    Ich bin selbständige Statistikerin und berate Unternehmen beim Einsatz sinnvoller und geeigneter Methoden und Vorgehensweisen. Manchmal sind das auch Menschen aus dem QM [;)]

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Patrick,

    willkommen im Qualitäter-Forum [:)]

    Das ist ja mal ein interessantes Thema für die Abschlusarbeit mit ganz schön viel Zahlen und Auswertungsoptionen.

    Was ich noch nicht ganz verstanden habe ich das Ziel der Auswertung. Erst schreibst Du

    quote:


    Ursprünglich veröffentlicht von Dickes_PDas Ziel ist, die Emissionen der Resonatoren quantitativ zu überwachen, d.h. Radius und Schwerpunkt des Laserstrahles dürfen über die Zeit nicht zu stark schwanken.


    Damit wäre das Ziel, die Größe der Streuung greifbar zu machen, um in einem zweiten Schritt zu beurteilen, ob die Streuung klein genug ist.

    Das passt nur nicht zu dieser Info etwas weiter unten:

    quote:


    Ursprünglich veröffentlicht von Dickes_PIst der Resonator mit „OK“ bewertet nach der Messung…


    Diese Bewertung erfolgt über die Messwerte/Streuung und soll doch eigentlich Ziel der Abschlussarbeit sein, oder? Oder gibt es schon ein etabliertes Verfahren zur Beurteilung der Resonatoren und Du sollst das Verfahren weiter untersuchen/verfeinern/ersetzen?

    Einen weiteren logischen Knick hab ich bei der Anwendung von Regelkarten für die Produktabnahme:

    • SPC: Statistische Prozess-Regelung und -Überwachung
    • Produktabnahme: Produktbewertung

    Mit Regelkarten wird der Verlauf des Prozesses bewertet, z. B. dahingehend, ob es Trends, Sprünge oder andere nicht-stabile Entwicklungen gibt. Dabei ist es egal, wie die Anforderungen an das spätere Produkt sind, weil der Prozess betrachtet wird. Bei der Produktabnahme wird dagegen geprüft, ob die Anforderungen an den Resonator ausreichend gut erfüllt sind (z. B. Schwankung klein genug). Auch wenn für beide Bewertungen dieselben Messwerte verwendet werden (können), sind die Zielsetzungen und damit auch die statistischen Methoden oft unterschiedlich.

    Eins ist auf jeden Fall immer eine schlechte Idee: Pseudo-Stichprobengruppen, weil die eine Struktur in die Messwerte bringen, die in der Realität fehlt. Das begünstigt irreführende Ergebnisse. Sinnvoller sind die gleitenden Kennzahlen (Moving Average, Moving Range) oder andere Glättungsfunktionen, je nachdem, was Ziel der Auswertung ist.

    Das mit dem u=3 bzw. u=2 unter dem Stichwort „Erweiterungsfaktor“ stammt aus der Metrologie und nicht aus der Statistik. Die Metrologie arbeitet oft mit u=2 (oder k=2) bzw. einer Abdeckung von 95%, nach dem Motto „Das ist schon ganz schön viel.“

    In der Statistik wird dagegen bei Regelkarten seit Jahrzehnten mit u=3 bzw. k=3 und einer Abdeckung von 99,73% gearbeitet, nach dem Motto „Das deckt (fast) alles ab.“. Dieser Bereich heißt auch „natürliche Toleranz“ und findet sich u. a. in Regelkarten für die Eingriffsgrenzen und in der Prozessfähigkeitsbewertung.

    Spannend wird die Frage nach u=2 oder u=3 da, wo sich Metrologie und Statistik begegnen, z. B. bei der Bewertung der Mess-Unsicherheit. Während hier in den GUM-Methoden/ISO 22514-7/VDA Band 5 mit einem Erweiterungsfaktor u=2 (k=2) gerechnet wird, sind für die statistischen Auswertungen nach MSA4 u=3 (k=3) bzw. ein 6-facher Bereich (zu beiden Seiten 3-fach) vorgegeben.

    Die u=2 vs. u=3-Geschichte hat allerdings mit Deiner Bewertung der Resonatoren überhaupt gar nichts zu tun, weil es dabei nicht um Messunsicherheit eines Messmittels, sondern die Bewertung von Streuung am Produkt verglichen mit den Anforderungen geht.

    Viele Grüße

    Barbara

    PS: Es wär schön, wenn Du das angesprochene Bild über einen Link zur Verfügung stellen könntest.

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Prüfmittelüberwachung #62981

    Hallo Chris,

    ich kann Deinen Frust verstehen und mir gehen Gurus oder Know-it-all’s auch gegen den Strich. Hier in diesem Forum versuchen wir deshalb, substantielle Antworten zu sammeln. Manchmal gelingt das nicht so gut, gerade wenn Wörter wie „Abschlussarbeit“ oder allgemeine Fragen „Wie führe ich ein QM ein?“ oder „Wie sieht ein QM-Handbuch aus?“ auftauchen. Da diese Fragen schon x-Mal beantwortet wurden, ist das nervtötend, wenn wieder mal jemand ohne vorher zu Suchen einfach vom Forum seine Fragen beantwortet haben möchte – und dann auch noch pampig wird, wenn die Antworten zu kurz oder zu wenig aussagekräftig sind.

    quote:


    Ursprünglich veröffentlicht von Chris
    Hallo zusammen,
    auch auf die Gefahr hin, dass mein Post gelöscht wird, muss ich meinen Frust loswerden.


    DAS wird hier nicht passieren. Gelöscht werden diskriminiernde, beleidigende, obszöne, rassistische oder ähnliche Postings genauso wie unerwünschte Werbung/Werbelinks und Spam-Bot-Nachrichten. Der Austausch von Meinungen ist hier explizit erwünscht und wird deshalb gerne gesehen.

    quote:


    Ursprünglich veröffentlicht von Chris
    Mittlerweile finde ich die Antworten einiger selbsternannter Gurus unerträglich und wundere mich nicht, dass in diesem Forum nichts los ist.


    Mir ist ein Forum, in dem wenige Threads sinnvoll und intensiv diskutiert werden, deutlich lieber, als die 100-Threads-pro-Tag mit tausenden Doppelpostings-Foren. Natürlich fände ich es auch schöner, wenn hier (wieder) mehr los wäre, nur ist die Zeitknappheit bei allen, die ich hier aus dem Forum kenne, in den letzten Jahren extrem angestiegen und so bleibt wenig(er) Zeit für Diskussionen und Postings.

    In diesem Sinne wünsche ich uns allen einen sachlichen, konstruktiven und wertschätzenden Austausch im QM-Forum [:)]

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Prüfmittelüberwachung #62976

    Hallo Stephan_Alexander,

    ich fänds gut, wenn Du auf Doppel-Postings in anderen Foren hinweist (z. B. bei simple-quality.de: Verifizieren vs. Kalibrieren), denn dann können wir uns ähnliche Antworten hier sparen. Sinnvoll wären auch entsprechende Infos dazu, was Du Dir alles schon angeschaut hast. Das erspart Dir und uns, dieselben Links mehrfach durchzusuchen.

    Ziemlich exakt zu Deinen Fragen passend gibt es bei qz-online.de einen sehr ausführlichen Artikel Messmittelmanagement gemäß ISO 9001 von Mettler Toledo. Darin gibt es auch einen Unterabschnitt „…kalibriert oder verifiziert…“, in dem mit Bezug zu Normen und Handbüchern die beiden Begriffe definiert und erläutert werden.

    Anwendungsbeispiel:
    Messmittel: digitaler Messschieber
    Messaufgabe: Bestimmung der Kantenlänge eines Schaumstoff-Würfels

    Kalibrieren: Kann der Messschieber an einem Normteil mit bekanntem Referenzwert die vorgegebenen Maße genau genug angeben, z. B. wenn Normteil-Maß = 15mm, ist dann Mess-Schieber-Anzeige = 15mm (im Durchschnitt, mit ausreichend kleiner Streuung)
    Ort: Kalibrierlabor

    Verifizieren: Kann der Messschieber im Anwendungsbereich Messwerte liefern, die für den Anwendungszweck genau genug sind? Nachweis z. B. durch Untersuchung der Prüfmittelfähigkeit oder durch Prüfung von Linearität & systematischer Abweichung an einigen Teilen mit einem ähnlichen Wertebereich wie die Messaufgabe. Bei Kantenlängen des Schaumstoff-Würfels zwischen 18 und 22 mm könnten das beispielsweise entsprechende Metallklötze sein.
    Ort: Labor oder Fertigungs-Messplatz

    Validieren: Kann der Messchieber die Kantenlängen von Schaumstoff-Würfeln genau genug aufnehmen?
    Ort: Da wo in der Serie auch die Messdaten aufgenommen werden

    Ein Messschieber kann ziemlich problemlos kalibriert werden und die Kantenlängen von Metall-Klötzen ausgeben. Damit kann er noch lange nicht die Kantenlängen von Schaumstoff-Würfeln zuverlässig bestimmen, weil diese Maße auch von dem Druck abhängen, mit der die Schenkel des Messschiebers zusammengehalten werden.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 15 Beiträgen – 76 bis 90 (von insgesamt 2,697)