Verfasste Forenbeiträge

Ansicht von 15 Beiträgen – 376 bis 390 (von insgesamt 2,697)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Beschluss (?) des EK-Med: ZLG 3.9 B 18, Kapitel 3.2: „Für die Festlegung des Prüfumfangs sind daher mindestens die Anforderungen der DIN ISO 2859-1:2004 zu erfüllen.“

    Mindestens heißt doch, dass Du etwas besseres (=geringere Risiken für Fehlalarm und/oder Nicht-Entdecken) verwenden darfst.

    Besser = bessere Qualität bei Auslieferung?

    Nupp. Besser = geringeres Risiko. Du kannst die Qualität nie über eine Prüfung verbessern. Du kannst nur absichern, dass die Qualität in der laufenden Fertigung gut genug ist verglichen mit der zu erwartenden Qualität, egal ob nach AQL oder berechnetem Stichprobenumfang.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo QM-FK,

    danke für die gute Liste! Klar interessiert mich das :)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    @Rainaari:

    Vor 2007 stand mal in der 93/42/ewg ein Text drin, der die 2859 zwar nicht direkt erwähnt, die Anforderungen entsprachen aber ziemlich genau dem, was die 2859 hergibt (s. z. B. 93/42/ewg Fassung von 2003):

    „Anhang IV: EG-Prüfung

    6. Statistische Überprüfung
    6.3. Die statistische Kontrolle der Produkte erfolgt durch Attribut-Merkmale und beinhaltet einen Stichprobenplan zur Gewährleistung einer Mindestqualität, bei der die Wahrscheinlichkeit der Annahme bei 5% und der Prozentsatz der Nichtübereinstimmung zwischen 3 und 7% liegen. Das Probenahmeverfahren wird auf der Grundlage der harmonisierten Normen gemäß Artikel 5 unter Berücksichtigung der Eigenarten der jeweiligen Produktkategorien festgelegt.“

    Seit 2007 ist das anderes formuliert und entspricht mehr den heutigen Anforderungen an die Zuverlässigkeit von (Medizin-)Produkten:

    „Anhang IV: EG-Prüfung

    6. Statistische Überprüfung
    6.3. Die statistische Kontrolle der Produkte wird anhand vonAttributen und/oder Variablen vorgenommen und beinhaltet Stichprobenpläne mit operationellen Merkmalen zur Gewährleistung eines hohen Sicherheits- und Leistungsniveaus entsprechend dem Stand der Technik. Die Stichprobenpläne werden auf der Grundlage der in Artikel 5 genannten harmonisierten Normen unter Berücksichtigung der Eigenarten der jeweiligen Produktkategorien festgelegt.“
    aus: Richtlinie 93/42/ewg vom 05. September 2007

    Da die statistischen Methoden zur Berechnung des notwendigen Stichprobenumfangs mathematisch sauber dokumentiert sind, können sie auch als Methoden für die Erstellung von Stichprobenplänen herangezogen werden.

    Ansonsten fällt mir keine Medizin-Norm ein, in der explizit die 2859 gefordert ist, aber vielleicht kenn ich die einfach nur nicht.

    @Nonvolio: Aus welcher Norm oder Richtlinie hast Du das denn?

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Clemens,

    willkommen im Qualitäter-Forum :)

    Und gleich mal eine Frage, die was mit Statistik zu tun hat, sehr schön!

    Wie Rainaari schon geschrieben hat ist es möglich, die 2859-1 anzuwenden. Es gibt hier nur einige klitzekleine ABERs:

    1. Das Risiko der Nicht-Entdeckung (OC-Kurve, Lieferantenrisiko) ist bei der AQL-Prüfung vorgegeben und liegt je nach AQL-Wert bei bis zu 80% oder auch darüber (s.u.) Du hast damit u. U. auch bei völlig korrekter Anwendung der Norm so gut wie keine Chance, fehlerhafte Chargen zu finden.

    2. Die Festlegung des AQL-Wertes nach den Kriterien der Norm (=nehmen Sie einen Wunschwert, auf keinen Fall den tatsächlichen Prozess-Ausschusswert) beißt sich
    a) mit dem gesunden Menschenverstand (statistische Absicherung und wünsch-Dir was sind inkompatibel) und
    b) mit den FDA-Anforderungen, die eine Festlegung der Ausschussrate bzw. des AQL-Werts auf Basis von echten Messdaten fordern (womit sie aus statistischer Sicht auch Recht haben).

    3. Je besser der Prozess ist, desto schwieriger wird es mit einer attributiven Prüfung nachzuweisen, dass die Qualität gut geblieben ist. Das führt vielfach zu 100%-Prüfungen, was bei einer zerstörenden Prüfung keine wirkliche Option ist.

    4. Für die Festlegung, wie viele Teile ein Los sind bzw. wie groß der Losumfang ist, gibt es häufig keine vorgegebene Zahl, deshalb muss sorgfältigst überlegt werden, ob und wenn ja wie die produzierten Teile in Lose eingeteilt werden können.

    5. Eine mathematische Begründung für die verschiedenen Prüfniveaus (so etwas wie „bei verschärfter Prüfung reduziert sich das Lieferantenrisiko um x%“) hab ich trotz intensiver Suche bis heute nicht finden können. Die Prüfniveaus scheinen daher eher aus dem Bauch heraus festgelegt worden zu sein (auch das spricht ein bisschen gegen eine echte Absicherung).

    Um mal ein Beispiel zu geben, wie hoch das Risiko für Nicht-Entdeckung sein kann bzw. wie groß der Stichprobenumfang für die statistische Absicherung sein muss, nehmen wir einfach mal an, dass Ihr einen Losumfang von N=200 habt.

    Damit ergibt sich nach 2859-1 mit Tabelle 1 für das allgemeine Prüfniveau der Kennbuchstabe G. Tabelle 2a liefert dann für einen AQL-Wert von 1,0 (=1% Ausschuss ist annehmbare Qualitätsgrenzlage) einen Stichprobenumfang von n=50. Nehmt Ihr einen kleineren AQL-Wert, z. B. 0,1 (=0,1% Ausschuss ist annehmbar), steigt der Stichprobenumfang auf n=1250 an und entspricht bei einer Losgröße von N=200 einer 100%-Prüfung.

    AQL = annehmbare Qualitätsgrenzlage bedeutet, dass dieser Ausschusswert (z. B. 1%, 0,1%) für Euch akzeptabel ist. Allein die Idee einer annehmbaren Ausschuss-Rate finde ich bei Medizinprodukten immer etwas schwer nachvollziehbar.

    Soweit die DIN 2859-1.

    In der Statistik funktioniert diese Berechnung anders, denn da gibst Du echte Werte vor. Das Produzentenrisiko (alpha, maximal tolerierbares Risiko für Fehlalarm / Fehler 1. Art) wird meist auf 5% gesetzt.

    Das Lieferantenrisiko (beta, maximal tolerierbares Risiko für Nicht-Entdecken / Fehler 2. Art) wird in Abhängigkeit von den Fehlerauswirkungen vorgegeben. Bei Nebenfehlern sind Werte zwischen 10 und 20% üblich, bei Hauptfehlern 5% und bei kritischen Fehlern (=Gefahr für Leib & Leben) 1%. beta <=1% ist deshalb bei Medizinprodukten eine häufige Anforderung.

    Einen Losumfang brauchst Du für die Berechnung des Stichprobenumfangs nicht, weil die Formeln unabhängig von der Losgröße angeben, wie viele Informationen (=Anzahl Messwerte oder Prüfergebnisse) für die Absicherung aufgenommen werden müssen.

    Nehmen wir mal an Ihr habt herausgefunden, dass Eure Ausschussrate tatsächlich bei 10ppm liegt. Ihr wollt absichern, dass diese Rate maximal drei Mal so groß wird, d. h. Ihr wollt sicher erkennen, wenn die Ausschussrate auf 30ppm oder darüber angestiegen ist.

    Mit alpha=5% und beta=1% ergibt sich dann ein notwendiger Stichprobenumfang von
    n=760690.
    Ups.

    Da das zu viel ist, wird die zu entdeckende Grenze höher gesetzt. Jetzt soll erst bei 100ppm die Stichprobenprüfung zuverlässig einen Alarm geben, d. h. wenn die Ausschussrate um den Faktor 10 oder noch weiter angestiegen ist. Damit reduziert sich der notwendige Stichprobenumfang für die Absicherung auf
    n=100448.
    Hm, immer noch echt viel.

    Wie kann das jetzt sein, dass die DIN 2859-1 mit nur n=50 arbeitet? Was ist der Preis dafür?

    Der Preis ist ein extrem hohes beta-Risiko, d. h. ein sehr großes Risiko für Nicht-Entdecken einer schlechten Qualität bzw. einer zu hohen Ausschussrate. Das reale beta-Risiko lässt sich ausrechnen:

    p0=10ppm, p1=30ppm, alpha=5%, n=50
    -> beta=99,85%
    Damit wirst Du mit einer 50-Teile-Stichprobe fast sicher nicht merken, wenn die Ausschussrate auf 30ppm ansteigt.

    p0=10ppm, p1=100ppm, alpha=5%, n=50
    -> beta=99,50%
    Du hast also nicht mal eine reelle Chance, eine Verzehnfachung Deiner Ausschussrate durch die Prüfung zu finden.

    Welche Ausschussrate kannst Du mit n=50 Teilen denn finden? Auch das lässt sich ausrechnen:

    p0=10ppm, alpha=5%, beta=1%, n=50
    -> p1=8,8% = 87989ppm
    Du kannst mit n=50 Prüfergebnissen also zuverlässig einen Anstieg der Ausschussrate auf knapp 90000ppm feststellen.

    Falls Du selbst mal rechnen (lassen) willst, kannst Du die Freeware GPower verwenden.

    Weil die Stichprobenprüfungen nach 2859 (und auch 3951) so wenig mit statistischer Absicherung zu tun haben, ist es empfehlenswert sich mit den statistischen Methoden für die Berechnung von Stichprobenumfängen zu beschäftigen. Immer sinnvoll ist die Verwendung von variablen Prüfmerkmalen anstelle von attributiven, weil der notwendige Stichprobenumfang um ein Vielfaches kleiner ist.

    Viele Grüße

    Barbara

    PS: Manche Firmen finden es unschön, wenn ihre Mitarbeiter solche Fragen in Internetforen veröffentlichen. Da Deine E-Mail-Adresse im Profil öffentlich einsehbar ist (auch ohne Anmeldung), empfehlen wir jedem unter einer anonymen E-Mail-Adresse zu schreiben (z. B. arcor.de, gmx.de, freenet.de, usw.)

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo qualyman,

    danke für die ultimative Lobhuldelei :)

    Viele Grüße

    Gräfin von Zahl ;)

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Bei der Frage Deines Betreuers, ob n=5 ausreicht, gilt die wie immer richtige Antwort: „Es kommt darauf an“. In diesem Fall kommt es darauf an, wie genau Du den Mittelwert einer Stichprobe angeben möchtest.

    Die Herleitung für die Formel für den Vertrauensbereich des Mittelwerts
    KI(xquer): xquer +/- z_(1-alpha/2)*S/Wurzel(n)
    = ( xquer – z_(1-alpha/2)*S/Wurzel(n) ; xquer + z_(1-alpha/2)*S/Wurzel(n) )
    kannst Du in den dickeren Statistikbüchern (z. B. Hartung) finden, das mach ich hier nicht weil’s zu lang ist (KI: Konfidenzintervall).

    Die Breite des Konfidenzintervalls ist also
    2* z_(1-alpha/2)*S/Wurzel(n)
    und der Abstand vom Mittelwert zu einer Grenze des Vertrauensbereichs:
    epsilon = z_(1-alpha/2)*S/Wurzel(n)

    Da der Mittelwert eines stabilen Prozesses normalverteilt ist und die Normalverteilung eine symmetrische Verteilung ist, ist auch der Vertrauensbereich symmetrisch um den Mittelwert. Der Abstand Mittelwert-untere Grenze ist damit genauso groß wie der Abstand Mittelwert-obere Grenze oder kurz: epsilon = Abstand Mittelwert – Grenze.

    Der Vertrauensbereich berechnet sich aus diversen Kennzahlen:
    xquer: Mittelwert (aus Stichprobe)
    S: Standardabweichung (aus vorhandenen Prozessdaten)
    alpha: maximal tolerierbares Risiko für einen Fehlalarm (aus Risiko-Abschätzung), Standardwert 5%
    n: Stichprobenumfang 1 Stichprobe

    Die Streuung oder Standardabweichung wird bei der Berechnung des Vertrauensbereichs des Mittelwerts als konstant angenommen. (Ob sie das wirklich ist, würde mit einem anderen Testverfahren geprüft werden.)

    Ein Beispiel:
    Du hast als Standardabweichung einen Wert von 0,3233mm aus den vorhandenen Messdaten ausgerechnet.

    Nehmen wir für alpha den Standardwert von 5%, kannst Du daraus das Quantil der Standardnormalverteilung z_(1-alpha/2) berechnen. 1-alpha/2 ist für alpha=5%=0,05:
    1-alpha/2 = 1- 0,05/2 = 0,975
    und damit
    z_(1-alhpa/2) = z_0,975 = 1,96
    In Excel: NORMINV(0,975;0;1), weil es das Quantil der Standardnormalverteilung mit Mittelwert 0 und Varianz 1 ist.

    Der Stichprobenumfang von 1 Stichprobe ist n=5.

    Damit ergibt sich als Breite des 95%igen Vertrauensbereichs:
    2* z_(1-alpha/2)*S/Wurzel(n) = 2* 1,96*0,3233/Wurzel(5) = 0,5668
    und als Abstand Mittelwert-Grenze Vertrauensbereich
    z_(1-alpha/2)*S/Wurzel(n) = 1,96*0,3233/Wurzel(5) = 0,2834

    Wenn Du also in einer neuen Stichprobe einen Mittelwert von 10,95 aus Deinen n=5 Werten ausgerechnet hast, dann überdeckt das Konfidenzintervall des Mittelwertes
    xquer +/- z_(1-alpha/2)*S/Wurzel(n)
    = 10,95 +/- 0,2834 = (10,67 ; 11,23)
    mit 95%iger Sicherheit den tatsächlichen Mittelwert im aktuellen Prozess.

    Jetzt könnte es durchaus sein, dass diese Genauigkeit nicht ausreicht, um eine technisch relevante Prozess-Veränderung früh genug zu erkennen. Ab einer Veränderung von z. B. 0,15mm im Mittelwert würden unschöne Dinge passieren, d. h. Du brauchst einen Vertrauensbereich, der höchstens einen Abstand von 0,15mm=epsilon zwischen Mittelwert und Grenze zulässt.

    epsilon ist:
    epsilon = z_(1-alpha/2)*S/Wurzel(n)
    Wenn alpha=5% festgelegt ist, S als bekannt (aus früheren Prozessdaten) vorausgesetzt wird, kannst Du damit den notwendigen Stichprobenumfang ausrechnen:

    epsilon = 0,15mm = z_(1-alpha/2)*S/Wurzel(n) = 1,96*0,3233mm/Wurzel(n)

    Wurzel(n) = 1,96*0,3233mm/0,15mm

    n = ( 1,96*0,3233/0,15)^2 = (4,22)^2 = 17,8

    d. h. Du brauchst mindestens n=18 Messwerte, um eine Genauigkeit von 0,15mm für Deinen Mittelwert zu bekommen.

    Ich hoffe, damit sind die Zahlen ein bisschen klarer geworden.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: MSA (PMU) bei Zugversuch #60093

    Hallo koiler,

    **********************

    Zu Verfahren 1:

    Bei der Berechnung der Toleranzen müsstest Du vielleicht mal jemanden fragen, der sich mit Deinem Prozess auskennt.

    Ich könnte mir neben der von Dir beschriebenen Variante 1
    2,15m = 1m + 1m*115%
    UTG = Wert -10% = 2,15*90% = 1,935m
    OTG = Wert +20% = 2,15*120% = 2,580m
    und damit eine Toleranzbreite T
    T1 = 2,580 – 1,935 = 0,645m
    (ehrlich gesagt kommt mir das sehr breit vor)

    auch die Variante 2
    2,15m = 1m + 1m*115%
    UTG = 1m + 1m*(115%-10%) = 2,05m
    OTG = 1m + 1m*(115%+20%) = 2,35m
    vorstellen mit einer Toleranzbreite
    T2 = 0,30m.

    Die Mindestanforderung an die Anzahl Messwerte bei Cg und Cgk sind 25, besser sind 50, weil dann die Kennzahlen Mittelwert und Standardabweichung genauer berechnet werden können.

    Wenn Du jetzt eine Toleranzbreite von T1=0,645m hast und eine Standardabweichung von
    S=0,01m = 1cm = 10mm
    ergibt sich für Cg:

    Cg1 = (0,2*T1) / (6S) = (0,2*0,645) / (6*0,01) = 0,129 / 0,06 = 2,15

    Beträgt dagegen die Toleranzbreite nur T2=0,30m, verringert sich der Cg-Wert bei gleicher Standardabweichung S=0,01m:

    Cg2 = (0,2*T2) / (6S) = (0,2*0,30) / (6*0,01) = 1,00

    Der Cgk berücksichtigt neben der Streuung auch eine systematische Abweichung. Wenn Dein Band eigentlich Ref=2,15m (Ref: Referenzwert) lang ist und Deine aufgenommenen Messwerte einen Mittelwert von xquer=2,17m haben, hast Du eine systematische Abweichung von Bias=0,02m.

    Der Cgk lässt sich über folgende Formel berechnen:
    Cgk = (0,1*T – abs(Ref-xquer)) / (3S) = Cg – (abs(Ref-xquer))/(3S)

    Mit den gleichen Kennzahlen für Toleranzbreite und Standardabweichung ergibt sich für Cgk

    mit T1=0,645m und Cg1=2,15:
    Cgk1 = Cg1 – (abs(Ref-xquer))/(3S) = 2,15 – (abs(2,15-2,17))/(3*0,01) = 2,15 – 0,67 = 1,48

    mit T2=0,30m und Cg2=1,00:
    Cgk2 = Cg2 – (abs(Ref-xquer))/(3S) = 1,00 – 0,67 = 0,33

    Wie hoch der Cg und Cgk sein müssen, um eine Messmittelfähigkeit nachgewiesen zu haben, hängt von den Anforderungen an den Prozess ab. Standardwerte sind 1,00 oder 1,33, wobei teilweise auch anstatt durch 6S durch 4S geteilt wird (-> Anforderungen anschauen).

    *********************

    Zu Verfahren 2:

    Die Streuungsanteile sind EV (Equipment Variation, Streuung Werte durch quasi-Wiederholmessungen / Wiederholbarkeit) und PV (Part Variation, Streuung der Werte durch Aufnahme verschiedener Teile). Bei einer nicht-zerstörenden bzw. wiederholbaren Prüfung an 1 Teil wird zusätzlich noch verglichen, ob verschiedene Prüfer an 1 Teil zu einem ähnlichen Ergebnis kommtn (AV / Appraiser Variation, Streuung der Werte durch verschiedene Prüfer / Reproduzierbarkeit). Bei einer zerstörenden Prüfung können die Prüfer-Ergebnisse nicht direkt verglichen werden, deshalb wird kein AV-Streuungsanteil berechnet.

    Bei der Berechnung der Streuungsanteile gibt es zwei Methoden:

    1) Die (veraltete und nicht mehr empfohlene) Methode ist die Bestimmung der Streuungsanteile aus den Spannweiten. Das ist relativ leicht per Hand zu rechnen, nur leider unzuverlässig bei der Bewertung der Streuung.

    2) Die (empfohlene) Methode ist die ANOVA- oder varianzanalytische Methode. Die Streuungsanteile werden dabei über eine Varianzkomponenten-Zerlegung bestimmt. Diese Methode ist nicht nur dem Namen nach komplizierter, sondern auch von der Berechnung und deshalb ohne entsprechende Software wenig empfehlenswert.

    Dein Plan für die Auswahl von „gleichen“ Teilen klingt gut, vor allem wenn Du die Einzelproben zufällig zu Messwiederholung und Prüfer zuordnest, also nicht immer Stück 1 = Prüfer 1, 1. Messung, Stück 2 = Prüfer 1, 2. Messung, usw., sondern mal Stück 1 = Prüfer 1, 2. Messung, mal Stück 1 = Prüfer 2, 1. Messung, usw. (Software oder auch Zufallszahlen in Excel sind da sehr hilfreich, weil kein Mensch so etwas wirklich zufällig zuordnen kann. Menschen machen immer Muster = kein Zufall!)

    Um einen guten oder auch repräsentativen Eindruck von der Zuverlässigkeit des Mess-Prozesses zu bekommen, sollten mindestens:
    g=5 verschiedene Teile
    r=2 Wiederholungen
    k=2 Prüfer
    aufgenommen werden. Dabei sollte gelten:
    g*k >= 15
    g*r*k >= 30
    (Standardwerte: g=10, r=2-3, k=2-3)

    Wenn Du jetzt g=3, r=2, k=2 nimmst, sind das zu wenig:
    g*k = 6 < 15
    g*r*k = 12 < 30
    Du brauchst also deutlich mehr Materialentnahmen, um genügend Messdaten zur Bewertung Deines Mess-Prozesses zu bekommen. Deine Tabelle sollte am Ende mindestens 30 Zeilen haben, d. h. Du brauchst entweder mehr „gleiche“ Teile an Deinen 3 Mess-Punkten oder mehr mehr „gleiche“ Teile von 5-10 Messpunkten.

    Die Kennzahl ndc (number of distinct categories, Anzahl unterscheidbarer Bereiche, tatsächliche Auflösung des Mess-Prozesses) hat mit der Anzahl ausgewählter Teile oder Mess-Punkte nichts zu tun, die wird aus den Streuungsanteilen berechnet und sollte größer oder gleich 5 sein:
    ndc >= 5

    Damit ist die Streuung des Mess-Prozesses im Vergleich zur Prozess-Streuung so klein, dass die Prozess-Leistung (oder auch Prozess-Fähigkeit) weitgehend unabhängig von der Mess-Unsicherheit beurteilt werden kann. ndc >= 5 entspricht in etwa der Forderung GRR% <= 30%.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Elektronische Dokumente #60091

    Bei Office 2007 kannst Du direkt nach dem Einfügen einer Kopfzeile im Reiter „Entwurf“ einen Haken setzen bei „Erste Seite anders“.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: UT 2011 #60080

    Hallo zusammen,

    an der Länge der Teilnehmer-Liste hat sich bis heute leider noch nichts geändert, aber es dauert ja auch noch ein bisschen bis zum UT 2011. Ich hab die Hoffnung noch nicht aufgegeben, dass wir noch ein paar Menschen mehr in Speyer treffen können :)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: MSA (PMU) bei Zugversuch #60079

    Hallo koiler,

    herzlich willkommen im Qualitäter-Forum :)

    Ohne Normal kannst Du zwar keine systematische Abweichung für Verfahren 1 bestimmen, Du könntest aber immerhin die Streuung von Wiederholmessungen am gleichen Teil bzw. bei zerstörenden Prüfungen an möglichst ähnlichen Teilen bewerten.

    Wenn Dein Merkmal zweiseitig toleriert ist, kannst Du anstelle des Referenzwertes (den Du ohne Normal nicht hast) den Mittelwert der Messdaten verwenden. Damit ist dann Cg=Cgk, aber immerhin hast Du einen der beiden Fähigkeitskenngrößen.

    Den Umweg mit dem unelastischen Band würd ich nur dann wählen, wenn Du in Deinem Mess-Prozess auch unelastische Bänder bewertest, sonst bringt Dir das vielleicht eine Art Referenzwert für irgendeinen Mess-Prozess, aber keinen Anhaltspunkt für die systematische Abweichung in DEINEM Mess-Prozess.

    Für die Bewertung verschiedener Kriterien (Wiederholbarkeit, Reproduzierbarkeit, Gage R&R) bei Verfahren 2 kannst Du bei der zerstörenden Prüfung auch die Streuungsanteile ermitteln und schauen, ob z. B. verschiedene Prüfer zu ähnlichen Ergebnissen kommen. Auch hierbei wird versucht, quasi-Wiederholmessungen durch möglichst ähnliche Teile (gleiche Prozessbedingungen, gleiche Ausgangsmaterialien, Teile hintereinander gefertigt, usw.) einzufangen.

    Wenn Du die Prüfung in einen Messbereich legst, der später gar nicht relevant ist, bekommst Du auch keine Aussagen dazu wie gut Dein Mess-Prozess im relevanten Bereich ist, mal abgesehen davon, dass Du nie ausschließen kannst, dass es auch bei 10N eine kleine Dehnung gibt und sich die Teile trotz geringerer Belastung doch verformen (und das ist mit nur 4 Messwerten schwer feststellbar).

    Generell ist die Mess-System-Analyse oder Mess-Prozess-Analyse oder Prüfmittelfähigkeitsbewertung immer nur dann aussagekräftig, wenn Du mit den nachher zu bewertenden Teilen arbeitest und in dem späteren Messbereich unter den üblichen Rahmenbedingungen bleibst.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: MiniTab Problem #60056

    Hallo Christian,

    willkommen im Qualitäter-Forum :)

    Es ist immer schwierig (nicht nur in Minitab), vier numerische Angaben (3 Koordinaten plus Messwerte) in 1 Abbildung zu bekommen, weil wir in einer 3D-Welt leben.

    Ich würd dafür paarweise Streudiagramme verwenden. Die bekommst Du in Minitab über

    Grafik > Matrixplot > Matrix von Diagrammen
    oder
    Grafik > Matrixplot > Jedes Y vs. jedes X

    ggf. mit der Option „mit Gruppen“ wenn Du unterschiedliche Symbole und Farben je Material haben möchtest.

    Hilft Dir das ein Stück weiter?

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Marry,

    willkommen im Qualitäter-Forum als aktive Schreiberin :)

    Ein statistischer Test vergleicht immer ein „So sollte es sein wenn xy gilt“ (Nullhypothese H0) mit einem „So sehen die Daten tatsächlich aus“ (Soll-Ist-Vergleich).

    Der Anderson-Darling-Test ist ein Test auf Verteilungen. Da Verteilungen unterschiedlich aussehen und unterschiedliche mathematische Eigenschaften haben, verändert sich die „So sollte es sein wenn xy gilt“ (Nullhypothese) je nachdem, was Du als Verteilung (xy) annimmst. Und damit ändern sich eben auch die Testprozedur bzw. die Formeln, nach denen die Annahme geprüft wird.

    Das selbst nachzubasteln ist nicht so ganz einfach. Eine Anleitung findest Du z. B. in der Minitab knowledgebase Calculating Anderson- Darling “By Hand” for Uncensored Data.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo kroschu,

    willkommen im Qualitäter-Forum :)

    Leider bin ich nicht so ganz durch Deine Zahlen durchgestiegen. Was bedeutet „Messgerät hat eine Genauigkeit von +/-0,1 Ohm (Maschinenfähigkeit)“? Sind 0,1 Ohm gleich 3fache Standardabweichung bei einer Kurzzeituntersuchung an Eurer Maschine bzw. in Eurem Prozess? Oder ist das eine Angabe vom Messmittelgerät-Hersteller (und wenn ja, welchen k-Faktor hat er dafür angegeben)?

    Wenn Ihr nicht auf 0,01 Ohm genau messen könnt, wie könnt Ihr dann Werte zwischen 0,28 und 0,32 aufnehmen? Was ist die Auflösung des Messmittels (=kleinste ablesbare Differenz)? (Wenn Ihr nur in 0,1-Schritten ablesen könnt, dann würde ein angezeigter Wert von 0,3 einem Wert zwischen 0,25 und 0,35 entsprechen.)

    Gibt es nur die einseitige Tolerierung nach oben (0,8 Ohm) oder gibt es auch eine untere Toleranzgrenze?

    Nach welcher Formel soll die Messmittelfähigkeit berechnet werden? Oder soll „nur“ das Risiko für eine Fehlklassifikation angegeben werden (Teil tatsächlich größer 0,8 Ohm, wird in Prüfung als Gut-Teil bewertet)? Habt Ihr Referenzteile?

    Ganz schön viele Fragen für den Montag-Morgen ;)

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Michael,

    meine bevorzugte Projektmanagement-Software (antzatwork) gibt leider mittlerweile nicht mehr. Alternativ bieten sich ZCOPE und yemio an. (Brauch ich im Moment nicht, daher hab ich damit keine Erfahrung, hab nur mal einen kurzen Test für jemand anderen mit beiden gemacht und fand sie gut.)

    Es gibt auch noch eine ältere Diplomarbeit (von 2007), in der verschiedene PM-Softwarepakete wie z. B. MS-Project verglichen werden. Da hat sich zwar auf dem Markt mittlerweile einiges getan, aber die Übersicht und die bewerteten Aspekte find ich gut zusammengestellt.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo qualyman,

    zu FMECA gibt es einen Übersichts-Thread bei elsmar.com mit diversen Verlinkungen und Anleitungen:
    http://elsmar.com/Forums/showthread.php?t=41489

    Ich kenn FMECA nicht. Bei alpha und beta fallen mir die Risiken bei Stichprobenprüfungen eine falsche Entscheidung zu treffen ein (alpha: Risiko für einen Fehlalarm, beta: Risiko fürs Nicht-Entdecken einer unerwünschten Situation). Lambda ist ein Standard-Parameter für die Exponentialfunktion. Vielleicht passt das ja.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 15 Beiträgen – 376 bis 390 (von insgesamt 2,697)