Verfasste Forenbeiträge

Ansicht von 15 Beiträgen – 106 bis 120 (von insgesamt 2,697)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Rainer und Yannick,

    quote:


    Ursprünglich veröffentlicht von Rainaari

    ich denke, wenn du verschiedene Verteilungen und Verteilungsformen hast, die sich irgendwie addieren, wird unterm Strich wieder eine Normalverteilung heraus kommen, sofern alle in derselben Größenordnung sind.


    Nein, das funktioniert nicht. Hier z. B. ein Link mit einem Buchkapitel aus Introduction to Probability, in dem für unterschiedliche Verteilungen (attributiv und variabel) die Verteilung der Summe hergeleitet wird. Werden z. B. zwei Exponentialverteilungen addiert, ergibt sich eine Gamma-Verteilung (s.
    „>Mathematics Stack Exchange: Gamma Distribution out of sum of exponential random variables).

    quote:


    Ursprünglich veröffentlicht von eonhummel

    Gauß sagt in seinem zentralen Grenzwertsatz:

    Werden n unabhängige Werte xi aus derselben oder verschiedenen Grundgesamtheiten zusammengefasst, so ist die Summe normalverteilt auch dann, wenn die einzelnen Grundgesamtheiten nicht normalverteilt sind.


    Ganz so einfach ergibt sich die Normalverteilung (auch nach Gauß/ZGWS) nicht. Die (harte) Voraussetzung ist, dass ALLE WERTE aus 1 Grundgesamtheit mit konstantem Mittelwert und konstanter Streuung stammen. Wenn die Unterschiede zwischen den einzelnen Grundgesamtheiten klein genug sind, entsteht auch eine ungefähre Normalverteilung (weiche Voraussetzung).

    Sind die Unterschiede zwischen den Grundgesamtheiten zu groß, ergibt sich nicht mal aus der Kombination von 2 Normalverteilungen eine Normalverteilung für die Summe bzw. den Mittelwert. Ob die Normalverteilung aus der Kombination entsteht, hängt von der Ähnlichkeit der Grundgesamtheiten (wenn es mehrere gibt) ab. Auf überhaupt gar keinen Fall können beliebige, verschiedene Grundgesamtheiten zusammengeworfen werden und am Ende ist alles normalverteilt.

    Da gerade beim Zentralen Grenzwertsatz (ZGWS) immer mal wieder Mythen und Legenden auftauchen, hab ich ein paar Beispiele zusammengestellt, die das veranschaulichen. Unter diesem Link https://login.yoursecurecloud.de/d/9941c4219e/ findet Ihr einen Ordner mit einem pdf-Dokument „Zentraler Grenzwertsatz (ZGWS).pdf“ sowie den R-Code zum Nachrechnen.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stefan,

    quote:


    Ursprünglich veröffentlicht von Stefan741

    Es gibt auch ein „R“-Paket ‚tolerance‘: http://cran.r-project.org/web/packages/tolerance/tolerance.pdf
    Hat damit schon jemand etwas „rumgespielt“?


    Ja, hab ich [:)] Das package enthält diverse Berechnungsmöglichkeiten für Toleranzintervalle, u. a. für die Normalverteilung und die nicht-parametrische Berechnungsmethode. Soweit ich das gesehen habe sind die meisten Anwendungen aus dem Buch von Krishnamoorthy (s. o.).

    Hier ein kleines Beispiel:

    x = runif(100) # 100 gleichverteilte Zufallswerte in x speichern

    # 1. Verteilungsprüfung / Werte sind natürlich nicht normalverteilt
    qqnorm(x);qqline(x) # zeichnet Wahrscheinlichkeitsnetz mit Ideallinie
    require(nortest) # package „nortest“ für AD-Test auf Normalverteilung laden
    ad.test(x) # berechnet AD-Test

    require(tolerance) # package laden, bei Bedarf installieren
    nptol.int(x, alpha=0.05, P=0.99, side=2)
    # nptol.int() berechnet verteilungsfreie Toleranzintervalle
    # alpha=0.05 entspricht Konfidenz- oder Vertrauensniveau von 95%
    # P=0.99 Abdeckung/Überdeckung der Einzelwerte (99%)
    # side=2 berechnet 2-seitige Toleranzgrenzen

    Mehr R-Code zur Toleranzrechnung gibts z. B. hier: NOT-Statistik unter der Überschrift „Beispiel Projektlaufzeit“ (und natürlich in dem dazu gehörenden Buch „NOT-Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R“)

    quote:


    Ursprünglich veröffentlicht von Stefan741

    Mich beschäftigt ebenfalls die Frage, wie man z.B. bei einer logarithmischen Verteilung oder Exponentialverteilung die Toleranzen abschätzt.


    Für die logarithmischen Verteilung kenne ich keine Formel, allerdings ist diese Verteilung auch extrem selten. Bei der Logarithmischen Normalverteilung bzw. Lognormal-Verteilung läuft die Berechnung von Toleranzgrenzen über die Normalverteilung, d. h. die lognormalverteilten Werte werden über den Logarithmus in normalverteilte Werte umgerechnet (transformiert) und dann auf die normalverteilten Werte die Standardformeln für Toleranzintervalle angewendet (Krishnamoorthy, p.174/175).

    Für die Exponentialverteilung gibt es eigene Berechnungsformeln. Bei Krishnamoorthy findet sich nur die allgemeinere Form für die 2-parametrige Exponentialverteilung. Für die „normale“ bzw. 1-parametrige gibts da Nichts spezielles. Im R-package „tolerance“ sind die Formeln mit dem Hinweis auf folgendes Buch hinterlegt:

    Blischke, Wallace R.; Murthy, D. N. Prabhakar Murthy [2000] Reliability: Modeling, Prediction, and Optimization
    Wiley, ISBN 9780471184508

    quote:


    Ursprünglich veröffentlicht von Stefan741

    Und dann können sich verschiedene Verteilungsformen zusammen kommen und müssen daher „addiert“ werden. Hat da vielleicht jemand ein praktisches Beispiel, wie man das berechnen oder mittels R auswerten könnte?


    Nein. Wie schon geschrieben ist es in der Statistik unüblich, Verteilungen so zusammenzufügen. Um das mathematisch sauber hinzubekommen brauchst Du für jeden speziellen Einzelfall bzw. jede Kombination von Verteilungen eine neue Berechnung, welche Verteilungsfunktion die Summe der beiden Verteilungen hat. Dabei spielen neben den beiden Einzelverteilungen auch Eigenschaften wie Unabhängigkeit der beiden Einzelmerkmale eine Rolle.

    quote:


    Ursprünglich veröffentlicht von Stefan741

    Eine Rechtecks- oder Trapezverteilung ist mir bei ausreichender Datenlage noch nicht unter gekommen.


    [:)] Und wenn die Datenlage sehr schmal ist, dann kann theoretisch jede (oder keine) Verteilung passen.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Yannick,

    willkommen im Qualitäter-Forum [:)]

    Also: Das Buch von Klein zur prozessorientierten statistischen Tolerierung ist auf Ingenieurs-Sicht ganz nett, um Toleranzen und Maßketten zu ermitteln. Aus statistischer Sicht hat es einige Schwächen, und eine davon ist die von Dir gefundene Frage, wie der Zusammenhang zwischen Standardabweichung und Toleranz bei den nicht-normalen Verteilungen ermittelt wird.

    Ich weiß das nicht und ich habe auch bislang kein Buch in der Hand gehabt, in dem mir diese Herleitung aufgefallen wäre. Deshalb kann ich Deine eigentliche Frage auch nicht beantworten. Aber ich bin ja auch nur Statistikerin und keine Ingenieurin [:o)]

    Mir erscheint es allerdings fragwürdig, alles auf die Standardabweichung zurückführen zu wollen, denn die ist als Kennzahl direkt nur bei normalverteilten Merkmalen sinnvoll interpretierbar (z. B. innerhalb von Mittelwert +/-3*Standardabweichung liegen 99,73% aller Messwerte).

    Um für andere Prozentwerte oder Vielfache-von-Standardabweichungen Zahlen zu berechnen, ist gerade bei den nicht-normalen Verteilungen ein Statistikprogramm hilfreich. Ich würd hier auf R zurückgreifen, weil das alle von Dir angesprochenen Funktionen kennt. Da die Dreiecksverteilung und die Trapezverteilung in der Statistik selten verwendet werden, fehlen diese Verteilungsfunktionen bei anderen Statistikprogrammen. In R werden Dreiecks- und Trapez-Verteilung mit dem Zusatzpackage trapezoid bereitgestellt.

    Und damit kommen wir schon zur nächsten Klinke: Statistische Tolerierung ist ein wichtiges Thema in der industriellen Anwendung und die meisten Statistikprogramme bieten hierfür auch Methoden. Und dennoch gibt es die Trapezverteilung extrem selten in den Programmen. Das liegt daran, dass statistische Tolerierung anders als die Maßkettenrechnung funktioniert. Denn in der Statistik wird nicht nur die Verteilung berücksichtigt, sondern auch und speziell die Anzahl Messwerte, auf deren Basis Du die Tolerierung rechnest.

    Bei einer kleinen Anzahl Messwerte kann keine Verteilung gut/ausreichend genau ermittelt werden und die Toleranzen werden in diesem Fall extrem breit, weil die Unsicherheit der Kennzahlen wie Mittelwert und Standardabweichung bei der Normalverteilung sehr hoch ist. Je größer die Anzahl Messwerte wird, desto kleiner wird die Unsicherheit der Kennzahlen. Damit wird die berechnete Toleranz auch schmaler.

    Dummerweise ist die Unsicherheitsberechnung ein ganz klein bisschen aufwändig und die Formeln eher etwas für fortgeschrittene Formel-Enthusiasten. Das führt zusammen mit einer anderen Art der Beschreibung von Messwerten (s. u.) dazu, dass es nur für wenige Verteilungen die Berechnungsformeln gibt und die Dreiecks- und Trapez-Verteilung gehören nicht dazu (dafür Weibull, Lognormal, Poisson und andere). Eine hervorragende (wenn auch anspruchsvolle) Zusammenstellung liefert das Buch:

    Krishnamoorthy, Kalimuthu und Mathew, Thomas [2009] Statistical Tolerance Regions: Theory, Applications, and Computation.
    Wiley. ISBN 9780470380260.

    Der andere Ansatz bei der Beschreibung von Messwerten in der Statistik bezieht sich darauf, dass in der Statistik Einflüsse wie beispielsweise ein Werkzeugverschleiß NICHT über eine andere Verteilung (z. B. Trapezverteilung) beschrieben werden, sondern dass über ein Ursache-Wirkungs-Modell der Einfluss „Verschleiß“ (oder auch andere Einflüsse wie Druck, Zeit, Temperatur, Material…) beschrieben/modelliert wird. Zu den Modellierungen liefert das Tolerierungsbuch von Krishnamoorthy und Mathew auch Formeln, mit denen für bestimmte Situationen Toleranzen in Abhängigkeit der Einflüsse ermittelt werden.

    Ich hoffe, die Erklärung hilft Dir ein Stück weiter, auch wenn damit Deine Frage zum Zusammenhang zwischen Vielfachem der Standardabweichung, Abdeckung/Prozentwert und nicht-normalen Verteilungen unbeantwortet bleibt.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Martin,

    auch dieser Thread ist mehr als 7 Jahre alt. Gibt es wirklich kein aktuelles Thema, zu dem Du einen Beitrag schreiben willst?

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Und noch ein Zombie-Thread. Ich bin mir nach den diversen Diskussionen der letzten Jahre sicher, dass dieses Thema mehrfach erschöpfend beantwortet wurde. Irgendwie werde ich den Verdacht nicht los, Du möchtest einfach nur Text ins Forum bringen, um Deine URL zu platzieren.

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo „QM-Beratung mit System“,

    wir freuen uns immer über qualifizierte Beiträge zu aktuellen Fragen. Ich bin mir allerdings ziemlich sicher, dass ein mehr als 10 Jahre(!) altes Thema nicht mehr so ganz brennend aktuell ist.

    Bitte prüf auch Deine Postings hinsichtlich der Zeichenkodierung. Irgend etwas ist mit Deinen Umlauten schräg und macht den Beitrag schwer lesbar. Danke.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo o0m4t0o,

    es ist immer extrem schwierig, für gut/schlecht oder Fehler ja/nein bzw. Anzahl-Merkmale Prüfpläne oder Versuchspläne mit einer kleinen Probenanzahl und einer großen Aussagekraft aufzustellen.

    Ich würd deshalb erstmal schauen, was an Daten schon da ist. Das dürfte bei einer 100%-Prüfung ein bisschen was sein.

    Tor 1 Im günstigen Fall liegen nicht nur die Prüf-Ergebnisse (Fehler ja/nein bzw. Fehler-Anzahl pro Teil) vor, sondern auch die dazu gehörenden Material- und Maschinen-Parametereinstellungen. Diese Prozessdaten können dann ohne weitere Versuche ausgewertet werden und untersucht werden, welche Prozess-Einstellungen oder Einstellkombinationen Fehler begünstigen. Auswertungsmethode ist die (binäre) logistische Regression, mit der Du die Wahrscheinlichkeit für „Fehler=ja“ (oder „Fehler=nein“) untersuchen und z. B. herausfinden kannst, ob eine höhere Temperatur ein höheres Fehlerrisiko mit sich bringt. Alternativ gibt es die Poisson-Regression, mit der Du die Fehleranzahl pro Teil (pro Stunde, pro Charge, pro …) untersuchen kannst.

    Tor 2 Es gibt keinen Datensatz mit Prozess-Einstellungen und Prüfergebnissen und dieser Datensatz lässt sich auch nicht zusammenstellen. Hier werden neue Messdaten gebraucht, die genau diesen Zusammenhang zwischen Einstellungen im Prozess und Fehlerrate im Prüfergebnis zeigen können. Statistische Versuchsplanung (Design of Experiments bzw. DoE) ist hierfür die effizienteste Methode, d. h. alles andere braucht noch länger, umso mehr, je komplexer die Wirkstrukturen im Prozess sind (Stichwort Wechselwirkungen usw.).

    Effizient werden die Versuche dann, wenn Du neben einer kleinen Messunsicherheit bei den Prozess-Einstellungen ein messbares Prozess-Ergebnis hast, also nicht nur „Fehler=ja/nein“ bzw. „Fehleranzahl pro Teil“, sondern irgend etwas in Zahlen wie eine Wandstärke von 3,72mm. Es ist manchmal schwierig, ein sinnvolles und zuverlässiges Messprinzip zu finden. Der Vorteil ist, dass aus den mehreren tausend Teilen, die Du für Fehler ja/nein oder die Fehleranzahl brauchst, einige wenige Teile (i. A. weniger als 100) werden – die dann allerdings in einer messenden Prüfung untersucht werden. (In der aktuellen QZ 5/2015 werden unterschiedlichste Messmethoden vorgestellt, z. B. Messmittel für magnetische Felder oder Spannungen im Glas. Vielleicht findest Du da noch ein paar Anregungen, wie aus dem Fehler ja/nein oder der Fehleranzahl ein Messwert werden kann. Wenn nicht, kannst Du uns einfach ein bisschen mehr über den Fehler verraten, dann helfen wir auch gern beim Nachdenken.)

    Wenn Du eine messbare (variable) Zielgröße statt Deiner Fehler ja/nein Zielgröße verwendest, kannst Du für Deinen Basis-Versuchsplan ausrechnen, wie viele Replikationen notwendig sind, um eine Veränderung in der Zielgröße zuverlässig zu entdecken. Die Auswertung läuft dann über die normalen Auswertungsmethoden für die statistische Versuchsplanung.

    Tor 3 Es gibt keinen Datensatz und das Prozess-Ergebnis ist Fehler ja/nein oder Fehleranzahl pro Teil. In diesem Fall gibt es keine Möglichkeit in Minitab oder anderen „normalen“ Statistik-Programmen, den notwendigen Probenumfang für einen statistischen Versuchsplan auszurechnen. Die 3000 Teile scheinen eine ganz brauchbare Größenordnung zu sein (nach einigem Ausprobieren mit Trennschärfe und Stichprobenumfang für Anteile und Parameterschätzung). Wie Du schon richtig schreibst, ist bei deutlich weniger Teilen das Risio sehr groß, dass unabhängig von den Prozess-Einstellungen so gut wie kein Fehler auftritt, weil 0,4% einfach ein kleiner Anteil ist.

    Ich würd auf jeden Fall versuchen, Tor 1 oder Tor 2 zu nehmen [:)]

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo bestofqualitaeter,

    hm, meinst Du nicht es wäre einfacher, eine deutsche Ausgabe von MSA 3 zu nehmen und die Textstellen rauszusuchen, die sich in MSA 4 geändert haben, und nur die dann zu übersetzen (bzw. etwas Ähnliches mit der letzten Übersetzung von SPC zu machen)? Dieses Vorgehen hätte auch den Charme, dass es weniger zeitaufwändig wäre und krause Übersetzungen vermieden werden.

    Mein Lieblings-Fundstück einer MSA 4 Übersetzung ist folgender Satz:

    Englisch: Select the parts at random to minimize appraiser „recall“ bias in the measurements.

    Deutsch: Die Teile sind zufällig auszuwählen, um „wiederkehrende“ Systematische Messabweichungen bei den Messungen zu minimieren. (s. [1], S. 72)

    Gemeint ist hier, dass die Mess-Reihenfolge zufällig sein soll, damit sich ein Prüfer nicht merkt, dass das erste Teil in der Messreihe den Wert 10,2 hat und das zweite Teil in der Messreihe den Wert 10,5 usw. Bei einer zufälligen Mess-Reihenfolge ist die Reihenfolge, in der die Teile aufgenommen werden, für jede Wiederholmessung unterschiedlich (Messung 1: 2, 5, 7, 8,…, Messung 2: 1,9,3,6,…)

    Das ist schon im englischen Original-Text schwer zu verstehen. Bei der deutschen Übersetzung bin ich mir nicht sicher, wie groß der Anteil der Anwender ist, die das verstehen und nach dem Sinn der Vorgabe umsetzen können (wild guess: der Anteil ist ziemlich klein). Ich weiß auch nicht, ob dieser Satz aus der offiziellen MSA 3 Übersetzung stammt oder eine andere Herkunft hat.

    Die Schwierigkeit bei einer Übersetzung ist nicht, jedes Wort 1:1 zu übersetzen, sondern dabei auch noch den Sinn zu erfassen und in eine andere Sprache zu übertragen. Um hier einen möglichst überschaubaren Unsicherheits-Bereich zu kriegen, würd ich deshalb mit der MSA 3 deutsch starten und dann schauen, ob der Text verständlich ist und wie viel geändert werden muss, um die MSA 3 auf die MSA 4 zu aktualisieren (und ähnliches mit dem SPC-Handbuch machen). Bei einer Übersetzung, an der mehrere Menschen mitgearbeitet haben, gibt es immer unterschiedliche Arten oder Übersetzungsstile und andere Schwerpunkte im Vokabular. Das kann dann schnell holprig werden – es sei denn, irgend jemand liest und redigiert die erste Fassung, und zwar jemand, der das thematisch gut kann und des Englischen mächtig genug ist.

    Deshalb würd ich eher in den sauren Apfel beißen, mich durch das Englisch kämpfen und die relevanten Punkte für meine Messaufgaben rauspicken. Das dürften nicht soo viele sein, denn viel von dem Text in MSA 4 bzw. SPC 2 ist für die tägliche Praxis weniger relevant. Für SPC gibt es auch ganz nette deutsche Bücher, z. B. kurz & knackig [2] oder ausführlich mit Formeln [3].

    Viele Grüße

    Barbara

    [1] Dietrich, Edgar und Schulze, Alfred [2014]: Prüfprozesseignung: Prüfmittelfähigkeit und Messunsicherheit im aktuellen Normenumfeld.
    4. Auflage, Hanser Fachbuchverlag. ISBN 9783446427778
    [2] Faes, Günter [2009]: SPC – Statistische Prozesskontrolle.
    Books On Demand. ISBN 9783837051568.
    [3] Rinne, Horst und Mittag, Hans-Joachim [1991]: Statistische Methoden der Qualitätssicherung.
    2. Auflage, Hanser Fachbuchverlag. ISBN 9783446162990.

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo JensT,

    willkommen im Qualitäter-Forum [:)]

    Ohne Deine Daten und Formeln gesehen zu haben ist es schwierig ganz konkret zu sagen woher die Unterschiede in den Ergebnissen kommen. Meine Vermutung ist folgende:

    Bei der AD-Teststatistik wird in Minitab statt der „normalen“ AD-Formel die AD*-Formel bei der Weibullverteilung verwendet. Die heißt im Englischen „modified AD“ und es gibt sie in diversen Varianten, s. z. B. Goodness-of-Fit tests for Statistical Distributions.

    Die von MInitab in einer Auswertung verwendete Formel ist in der Minitab-Hilfe dokumentiert. Von den Screenshots her würde ich vermuten, dass es eine R15 oder R16 Version war (aktuell ist R17). Um einen Blick in die Minitab-Hilfeseiten werfen zu können reicht die Installation einer Demoversion (auf Minitab Demoversion, nach kostenfreier Registrierung Download möglich, läuft 30 Tage in vollem Umfang).

    Wenn die Ergebnisse trotzdem nicht übereinander passen, würd ich beim Hersteller-Support anrufen und da nachfragen, woher die Unterschiede kommen können Minitab Support.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Mischprobe nach DIN?? #62784

    Hallo Sophie,

    Du kannst bestimmt kreative Wege finden mit denen sich der Prüfaufwand reduzieren lässt. Unterm Strich muss die Prüfung absichern, dass keine Fremdkörper oder anderen unerwünschten Teile in Eurer Produktion landen (s. Rainaaris Posting).

    Ob Du dafür 125 ganze Kartons prüfst oder 125 Bananenscheiben rauspickst hängt von der Risikobewertung ab. Und es ist sicherlich sinnvoll zu prüfen, wie groß die Risiken alpha und beta für Fehlalarm und Nicht-Entdecken sind. (Ausführliche Hinweise s. z. B. Thread AQL ISO 2859. Bei dem ISO 2859-System liegen die leider sehr oft in einem nicht-akzeptablen Bereich. Wenn Du z. B. nur eine 30%-ige Chance hast einen für die Produktion ungünstig hohen Anteil Rosinenstielen zu finden, macht die Prüfung nicht nur keinen Sinn sondern wiegt Dich in trügerischer Sicherheit – bis es schief geht.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Marco,

    quote:


    Ursprünglich veröffentlicht von Clipi
    Also eine Allgemeinrezept gibt es nicht?! :)


    Nein, gibt es nicht und kann es nicht geben, weil die Anforderungen und Mess-Situationen in jedem Unternehmen unterschiedlich sind. Was immer sinnvoll und hilfreich ist: GMV (Gesunder MenschenVerstand)

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Michael,

    auf der x-Achse wird das Qualitätsmerkmal abgetragen, also entweder wie in Deinem Beispiel ein Messwert (in mm, 260mm optimal, Abweichungen nach unten weniger) oder ein entsprechender Ausschusswert wie AQL (acceptable quality level) und RQL (rejectable quality level) oder LTPD (lot total percent defectives).

    Z. B. kannst Du einen Plan basteln, bei dem die OC Kurve durch die beiden Punkte
    P(AQL,1-alpha) und P(RQL,beta)
    läuft. Bei AQL=1% und 1-alpha=95% sowie RQL=5% und beta=10% sieht das ungefähr so aus wie hier beim Eintrag zu LTPD.

    Ohne den Stichprobenumfang n und die Zahlen für AQL, alpha, RQL und beta zu kennen kannst Du aus einer OC-Funktion nur begrenzt Informationen ablesen. In der verlinkten Grafik könnte (ohne die Hilfslinien) auch der RQL-Punkt bei 4% und 20% beta liegen oder bei 3% und 35% beta. Für eine Annahmewahrscheinlichkeit von 50% bist Du ungefähr bei 2,2% Ausschussrate im Los (lot defective), sprich: Wenn Du ein Los prüfst, in dem es insgesamt eine Auschussrate von 2,2% gibt, hast Du eine 50:50 Chance ein Prüfergebnis iO bzw. niO zu bekommen.

    Der RQL-Wert wird auf Basis der Risikobewertung festgelegt: „Wie viele Teile außerhalb der Toleranz sind gerade noch erträglich?“ (Wenn die Antwort „absolut 0“ ist, sind Stichproben ungeeignet, weil da immer ein Anteil > 0 für Werte außerhalb eingebaut ist). Der RQL-Wert kann auch sehr klein sein, nur 0 funktioniert nicht.

    beta wird auch über die Risikobewertung festgelegt, nur ist die Frage dahinter eine andere: „Wenn tatsächlich zu viele Teile niO sind (z. B. Ausschussrate > RQL), wie viel Risiko das zu übersehen ist maximal tolerierbar?“

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Marco,

    willkommen im Q-Forum [:)]

    quote:


    Ursprünglich veröffentlicht von ClipiAlso ich komme immer auf das Ergebnis „alle Messschieber wegschmeißen“ ;)


    Dass Messmittel bei genauerer Betrachtung nicht so richtig brauchbar sind, ist ein sehr häufiges Ergebnis der Messmittelfähigkeitsbewertung oder der MSA.

    Nun kannst Du Dich entscheiden entweder dem Boten der schlechten Nachricht den Kopf abzuschlagen („wir machen hier keine Statistik mehr!“) oder Du überlegst, was dieses Ergebnis für Eure Prozesse heißt:

    1. Messwerte werden für Entscheidungen verwendet.
    2. Wenn die Messwerte durch eine hohe Messunsicherheit verrauscht sind, sind die Entscheidungen wacklig.
    3. In der Vergangenheit gab es diverse schlechte Teile (lt. Vorgaben in der WE), die in die Produktion gerutscht sind. Das hat (ggf.) ab und zu Schwierigkeiten gemacht. (Wenn nicht, sind die Vorgaben zu scharf für die technischen Anforderungen.)
    4. In der Vergangenheit gabe es diverse gute Teile, die aufgrund von schlechten Messwerten an den Lieferanten zurückgeschickt worden sind. Das hat ab und an zu einem Hickhack mit dem Lieferanten & Einkauf & Produktion geführt.

    Die Untersuchung der Mess-Unsicherheit ist kein Selbstzweck, sondern soll einen Eindruck davon geben ob Ihr Eure Prozesse und Produkte über die Messwerte gut genug bewerten könnt. Ich kenne sehr viele Firmen, die diverse Liter Kaffe und einige Tonnen Kekse vernichtet haben während sie versuchten die Prozesse & Produkte zu optimieren oder zu stabilisieren – und die eigentlich die ganze Zeit nur übers Mess-Rauschen gesprochen haben. Die Prozesse & Produkte waren ok, die Messwerte nicht und damit sah es so aus, als wären die Prozesse & Produkte nicht ok.

    Vor solchen Fallstricken schützt eine kleine Mess-Unsicherheit. Nur umsonst gibt es diesen Schutz nicht, dafür müssen einige Überlegungen angestellt und Versuche gemacht werden. Wenn die Messmittel keine echten Messwerte (=echt unterschiedliche Zahlenwerte & aussagekräftige Informationen) liefern, z. B. weil die Auflösung zu grob oder die Mess-Unsicherheit zu hoch ist, würd ich über den Sinn und Zweck der Prüfung nachdenken.

    Es macht meiner Meinung nach keinen Sinn Messwerte aufzunehmen, in denen keine brauchbaren Informationen stecken. Und wenn ich bei „schlechten“ Messwerten einfach nur solange weitermessen muss bis das Teil „gut“ ist bzw. einen „guten“ Messwert hat, spätestens dann ist die Prüfung komplett überflüssig und schädlich.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Michael84,

    willkommen im Q-Forum [:)]

    Die OC-Kurve (OC: Operationscharakteristik) gibt für eine Stichprobenprüfung an, wie hoch die Annahmewahrscheinlichkeit ist. Die Annahmewahrscheinlichkeit für ein Los liegt zwischen 0 bzw. 0% (Los wird abgelehnt) und 1 bzw. 100% (Los wird angenommen).

    Auf der x-Achse der OC-Kurve werden Merkmalswerte oder Ausschussraten eingetragen. Bei Deiner Grafik ist das ein Maß mit einem optimalen Wert von 260mm (=> Annahmewahrscheinlichkeit maximal und gleich 95%). Je weiter das Maß von 260mm entfernt ist, desto niedriger wird die Annahmewahrscheinlichkeit. Bei 255mm hast Du eine Annahmewahrscheinlichkeit von 19,77%.

    Die OC-Kurve wird durch zwei Punkte festgelegt: den Gut-Punkt und den Schlecht-Punkt. Am Gut-Punkt möchtest Du eine hohe Annahmewahrscheinlichkeit haben, z. B. 95%. 100% wäre zwar noch besser, nur gibt es bei Stichprobenprüfungen immer auch ein Risiko für einen Fehlalarm: alpha bzw. Risiko für einen Fehler 1. Art. Oft (und auch bei Dir) wird alpha=5% gewählt. Damit ist die Annahmewahrscheinlichkeit am optimalen Punkt von 260mm „nur“ 95% = 100% – alpha groß.

    Wenn die Abweichungen vom optimalen Punkt zu groß werden bzw. in Deinem Beispiel das Maß zu klein erreichst Du irgendwann den Schlecht-Punkt. Für diesen Punkt soll die Annahmewahrscheinlichkeit klein sein, z. B. maximal 10%. Damit könnte der Schlecht-Punkt der Punkt 254mm & 10% in der Grafik sein. Diese 10% am Schlecht-Punkt sind das beta, das Risiko ein Los anzunehmen obwohl die Qualität oder das Maß eigentlich zu schlecht ist (Risiko des Nicht-Entdeckens oder RIsiko des Übersehens). Wie Schlecht-Puntk und beta für die Beispiel-Grafik gewählt wurden, lässt sich aus der Grafik nicht ablesen.

    Die allgemeine Form der OC-Funktion wird über die Art des Tests (Messwerte oder Prüfergebnisse) bestimmt. Damit die Funktion durch die beiden Punkte (Gut, alpha) und (Schlecht, beta) läuft, wird eine gewisse Anzahl an Messwerten oder Prüfergebnissen benötigt. Das ist der Stichprobenumfang n.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo MSA,

    immer gerne.

    Alternativ zu Versuchen kannst Du auch die einzelnen Unsicherheitskomponenten aus Zertifikaten, Fachliteratur, usw. ermitteln und dann zu einer Mess-Unsicherheit kombinieren. Ist etwas weiter von der eigentlichen Anwendung weg und damit ggf. weniger aussagekräftig, nur wenn sich die Versuche nicht sinnvoll realisieren lassen, könnte das ein Ausweg sein. Weitere Infos dazu findest Du in VDA 5 und ISO 22514-7.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 15 Beiträgen – 106 bis 120 (von insgesamt 2,697)