Verfasste Forenbeiträge

Ansicht von 15 Beiträgen – 211 bis 225 (von insgesamt 2,697)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Christian,

    quote:


    Ursprünglich veröffentlicht von Viper

    also zusammengefasst:
    die „einfach“ berechneten quantile sind ungeeignet, vergleichbar mit Excel Quantil(A1:A200;0,5) – (beide Wege bringen auch das selbe Ergebnis) (steht ja eigentlich auch so in der Ausarbeitung [;)] )


    Jepp.

    quote:


    Ursprünglich veröffentlicht von Viper

    Um zu einem korrekten Ergebnis zu gelangen brauche ich eine Rechenmethode vergleichbar zu qtnorm(%, mü, var, alpha), damit ich bei/mit den bereits berechneten Werten (Punkt 3) weitermachen kann.

    ..mal schaun welcher code qtnorm zugrunde liegt, sofern ich das finde.


    Den Code findest Du z. B. in dem R-package „msm“. Wenn Du das Zusatzpaket msm installiert hast, kannst Du einfach

    library(msm)
    qtnorm

    (ohne alles) hinschreiben und kriegst nach Bestätigung mit Enter den Code zu sehen. Der Code für qtnorm (Quantilfunktion gestutzte Normalverteilung) greift auf ptnorm (Verteilungfunktion gestutzte Normalverteilung) zu. Den Code von ptnorm kriegst Du auch nach Eingabe von

    ptnorm

    zu sehen.

    quote:


    Ursprünglich veröffentlicht von Viper

    PS: Excel NORMINV() führt auch in die falsche Richtung?


    NORMINV ist die Quantilfunktion der ungestutzten (normalen) Normalverteilung. Die funktioniert, wenn der abgeknabberte Teil sehr klein ist, weil die Unterschiede zwischen ungestutzter und gestutzter Normalverteilung dann auch sehr klein sind (sehr klein = Mittelwert ist weiter als 3*S von der technischen Grenze entfernt).

    Je mehr Stutzung in Deiner Messreihe ist, desto größer sind die Abweichungen zwischen gestutzter und ungestutzter Verteilung und damit auch zwischen den Quantilwerten der Verteilungen. Die normale Normalverteilung liefert dann immer kleinere Quantilwerte als die gestutzte Normalverteilung. Das führt dazu, dass die Prozessfähigkeitskennzahlen bei der normalen Normalverteilung größer sind als bei der gestutzten Normalverteilung. Du überschätzt also die Prozessfähigkeit umso mehr, je näher die Messwerte an der technischen Grenze sind.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Christian,

    willkommen im Qualitäter-Forum [:)]

    Quantile können auf zwei Arten berechnet werden, entweder direkt (ohne Verteilung) aus dem Messdaten (=empirische Quantile) oder als Verteilungsquantile.

    Die Funktion QUANTILE in Excel liefert Dir empirische Quantile ohne Verteilung und ist deshalb für die Prozessfähigkeitskennzahlen ungeeignet, denn hierbei wird immer mit Verteilungsquantilen gerechnet.

    Ein Verteilungsquantile ist nicht ganz einfach zu berechnen. Du brauchst dafür die Verteilungsfunktion und die Fläche unter der Verteilungsfunktion. Das Quantil ist der Wert auf der x-Achse, bis zu dem ein bestimmter Flächenanteil erreicht ist, wobei der Flächenanteil links (bei -unendlich) anfängt und nach rechts (+unendlich) größer wird. Verteilungsfunktionen haben immer insgesamt eine Fläche von 1 bzw. 100%.

    Wenn Du jetzt für die Prozessfähigkeit eines nullbegrenzten Merkmals das obere 99,865%-Quantil berechnen möchtest, brauchst Du neben den Verteilungskenngrößen (in Schritt 1-3) eine Funktion, die Dir den x-Wert ausgibt, bis zu dem diese Verteilungsfunktion einen Flächenwert von 99,865% hat. Auch wenn das keine wirkliche Raketentechnik ist, ist das Lösen von Integral-Gleichungen auch nichts für Papier und Bleistift und ob das mit einem Taschenrechner zu bestimmen ist, hängt vermutlich sehr stark von den Taschenrechner-Funktionen ab.

    Falls Du eine Lösung für das Problem findest, mit der diese Quantile ohne Statistik-Software wie R gerechnet werden können, würden sich vermutlich sehr viele Menschen darüber freuen. Ich kenne bislang noch keinen Workaround für diese Rechenaufgabe, aber viele Menschen, die gerne einen dafür hätten [;)]

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: UT 2013 #61933

    Moin, moin,

    Ostersonntag (31.03.) ist Anmeldeschluss für das Usertreffen 2013.

    Bisher haben wir acht Anmeldungen, und zwar von
    Frank Hergt
    Kugi
    Mr.Idea
    QM-FK
    Qualyman
    Robert K. (unser Firmenführer vom letzten Jahr)
    und ich bin natürlich auch dabei [:)]

    Wir würden uns freuen, wenn noch ein paar mehr Menschen aus diesem Forum teilnehmen, und wir vielleicht auch ein paar neue Gesichter begrüßen könnten.

    Das ausführliche Programm und den Link zur Anmeldeseite gibt es hier: http://www.bb-sbl.de/q4u/usertreffen.html

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Dokumentationssystem #61932

    Hallo zusammen,

    wenns mit der Ordnung nicht so ganz super klappt und der Energieaufwand zur Disziplin in einem Missverhältnis zum Nutzen steht, könnte auch Agent Ransack weiterhelfen. Das ist ein auch für kommerzielle Anwender frei nutzbares Suchprogramm, das sowohl nach Dateinamen als auch Wörter innerhalb der Datei sucht (und das sehr viel schneller und besser als die Windows-Suche). Office 2010-Dateiinhalte werden genauso durchsucht, wenn das MS Office Filterpack installiert wird. Den Link dazu gibts auf der Agent Ransack bzw. FileLocator Lite-Seite im Downloadbereich.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Martin,

    hm, wenn Dein Mess-System nur sehr grob sortieren kann, würd ich mal durchrechnen, wie viel Euch ein Absenken auf 0,8mm kosten würde und wie teuer im Vergleich dazu ein Mess-System mit höherer Auflösung ist. Denn bei 0,8mm wirfst Du einfach auch einen Haufen guter Teile weg.

    Alternativ könntest Du noch prüfen, wie hart die 1,0mm-Grenze ist. Wenn das eine „Angsttoleranz“ ist und es tatsächlich in der Anwendung erst später unschön wird (z. B. ab 1,4mm), könntest Du eventuell auch mit einer ziemlich unscharfen Sortierung bei 1,0mm leben.

    Vielleicht hilft es bei der Vergleichsrechnung auch, wenn Du erstmal mit den jetztigen Toleranzen und Teilen arbeitest und dann auf Basis der Mess-Ungenauigkeit bzw. dem Risiko für eine Fehlklassifikation genauer bestimmen kannst, wie gut oder schlecht die Sortierung von niO-Teilen funktioniert.

    Eine einfachere Lösung fällt mir dazu leider auch nicht ein.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Martin,

    quote:


    Ursprünglich veröffentlicht von mad

    Wenn ich nun Oberflächenfehler bestimme, die einen max. Durchmesser von 1mm haben dürfen (d.h. von 0 bis 1mm ist i.O, darüber n.i.O.), dann müsste demzufolge die Auflösung des Messystems 0,05mm betragen. Liege ich da richtig?


    Ja, das ist richtig. Laut VDA 5 muss die Auflösung mindestens 5% der Toleranzbreite sein, also
    kleinster Anzeigeschritt / Toleranzbreite = 0,05 / 1,0 = 5%

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo reticent,

    Kappa und effectiveness sind zwei unterschiedliche Kennzahlen.

    Kappa misst den Grad der Übereinstimmung der Prüfer untereinander (ohne Vergleich mit der Referenz bzw. der korrekten Prüfentscheidung). Die 0,75-Grenze ist allerdings nur ein Daumen-Regelwert, weil Kappa weniger Aussagekraft hat als z. B. ein Mittelwert oder eine andere Kennzahl.

    Grundsätzlich gilt, dass die Übereinstimmung umso höher ist, je höher Kappa ist. Kappa hat einen Maximalwert von 1,0, wenn alle Prüfer bei allen Teilen und allen Wiederholungen das gleiche Prüfergebnis aufgeschrieben haben.

    Effectiveness ist dagegen der Anteil korrekter Entscheidungen an allen Entscheidungen. Hierbei spielt es keine Rolle, wie viele Prüfer die Teile bewerten. Der Anteil korrekter Entscheidungen sollte möglichst hoch (mindestens 90%=0,90) sein. Auch für die Effectiveness gilt, dass sie maximal 1,0=100% (=alle Entscheidungen korrekt) sein kann und dass höhere Werte besser sind.

    Beispielrechnungen und weitere Erläuterungen findest Du in MSA 4 (p. 137-140).

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo bestofqualitaeter,

    ich würd die beiden Bücher an Deiner Stelle nicht kaufen, weil sie veraltet sind: In der MSA hat sich in Auflage 4 einiges geändert und das SPC Handbuch soll demnächst auch in der aktuellen Version auf deutsch erhältlich sein. Das steht so jedenfalls bei tuev-buch.de.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo reticent,

    wie schon geschrieben: Verfahren 1 ist eine VDA 5-Sonderkonstruktion, die nur für ganz bestimmte Mess-Situationen anwendbar ist.

    Bei einseitiger Toleranz gibt es keine offiziellen Alternativen. Was teilweise gemacht wird ist, entweder eine technische Grenze oder eine Prozess-Streubereichsgrenze als Quasi-Toleranzgrenze zu verwenden.

    Vor dem Hintergrund, dass Verfahren 1 nur eine sehr überschaubare Bewertungsmöglichkeit des Mess-Systems liefert, stellt sich hier zuerst die Frage ob es sinnvoll ist, Energie & Zeit in derartige Kreativlösungen zu stecken. Denn Du hast immer das Geschmäckle „Glaube keiner Statistik, die Du nicht selbst gefälscht hast.“ sobald Du bei den Formeln kreativ wirst (such einfach mal nach 4S oder 6S bei der Messmittel-Fähigkeit).

    Ich würde deshalb erst einen Schritt zurückgehen und die Frage stellen:
    Wie kritisch sind unsere Mess-Prozesse?

    Bei kritischen Mess-Prozessen (=viel Risiko, viel Geld, viel (Nach-)Arbeit) ist Verfahren 1 eh ein bisschen arg wenig. Da wären mehr Versuche zur Linearität und systematischen Abweichung sinnvoll und bei denen brauchst Du keine Toleranzgrenzen.

    Bei unkritischen Mess-Prozessen wäre Verfahren 1 eine Möglichkeit. Da könnte alternativ auch das Kalibrierprotokoll herhalten und bei einer sauber durchgeführten MSA (Gage R&R / Verfahren 2) mit ausreichend niedriger Mess-Unsicherheit der Mess-Prozess qualifiziert werden. Auch dafür brauchst Du nicht zwingend Toleranzgrenzen, sondern kannst sowohl mit einer Toleranzgrenze als auch mit einem anderen Streubereich (z. B. Prozess-Streubereich) die Mess-Unsicherheit bewerten.

    Die Toleranzbreite als einzig wahrer Referenzbereich wird von VDA 5 und ISO 22514-7 angegeben. MSA 4 schaut dagegen eher auf die Prozess-Streuung und lässt die Toleranzbreite als zusätzlichen Referenzbereich zu.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo bestofqualitäter,

    für Verfahren 1 ist es ein bisschen schwieriger, weil das eine reine VDA 5-Kreation ist, die nicht so weit verbreitet wie die anderen Verfahren (Gage R&R / Verfahren 2) ist. Auf Q4U findest Du unter dem Stichwort „Prüfmitteleignung / Verfahren 1“ eine Excel-Vorlage.

    Da gibt es auch eine Excel-Datei für Verfahren 2. Bei Verfahren 2 haben sich in den letzten Jahren die Anforderungen bzw. Rechenvorgaben etwas geändert, deshalb wäre es vermutlich sinnvoller, bei elsmar.com eine aktuelle Vorlage nach MSA 4 zu finden.

    Verfahren 1 ist unverändert geblieben, deshalb gehen die älteren Vorlagen da auch noch. Prüfen solltest Du jede Vorlage mit Beispielen, die in den offiziellen Handbüchern stehen.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo reticent,

    Verfahren 1 bzw. Cg und Cgk lassen sich nur bei zweiseitiger Toleranz berechnen. Es gibt Anwender, die sich eine zweite Grenze suchen, um damit rechnen zu können. Das ist in VDA 5 nicht vorgesehen – es gibt allerdings auch keine alternativen Methoden für einseitige Toleranzen in VDA 5.

    Auch wenn Cg und Cgk Prüfmittel- bzw. Messmittel-Fähigkeiten heißen, sind sie etwas völlig anderes als Prozess-Fähigkeiten (Cp, Cpk oder Pp, Ppk). In einer Prozess-Fähigkeit wird die Gesamtheit des Prozesses berücksichtigt. Bei der Messmittel-Fähigkeit wird lediglich 1 einziger Punkt im Anwendungsbereich untersucht: das Referenzteil.

    MSA 4 kennt deshalb auch weder Cg noch Cgk und warnt davor, sich auf Basis von nur 1 Teil in der trügerischen Sicherheit zu wiegen, das Mess-System würde im ganzen Anwendungsbereich funktionieren. Auch in der ISO 22514-7 (Norm zur Mess-Prozess-Bewertung) gibt es Verfahren 1 bzw. Cg und Cgk nicht.

    Viele Grüße

    Barbara

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Huch, da ist ja schon wieder was am Layout passiert. Schön hier [:)]

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Martin,

    QM-FK hat das Vorgehen schon beschrieben.

    Bei einer voll-automatischen Prüfung ist der Bowker-Test mit Prüfer-Einfluss nicht sinnvoll anwendbar. Das Gleiche gilt für Cohen’s Kappa, denn auch hier werden verschiedene Prüfer untereinander und ggf. mit einer Referenz verglichen.

    Sinnvoll ist es, das Risiko für eine Fehlklassifikation bzw. die Grauzone zu bestimmen. Es wird (hoffentlich) zwei Bereiche geben, in denen die Prüfergebnisse eindeutig sind: perfektes Teil = immer i.O., Schrott = immer n.i.O.

    Dazwischen gibt es fast perfekte Teile oder beinahe Schrott und genau in diesem Bereich zeigt sich die Qualität eines Prüfprozesses. Je besser der Prüfprozess ist, desto schmaler ist der Grauzonen-Bereich.

    Um diesen Bereich zu ermitteln, brauchst Du Grenzmuster (s. Beitrag von QM-FK) sowie (fast) perfekte und (ziemlich) schrottige Teile. Der Fehler muss quantifizierbar sein (z. B. Größe des Oberflächenfehlers) und die für die Bewertung ausgewählten Teile müssen den gesamten Bereich abdecken (perfekt – etwas weniger perfekt – akzeptabel – grenzwertig – inakzeptabel). Dafür brauchst Du mindestens 10 Teile aus dem gesamten Fertigungs-Spektrum.

    Diese Teile werden dann wiederholt geprüft (20 Mal pro Teil wär gut) und dahingehend ausgewertet, wie groß die Grauzone und/oder wie hoch das Risiko einer Fehlklassifikation (Anzeige iO obwohl Teil niO bzw. Anzeige niO obwohl Teil iO) ist.

    Das ist ein ziemlicher Aufwand und absolute Grenzwerte existieren meines Wissens nicht. Andererseits hast Du ohne diese Prüfung keine belastbaren Infos dazu, wie gut Dein Prüfprozess funktioniert.

    Nur 2 niO-Ergebnisse von 30 Prüfungen find ich persönlich ganz schön wenig, wenn das Teil wirklich fehlerhaft war. Da kann ich mit Würfeln zuverlässigere Ergebnisse erzielen… Ob das tatsächlich ein sehr schlechtes Ergebnis ist, hängt natürlich auch davon ab, wie fehlerhaft das Teil war. Bei Voll-Schrott ist das Ergebnis hundsmiserabel, bei grenzwertig akzeptabel könnte das sogar in Ordnung sein. Und da sind wir dann wieder bei den Grenzmustern und der Definition, wann ein Fehler ein Fehler ist [;)]

    Viele Grüße

    Barbara

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Martin,

    bin gerade auf dem Sprung zu einer Fachkonferenz und deshalb etwas knapp dran. Eine ausführliche Antwort kann ich Dir daher erst Anfang nächster Woche geben.

    Grenzwerte gibt es übrigens keine (ich kenn jedenfalls keine), d. h. Du musst selbst entscheiden, ob das Mess-System gut genug ist.

    Wie geschrieben: Rest folgt nächste Woche.

    Viele Grüße

    Barbara

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo mad,

    ich bin mir nicht so ganz sicher, ob 1 Referenzteil ausreichend ist. In VDA 5 wird im Beispiel mit 50 Referenzteilen gearbeitet. Ob es so viele, noch mehr oder auch weniger sein dürfen, hängt davon ab, wie gut der Prozess funktioniert. Je besser der Prozess ist und je genauer die Prüfung sein muss, desto höher ist auch die notwendige Anzahl Referenzteile.

    Du brauchst alleine für die Kontrolle der zeitlichen Stabilität mindestens 3 Teile (ein supergutes, ein grottenschlechtes und eins in der Grauzone) und für die Mess-System-Bewertung deutlich mehr als 3 Teile, sonst wird das mit der Bestimmung der Grauzone nix.

    Viele Grüße

    Barbara

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 15 Beiträgen – 211 bis 225 (von insgesamt 2,697)