Verfasste ForenbeitrÀge
-
AutorBeitrÀge
-
als Antwort auf: ProzessfÀhigkeit (tech. begrenzt, nicht NV) #61938
Hallo Christian,
quote:
UrsprĂŒnglich veröffentlicht von Viperalso zusammengefasst:
die „einfach“ berechneten quantile sind ungeeignet, vergleichbar mit Excel Quantil(A1:A200;0,5) – (beide Wege bringen auch das selbe Ergebnis) (steht ja eigentlich auch so in der Ausarbeitung [;)] )Jepp.
quote:
UrsprĂŒnglich veröffentlicht von ViperUm zu einem korrekten Ergebnis zu gelangen brauche ich eine Rechenmethode vergleichbar zu qtnorm(%, mĂŒ, var, alpha), damit ich bei/mit den bereits berechneten Werten (Punkt 3) weitermachen kann.
..mal schaun welcher code qtnorm zugrunde liegt, sofern ich das finde.
Den Code findest Du z. B. in dem R-package „msm“. Wenn Du das Zusatzpaket msm installiert hast, kannst Du einfach
library(msm)
qtnorm
(ohne alles) hinschreiben und kriegst nach BestĂ€tigung mit Enter den Code zu sehen. Der Code fĂŒr qtnorm (Quantilfunktion gestutzte Normalverteilung) greift auf ptnorm (Verteilungfunktion gestutzte Normalverteilung) zu. Den Code von ptnorm kriegst Du auch nach Eingabe von
ptnorm
zu sehen.
quote:
UrsprĂŒnglich veröffentlicht von ViperPS: Excel NORMINV() fĂŒhrt auch in die falsche Richtung?
NORMINV ist die Quantilfunktion der ungestutzten (normalen) Normalverteilung. Die funktioniert, wenn der abgeknabberte Teil sehr klein ist, weil die Unterschiede zwischen ungestutzter und gestutzter Normalverteilung dann auch sehr klein sind (sehr klein = Mittelwert ist weiter als 3*S von der technischen Grenze entfernt).
Je mehr Stutzung in Deiner Messreihe ist, desto gröĂer sind die Abweichungen zwischen gestutzter und ungestutzter Verteilung und damit auch zwischen den Quantilwerten der Verteilungen. Die normale Normalverteilung liefert dann immer kleinere Quantilwerte als die gestutzte Normalverteilung. Das fĂŒhrt dazu, dass die ProzessfĂ€higkeitskennzahlen bei der normalen Normalverteilung gröĂer sind als bei der gestutzten Normalverteilung. Du ĂŒberschĂ€tzt also die ProzessfĂ€higkeit umso mehr, je nĂ€her die Messwerte an der technischen Grenze sind.
Viele GrĂŒĂe
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: ProzessfÀhigkeit (tech. begrenzt, nicht NV) #61935Hallo Christian,
willkommen im QualitÀter-Forum [:)]
Quantile können auf zwei Arten berechnet werden, entweder direkt (ohne Verteilung) aus dem Messdaten (=empirische Quantile) oder als Verteilungsquantile.
Die Funktion QUANTILE in Excel liefert Dir empirische Quantile ohne Verteilung und ist deshalb fĂŒr die ProzessfĂ€higkeitskennzahlen ungeeignet, denn hierbei wird immer mit Verteilungsquantilen gerechnet.
Ein Verteilungsquantile ist nicht ganz einfach zu berechnen. Du brauchst dafĂŒr die Verteilungsfunktion und die FlĂ€che unter der Verteilungsfunktion. Das Quantil ist der Wert auf der x-Achse, bis zu dem ein bestimmter FlĂ€chenanteil erreicht ist, wobei der FlĂ€chenanteil links (bei -unendlich) anfĂ€ngt und nach rechts (+unendlich) gröĂer wird. Verteilungsfunktionen haben immer insgesamt eine FlĂ€che von 1 bzw. 100%.
Wenn Du jetzt fĂŒr die ProzessfĂ€higkeit eines nullbegrenzten Merkmals das obere 99,865%-Quantil berechnen möchtest, brauchst Du neben den VerteilungskenngröĂen (in Schritt 1-3) eine Funktion, die Dir den x-Wert ausgibt, bis zu dem diese Verteilungsfunktion einen FlĂ€chenwert von 99,865% hat. Auch wenn das keine wirkliche Raketentechnik ist, ist das Lösen von Integral-Gleichungen auch nichts fĂŒr Papier und Bleistift und ob das mit einem Taschenrechner zu bestimmen ist, hĂ€ngt vermutlich sehr stark von den Taschenrechner-Funktionen ab.
Falls Du eine Lösung fĂŒr das Problem findest, mit der diese Quantile ohne Statistik-Software wie R gerechnet werden können, wĂŒrden sich vermutlich sehr viele Menschen darĂŒber freuen. Ich kenne bislang noch keinen Workaround fĂŒr diese Rechenaufgabe, aber viele Menschen, die gerne einen dafĂŒr hĂ€tten [;)]
Viele GrĂŒĂe
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)Moin, moin,
Ostersonntag (31.03.) ist Anmeldeschluss fĂŒr das Usertreffen 2013.
Bisher haben wir acht Anmeldungen, und zwar von
Frank Hergt
Kugi
Mr.Idea
QM-FK
Qualyman
Robert K. (unser FirmenfĂŒhrer vom letzten Jahr)
und ich bin natĂŒrlich auch dabei [:)]Wir wĂŒrden uns freuen, wenn noch ein paar mehr Menschen aus diesem Forum teilnehmen, und wir vielleicht auch ein paar neue Gesichter begrĂŒĂen könnten.
Das ausfĂŒhrliche Programm und den Link zur Anmeldeseite gibt es hier: http://www.bb-sbl.de/q4u/usertreffen.html
Viele GrĂŒĂe
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Dokumentationssystem #61932Hallo zusammen,
wenns mit der Ordnung nicht so ganz super klappt und der Energieaufwand zur Disziplin in einem MissverhĂ€ltnis zum Nutzen steht, könnte auch Agent Ransack weiterhelfen. Das ist ein auch fĂŒr kommerzielle Anwender frei nutzbares Suchprogramm, das sowohl nach Dateinamen als auch Wörter innerhalb der Datei sucht (und das sehr viel schneller und besser als die Windows-Suche). Office 2010-Dateiinhalte werden genauso durchsucht, wenn das MS Office Filterpack installiert wird. Den Link dazu gibts auf der Agent Ransack bzw. FileLocator Lite-Seite im Downloadbereich.
Viele GrĂŒĂe
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: FĂ€higkeit optisches PrĂŒfsystem #61931Hallo Martin,
hm, wenn Dein Mess-System nur sehr grob sortieren kann, wĂŒrd ich mal durchrechnen, wie viel Euch ein Absenken auf 0,8mm kosten wĂŒrde und wie teuer im Vergleich dazu ein Mess-System mit höherer Auflösung ist. Denn bei 0,8mm wirfst Du einfach auch einen Haufen guter Teile weg.
Alternativ könntest Du noch prĂŒfen, wie hart die 1,0mm-Grenze ist. Wenn das eine „Angsttoleranz“ ist und es tatsĂ€chlich in der Anwendung erst spĂ€ter unschön wird (z. B. ab 1,4mm), könntest Du eventuell auch mit einer ziemlich unscharfen Sortierung bei 1,0mm leben.
Vielleicht hilft es bei der Vergleichsrechnung auch, wenn Du erstmal mit den jetztigen Toleranzen und Teilen arbeitest und dann auf Basis der Mess-Ungenauigkeit bzw. dem Risiko fĂŒr eine Fehlklassifikation genauer bestimmen kannst, wie gut oder schlecht die Sortierung von niO-Teilen funktioniert.
Eine einfachere Lösung fÀllt mir dazu leider auch nicht ein.
Viele GrĂŒĂe
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: FĂ€higkeit optisches PrĂŒfsystem #61925Hallo Martin,
quote:
UrsprĂŒnglich veröffentlicht von madWenn ich nun OberflĂ€chenfehler bestimme, die einen max. Durchmesser von 1mm haben dĂŒrfen (d.h. von 0 bis 1mm ist i.O, darĂŒber n.i.O.), dann mĂŒsste demzufolge die Auflösung des Messystems 0,05mm betragen. Liege ich da richtig?
Ja, das ist richtig. Laut VDA 5 muss die Auflösung mindestens 5% der Toleranzbreite sein, also
kleinster Anzeigeschritt / Toleranzbreite = 0,05 / 1,0 = 5%Viele GrĂŒĂe
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: FĂ€higkeit optisches PrĂŒfsystem #61920Hallo reticent,
Kappa und effectiveness sind zwei unterschiedliche Kennzahlen.
Kappa misst den Grad der Ăbereinstimmung der PrĂŒfer untereinander (ohne Vergleich mit der Referenz bzw. der korrekten PrĂŒfentscheidung). Die 0,75-Grenze ist allerdings nur ein Daumen-Regelwert, weil Kappa weniger Aussagekraft hat als z. B. ein Mittelwert oder eine andere Kennzahl.
GrundsĂ€tzlich gilt, dass die Ăbereinstimmung umso höher ist, je höher Kappa ist. Kappa hat einen Maximalwert von 1,0, wenn alle PrĂŒfer bei allen Teilen und allen Wiederholungen das gleiche PrĂŒfergebnis aufgeschrieben haben.
Effectiveness ist dagegen der Anteil korrekter Entscheidungen an allen Entscheidungen. Hierbei spielt es keine Rolle, wie viele PrĂŒfer die Teile bewerten. Der Anteil korrekter Entscheidungen sollte möglichst hoch (mindestens 90%=0,90) sein. Auch fĂŒr die Effectiveness gilt, dass sie maximal 1,0=100% (=alle Entscheidungen korrekt) sein kann und dass höhere Werte besser sind.
Beispielrechnungen und weitere ErlÀuterungen findest Du in MSA 4 (p. 137-140).
Viele GrĂŒĂe
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: ReferenzhandbĂŒcher QS9000 – MSA und SPC #61914Hallo bestofqualitaeter,
ich wĂŒrd die beiden BĂŒcher an Deiner Stelle nicht kaufen, weil sie veraltet sind: In der MSA hat sich in Auflage 4 einiges geĂ€ndert und das SPC Handbuch soll demnĂ€chst auch in der aktuellen Version auf deutsch erhĂ€ltlich sein. Das steht so jedenfalls bei tuev-buch.de.
Viele GrĂŒĂe
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Cgk und Cg bei einseitiger Toleranz #61891Hallo reticent,
wie schon geschrieben: Verfahren 1 ist eine VDA 5-Sonderkonstruktion, die nur fĂŒr ganz bestimmte Mess-Situationen anwendbar ist.
Bei einseitiger Toleranz gibt es keine offiziellen Alternativen. Was teilweise gemacht wird ist, entweder eine technische Grenze oder eine Prozess-Streubereichsgrenze als Quasi-Toleranzgrenze zu verwenden.
Vor dem Hintergrund, dass Verfahren 1 nur eine sehr ĂŒberschaubare Bewertungsmöglichkeit des Mess-Systems liefert, stellt sich hier zuerst die Frage ob es sinnvoll ist, Energie & Zeit in derartige Kreativlösungen zu stecken. Denn Du hast immer das GeschmĂ€ckle „Glaube keiner Statistik, die Du nicht selbst gefĂ€lscht hast.“ sobald Du bei den Formeln kreativ wirst (such einfach mal nach 4S oder 6S bei der Messmittel-FĂ€higkeit).
Ich wĂŒrde deshalb erst einen Schritt zurĂŒckgehen und die Frage stellen:
Wie kritisch sind unsere Mess-Prozesse?Bei kritischen Mess-Prozessen (=viel Risiko, viel Geld, viel (Nach-)Arbeit) ist Verfahren 1 eh ein bisschen arg wenig. Da wÀren mehr Versuche zur LinearitÀt und systematischen Abweichung sinnvoll und bei denen brauchst Du keine Toleranzgrenzen.
Bei unkritischen Mess-Prozessen wĂ€re Verfahren 1 eine Möglichkeit. Da könnte alternativ auch das Kalibrierprotokoll herhalten und bei einer sauber durchgefĂŒhrten MSA (Gage R&R / Verfahren 2) mit ausreichend niedriger Mess-Unsicherheit der Mess-Prozess qualifiziert werden. Auch dafĂŒr brauchst Du nicht zwingend Toleranzgrenzen, sondern kannst sowohl mit einer Toleranzgrenze als auch mit einem anderen Streubereich (z. B. Prozess-Streubereich) die Mess-Unsicherheit bewerten.
Die Toleranzbreite als einzig wahrer Referenzbereich wird von VDA 5 und ISO 22514-7 angegeben. MSA 4 schaut dagegen eher auf die Prozess-Streuung und lÀsst die Toleranzbreite als zusÀtzlichen Referenzbereich zu.
Viele GrĂŒĂe
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: PrĂŒfprozesseignung MSA Vorlagen #61890Hallo bestofqualitĂ€ter,
fĂŒr Verfahren 1 ist es ein bisschen schwieriger, weil das eine reine VDA 5-Kreation ist, die nicht so weit verbreitet wie die anderen Verfahren (Gage R&R / Verfahren 2) ist. Auf Q4U findest Du unter dem Stichwort „PrĂŒfmitteleignung / Verfahren 1“ eine Excel-Vorlage.
Da gibt es auch eine Excel-Datei fĂŒr Verfahren 2. Bei Verfahren 2 haben sich in den letzten Jahren die Anforderungen bzw. Rechenvorgaben etwas geĂ€ndert, deshalb wĂ€re es vermutlich sinnvoller, bei elsmar.com eine aktuelle Vorlage nach MSA 4 zu finden.
Verfahren 1 ist unverĂ€ndert geblieben, deshalb gehen die Ă€lteren Vorlagen da auch noch. PrĂŒfen solltest Du jede Vorlage mit Beispielen, die in den offiziellen HandbĂŒchern stehen.
Viele GrĂŒĂe
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Cgk und Cg bei einseitiger Toleranz #61881Hallo reticent,
Verfahren 1 bzw. Cg und Cgk lassen sich nur bei zweiseitiger Toleranz berechnen. Es gibt Anwender, die sich eine zweite Grenze suchen, um damit rechnen zu können. Das ist in VDA 5 nicht vorgesehen – es gibt allerdings auch keine alternativen Methoden fĂŒr einseitige Toleranzen in VDA 5.
Auch wenn Cg und Cgk PrĂŒfmittel- bzw. Messmittel-FĂ€higkeiten heiĂen, sind sie etwas völlig anderes als Prozess-FĂ€higkeiten (Cp, Cpk oder Pp, Ppk). In einer Prozess-FĂ€higkeit wird die Gesamtheit des Prozesses berĂŒcksichtigt. Bei der Messmittel-FĂ€higkeit wird lediglich 1 einziger Punkt im Anwendungsbereich untersucht: das Referenzteil.
MSA 4 kennt deshalb auch weder Cg noch Cgk und warnt davor, sich auf Basis von nur 1 Teil in der trĂŒgerischen Sicherheit zu wiegen, das Mess-System wĂŒrde im ganzen Anwendungsbereich funktionieren. Auch in der ISO 22514-7 (Norm zur Mess-Prozess-Bewertung) gibt es Verfahren 1 bzw. Cg und Cgk nicht.
Viele GrĂŒĂe
Barbara
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Wie sieht's denn hier aus? #61874Huch, da ist ja schon wieder was am Layout passiert. Schön hier [:)]
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: FĂ€higkeit optisches PrĂŒfsystem #61865Hallo Martin,
QM-FK hat das Vorgehen schon beschrieben.
Bei einer voll-automatischen PrĂŒfung ist der Bowker-Test mit PrĂŒfer-Einfluss nicht sinnvoll anwendbar. Das Gleiche gilt fĂŒr Cohen’s Kappa, denn auch hier werden verschiedene PrĂŒfer untereinander und ggf. mit einer Referenz verglichen.
Sinnvoll ist es, das Risiko fĂŒr eine Fehlklassifikation bzw. die Grauzone zu bestimmen. Es wird (hoffentlich) zwei Bereiche geben, in denen die PrĂŒfergebnisse eindeutig sind: perfektes Teil = immer i.O., Schrott = immer n.i.O.
Dazwischen gibt es fast perfekte Teile oder beinahe Schrott und genau in diesem Bereich zeigt sich die QualitĂ€t eines PrĂŒfprozesses. Je besser der PrĂŒfprozess ist, desto schmaler ist der Grauzonen-Bereich.
Um diesen Bereich zu ermitteln, brauchst Du Grenzmuster (s. Beitrag von QM-FK) sowie (fast) perfekte und (ziemlich) schrottige Teile. Der Fehler muss quantifizierbar sein (z. B. GröĂe des OberflĂ€chenfehlers) und die fĂŒr die Bewertung ausgewĂ€hlten Teile mĂŒssen den gesamten Bereich abdecken (perfekt – etwas weniger perfekt – akzeptabel – grenzwertig – inakzeptabel). DafĂŒr brauchst Du mindestens 10 Teile aus dem gesamten Fertigungs-Spektrum.
Diese Teile werden dann wiederholt geprĂŒft (20 Mal pro Teil wĂ€r gut) und dahingehend ausgewertet, wie groĂ die Grauzone und/oder wie hoch das Risiko einer Fehlklassifikation (Anzeige iO obwohl Teil niO bzw. Anzeige niO obwohl Teil iO) ist.
Das ist ein ziemlicher Aufwand und absolute Grenzwerte existieren meines Wissens nicht. Andererseits hast Du ohne diese PrĂŒfung keine belastbaren Infos dazu, wie gut Dein PrĂŒfprozess funktioniert.
Nur 2 niO-Ergebnisse von 30 PrĂŒfungen find ich persönlich ganz schön wenig, wenn das Teil wirklich fehlerhaft war. Da kann ich mit WĂŒrfeln zuverlĂ€ssigere Ergebnisse erzielen… Ob das tatsĂ€chlich ein sehr schlechtes Ergebnis ist, hĂ€ngt natĂŒrlich auch davon ab, wie fehlerhaft das Teil war. Bei Voll-Schrott ist das Ergebnis hundsmiserabel, bei grenzwertig akzeptabel könnte das sogar in Ordnung sein. Und da sind wir dann wieder bei den Grenzmustern und der Definition, wann ein Fehler ein Fehler ist [;)]
Viele GrĂŒĂe
Barbara
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: FĂ€higkeit optisches PrĂŒfsystem #61854Hallo Martin,
bin gerade auf dem Sprung zu einer Fachkonferenz und deshalb etwas knapp dran. Eine ausfĂŒhrliche Antwort kann ich Dir daher erst Anfang nĂ€chster Woche geben.
Grenzwerte gibt es ĂŒbrigens keine (ich kenn jedenfalls keine), d. h. Du musst selbst entscheiden, ob das Mess-System gut genug ist.
Wie geschrieben: Rest folgt nÀchste Woche.
Viele GrĂŒĂe
Barbara
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: FĂ€higkeit optisches PrĂŒfsystem #61850Hallo mad,
ich bin mir nicht so ganz sicher, ob 1 Referenzteil ausreichend ist. In VDA 5 wird im Beispiel mit 50 Referenzteilen gearbeitet. Ob es so viele, noch mehr oder auch weniger sein dĂŒrfen, hĂ€ngt davon ab, wie gut der Prozess funktioniert. Je besser der Prozess ist und je genauer die PrĂŒfung sein muss, desto höher ist auch die notwendige Anzahl Referenzteile.
Du brauchst alleine fĂŒr die Kontrolle der zeitlichen StabilitĂ€t mindestens 3 Teile (ein supergutes, ein grottenschlechtes und eins in der Grauzone) und fĂŒr die Mess-System-Bewertung deutlich mehr als 3 Teile, sonst wird das mit der Bestimmung der Grauzone nix.
Viele GrĂŒĂe
Barbara
Eine gute wissenschaftliche Theorie sollte einer Bardame erklÀrbar sein.
(Ernest Rutherford, Physiker) -
AutorBeitrÀge