Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: Erstellung/Erzeugung eines Normals #61519
Hallo QMB123,
wenn Du Dir selbst ein Prüfteil als Referenzteil qualifizieren willst, solltest Du nach MSA 4 (p.87) für jedes Teil mindestens 10 Messwerte durch 1 Prüfer aufnehmen (lassen) und davon den Mittelwert als Referenzwert verwenden. Empfehlenswert ist es, ein besseres/genaueres Messmittel einzusetzen (wenn möglich).
Mit Deinen 5 Messwerten je Teil und Messpunkt hast Du also nach MSA 4 erst die Hälfte aller notwendigen Messdaten für jeden Messpunkt eines Teils.
Sind denn die Werte so ähnlich, dass Du die fünf Messpunkte alle zusammenwerfen kannst? Oder gibt es deutliche Unterschiede in den Werten an den Messpunkten? (Das würd ich auf jeden Fall nochmal untersuchen.)
In VDA 5 gibt es keine Auswege für den Fall, dass kein Normal existiert und Du Versuche zur systematischen Abweichung (Bias) machen willst. Da bleibt Dir nur Methode B (Herstellerangaben, Kalibrierschein) um einen Wert für die systematische Messabweichung anzugeben.
Die systematische Abweichung ist für alle Teile gleich, wenn die systematische Abweichung unabhängig von der Oberfläche ist. Es darf z. B. keine andere systematische Abweichung bei glatten oder weniger glatten oder rauhen Oberflächen geben.
Als Normal bzw. Referenzteil für die Bestimmung der systematischen Abweichung sollte zunächst festgelegt werden, an wie vielen Stellen im Messbereich die systematische Abweichung ermittelt werden soll:
*Verfahren 1 (VDA 5): 1 Werkstück, Wert aus der Mitte des Anwendungsbereichs (MSA 4 kennt kein Verfahren 1 und gibt eine derartige Untersuchung als sehr unsicher und wenn überhaupt nur als Vor-Qualifikation eines Messmittels verwendbar an)
*Bestimmung der systematischen Abweichung (Bias, independent sample method, MSA 4): 1 Werkstück, Wert aus der Mitte des Anwendungsbereichs
*Untersuchung der Linearität und systematischen Abweichung (MSA 4): 10 Werkstücke die den gesamten Anwendungsbereich abdecken, hieraus lässt sich auch die systematische Abweichung ermitteln (in VDA 5 sind die Ergebnisse dieser Versuche bezeichnet mit u_LIN und u_BI)
Für Verfahren 2 (oder 3) bzw. die Gage R&R (MSA 4, wird in VDA 5 als Methode aus MSA 4 zitiert) brauchst Du keine Referenzwerte. Die Teile (empfehlenswert mind. 10) sollten so ausgewählt werden, dass sie den gesamten Anwendungsbereich abdecken.
Zu Deiner Frage mit den 60 Messwerten:
Wie hast Du denn den SA (Flächenrauhigkeit) bekommen? Du kannst NICHT einfach den Mittelwert der Messpunkt-Rauheiten als SA verwenden, vgl. Wikipedia ISO 25178: 3D areal surface texture parameters:„3D parameters are written with the capital letter S (or V) followed by a suffix of one or two small letters. They are calculated on the entire surface and no more by averaging estimations calculated on a number of base lengths, as is the case for 2D parameters.“
Vergleichen kannst Du Deine vier Werte schon, nur hab ich noch nicht ganz verstanden, was Sinn und Zweck dieses Vergleichs sein soll. Vielleicht magst Du das noch einmal etwas genauer erläutern?
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Manufacturing Validation #61510Hallo ma_este,
Du könntest mal einen Blick in das TQU Workbook Validation (trotz englischen Titels ein deutsches Machwerk) werfen. Das ist zwar schon ein bisschen in die Jahre gekommen, liefert aber nach wie vor brauchbare Grundlagen.
Ansonsten gibts die volle Pracht und Schönheit wie medi12 schon geschrieben hat nur auf Englisch.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Fähigkeit Ford 1 #61506Hallo Lump,
was genau meinst Du mit „hab ich angegeben“? Hast Du die Werte aus den Kalibrierscheinen o. Ä. abgeschrieben oder hast Du da irgend etwas durch Versuche ermittelt? Sind z. B. die k-Faktoren dieselben?
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Entwicklungsverifizierung – Stichprobengrößen? #61505Hallo Aphel,
wie Stephan schon geschrieben hat, ist das eine Sache der Anforderungen und Risiken.
Wenn der Nachweis gefordert wird, müssen entsprechende Tests gemacht werden und dann wird sinnvollerweise auch vorher (statistisch) berechnet, wie viele Geräte oder Systeme über welchen Zeitraum geprüft werden müssen.
Aus Spaß an der Freud macht sich niemand diese Mühe (jedenfalls hab ich noch niemanden getroffen). Wer schon mal mit einer Neu-Entwicklung übel auf die Nase gefallen ist, weil sie zwar in kleinstem Umfang funktioniert (haben wir schon 1 Mal hingekriegt, funktioniert also auch die anderen 1.000.000 Male), steht der Statistik erfahrungsgemäß etwas offener gegenüber ;)
Was Du brauchst sind sinnvolle Vorgaben oder Anforderungen und alles was Du an Vorinformationen kriegen kannst (Ausfallverhalten, technisches Wissen, etc.) Für die Statistik sind das Risikobewertungen (Fehler 1. und 2. Art, Zuverlässigkeitsniveau, usw.) Viel detaillierter lässt sich das nicht allgemein sagen, weil die konkrete Anwendung immer vom Testproblem abhängt.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Qualitätsmanagement-Fachkraft QMF-TÜV SÜD #61471Hallo DanielF,
herzlichen Glückwunsch zur bestandenen Prüfung!
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Statistikprogramm #61469Hallo Stefan,
freut mich, dass die Schulung so gut gelaufen ist :)
Zu den 2S-/3S-/5S-Grenzen hab ich noch eine Anmerkung:
Wenn der Prozess tatsächlich die gesamte +/- 5S-Breite ausnutzt (d. h. wenn es Werte in diesem gesamten Bereich gibt), dann wird die Streuung S zu groß für Cpk=1,67 sein.Deshalb werden in einer Regelkarte üblicherweise +/-3S-Grenzen eingezeichnet, die 99,73% des Prozessbereichs abdecken. Außerhalb dieser Grenzen liegen nur 0,27%, also bei kurzen Messreihen/kleineren Stichproben mit <500 Werten so gut wie keiner.
Die qcc-Funktion für die Einzelwertkarte (xbar.one) nimmt standardmäßig als Streuungskenngröße den Moving Range (MR). Wenn Du stattdessen die Standardabweichung nehmen willst:
qcc(daten, type=“xbar.one“, std.dev=“SD“)Und wenn Du wirklich dabei bleiben willst, die +/- 5S-Grenzen einzuzeichnen (wovon ich abraten würde, weil das einen falchen Eindruck über den normalen Prozess-Streubereich gibt):
qcc(daten, type=“xbar.one“, std.dev=“SD“, nsigmas=5)Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Qualifikation Zweiter Auditor #61465Hallo qmguru,
BITTE poste hier keine Werbung.
Dies ist ein Forum für den Erfahrungsaustausch, keine Plattform für die Vermarktung von Produkten und Dienstleistungen.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Johann,
wenn Du vor der Wahl stehst entweder zu vollständig zu randomisieren (=Versuche nicht zeitgerecht durchführbar) oder weniger zu randomisieren (=Versuche durchführbar) ist es immer besser, teilweise zu randomisieren und Versuche machen zu können. [Randomisieren: Zufällige Versuchsreihenfolge]
Der Unterschied zwischen vollständig randomisierten und teilweise randomisierten Plänen (wie Split-Plot-Plänen mit schwer veränderbaren Faktoren) ist neben der Struktur die Herausnahme von Streuung.
Werden alle Versuche in einer zufälligen Reihenfolge durchgeführt, hast Du für jeden Versuch neue Einstellungen. Selten bleibt ein Faktor bei zwei Versuchen hintereinander in einer Einstellung (z. B. Temperatur=80°C). Damit zeigen Deine Versuchsergebnisse nicht nur die Veränderungen durch Veränderungen der Einstellungen, sondern enthalten auch die zusätzliche Streuung durch die Veränderungen beim Rüsten/Umbauen. Die Ergebnisse enthalten damit alles, was auch im normalen Prozess passiert, wenn verschiedene Einstellungen verwendet werden.
Bei einer teilweisen Randomisierung gibt es zwei Probleme:
1. Zeitliche Veränderungen können sich mit den Einstellungen des schwer-veränderbaren Faktors überlagern
2. Die Streuung in den Versuchsergebnissen enthält nur einen Teil der üblichen Streuung bei Veränderung/Umrüstung der Maschine. Damit kann der Prozess in der DoE besser/weniger streuund aussehen als er es in Wirklichkeit ist. Gerade bei der Prognoserechnung spielt die zu erwartende Streuung eine entscheidende Rolle, denn wenn hier zu wenig Streuung in den Versuchen ist, ist das Prognose-Intervall für den späteren Prozess zu schmal.
Zu 1. hattest Du schon geschrieben, dass Du keine zeitlichen Effekte erwartest.
Damit bleibt 2. Das ist die Kröte, die Du schlucken musst, wenn Du den Versuchsaufwand durch eine teilweise (statt vollständige) Randomisierung mit einem Split-Plot-Plan verringerst.
Dennoch ist es immer besser, die Versuche teilweise randomisiert zu machen als gar keine Versuche (oder gar keine Randomisierung) zu machen.
Weitere Infos dazu findest Du z. B. auch
im Statease-Forum (Hersteller von DesignExpert), z. B. 2 level DOE for mean and diff factors oder
bei elsmar.com Sub-Forum Quality-Tools, Improvement and Analysis.Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: VDA Band 4 – Teil 3 – Verfügbarkeit #61457Hallo Vivian,
kann es sein, dass der von Dir gesuchte Teil im Ringbuch jetzt unter „DFSS“ läuft?
VDA Band 4 Ringbuch 2. Auflage, ergänzt 2011Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Erstellung eines Versuchs-Arbeitsplanes #61450Hallo QMB123,
dass Du verwirrt bist, ist logisch, denn das Thema ist ordentlich umfangreich ;)
Bevor Du anfängst, Deine Aufgabe / Mess-Situation an Methoden aus einem Handbuch anzupassen, wäre es sinnvoller erstmal zu schauen, wie Deine Mess-Situation aussieht.
Dazu würd ich ein Fischgrätdiagramm zu der Frage „Was hat (möglicherweise) einen Einfluss auf den Messwert?“ erstellen (Vorlage für ein Fischgrätdiagramm in Excel z. B. hinterlegt auf isixsigma.com). Beispiele für Fischgräten-Diagramme bei Messprozessen findest Du in VDA5 (S. 26) und MSA4 (p. 17).
Anschließend kannst Du die Einträge am Diagramm in einer Liste sammeln und bewerten, ob sie für Deine Untersuchung relevant sind. (Ich fänd z. B. bei Metall-Oberflächen die Temperatur des Prüfteils und der Umgebung wichtig.)
Die relevanten bzw. zu untersuchenden Einflüsse können dann im nächsten Schritt gezielt geprüft werden. Dafür liefern VDA5 und MSA4 diverse Methoden.
Bevor Du eine Methode/Methoden auswählen kannst, musst Du erstmal eine vollständige Liste der möglichen Einflüsse haben um entscheiden zu können, welche Methode sinnvoll anwendbar ist.
Wenn es keinen Einfluss durch unterschiedliche Prüfer gibt, weil Du die Messungen allein aufnimmst, kannst Du keinen Prüfereinfluss untersuchen. (Das wäre dann Verfahren 3.)
Statt unterschiedlicher Prüfer kannst Du verschiedene Messmittel oder verschiedene Mess-Strategien verwenden. (Dann ist das Verfahren 2 mit „Prüfer“=Messmittel/Mess-Strategie.)
Je nach Auswertung bekommst Du Antworten auf eine oder beide folgenden Fragen:
1. Gibt es signifikante Unterschiede in den Messwerten bei verschiedenen Messmitteln/Mess-Strategien?
2. Ist die Streuung der Messungen bei den verschiedenen Messmitteln/Mess-Strategien gleich?
3. Wie hoch ist die Unsicherheitskomponente u_GV bei den verschiedenen Messmitteln/Mess-Strategien?Bei den ersten beiden Fragen hast Du so viele Kennzahlen wie Messmittel/Mess-Strategien. Bei der dritten Frage bekommst Du „nur“ eine Kennzahl für die Unsicherheit, die durch verschiedene Messmittel/Mess-Strategien in den Messwert einfließt.
Wenn Du für jedes Messmittel/Mess-Strategie eine eigene Auswertung machen willst, sind das separate Versuche und Du bekommst für jedes Messmittel/Mess-Strategie eine eigene Unsicherheits-Bewertung.
Also: Möglichkeiten gibt es so viele wie Sandkörner am Strand, deshalb erst die Einflüsse systematisch erfassen und bewerten und im zweiten Schritt die passende(n) Methode(n) dafür finden.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Erstellung eines Versuchs-Arbeitsplanes #61447Hallo QMB123,
zum Thema einseitige Fähigkeiten bei Q-Das findest Du hier im Forum einiges über die Suche-Funktion.
Sehr viel detailliertere Infos stehen im Thread Cp bei eins. begrenzt. Merkm. mit qs-STAT falsch? (Simple Quality Forum).
Immer die Normalverteilung bei der Berechnung der Fähigkeits-Kennzahlen anzuwenden ist auf jeden Fall falsch und führt zu wenig brauchbaren Zahlenspielereien. Wenn es um die Wiederholmessungen an 1 Normal geht, müssten die Werte um den Referenzwert zufällig streuen und damit normalverteilt sein, wenn der Referenzwert weit genug von der technischen Grenze entfernt ist.
„Weit genug“ heißt, dass die technische Grenze außerhalb des Bereichs Mittelwert+/-3*Standardabweichung liegt.
Das hat nichts mit der Berechnung der systematischen Abweichung Bi zu tun. Die systematische Abweichung ist immer der Absolutwert zwischen Mittelwert der Messdaten und Referenzwert des Normals.
Ich würde Dir in jedem Fall empfehlen, neben den deutschen auch englische Fachbücher und Normen zu lesen, die sind im Allgemeinen aus statistischer Sicht brauchbarer und theoretisch sauberer.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Erstellung eines Versuchs-Arbeitsplanes #61446Hallo QMB123,
zur MSA4 kannst Du sehr viele sehr gute Dinge in Miners’s Blog bei elsmar.com nachlesen:
http://elsmar.com/Forums/blog.php?u=3134Du findest das Handbuch auch über die Fernleihe (ISBN 9781605342115, z. B. über den Karlsruher Virtuellen Katalog (KVK), einer der größten Online-Kataloge für Bücher, Zeitschriften und andere Veröffentlichungen).
Rauheitsmess-Prozesse sind sehr gut für die Mess-Prozess-Bewertung geeignet, ob nun nach VDA5 oder MSA4. Nur die Verfahren, die eine zweiseitige Tolerierung voraussetzen (Cg, Cgk, Tol_min, Q_MS) funktionieren nicht bzw. nur dann, wenn das Ziel keine möglichst glatte Oberfläche ist (=nur obere Toleranzgrenze gegeben ist).
Wenn es Dir um den direkten Vergleich von Messverfahren geht, könntest Du auch einen direkten Vergleich über die Auswertung von statistischen Versuchsplänen machen. Damit würdest Du auch einige konzeptionelle Schwierigkeiten beim Unsicherheits-Budget-Ansatz vermeiden und direkt nach deutlichen (signifikanten) Unterschieden zwischen den Mess-Ergebnissen suchen (z. B. signifikante Unterschiede bei verschiedenen Teilen/Oberflächen oder signifikante Unterschiede bei verschiedenen Messverfahren).
Die Schwierigkeit bei den Unsicherheitskomponenten ist, dass Alles in eine Streuungs-Komponente u_i umgewandelt werden muss, auch solche Einflüsse, die „nur“ den Wert linear verändern und keinen Effekt auf die Streuung haben (Beispiele: Temperatur-Koeffizienten, systematische Abweichung).
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Erstellung eines Versuchs-Arbeitsplanes #61439Hallo QMB123,
Versuchsplanung ist immer eine gute Idee ;)
Zu Rauheitsmessgrößen und -systemen gibt es eine Vielzahl an Veröffentlichungen, z. B. das 1269 Faltblatt Rauheit von Mitutoyo. Was da für Deine Diplomarbeit sinnvoll, geeignet oder hilfreich ist, lässt sich ungefähr so gut beantworten wie die Frage, welches Auto das Beste für Dich ist: Es kommt darauf an.
Die Prüfmittelfähigkeit ist das Verfahren 1. Das Verfahren 2 ist die Gage R&R mit Bedienereinfluss (oder anderem Einfluss, z. B. verschiedene Messverfahren). Verfahren 3 ist die Gage R&R ohne Bedienereinfluss (nur Einfluss durch Teile).
Als Grundlage kannst Du für die Mess-System- bzw. Mess-Prozess-Bewertung in diese Handbücher schauen:
AIAG: MSA4 Measurement System Analysis
VDA5: Prüfprozesseignung
ISO 22514-7:2012 Statistical methods in process management — Capability and performance — Part 7: Capability of measurement processesDie Prüfmittelfähigkeitsbewertung mit Cg und Cgk gibt es ausschließlich in VDA5. In der ISO 22514-7 wird nur etwas Ähnliches wie der Cg (heißt dort C_MS, Mess-System-Fähigkeit) erwähnt und dafür zusätzlich eine Art Mess-Prozess-Fähigkeit (C_MP). MSA4 stuft diese Art der Mess-System-/Mess-Prozess-Bewertungen mit Fähigkeitszahlen, die an 1 Teil ermittelt werden, als wenig aussagekräftig ein und gibt andere Methoden für den Nachweis funktionierender Mess-Systeme und Mess-Prozesse an (z. B. Untersuchung der systematischen Abweichung und Linearität).
Ein Problem bei der Verwendung von Cg und Cgk ist, dass Du zwingend eine Toleranzbreite (Abstand oberer zu unterer Toleranzgrenze) brauchst. Eine technische Grenze ist KEINE Toleranzgrenze.
Ob es für einen Vergleich von Messmethoden sinnvoll ist, eine zweiseitige Toleranzgrenze vorzugeben, halte ich für diskussionsbedürftig. Denn die Toleranzgrenzen werden nach Anwendungsfall unterschiedlich sein und haben erstmal mit der Messung, dem Mess-System oder Mess-Prozess nichts zu tun.
Sinnvoller fände ich es die Mess-Methoden allgemein (ohne Toleranz) hinsichtlich ihrer Übereinstimmung zu vergleichen. Dafür gibt es unterschiedliche Ansätze, z. B. findest Du in MSA4 diverse Ideen dazu.
Allgemein kannst Du in Kleppmann: Taschenbuch Versuchsplanung sehr viel zu statistischer Versuchsmethodik finden.
Zu Deinen bisherigen Überlegungen:
1. Anzahl der zu prüfenden Werkstücke pro Versuch angeben(hier jeweils 15 Stück)
Warum 15? Warum nicht 2 oder 20?
3. Zu untersuchende Oberflächenkennwerte angeben (Ra, Rz, Rzmax)
Warum nimmst Du nur die R-Kenngrößen und keine Flächen-Größen (s. z. B. Quality Engineering-Artikel Rauheitsmessung? Die Flächenmessung kann die Rauheit/Oberflächenstruktur eines Werkstücks sehr viel genauer charakterisieren als die Linien-Messung.
4. Versuchsablauf (Messung der Teile in zufälliger (unterschiedlicher) Reihenfolge bei den einzelnen Wiederholungen, …)
Die zufällige Versuchsreihenfolge ist auf jeden Fall eine hervorragende Idee. Versuchsplanungs-Software hilft an dieser Stelle, den Zufall in den Plan zu bekommen.
– hier noch eine Frage: sollten die Teile bei jeder Wiederholung beim taktilen Verfahren an der selben Stelle gemessen werden?
Eigentlich schon, damit Du die Genauigkeit des Messverfahrens im Vergleich zu anderen Messverfahren bestmöglich von den unterschiedlichen Werten bei verschiedenen Oberflächen trennen kannst. Die Frage ist nur, ob Du überhaupt eine Chance hast, die exakt gleiche Stelle zu messen. (Ich bezweifel das.)
5. Verfahren 1 (Auflösung hoch genug?, Cp und Cpk bestimmen)
Verfahren 1 (nach VDA5) liefert die Kenngrößen Cg und Cgk (g: gage oder gauge). Cp und Cpk sind Prozessfähigkeits-Kenngrößen. Wie oben schon erwähnt: Verfahren 1 mit Cg und Cgk ist nur bei zweiseitiger Toleranz anwendbar.
6. Verfahren 2 (sämtliche Einflussfaktoren mit deren Unsicherheiten bestimmen (erweiterte MU errechnen) und auf Fähigkeit (Eignung) des Messprozesses überprüfen; Eignungsgrenzwert „Qmp“ errechnen); Messprozesse auf dessen Güte überprüfen („TOLmin“ errechen).
Auch Q_MP (nach VDA5, ISO 22514-7) ist nur und ausschließlich für zweiseitige Toleranzbereiche berechenbar. Ob das bei Rauheitsmesswerten sinnvoll ist, sollte nochmal überlegt werden. Das Gleiche gilt für T_min, denn auch hier wird eine zweiseitige Tolerierung bestimmt.
– Die Berechnungen laufen natürlich über die Q-DAS-Software –
„Natürlich“ find ich das jetzt gerade mal nicht. Du kannst für die Versuchsplanung und -auswertung destra (Q-Das) nehmen oder auch andere Versuchsplanungs-Software (z. B. Minitab, JMP, Design Expert).
Die Auswertung mit den Unsicherheits-Budgets u_i nach GUM/VDA5/ISO 22514-7 bietet nur solara (Q-Das, s. Übersicht Q-Das-Produkte); Versuchsplanungssoftware (auch destra) hat andere Schwerpunkte. Ob das mit den Unsicherheitsbudgets Dich tatsächlich bei dem Vergleich der Rauheitsmessungen bzw. Oberflächen-Charakterisierung ans Ziel bringt, würd ich nochmal überlegen.
Wenn ich als Prüfer allein agiere, kann ich dabei eigentlich einen Bedienereinfluss hineinrechen? Meiner Ansicht nach nicht. Wenn ja, wie???? Vielleicht gibt es ja Erfahrungswerte? –
Ohne Prüfereinfluss durch verschiedene Prüfer kannst Du auch keinen Prüfereinfluss untersuchen. Der „Prüfer“ ist allerdings nach MSA4 nur der häufigste Einfluss. Dieser Einfluss kann lt. MSA4 genauso ein Einfluss durch andere Unterschiede in der Mess-Situation sein, z. B. verschiedene Messgeräte, verschiedene Mess-Orte, usw. (VDA5 empfiehlt für Verfahren 2 / Gage R&R die Methoden aus MSA4.)
Ich hoffe das hilft Dir ein Stück weiter.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Statistikprogramm #61423Hallo Stefan,
das mit den Toleranzgrenzen vs. Prozess-Streugrenzen ist mit der oben angegebenen Regelkarte kein Problem, weil der Wertebereich auf der y-Achse immer bis zu dem kleinsten und größten Wert läuft, egal ob der kleinste/größte Wert ein Wert aus der Regelkarte, eine Prozess-Streugrenze oder eine Toleranzgrenze ist (option ylim= in der Funktion plot.qcc.deutsch).
Grundsätzlich ist die Regelkarte unabhängig von den Toleranzgrenzen. Dennoch sollte ein Prozess, in dem Regelkarten verwendet werden, ein gewisses Qualitätsniveau haben (z. B. Fähigkeit >1,33 oder Ausschussrate <0,5%), damit Prozess-Eingriffe wegen zu vielen Werten außerhalb der Toleranz möglichst unterbleiben.
Denn die Prozess-Eingriffe destabilisieren den Prozess und können die Streuung erhöhen (Gefahr der Überregelung = Verschlimmbesserung). Um einen Prozess mit Regelkarten überwachen und belastbare Hinweise auf systematische Ereignisse zu bekommen, muss der Prozess stabil sein.
Andererseits kann auch ein Prozess mit Regelkarten überwacht werden, der ein zu niedriges Qualitätsniveau hat, z. B. dann, wenn in Folge-Prozessschritten durch Sortierung schlechte Teile entfernt werden und der Prozess aufgrund von technischen Grenzen nie direkt ein ausreichendes Qualitätsniveau erreichen kann.
Und es gibt auch Menschen, die Regelkarten einsetzen, bevor der Prozess stabil ist, einfach um einen Eindruck über den zeitlichen Verlauf der Werte zu bekommen. (In diesem Fall sind die Regelkarten-Grenzen höchstens grobe Anhaltspunkte dafür, ob das Ergebnis/der Messwert zu klein oder zu groß ist.)
Die klassische Empfehlung ist, dass der Prozess vor der Installierung von SPC-Regelkarten und Eingriffs-Maßnahmen stabil und kurzzeit-prozessfähig sein muss. In der Praxis wird das oft anders gehandhabt, je nachdem wie die Prozess-Situation und die Zielsetzung der Regelkarten ist.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Statistikprogramm #61414Hallo Stefan,
ich würd das vermutlich in einer Zeile machen mit
daten = read.csv2(„datendatei.csv“)Da müsste der Anwender dann nur den Pfad zu der Daten-Datei anpassen und ggf. den Namen der csv-Datei ändern.
Oder hab ich die Frage nicht so ganz verstanden? :o)
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge