Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: Durchschlupf #63608
Hallo Thorsten,
vermutlich kommt meine Antwort etwas spät: für die Auswertung brauchst Du neben der Anzahl ausgefallener Teile auch die Laufzeit dieser Teile, um für die noch im Feld befindlichen eine Vorhersage machen zu können. Dazu findest Du z. B. hier im Forum ppm bei Feldreklamationen oder auf den Additive/Minitab-Supportseiten Berücksichtigung der Garantiekosten.
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Durchschlupf #63585Hallo Thorsten,
das mit dem Badewannendiagramm leuchtet mir nicht so recht ein. Die Badewannenkurve zeigt das Ausfallverhalten von Bauteilen in drei Zeit-Abschnitten (Frühausfälle, Zufallsausfälle, Spätausfälle). Das passt für mich nicht zu einer attributiven Prüfung bzw. dem Durchschlupf bei einer Prüfung.
Worum es vermutlich eher geht ist die AOQ (Average Outgoing Quality). Die berechnet sich aus der Annahmewahrscheinlichkeit Pa, der Ausschussrate p, der Losgröße N und der Stichprobengröße n über die Formel
AOQ = (Pa * p * (N-n)) / N
Bei der Grafik wird p gegen AOQ abgetragen. Sehr viel ausführlicher und auch mit einigen Bilder der AOQ-Kurve (leider nur auf englisch) findest Du es hier:
John Zorich Exact AOQViele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: e-Learning – Lean Six Sigma Green Belt #63584Hallo bambi,
ob Du die theoretischen Grundlagen besser in einem Präsenzkurs oder online lernen kannst, hängt neben dem Referenten bzw. dem Aufbau stark von Deinem persönlichen Lernen ab. Ich mag Präsenzveranstaltungen lieber, weil ich da neben dem Referenten auch die Meinungen und Ideen der anderen Teilnehmenden mitbekomme und die Diskussion leichter und persönlicher ist.
QM-FK hat natürlich Recht, dass Lean Six Sigma oder Six Sigma nix an sich Neues ist. Erfahrung hilft in diesem Bereich natürlich oft weiter, egal ob im QM oder in der Statistik. Ein halbes Statistik-Studium wäre dennoch viel zu viel im Vergleich zu den Methoden, die bei Six SIgma angewendet werden, insbesondere im Green Belt (sagt die Statistikerin [;)]).
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Beidseitig abgeschnittene Normalverteilung #63570Hallo plutho,
eine so klar abgeschnittene Verteilung (auch mit Berücksichtigung der vierten Nachkommastelle) kann nur dann entstehen, wenn es systematische Gründe bzw. echte technische Grenzen gibt. QM-FK hat schon einige angesprochen und ich würde auch in dieser Richtung suchen.
Wenn Du sicher ausschließen kannst, dass aus technischen Gründen keine Werte außerhalb der Toleranz auftreten können, dann brauchst Du nicht mehr zu rechnen. Denn dann ist Deine Prozessfähigkeit unendlich groß, weil Du absolut IMMER innerhalb der Toleranzen bist.
Die zweiseitig gestutzte Normalverteilungsfunktion zu finden ist reichlich schwierig, weil dafür iterative Verfahren programmiert werden wollen. Das würde sich im Rahmen einer Prozesssfähigkeitsbewertung nur dann lohnen, wenn mindestens eine der Toleranzgrenzen innerhalb der technischen Grenzen liegt. Solange die Toleranzgrenzen beide außerhalb sind, ist das Ergebnis auch ohne Funktionsanpassung immer unendlich.
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Beidseitig abgeschnittene Normalverteilung #63566Hallo plutho,
„beweisen“ musst Du nicht, dass es eine zweiseitig abgeschnittene Normalverteilung ist. Es ist völlig ausreichend zu zeigen, dass die „normale“ Normalverteilung die Messwerte-Verteilung nicht beschreibt. Das siehst Du am einfachsten in einem Wahrscheinlickeitsnetz oder Probability Plot.
Ich stimme Frank und Rainaari zu: Das ist eher kein Problem der Verteilungsauswahl, sondern ein Problem der unzureichenden Messwertauflösung. Du brauchst im Anwendungsbereich (hier: 7,998 bis 8,001) mindestens 10 verschiedene Werte, um die Prozessqualität zuverlässig beurteilen zu können.
Wenn Du weniger als 10 verschiedene Zahlenwerte hast, sind Deine Kennzahlen z. B. für Mittelwert und Standardabweichung zu unscharf und damit auch Deine Prozessfähigkeits-Kennzahl.
Wenn es wirklich unbedingt eine Prozessfähigkeitskennzahl sein muss, brauchst Du ein Messmittel mit höherer Auflösung. Ich persönlich würde eher überlegen, warum Werte aus technischen Gründen in der Toleranz liegen (müssen) und damit auf die Prozessfähigkeit verzichten.
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Prüfmittelfähigkeitsunterung bei Lehren #63565Hallo Michael,
für die attributive Prüfung mit Lehren gibt es unterschiedliche Ansätze, die Mess- bzw. Prüf-Unsicherheit zu bewerten.
Wenn Du Messwerte aufnehmen kannst und im Prozess aus Zeit-/Kosten-Gründen mit einer Lehre geprüft wird:
*Methode der Signalerkennung oder Grauzone
*attributive Mess-System-Analyse (MSA)Wenn Du keine Messwerte aufnehmen kannst:
*Prüfer-Übereinstimmung / Kappa-KoeffizientAm Ende bekommst Du allerdings bei keiner dieser Methoden eine Fähigkeitskennzahl, die mit der Prüfmittelfähigkeit (Verfahren 1) vergleichbar wäre. Verfahren 1 funktioniert nur und ausschließlich für Messwerte (variable Prüfung).
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Bachelorthesis "Umgang mit Kundenanforderungen" #63564Hallo Cire,
vielleicht ist es so schwer, einen Methoden-Namen zu finden, weil diese alle Methoden einen deutlich abstrakteren Ansatz haben und damit den Überbau liefern, in dem dann z. B. eine Software zur Unterstützung oder Verbeserung von Prozessen eingesetzt wird. Nur für so einen Überbau brauchst Du sehr viel mehr, als nur die Einführung einer Software oder die Änderung eines Prozesses.
Ich würd da einfach als Methode GMV hinschreiben [:D]
Wenn Du einen „echte“ Methode brauchst, nimm PDCA (Plan-Do-Check-Act) von Deming. Um die Nachhaltigkeit der Verbesserung zu sichern, würde ich eher mehr Energie in die vorher-nachher-Bewertung stecken und mit ZDF (Zahlen-Daten-Fakten) zeigen, dass z. B. die Bearbeitungszeit oder die Anzahl Fehler/Schleifen/Rückfragen nach der Implementierung besser ist als vorher.
Viele Grüße
BarbaraGMV = Gesunder MenschenVerstand
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: MSA bei zusammengesetzter Messgröße #63563Hallo xeroc,
Du beurteilst Deine Produkte oder Prozesse nach der zusammengesetzten Messgröße, deshalb wird die MSA auch mit dieser Messgröße durchgeführt.
Wenn Du schon vorher weißt, dass der Fluss oder der Druck in Eurer Anwendung einen deutlich höheren Effekt auf die Mess-Streuung haben, kannst Du Dir auch beide getrennt anschauen. Dann ist hinterher die Entscheidung leichter, ob eine Verbesserung an der Mess-Streuung des Flusses oder des Drucks die Mess-Streuung der zusammengesetzten Messgröße stärker beeinflusst und um wie viel diese Mess-Streuung verringert werden könnte, wenn ein anderes Messverfahren für Fluss (oder Druck) eingesetzt würde. Den Aufwand würde ich allerdings nur machen, wenn schon vorab klar ist, dass die Mess-Streuung zu hoch ist.
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Ermittlung der Messunsicherheit #63562Hallo Simon,
Deine Frage ist schwer zu beantworten, denn „die“ Messunsicherheit nach VDA Band 5 gibt es nicht. Unterschieden wird z. B. zwischen der Unsicherheit des Mess-Systems und der Unsicherheit des Mess-Prozesses.
Für die Unsicherheit des Mess-Systems werden folgende Streuungskomponenten nach VDA 5 berücksichtigt:
*Kalibrierung Normal (u_CAL)
*systematische Messabweichung (u_BI)
*Linearitätsabweichung (u_LIN)
*Wiederholbarkeit am Normal (u_EVR)
*Rest (Rest_MS)Tabelle 7 (S. 52) listet die Methoden auf, die für die Ermittlung der Unsicherheitskomponenten verwendet werden können. Das sind alles Statistik-Standardmethoden, die u. a. mit Minitab berechnet werden können. Nur ist es eben nicht 1 Methode oder 1 Versuch, sondern verschiedene Verfahren, die mit unterschiedlichen Menüs umgesetzt werden.
Zur Höhe des k-Faktors: in der Metrologie wird k=1 oder k=2 verwendet. Bei VDA 5 wird k=2 verwendet. In der Statistik wird k=3 verwendet. Je höher Dein k-Wert ist, mit der Du Deine Toleranz einschränkst, desto niedriger ist das Risiko ein schlechtes Teil irrtümlich als gut einzustufen. Mit steigendem k steigt allerdings auch das Risiko, gute Teile als Ausschuss zu deklarieren. Vielleicht hilft Dir eine Gage Performance Curve (s. MSA 4), um das Ganze besser nachvollziehen zu können: Gage Performance Curve online oder als Minitab bzw. Excel Makro.
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: MSA1 – zerstörende Prüfung #63561Hallo QuEm,
bei einer zerstörenden Prüfung ist ein Verfahren 1 schwierig. Wenn Du sehr ähnliche Teile hast bzw. Teile, bei denen Du davon ausgehen kannst, dass sie sehr ähnliche Messwerte haben müssten (z. B. gleiche Materialchargen, gleiches Werkzeug, gleiche Fertigungszeit…), kannst Du mit diesen ähnlichen Teilen eine Quasi-Wiederholmessung machen. Alternativ gibt es ggf. ähnliche Messaufgaben mit nicht-zerstörenden Teilen, an denen ersatzweise die Wiederholbarkeit untersucht werden kann, z. B. Haftkraft von Magneten in der Zugprüfung.
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Interpretation der MSA-Ergebnisse #63560Hallo simonQS,
GRR% bezieht sich meistens auf einen von diesen drei Bezugsbereichen:
*Streuung in der Untersuchung / in Verfahren 2
*Prozess-Streuung (wenn eine bekannte Standardabweichung für den Prozess vorgegeben wurde)
*Toleranzbreite (wenn zwei Toleranzgrenzen vorgegeben wurden)Die beiden GRR%-Werte mit Bezug zur Streuung geben Dir den Anteil an, den Du in Deinen Messdaten bzw. in Deinem Prozess nur durch das Messen hast (ohne Teile-Unterschiede) und beantworten die Frage, ob Du die Prozess-Qualität über die Messwerte sinnvoll beurteilen kannst.
Der GRR%-Wert mit Bezug zur Toleranz zeigt dagegen, wie viel von Deiner Toleranzbreite durchs Messen verbraucht wird. Die Frage dahinter ist „Liefern die Messwerte zuverlässige Informationen zur Qualität der Produkte (gut/schlecht)?“
Welche der Bezugsgrößen Du für Deine 6,99% verwendet hast, hat mir meine Glaskugel leider nicht verraten [:)]
Für Verfahren 1 brauchst Du einen Referenzwert von dem Teil, an dem wiederholt Messwerte aufgenommen worden sind. Die Abweichung zwischen Referenzwert und Mittelwert der Wiederholmessungen ist die systematische Abweichung. Nimmst Du für den Referenzwert den Mittelwert der Wiederholmessungen, kannst Du nicht beurteilen, ob es eine systematische Abweichung für Deinen Anwendungsfall gibt.
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo tom663,
eins vorweg: Wenn Du eine sichere Aussage zur Qualität Deines Loses möchtest, berechne Dir den Stichprobenumfang und lass die ISO 2859 weg.
Der Stichprobenumfang ergibt sich aus dem Kennbuchstaben, d. h. für P ist der Stichprobenumfang n=800. Wenn Du in Deiner Stichprobe 22 oder mehr defekte Teile findest, weist Du das Los zurück.
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: MDR – die kommende EU Medizinprodukteverordnung #63421Hallo QM-FK,
danke für die ganzen Infos!
VIele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Stichprobengröße Losfreigabeprüfung #63418Hallo Karin,
mal ganz ohne Formeln und andere anstrengende Dinge: Du willst nachweisen, dass in Deinen Sensoren niemals nie ein defekter Sensor ist. Das geht mit Statistik nicht.
Erstmal zu der Anzahl zu prüfender Teile bei einer attributiven Prüfung (geht/geht nicht). Das ist so ähnlich wie die Suche nach einer Stecknadel im Heuhaufen (Stecknadel = defekter Sensor, Heuhaufen = Menge aller Sensoren). Um wirklich sicher zu sein, dass keine Stecknadel im Heuhaufen ist, muss sehr, sehr, sehr viel geprüft werden. Für eine absolute Aussage ohne Wahrscheinlichkeit/Risiko muss jeder einzelne Strohhalm angeschaut und entschieden werden, ob er ein Strohhalm oder eine Stecknadel ist. Damit bist Du IMMER zwingend bei der 100%-Kontrolle.
100%-Kontrolle bei einer zerstörenden Prüfung führt leider genauso zwangsläufig dazu, dass Ihr niemals einen funktionsfähigen Sensor verkaufen könnt.
Aus diesem Dilemma gibt es verschiedene Auswege, bei denen immer ein gewisses Restrisiko bleibt, dass Ihr nicht-funktionierende Sensoren überseht.
Es gibt AQL-Pläne nach der ISO 2859. Die haben insbesondere bei seltenen Fehlern oder einem kleinen AQL-Wert immer ein hohes Risiko dafür, schlechte Qualität zu übersehen. Stell Dir vor, Du hast einen Heuhaufen mit 1 Millionen Strohhalmen. Um zuverlässig entscheiden zu können, ob in diesem Heuhaufen eine Stecknadel ist, musst Du mehr als nur eine Handvoll Stroh herausgreifen. Die 2859 verwendet leider immer nur eine Handvoll Stroh (was auch der Grund ist, warum benannte Stellen und Auditoren zunehmend nachfragen). Solche Stichprobenprüfungen sind Augenwischerei, weil Du so gut wie keine Chance hast, schlechte Qualität zu finden. Um eine ausreichende Sicherheit zu haben, brauchst Du bei einer zu findenden Ausschussrate im ppm-Bereich tausende von Prüfergebnissen.
Sehr viel sinnvoller sind messende Prüfungen, weil dabei mit einem erheblich kleineren Stichprobenumfang abgesicherte Aussagen möglich sind. Hierbei stellt sich die Frage, ob es bei Deinen Sensoren um eine „normale“ Messung geht (z. B. geometrische Maße) oder ob es sich um Beanspruchungs- und Belastungsprüfungen handelt. Es klingt danach, als wäre es eine Beanspruchungsprüfung.
Wenn das so ist, kannst Du über Berechnungsmethoden aus dem Bereich Zuverlässigkeit- und Lebensdauer die notwendige Teileanzahl für einen Nachweistest nach x Betriebsstunden oder Zyklen berechnen. Dafür braucht es auch Hirnschmalz, weil dabei einige Vorgabewerte zum Ausfallverhalten verwendet werden. Auch hier gilt wie bei jeder Stichrprobenprüfung: Es gibt keine 100%-ige Sicherheit, d. h. Du kannst z. B. einen Nachweis von 99,999% Zuverlässigkeit nach 1000 Betriebsstunden führen.
Wie medi schon geschrieben hat, ist es ohne weitere Informationen schlicht unmöglich, Deine Frage nach der Stichprobengröße wirklich zu beantworten, weil es einfach zu viele Optionen gibt. Kannst Du vielleicht die Art der Prüfung etwas genauer beschreiben?
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Natürliche Toleranzgrenzen und cpk #63406Hallo Andreas,
in dem Fall würde ich eine untere Toleranzgrenze definieren, z. B. USG = 0,1 und OSG = 0,4. Dann würde der Cpk nur hoch werden, wenn der Prozess mittig in der Toleranz mit möglichst kleiner Streuung läuft.
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge