Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: Stichprobenumfang berechnen #62642
Hallo Beni
Schau mal hier im Forum den Beitrag https://www.roxtra.com/qm-forum/forum/topic.asp?TOPIC_ID=6260 an. Da ist schon viel Grundlegendes erklärt. Prinzipiel hast Du immer AQL, RQL, alpha und beta.
AQL = annehmbare Qualitätsgrenzlage (akzeptierter Ausschussanteil), mit der Wahrscheinlichkeit alpha für eine ungerechtfertigte Rückweisung.
RQL = rückzuweisende Qualitätsgrenzlage (nicht akzeptierter Ausschussanteil), mit der Wahrscheinlichkeit beta für eine ungewünschte Losannahme.So nun gehst du in Minatab 16, Statistik -> Qualitätswerkzeuge -> Annahmestichprobenpüfung nach Attributen. In der Maske beläst du „Plan für Stichprobenerstellung“ und „Gut/Schlecht…“ und „Prozent fehlerhafter..“ in den Feldern. Dann gibst Du AQL an. z.B. 1%. Damit Akzeptierst du 1% Fehlerhafter Teile mit einer Annahmewahrscheinlichkeit von z.B. 95% dann trägst du beim Lieferantenrisiko 0.05 ein. (wegen 1-alpha, also 1-0.95). Dann dein RQL da wolltest du ja 8% also trägst du 8 bei RQL ein und beim Abnehmerrisiko z.B. 5% also 0.05 in das Feld. Damit nimmst du Produkte mit einem Fehlerhaften Losanteil von 8% und mehr nur noch mit höchstens 5% Wahrschenlichkeit an. Den Losumfang kannste prinzipiel leer lassen. Trage aber mal die 42190 ein dann bekommst du in der Auswertung mehr Grafiken.
Ergebnis ist dann Stichprobenumfang 77 bei einer annahmezahl 2.
Für dich wichtig sollte noch sein die OC Kurve zu verstehen und die AOQ Kurve. Die minitab hilfe ist genial! Oder du googelst.Jetzt wirst du bestimmt sagen aber bei 1% habe ich ja 422 Stück geprüft und keine fehlerhafte Platte gefunden. Dies sind ja mehr als die 77. Die Statistik geht davon aus, dass alle Teile die du prüfst aus einem kontinuirlichen Prozess kommen. Und ich glaube da liegt der Hund bei euch begraben. Jetzt musst du auf den Prozess schauen und z.B. sagen ich fertige in 1h 500 Stück da bin ich mir sicher, dass der Prozess innerhalb dieser Zeit stabil und gleichmässig war. Weil z.B. keine Materialwechsel, keine Tempschwankungen, keine MA wechsel und und und. Dass musst du selbst an deinem Prozess rausfinden. Dann würdest du alle Stunde aus den 500 Stück mit n-c = 77-2 prüfen. Das wären dann 42190/500 = 84.38 –> 85 * 77 = 6545 teile die zu prüfen sind. Und ja, wenn du bei den 77 mehr als 2 schlechte Teile hast musst du dieses Teillos zu 100% prüfen.
Du kannst auch noch in Minitab ein wenig rumprobieren und z.B bei beta 0.001 eintragen. Also lediglich 0.1% fälschliche Annahme bei RQL von 8%. Dann bekommst du n-c=180-4. Das bewahrt dich aber nicht davor deinen Prozess besser zu beurteilen. ;-)
So ich hoffe das hilft nen bisle.
Gruss
xcuritals Antwort auf: AQL ISO 2859 #62623Hallo Zusammen
Ich habe die Ausführungen hier sehr interessiert verfolgt. Ausserdem habe ich mir die Vorgehensweise im Buch von Mathews Paul angeschaut und mit Minitab verglichen.
Mit den Aussagen bezüglich der ISO 2859-1 bin ich absolut einverstanden. Aber, dass der Losumfang N keine bzw. nie eine Rolle spielt irgendwie nicht.
Ich beziehe mal die Poisson Verteilung nicht mit ein, bei der es ja um Fehler pro Einheit geht. Mir geht es ausschliesslich um die Anzahl fehlerhafte Teile. Doch dann gibt es die Hypergeometrische Verteilung und die Binomialverteilung.
Die Binomialverteilung darf näherungsweise verwendet werden, wenn n höchstens 10% oder 5% von N ist und/oder ich davon ausgehe, dass die Stichprobe aus einem kontinuierlichen Prozess kommt und damit N quasi unendlich ist. In der Formel der Binomialverteilung kommt dann der Losumfang überhaupt nicht vor. Er ist also in der statistischen Betrachtungsweise nicht relevant.
Wenn aber ein Los nicht aus einem kontinuierlichen Prozess stammt. z.B. Eine Lieferung von Teilen alle 2 Jahre mit einem Umfang von 100 Stück so muss die Hypergeometrische Verteilung angewendet werden. In dieser Formel ist der Losumfang N auch präsent und damit sehr wohl relevant. Im Minitab kann dann auch die Stichprobenanweisung mit dieser Verteilung berechnet werden und verändert sich.
Ein Beispiel:
AQL=1%, alpha=10%
LQ=5%, beta=10%Mit Minitab ohne Berücksichtigung des Losumfang und Binomialverteilung ergibt dies eine Stichprobenanweisung von n –c = 105 – 2 (alpha = 8.9% und beta = 9.9%)
Nehmen wir nun einen Losumfang von 100 Teilen an und verwenden die Hypergeometrische Verteilung so ergibt sich eine Stichprobenanweisung von n –c = 58 – 1 (alpha = 0% und beta = 9.0%)
Hab ich da jetzt einen Denkfehler?
Gruss
xcuritals Antwort auf: Spritzguss und Fähigkeiten #62360Hallo Andreas
Habe auch schon ähnliche Probleme gehabt allerdings bei der Extrusion. Einfacher ist es halt z.B. bei spanende Fertigungsprozessen! Trotzdem geht es nach meiner Erfahrung auch bei Kunststoffprozessen. Wie schon gesagt wäre es sinnvoll mal bei der Fertigung dabei zu sein und vorallem beim Prüfen. Wenn die Streuung gleichbleibend gut ist, ist das schonmal ein sehr gutes Zeichen. Dann ist die Wahrscheinlichkeit gross, dass es etwas systematisches ist. Hast du mal die Rohmaterialchargen verglichen wenn du unterschiedliche Cmk hast? Wie sieht es aus mit der Zeit nach Fertigstellung des Teils und dem Messen. Also systematische Abweichung wegen Abkühlung. Wird automatisiert gemessen oder mit Bedienereinfluss? MSA? Parameter mal vergleichen wenn die Cmk so unterschiedlich sind evtl lässt sich hier eine systematik ablesen.
Folgende Fragen haben mir geholfen um alles besser zu Verstehen und nötige Verbesserungen einzuleiten.
Verändert sich „nur“ die Lage oder auch die Streuung? (weisst Du ja schon. Wäre die Streuung ständig änders fände ich es problematischer)
Sind die Messungen sicher? MSA? VDA5?
Rochmaterialchargen mit eingebunden in die Betrachtung?
DOE, um die einfulssreichsten Parameter zu dedektieren durchgeführt?Gruss
Xcuritals Antwort auf: Kunststoffteile und Lackieren #62300Hallo Stefan
Nur aus Interesse war das ein Lieferantenaudit oder Zertifizierung? Wenn ich überlege was wir alles bei unseren Zulieferern akzeptieren (und zwar in der Medizintechnik) dann kann ich über Dein Problem echt nur lachen.
Aber hauptsache es sind wieder Leute beschäftig sich was aus den Fingern zu saugen ohne dabei etwas sinnvolles für die Qualitätssicherung zu tun. Hast mein Mitgefühl…Gruss
Xcuritals Antwort auf: Prozesslandkarte #62290Hallo QM
Kann ich nicht bestätigen. Also das Unternehmen davon Abstand nehmen. Wir haben eine und ich finde es sehr sinnvoll. Steckt aber auch viel arbeit drin wenn es gut sein soll. Unternehmensgrösse 7000.
Mein letzter Arbeitgeber hatte keine und es gab ein Projekt um eine einzuführen. Unternehmensgrösse 5000.
Gruss
Xcuritals Antwort auf: neue EU-Richtlinie zu Medizinprodukten #62288Die Studie wäre sehr interessant. Würde ich gerne mal durchgehen…
Ich war bis anhin der Meinung, dass deutsche Behörden nur das recht haben im Bereich Pharma jederzeit ein Unternehmen zu inspizieren.
Klaro, wer kriminelle Energie entwickelt findet in jedem System die nötigen Schwachstellen. Darum ging es mir aber auch nicht.
Nun aber der Punkt wo ich absolut anderer Meinung bin. Nur eins vorweg, ich bin nun auch schon ein weilchen in der Medizintechnik unterwegs und habe bereits in mehreren Firmen gearbeitet welche alle auch in die USA geliefert haben. Eines davon hat auch seinen Hauptsitz in den USA. Letztlich habe ich (zum Teil auch ziemlich bitter) gelernt, dass es in jedem Unternehmen nur um eines geht. Ums Geld verdienen. Dabei werden auch mal gewisse Risiken eingegangen auch wenn Mitarbeiter sagen für dieses Produkt fehlen Dokumente, Risikobetrachtungen sind nicht ausführlich genug, Validierungen sind nicht vollumfänglich durchgeführt usw.. Die Antwort ist dann: „Unternehmensrisiko“. Der einzige mögliche Hebel ist immer die FDA. Ich habe sogar erlebt, dass ein Unternehmen ein und dasselbe Produkt nach FDA und Europäischen Massstäben produziert und dokumentiert! Einfach weil die Angst zu gross war wenn die FDA ins Haus kommt wäre man nicht gewappnet.Ich möchte kurz meine Erfahrung darstellen was in einem Unternehmen passiert wenn ein Audit/Inspektion ansteht:
NB:
– Kurze Vorbereitung durch ein kleines Team. Je nach Unternehmensgrösse 2-5 Mitarbeiter
– Kurze Information an die Abteilungsleiter die vermutlich betroffen sind
– Info an die Produktion: besonders auf Sauberkeit zu achten
– Planung der Rahmenbedingungen (Räume, Essen usw.)FDA:
– Es werden Teams gebildet die mindesten doppelt so gross wie beim NB sind
– Es werden Mock audits durchgeführt
– Backroom, Frontroom wird vorbereitet
– Runers werden instruiert
– Dokumente werden gescreent
– Firmenversammlungen abgehalten um zu informieren
– Abteilungsleiter bekommen spezielle Trainings
– Abteilungsleiter werden angehalten Schwachstellen in ihrer Abteilung zu melden
– CAPAs werden beschleunigt abgearbeitet
– De Inspektor wird gegoogelt um zu sehen welcher Bereich sein Steckenpferd ist
– In Extremfällen habe ich schon erlebt, dass EX-FDA Inspektoren 2 Wochen ins Unternehmen geholt wurden. Ihr wollt nicht Wissen was die gekostet haben!
– Rahmenbedingungen werden natürlich auch vorbereitet. Der FDA Mesnch bekommt auch keinen besseren Kaffee ;-)Ich könnt noch mehr aufführen aber ich denke für einen Eindruck reicht das mal.
In jedem Unternhemen in dem ich bereits war hatte man einfach gosse Angst vor Warningletters und die bekommt man relativ schnell wie ich es auch schon erlebt habe. Eine Abweichung vom NB die man dann halt behebt ist da definitiv was anderes. Da sind wir dann beim Unternehmerrisiko. Wenns um die FDA geht denken hier alle immer zweimal drüber nach eine Lücke zu schliessen oder nur ein „Unternehmensrisiko“ drüber zu legen!
Mit all dem möchte ich aber nicht sagen, dass ich das amerikanische System perfekt finde. Aber „mit ethischen Maßstäben rangehen“, sorry, aber da wurde zumindest ich eines besseren belehrt.
Deine Aussagen kann ich leider überhaupt nicht bestätigen. Unternehmen werden in den USA sehr wohl regelmässig und ausführlich von der FDA geprüft. Dazu muss man sich auf der FDA hp nur mal den vorhandenen Warning letter anschauen (und davon gibt es ja einige). Ausserdem macht hier auch die FDA von ihrem recht gebrauch Produktionen einzustellen. Habe ich auch schon erlebt.
Zugegeben habe ich auch schon erlebt, dass sich ein FDA Inspektor für die Produktion selbst weniger interessiert hat.
Aber meiner Meinung nach geht es letztlich darum einen gewissen Druck aufzubauen um dieses „ist halt Unternehmerrisiko“, wie in der Antwort an medi12 geschrieben, entgegen zu wirken.Einfach in der EU zu sagen wir führen eine europäische FDA ein, halte ich auch nicht für den richtigen Weg. ABER, auch wenns heftig klingt, aber so wie es jetzt ist lächeln die Unternehmen (also die Profis) über die NBs. (zugegeben hier meine ich nicht die kleineren Unternehmen bis 1000 MA)
Vielen Dank für die tolle Diskussion! Ich finde es cool auch mal nen bisle herausfordernde Thesen aufzustellen ohne gleich sich persönlich angegriffen zu fühlen. Also, ich möchte keinen persönlich angreifen und fühle mich auch nicht angegriffen…
Gruss
Xcuritals Antwort auf: neue EU-Richtlinie zu Medizinprodukten #62284Hallo Zusammen
Also ganz ehrlich, das gegenwärtige System in Europa finde ich mehr als fragwürdig. Wenn ich einen NB auswählen und beauftragen darf. Das Kunden- „Dienstleisterverhältnis“ gipfelt dann in der Bezahlung. Dieses System halte ich für unhaltbar. Da ist der US-amerikanische Ansatz einfach nur sinnvoll. Und dies ist das Hauptproblem meiner Meinung nach. Viele Regularien der FDA sind meines Erachtens nur gefühlt strenger weil sie exakter gelebt werden müssen. Denn die Gefahr einer unangekündigten und unabhängigen „richtigen“ Inspektion viel höher ist. Trotzdem sprechen FDA Mitarbeiter in Pausen bei AAMI Schulungen davon, dass Medizinprodukte in den USA anfangen der globalen Entwicklung hinterher zu hinken da die Hürden zu hoch geworden sind.
Gruss
Xcuritals Antwort auf: cpk zu GUT #62144Hallo
Wow. Vielen Dank für die sensationellen Erklärungen. Den Zusammenhang von Q-Das und den Veröffentlichungen von Dietrich/Schulze ist mir auch schon aufgefallen ;-)
Dennoch gibt es noch ein Buch (Satistische Prozessregelung – SPC), übrigens ein echt gutes Buch für die Praxis, klein und günstig aber echt gut, von Prof. Dr.-Ing. Gerd F. Kamiske und Prof. Dr.-Ing. Horst Quentin, die ebenfalls die erweiterten Grenzen Beschreiben. Des Weiteren ist im Statistical Process Control (von Daimler, Ford und GM) von „modified control limits“ die Rede. Es wird aber auf weitere Literatur verwiesen: AT&T (1984), Grant and Leavenworth (1996), Duncan (1986), Charbonneau Webster (1978). Leider konnte ich mir hiervon noch nichts beschaffen. Die Literatur müsste man über USA beziehen. Werde versuchen hier mal Literatur zu bekommen. Werde dann berichten.
Fakt bei uns ist einfach, dass unsere Prozesse echt gut sind und unsere Qualität auch. Wir wissen das weil wir 100% prüfen wenn wir kein cpk mit min 1.33 und anschliessendem SPC haben. (Medizintechnikhersteller). Aber die normalen Karten führen bei uns einfach häufig zu eingriffen die unnötig sind. Wir haben z.B. gerade erst alles an einem Beispiel durchgerechnet. Da haben wir z.B. bei einem Prozess dauerhaft nen cpk von über 20. Weil eben auch die Toleranzgrenzen sehr weit sind. Aber auch die Streueung ist sehr klein und sehr stabil. Jetzt fährt aber mal ein Operator nicht exakt den Prozess dort an wie alle andere Kollegen (was eigentlich auch kein Problem seien sollte) und schon fallen wir zurück in die 100% Prüfung. Da mit der klassischen Mittelwertkarte dann eine Grenzverletzungen auftritt. Die erweiterten Grenzen bringen DIE Lösung. Aber wenn sie statistisch fragwürdig sind… Über die 86,64% bin ich auch gestolpert und auch über die Begründung.
Bin gespannt auf eine weitere Diskussion…
Gruss
xcuritals Antwort auf: cpk zu GUT #62134Hallo
Vielen Dank für Euren tollen Input. Sorry, dass es etwas gedauert hat bis ich antworte. Hab mich jetzt mal mittels den Büchern „Statistische Verfahren zur Maschinen- und Prozessqualifikation“ und dem „Qualitätssicherung“ vom Timischl schlau gemacht. Ausserdem habe ich mit Q-DAS verschiedenen Einstellungen getestet.
Alle Punkte die Du aufgeführt hast Barbara erfüllen wir. Ob zu 100% will ich nicht behaupten aber sicher gut genug. Auch die Normalverteilung ist gegeben.
So jetzt habe ich aber noch nen paar wichtige Fragen! Die erste ist zwar au bisle doof aber ich hoffe ihr verzeiht. ;-)
Gemäss Wikipedia sind die Grenzen einer QRK OEG=Mittelwert + 3*Sigma; UEG=Mittelwert – 3*Sigma. In der Literatur und in der Software ist ne komplexere Formel bei denen ja die Wahrscheinlichkeit und die Stichprobengrösse berücksichtigt ist. Ist Wikipedia hier völlig falsch? Meint Wikipedia eine x-Wert-Karte und die Bücher eine Mittelwert-Karte? Oder ist es erlaubt wenn zusätzlich eine S-Karte geführt wird? Oder ist es einfach die erste Shewhart-karte von 1930 und einfach veraltet?
Ich habe enorme Unterschiede Festgestellt wenn ich mit dem Schätzer von Sigma arbeite. Dies wird mir aber in der Literatur angeraten. Allerdings habe ich auch der Einfachheitshalber mal nur Beispiele mit n=5 und nur 5 Lose durchgerechnet. Wird mit höhere Losmenge der Schätzwert von Sigma näher am Sigma gesamt sein? Interpretiere ich dies richtig?
Sehr interessant ist für mich die Shewhart Karte mit erweiterten Grenzen. Gibt es hier irgendein no go Kriterium? Also wann man sie nicht einsetzten darf?
Bei den Shewhart-karten ist je die Toleranzgrenze nicht angegeben. Dann ist es aber doch theoretisch möglich, dass wenn die Karte dynamisch ist und die Grenzen immer wieder neu berechnet werden sie irgendwann mal aus der Toleranzgrenze laufen könnte, oder nicht? Ausser ich bestimme immer wieder den cpk?
Sind Annahmeregelkarten in der Praxis geläufig? Auch wenn sie dem „never ending Improvement“ widersprechen?
In der Literatur ist auch beschrieben, dass Warngrenzen nicht mehr in der Praxis geführt werden. Was haltet ihr davon?
Im ersteren Buch ist die Berechnung der erweiterten Grenzen an einem Beispiel dargestellt. Mittels Q-DAS komm ich auch auf die Lösung. Ich tu so etwas aber gerne richtig nachvollziehen weshalb ich versuche die Einzelwerte für die Endformel zu berechnen. Zum einen errechnet er eine Standardabweichung zwischen den Stichproben (0.0770128) zum anderen eine Standardabweichung innerhalb der Stichproben (0.0113358). Auf letzteres komme ich. Alle einzelnen Standardabweichungen ^2 dann den Mittelwert und die Wurzel. Aber auf die 0.0770128 komme ich nicht. Auch nicht mit einer Anova in Excel oder Minitab. Hoffe jemand hat das Buch und überhaupt die Lust dies mal zu checken.
So zur letzten Frage. Was haltet ihr eigentlich davon den cpk auf einer Regelkarte zu überwachen?
So hoffe ich habe Euch nun nicht erschlagen. Bin sehr gespannt auf Eure Antworten…
Gruss
xcurit -
AutorBeiträge