QM-Forum › Foren › Qualitätsmanagement › Größe der Nullserie
-
AutorBeiträge
-
Hallo an Alle,
ich bin gerade am Überlegen auf welche Größe/Anzahl ich die Nullserie eines neuen Produktes festlege. Zu dem Produkt gibt es dann noch verschiedene Varianten. Pauschal wurde bis jetzt jede Nullserie mit 50 Geräten gefertigt. Jede Variante mit weiteren 20 Stück. Diese Festlegung erfolgte aber vollkommen subjektiv.
Meine Fragen an das Forum:
1. Welche Faktoren kann man heranziehen um die Nullseriengröße objektiv bestimmen zu können?
2. Ab welcher Stückzahl kann man den Produktionsprozess als stabil bezeichnen?
3. Können Nullseriengeräte verkauft werden?
4. Wieviele Nullseriengeräte sollten als Rückstellmuster archiviert werden?
Danke für eure Hilfe.(das Thema ist für mich relativ neu)mosigkauer
Hallo,
mit 50 Geräten liegst mit Sicherheit nicht daneben allerdings hängt das ganze natürlich ab wie groß deine Toleranz und deine Schwankungen während des Prozeßes sind. Außerdem muss man ein bischen den wirtschaftlichen Faktor bedenken. Wenn von deinem Gerät nur 20 Stück im Jahr gebraucht werden dann bekommst du nie 50 Stk als Nullserie genehmigt.
Zur Frage Nr 3: Wenn dein Prozeß stabil ist und deine Geräte alle Produktmerkmale erfüllen dann kann man natürlich die Nullseriengeräte verkaufen.
Und somit gleich Frage 4: Ich würde ca.2 Geräte als Rückstellmuster behalten.Gruß: Mr.Idea
Hallo mosigkauer,
Frage 1:
Ich würd die relevanten/kritischen Merkmale des Produkts nehmen und daraus den notwendigen Stichprobenumfang berechnen. Dafür brauchst Du neben dem Merkmal selbst einige Kenngrößen (Anteil niO bei attributiven Merkmalen, Mittelwert und Standardabweichung bei variablen Merkmalen), die Du aus ähnlichen Prozessen oder Vorversuchen bestimmst.Hast Du diese Kennzahlen kannst Du den notwendigen Stichprobenumfang ausrechnen den Du brauchst, um eine zu große Veränderung mit hoher Sicherheit (bzw. kleinem maximal tolerierbaren Risiko alpha und beta) zu finden, wenn der Prozess doch nicht so gut ist. Weitere Infos zu den Risiken findest Du im Thread Stichprobengröße – Wareneingangsprüfung beim Stichwort „Feuermelder“.
Frage 2:
Das kommt auf den Prozess und die Stellgrößen und Umgebungsbedingungen an, die das Prozess-Ergebnis (möglicherweise) beeinflussen. Wenn der Prozess weitgehend unabhängig von Material-/Chargen-Wechsel, Werkzeug-Verschleiß, usw. ist, geht das deutlich schneller als bei stark schwan*kenden Prozessen. Als Faustformel würd ich mich an den Anforderungen für Prozessfähigkeiten (100 Werte) orientieren, jedenfalls wenn der Prozess eine solche Stückzahl zulässt.Auch bei der Prüfung auf Stabilität gibt es nette statistische Verfahren, die diesen Nachweis vereinfachen. In jedem stabilen Prozess sind die Mittelwerte von Stichprobengruppen eines Merkmals normalverteilt (Zentraler Grenzwertsatz, ZGWS), d. h. Du kannst die Mittelwerte von Stichprobengruppen (z. B. Mittelwert von 5 Werten pro Stunde) auf Normalverteilung testen. Wenn es da nichts gegen die Normalverteilung spricht, ist der Prozess stabil.
Bei größeren Effekten durch Prozess-Stellgrößen (Material, Werkzeug, Regelknöpfe an der Maschine, usw.) kannst Du die Stabilität über statistische Versuchsplanung (DoE) untersuchen. Je nach Anzahl Einflussgrößen/Prozess-Stellgrößen brauchst Du dafür mehr oder weniger Versuchsdurchläufe.
Bei z. B. 10 Stellgrößen wäre ein guter Startplan für die DoE ein Plan mit 36-40 Versuchen (teilfaktorieller 2^(10-5)-Plan mit 4-8 Zentralpunkten).
Frage 3 und 4 können die anderen hier im Forum sicher besser beantworten.
Sinnvoll ist es auf jeden Fall immer, die Mess-Systeme der wichtigen Prozess-Merkmale vor allem anderen zu untersuchen. Bei einer großen Mess-Unsicherheit (MU=GRR) kann Dein Prozess selbst noch so toll und stabil laufen, Du kannst es einfach nicht in den Messdaten sehen.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Barbaras Lösung des Problems würde meine Firma ruinieren. :-D Bei uns kann ein hoch komplexes Produkt bequem im sechsstelligen Bereich liegen. Davon müssten wir dann ja eine 1000er Nullserie auflegen. ;-)
Daher wird bei uns auch Subjektiv entschieden, von den teuren Geräten bauen wir nur 1-2stk. Von den billigen aber zweistellige Nullserien. Die Geräte werden dann später zu Demozwecken verwendet (eventuell nachträglich auch auf Serienstand gebracht).Gruss
Markus
Erst einmal vielen Dank an Alle für die Antworten.
@Barbara: Verstehe ich das richtig, wenn ich z. B. aus der Nullserie von 50 Geräten die kritischen Merkmalswerte ermittle und diese der Normalverteilung entsprechen, ist mein Produktionsprozess relativ stabil?
Bisher haben wir diese Merkmalswerte nur auf die einhaltung der Toleranzgrenzen überprüft.viele Grüße
mosigkauer
Hallo zusammen,
@diamant-schwarz: Seltsam, sogar diejenigen meiner Kunden, die ähnlich hochpreisige Geräte in einer vergleichbaren Stückzahl wie Ihr herstellen, sind bis jetzt immer noch nicht pleite ;) Logischerweise werden bei den Tests zuerst einzelne Komponenten hinsichtlich ihrer Eignung/Belastbarkeit/Maßhaltigkeit/… geprüft um dann in der Serienfertigung sicher zu sein, dass die ganze Kiste so funktioniert wie sie soll.
Gerade bei teuren Teilen wird da natürlich auch Geld in die Hand genommen. Bei der Risikobewertung „Blindflug“ gegen „teure Vortests“ wurde schlicht festgestellt, dass bei Schwierigkeiten in der realen Anwendung die Kosten für Reklamation, Rechtskosten, ggf. Schadenersatz, usw. um ein Vielfaches höher liegen können als die Kosten für die Voruntersuchungen.
In der Fertigung selbst wird dann „nur“ noch geprüft, ob die erwarteten Messdaten auch denjenigen entsprechen, die in der Prüfung aufgenommen werden. Wie viele Messdaten dafür notwendig sind, wird über den berechneten Stichprobenumfang festgelegt.
@mosigkauer: Ja, wenn Du die Normalverteilung in Deinen Messdaten findest, kannst Du von einem stabilen Prozess ausgehen. Die Normalverteilung entsteht automatisch, wenn der Prozess stabil ist und sich kleine Effekte durch Prozessveränderungen überlagern.
Also kurz:
Messdaten normalverteilt => Prozess stabilSind die Effekte durch Prozessveränderungen größer (z. B. deutlicher Materialwechsel-Effekt), sind die Messdaten selbst nicht mehr normalverteilt. Bei einem stabilen Prozess sind dann aber immer noch die Mittelwerte von Stichprobengruppen (z. B. Mittelwert von Merkmal gefertigt mit Material 1, Mittelwert von Merkmal gefertigt mit Material 2, usw.) normalverteilt (Zentraler Grenzwertsatz / ZGWS), völlig egal wie die Verteilung der Einzelmesswerte aussieht.
Oder kurz:
Mittelwerte von Stichprobengruppen normalverteilt => Prozess stabilNur auf in Toleranz / außerhalb Toleranz zu schauen ist problematisch, weil gerade bei kleineren Stichprobenumfängen die Chance ein niO-Teil zu finden ebenfalls klein ist. Und Du hast natürlich ein deutlich höheres Risiko für niO-Teile im Prozess, wenn die Messwerte nahe an der Toleranzgrenze liegen als wenn sie eher in der Toleranzmitte liegen. Wie groß dieses Risiko für niO-Teile ist, lässt sich über die Prozessfähigkeitsbewertung ausrechnen. Dafür brauchst Du normalverteilte Einzelmesswerte, damit die Formeln zuverlässige Aussagen bringen.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)geändert von – Barbara on 29/04/2010 10:10:21
Hallo Barbara,
es spricht ja nichts gegen umfangreiche Vortests. Ich sage nur, dass wir wegen geringer Stückzahlen eines Produktes bei gleichzeitig sehr hohen Kosten keine riesen Nullserie auflegen können. Eine 20er Nullserie würde dann ja schon 25% von unserem Jahresumsatz kosten. Das geht verständlicherweise nicht ;-)Gruss
Markus
Hallo zusammen!
Wir haben bei einer Varianz von 10E6 bis 10E8 ähnliche Probleme. Die Nullserie besteht dann eben aus besonders gängigen oder als besonders kritisch bewerteten Kombinationen.
Schöne Grüße
Frank
„There’s no problem too great for running away from it.“ (Charlie Brown)
-
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.