Spritzguss und Fähigkeiten2013-11-21T11:12:22+01:00

QM-Forum Foren Qualitätsmanagement Spritzguss und Fähigkeiten

Ansicht von 14 Beiträgen – 1 bis 14 (von insgesamt 14)
  • Autor
    Beiträge
  • 19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo zusammen,

    in unserem Unternehmen werden seit ca. 1Jahr Maschinenfähigkeiten im Spritzgießen (Kunststoff) herangezogen, um die Fähigkeiten von Prozessen hinsichtlich Einhaltung der Spezifikationsgrenzen zu ermitteln. Der Prozesseigner nutzt die Ergebnisse, um diese Grenzen in Frage zu stellen. Dagegen ist Nichts einzuwenden, wenn eine sinnvolle Toleranzauslegung zu positiven Effekten hinsichtlich Kosten führt.

    Sollten die Vorgaben nicht eingehalten werden, dann versuche ich, Toleranzen nochmals kritisch zu hinterfragen und wenn technisch machbar … auch anzugleichen.

    Dabei kommt es gehäuft vor, dass diese Angleichungen teilweise zu cmK Werten von 2 – 3 führen, was ja eigentlich dazu führen müsste, dass diese kurzfristigen Betrachtungen langfristig zu cpK Werten von deutlich größer 1,33 führen müssten.

    Dem ist aber nicht so. Bereits in der nächsten Musterfertigung wird die kurzfristige Untersuchung wiederholt und das Bild ist ein völlig Anderes.

    Trotz bereits angeglichener Toleranz erreiche ich jetzt nicht mehr cmK Werte von >1,67, was dahingehend interpretiert wird, dass die Toleranzauslegung erneut zu hinterfragen ist!

    Meines Erachtens sind aber diese Untersuchungen dafür gedacht, dass man von einer kleinen Charge mit einiger Sicherheit auf zukünftige Gesamtprozesse schließen kann???

    Irgendwo scheint es jedoch ein Problem zu geben. Ob dies in meiner Interpretation liegt oder ein systematischer Fehler ist, kann ich nicht sagen.

    Ich hoffe, dass Jemand schon ähnliche Fälle hatte und ggf. Lösungsansätze aufzeigen kann, wo dass Problem liegen könnte und wie man mit diesem Thema umgehen sollte. In speziellen denke ich hier an Kunststoffspritzguss!

    Danke bereits im Voraus

    Andreas

    Frank_Hergt
    Teilnehmer
    Beitragsanzahl: 1530

    Hallo Andreas!

    Gleich voraus: Ich verstehe nichts von Kunststoffspritzguß.

    Nichtdestotrotz: Habe ich richtig verstanden, daß Du, wenn Du eine Prozeßfähigkeitsuntersuchung durchführst, nach jedem neuen Anfahren ein anderes Ergebnis hast? Das bedeutet doch, daß das Anfahren nach Prozeßunterbrechung einen nicht zu vernachlässigenden Einfluß auf das Ergebnis hat. Machst Du die Untersuchung vielleicht zu früh, also bevor der Prozeß stabile Verhältnisse erreicht hat? Ändern sich Einflußgrößen von Fertigung zu Fertigung? Veralbert Dich am Ende jemand, indem er das gleiche Werkzeug auf verschiedenen Maschinen einsetzt, die zwar theoretisch baugleich sind, aber praktisch halt doch nicht so ganz? Es könnte sich lohnen, die Untersuchung in einer echten Serienfertigung mehrere Male durchzuführen, also z.B. nach 2 Stunden, nach 14 Stunden, nach 26 Stunden usw. Dann sollte man ein „Einlaufen“ des Prozesses über Fertigungsdauer feststellen können.

    Du redest von „Musterfertigung“. Wie viele Muster werden da gefertigt und wie lange dauert das?
    Wenn der Prozeßeigner die Toleranzgrenzen in Frage stellt: Wie viel echten Ausschuß gibt es denn? Wie viele Teile fallen im nächsten Prozeßschritt oder beim Kunden aus? Kannst Du herausbekommen, ob die Toleranzen wirklich (mit etwas Sicherheit, ok) aus der Anwendung kommen oder ob da jemand Pi * Daumen toleriert hat? Oder gerne mit „Angsttoleranzen“ arbeitet?

    Schöne Grüße

    Frank

    „and pray that there’s intelligent life somewhere up in space,
    ‚cause there’s bugger all down here on earth!“ (Monty Pythons / Galaxy Song)

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Frank,

    Danke für die Antwort. Ich glaube, dass die Einflussgrößen von Bemusterung zu Bemusterung vielfältig sind. So spielt das Granulat garantiert eine Rolle, die Teile schwinden nach, Kunststoff nimmt Wasser auf und vielleicht kommen noch diverse Einflüsse beim Messen hinzu.

    Beim Bemustern (vor Serienstart) der Teile werden 125 Stück vermessen. Toleranzen und Prozesstreuung haben auch ein sehr gutes Verhältnis. Aufgrund der Werkzeugauslegung (Schwindungsvorhalten im Werkzeug) kommt der Mittelwert der Messwerte mehr oder weniger gut in der Toleranzmitte zum liegen. Das hängt bei diesem Verfahren von der Erfahrung des Werkzeugkonstrukteurs (wie genau kann er die Schwindung vorhersagen) und Werkzeugeinflüssen (z.B. wo wird wie gekühlt) zusammen. Ergebnis ist beispielsweise ein cmK von 3,0!

    In einer nächsten Bemusterung springt der Mittelwert der Messung bei ähnlicher Prozeßstreuung. Aus einem guten cmk wird ein unzulässig kleiner cmK<1,0.

    Nun bin ich der Entwickler des Teiles und erhalte nach der ersten Bemusterung folgende Informationen:

    1. die Toleranz ist prozessfähig herstellbar. Jetzt sagt mir das, dass zukünftig gefertigte Teile sich ähnlich verhalten, was sie aber nicht tun.

    Nach einer Nachbemusterung (ein Detail wurde beispielsweise korrigiert),bleibt der cm Wert sehr gut der cmk Wert ändert sich rapide.

    – Vielleicht ist der Prozess gar nicht statistisch bewertbar, da instabil? (Ich bin leider nicht der Qualitäter!)

    – Wie erhalte ich überhaupt die Information „der Prozess ist ggf. statistisch nicht bewertbar“? Gibt es da Hinweise oder „Messgrößen“?

    – Wenn man dies feststellt, machen dann solche statistischen Untersuchungen überhaupt Sinn? Der Informationsgehalt bleibt doch augenscheinlich gering

    – Wie wird in der Praxis denn auf solche Prozesse reagiert? Ich kann mir vorstellen, dass es viele Prozesse gibt, wo man aufgrund mannigfaltiger Einflüsse erst nachdem das Prtodukt produziert ist, feststellen kann, dass etwas nicht stimmt?

    – Was mich auch umtreibt ist die Frage, ob ein cmk Wert für eine Prozessfähigkeit überhaupt geeignet ist?

    Danke nochmals.

    Viele Grüße

    Andreas

    Frank_Hergt
    Teilnehmer
    Beitragsanzahl: 1530

    Hallo Andreas!

    Ich lehne mich jetzt ziemlich aus dem Fenster (und hoffe, daß kein Automobiler zuhört ;-).

    Ich glaube, daß die Anzahl der Prozesse auf dieser Welt, die Dir wirklich ein über Zeit stabiles, normalverteiltes, nur noch zufällig rauschendes Ergebnis liefern, in extrem engen Grenzen hält. Und von daher hält sich meine Meinung zu den ach so beliebten Kennwerten in ähnlich engen Grenzen.

    Ich denke, Du hast schon genug Informationen, um zu der Aussage zu kommen, daß der Prozeß NICHT statistisch bewertbar ist, jedenfalls nicht so. Ansonsten sollten die Phänomene, die Du schilderst, nämlich gar nicht vorkommen.

    Normalerweise hat ein Spritzgießer bei ihm bekannten Werkstoffen einfach genug Erfahrung, um Dir sagen zu können, welche Toleranzen er einhalten kann. Bei Werkstoffen, die für den Verarbeiter neu sind, kannst Du hübsche Überraschungen erleben.

    Noch mal die Fragen aus dem letzten Beitrag:

    Ist das Deine eigene Fertigung oder eine fremde? Wenn Du irgendwie kannst: Geh‘ hin, laß‘ Dir alles zeigen, rede mit den Mitarbeitern und Einrichtern und stell‘ alle dummen Fragen, die Dir einfallen. Mit Neugierde, offenen Augen und Ohren und ein bischen technischem Grundwissen kommt man so einigen Problemursachen auf die Spur.

    Wenn Du der Entwickler bist: Wie bist Du ursprünglich auf Deine Toleranzen gekommen?

    Ansonsten: Die gesammelten Reaktionen in der Praxis auf solche Prozesse willst Du gar nicht wissen, glaub‘ mir…

    Schöne Grüße

    Frank

    „and pray that there’s intelligent life somewhere up in space,
    ‚cause there’s bugger all down here on earth!“ (Monty Pythons / Galaxy Song)

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Frank,

    Danke Dir nochmals und ich glaube, dass Du da Recht hast.

    Es ist unsere Fertigung. Die Problematik, denke ich ist durch so viele Einflussgrößen bestimmt, dass es wahrscheinlich wenig Sinn macht, die Statistik für die Prozesssbewertung mit einzubeziehen. Na ja, die ist aber „politisch“ eingefordert und damit müssen wir leben.

    Die Toleranzauslegung von Kunststoffteilen ist ebenfalls eine heikle Sache. Ich kann teilweise gar nicht im vollen Umfang funktionell auslegen, weil über das Verfahren beispielsweise keine Grenzmuster fertigbar sind, welche man testen kann. Desweiteren fünktioniert das Paaren von Kunststoffteilen beispielsweise noch, wo Stahl schon aufgeben muß. Die Teile sind elastisch und so „drückt und schiebt“ sich das Ganze noch ganz gut, wo man sagen müßte: Dieses Übermass lässt eine Montage nicht zu. Dann kriecht Kunststoff noch unter Belastung . Also bleibt teilweise nur Augenmaß und Erfahrung für sinnvolle Auslegungen.

    Zu guter Letzt sind Fertigungstoleranzen noch vom Typ des Kunststoffes abhängig (Wasseraufnahme, Nachschwindung etc.)

    Ich denke, der richtige Weg ist, sich hier einmal mit den Qualitätern in Vebindung zu setzen und vielleicht gibt es Ansätze, welche einfach nur nicht angewendet werden. Es werden manchmal wahrscheinlich aber einfach Tools benutzt, ohne vorab sich aufdrängende Fragen zu stellen.

    Mal sehen, wie es weitergeht. Das Thema beschäftigt mich seit geraumer Zeit fast täglich.

    Danke nochmals und ein schönes WE

    Andreas

    xcurit
    Mitglied
    Beitragsanzahl: 10

    Hallo Andreas

    Habe auch schon ähnliche Probleme gehabt allerdings bei der Extrusion. Einfacher ist es halt z.B. bei spanende Fertigungsprozessen! Trotzdem geht es nach meiner Erfahrung auch bei Kunststoffprozessen. Wie schon gesagt wäre es sinnvoll mal bei der Fertigung dabei zu sein und vorallem beim Prüfen. Wenn die Streuung gleichbleibend gut ist, ist das schonmal ein sehr gutes Zeichen. Dann ist die Wahrscheinlichkeit gross, dass es etwas systematisches ist. Hast du mal die Rohmaterialchargen verglichen wenn du unterschiedliche Cmk hast? Wie sieht es aus mit der Zeit nach Fertigstellung des Teils und dem Messen. Also systematische Abweichung wegen Abkühlung. Wird automatisiert gemessen oder mit Bedienereinfluss? MSA? Parameter mal vergleichen wenn die Cmk so unterschiedlich sind evtl lässt sich hier eine systematik ablesen.

    Folgende Fragen haben mir geholfen um alles besser zu Verstehen und nötige Verbesserungen einzuleiten.
    Verändert sich „nur“ die Lage oder auch die Streuung? (weisst Du ja schon. Wäre die Streuung ständig änders fände ich es problematischer)
    Sind die Messungen sicher? MSA? VDA5?
    Rochmaterialchargen mit eingebunden in die Betrachtung?
    DOE, um die einfulssreichsten Parameter zu dedektieren durchgeführt?

    Gruss
    Xcurit

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo und Danke für die Denkansätze!

    Da wir Anfang nächsten Jahres ein zweitägigen workshop haben, werde ich versuchen, das Ganze etwas aufzubereiten! Meines Erachtens ist es wichtig, dass wir hier wirklich nicht nur die Untersuchungen durchführen, sondern die Ergebnisse auch interpretieren. Und aus Deinen Anregungen entstehen da schon einige Ansatzpunkte:

    1. Die bisherigen Ergebnisse sind normalverteilt, die Prozeßstreuung sehr eng, und der cm Wert ist hervorragend. Das sagt doch eigentlich, dass der Prozess beherrschbar ist!

    2. Der cmk-Wert ist nicht konstant. Würde nur der Einfluss einer nicht ganz korrekten Schwindungsauslegung im Werkzeug bestehem, dann dürfte dieser nicht so stark schwanken.

    3. Was mir jetzt auch aufgefallen ist: Wir haben bei vielen ähnlichen Teilen und ähnlichen Nennwerten nebst Toleranz ein Spektrum von cm – Werten von 2 bis 7. Das erscheint mir auch etwas weit gefasst!

    4. Bleiben Einflüsse, welche es näher zu untersuchen gilt:
    – Wurde die Maschinen vielleicht doch gewechselt (Kappaprobleme)?
    – Wurde vielleicht die Zykluszeit herabgesetzt um mehr Durchsatz pro Zeiteinheit zu erreichen?
    – Chargenprobleme, d.h. wie verhalten sich chargenabhängige Schwindungen (vom Lieferanten vorgegeben und toleranzbehaftet)
    – wichtig auch MSA´s!
    – DOE wurde durchgeführt!
    – Wann werden Messungen durchgeführt? Geschieht dies zeitnah oder auch wieder aus Kapazitätsproblemen nach längerem Liegen der Teile?

    Ich denke, diese Problematiken sollte man näher untersuchen, um nicht nur die Ergebnisse hinnehmen zu müssen sondern auch, um sie zu verstehen!

    Danke nochmals! Vielleicht eine Frage noch:

    Ich bin, wie bereits geschrieben, Entwickler. Gibt es vielleicht gute, praxisnahe und für Quereinsteiger verständliche Literatur? Danke nochmals!

    Mit freundlichen Grüßen

    Andreas

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Andreas,

    es ist schwieriger, Spritzguss-Prozesse stabil genug zu bekommen als andere Prozesse. Das liegt teilweise daran, dass die Rohstoff-Eigenschaften einen starken Effekt haben können, der manchmal durch veränderte Maschinen-Einstellungen kompensiert wird – und manchmal nicht. xcurit hat aus meiner Sicht dazu einige sehr wichtige Punkte aufgelistet.

    Bevor es an den Prozess geht, muss zunächst sichergestellt sein, dass die Schwankungen nicht durch unterschiedliches Messen entstehen. Im schlimmsten Fall sind die Prozess-Ergebnisse superstabil und nur die Messwerte unterschiedlich. Deshalb ist eine MSA vor der Prozessfähigkeit Pflicht.

    Als nächstes geht es darum zu prüfen, ob der Prozess stabil ist. Wenn es keine starken Einflüsse im Prozess gibt, schwanken die Werte zufällig um einen mittleren Wert und sind damit normalverteilt. Du könntest also einfach Deine gesammelten Messwerte auf Normalverteilung prüfen und Dir mal den zeitlichen Verlauf in einer Urwertkarte anschauen.

    Da Du schon gesehen hast, dass die Mittelwerte unterschiedlich sind, werden die Einzelmesswerte vermutlich nicht normalverteilt sein und auf der Urwert- bzw. Einzelwert-Karte wird es diverse rote Punkte geben, die systematische Prozess-Veränderungen anzeigen.

    Eine andere Möglichkeit zu prüfen, ob der Prozess stabil ist, läuft über die Mittelwerte. Wenn die Messwerte aus einem stabilen Prozess stammen, sind die Mittelwerte der Stichprobengruppen (z. B. pro Batch, pro Tag, pro Schicht) normalverteilt, egal wie die Verteilung der Einzelmesswerte aussieht (zentraler Grenzwertsatz). Du kannst also hingehen und die Mittelwerte auf Normalverteilung testen. Hilfreich ist auch hier eine Qualitätsregelkarte für die Mittelwerte (xquer-Karte), weil damit zeitliche Veränderungen anschaulicher werden.

    Wenn die Mittelwerte auch nicht normalverteilt sind, ist Dein Prozess instabil. Das gilt auch bei deutlichen systematischen Verläufen oder Mustern in der Xquer-Karte.

    Unabhängig davon, ob die Mittelwerte normalverteilt sind, kannst Du die Streuung je Teilgruppe prüfen. Dafür würde ich eine Standardabweichungs-Karte (S-Karte) nehmen. Du kannst auch gleich eine xquer-S-Karte machen (=Kombination von xquer- und S-Karte in einer Grafik), dann hast Du beide Informationen auf einen Rutsch.

    Vermutlich wirst Du feststellen, dass der Prozess nicht stabil ist. Um hier mit den einfachen statistischen Verfahren wie Berechnung der Prozessfähigkeit über MIttelwert und Standardabweichung weiterzukommen, muss der Prozess erst stabilisiert werden. Dabei können z. B. statistische Versuchsplanungs-Methoden (DoE) helfen, beispielsweise bei der Frage mit welchen Maschinen-Einstellungen der Effekt durch unterschiedliche Rohstoff-Qualitäten aufgefangen werden kann, damit am Ende immer das Gleiche herauskommt.

    Wenn der Prozess dann verstanden und stabilisiert ist, sind die Messwerte normalverteilt und die Toleranzrechnung liefert zuverlässige Werte, mit denen ausreichend hohe Fähigkeiten erreicht werden. (Ich kenne Firmen, die das bei Spritzguss-Prozessen hinkriegen. Es ist halt einfach mit Aufwand verbunden.)

    quote:


    Ursprünglich veröffentlicht von Frank Hergt

    Ich glaube, daß die Anzahl der Prozesse auf dieser Welt, die Dir wirklich ein über Zeit stabiles, normalverteiltes, nur noch zufällig rauschendes Ergebnis liefern, in extrem engen Grenzen hält. Und von daher hält sich meine Meinung zu den ach so beliebten Kennwerten in ähnlich engen Grenzen.


    Du hast so Recht, Frank! Die meisten Firmen kümmert es überhaupt nicht, ob ihre Prozesse irgendwie stabil sind, Hauptsache die Kennzahlen sehen schick aus. Sobald die Werte zu klein sind, gibt es hektischen Aktionismus oder die Daten werden „bereinigt“. Die wenigsten Firmen schauen sich wirklich die Prozesse an, deshalb bin ich auch immer sehr skeptisch, wenn alles an Fähigkeits-Kennzahlen gemessen werden soll.

    Diese heutige Situation ist wirklich schade, denn die Statistik würde – richtig angewandt – helfen, die Prozessqualität zu verbessern. Dafür muss allerdings auch die Bereitschaft vorhanden sein, bei entsprechenden Anzeichen für nicht-stabile Prozesse wirklich etwas verändern zu wollen. Ein bisschen Ergebnis-Kosmetik bringt da nix und widerspricht auch den Ideen, die hinter den statistischen Methoden stehen.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Andreas,

    da hast Du gerade was geschrieben, als ich meine Antwort schrieb [:)]

    quote:


    Ursprünglich veröffentlicht von 19dreas70

    1. Die bisherigen Ergebnisse sind normalverteilt, die Prozeßstreuung sehr eng, und der cm Wert ist hervorragend. Das sagt doch eigentlich, dass der Prozess beherrschbar ist!


    Was genau ist normalverteilt? Alle Werte zusammen oder „nur“ die einzelnen Werte je Gruppe?

    Der Cm-Wert vergleicht nur die Streuung mit der Toleranzbreite. Ob Deine Messwerte überhaupt in der Toleranz liegen, dazu sagt der Cm nichts aus. Insofern ist ein hoher Cm-Wert ein guter Anfang. Ob der Prozess tatsächlich fähig ist, kann nur der Cmk-Wert beurteilen, weil er neben der Streuung auch die Lage bewertet.

    quote:


    Ursprünglich veröffentlicht von 19dreas70

    2. Der cmk-Wert ist nicht konstant. Würde nur der Einfluss einer nicht ganz korrekten Schwindungsauslegung im Werkzeug bestehem, dann dürfte dieser nicht so stark schwanken.


    Wie viel Schwankung ist denn da drin? Hast Du Dir mal angeschaut, ob sich die Vertrauensbereiche der Cmk-Werte überschneiden?

    quote:


    Ursprünglich veröffentlicht von 19dreas70

    4. Bleiben Einflüsse, welche es näher zu untersuchen gilt:
    – Wurde die Maschinen vielleicht doch gewechselt (Kappaprobleme)?
    – Wurde vielleicht die Zykluszeit herabgesetzt um mehr Durchsatz pro Zeiteinheit zu erreichen?
    – Chargenprobleme, d.h. wie verhalten sich chargenabhängige Schwindungen (vom Lieferanten vorgegeben und toleranzbehaftet)
    – wichtig auch MSA´s!
    – DOE wurde durchgeführt!
    – Wann werden Messungen durchgeführt? Geschieht dies zeitnah oder auch wieder aus Kapazitätsproblemen nach längerem Liegen der Teile?


    Alles sehr wichtige Punkte! Hoffentlich kommst Du auch an Daten dazu ran, damit Du prüfen kannst, wo der Hund tatsächlich begraben liegt.

    quote:


    Ursprünglich veröffentlicht von 19dreas70

    Ich bin, wie bereits geschrieben, Entwickler. Gibt es vielleicht gute, praxisnahe und für Quereinsteiger verständliche Literatur? Danke nochmals!


    Zu welchen Themen hättest Du gerne Literatur und wie viel Formeln sollten oder dürfen da maximal drin sein?

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Frank_Hergt
    Teilnehmer
    Beitragsanzahl: 1530

    Hallo Andreas!

    Noch mal: Vergiß‘ zuerst alle Daten, alle Workshops und GEH‘ HIN!!! Rede mit den Leuten. Denen die messen und denen an der Maschine (falls es sich da um unterschiedliche Subsets handelt ;-) Nur vor Ort erfährst Du die Wahrheit. Und oft sind die echten Probleme und ihre Ursachen so trivial, daß man weder ein Studium noch Barbara braucht, um sie zu verstehen. Sie schaffen es nur nicht durch die Stille Post.

    Schöne Grüße

    Frank

    „and pray that there’s intelligent life somewhere up in space,
    ‚cause there’s bugger all down here on earth!“ (Monty Pythons / Galaxy Song)

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Barbara, hallo Frank,

    Danke für die Antworten. Was mir sehr gut gefallen hat, sind die Darstellungen von Barbara, wie man instabile Prozesse erkennbar werden. Ganz wertvoll für mich als Entwickler, denn ich möchte da nicht nur hinnehmen sondern auch verstehen.

    Zur den Fragen:

    „Was ist normalverteilt?“: Es wurden 125 Messwerte ermittelt und diese sind nach qstat – Auswertung normalverteilt. Mehr Daten habe ich nicht zur Verfügung bekommen.

    „Wie ist die Schwankungsbreite des cmK?“: Der cmK tendierte gegen eine untere Toleranzgrenze und lag unter 1,67. Nach nochmaliger Analyse der Spezifikationsgrenzen war es möglich, diese anzugleichen, so dass ein Wert von ca. 3 errechnet werden konnte. Die erneute Bemusterung ergab, dass die Messungen jetzt einen cpK Wert von unter 1,67 ergaben, welche allerdings die obere Spezifikationsgrenze betrafen, was den Prozesseigner dahingehend bewegte, die Toleranz grundsätzlich als nicht herstellbar einzuordnen. Das Ganze mit der Forderung verbunden, diese jetzt nach oben zu öffnen. Der obere cpk war hingegen in der ersten Bemusterung weit weg von 1,67.

    Dabei habe ich mir die Frage gestellt, was diese Untersuchung für einen Nährwert hat, wenn diese ganz offensichtlich nicht zu statistisch belastbaren Ergebnissen führt?

    Der Hinweis mit den schicken Ergebnissen und den Umgang mit diesen Werkzeugen bzw. deren Ergebnissem … . Genauso sieht es leider aus [:)].

    Zum Thema Literatur: Wie gesagt ich bin Entwickler, würde mich aber gerne in diese Sachen weiterbilden, da dies immer mehr bei uns zum Thema wird und weil mich die Sache interssiert und auch Spass macht. Vielleicht gibt es eine Art Einsteigerliteratur? Da ich in Mathematik eigentlich fit bin, wäre es sogar schön, wenn manches nicht nur verbal sondern auch mathematisch bewiesen werden würde!

    Danke nochmals !

    Liebe Grüße

    Andreas

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Andreas,

    gerne [:)]

    quote:


    Ursprünglich veröffentlicht von 19dreas70

    „Was ist normalverteilt?“: Es wurden 125 Messwerte ermittelt und diese sind nach qstat – Auswertung normalverteilt. Mehr Daten habe ich nicht zur Verfügung bekommen.


    125 Messwerte sind ja schon mal ein Anfang. Ich nehme an, Du hast mit diesen Werten die erste Toleranzermittlung gemacht? Wie sieht denn das Ergebnis der Normalverteilungsprüfung aus, wenn Du diese 125 Messwerte mit denen zusammenbringst, die nachher einen zu niedrigen Cmk-Wert hatten? Sind diese Gesamt-Messdaten dann immer noch normalverteilt? (Ich vermute nicht, weil es einen deutlichen Effekt zwischen den Messreihen gibt.)

    Tests auf Normalverteilung
    Bei der Frage nach der Normalverteilung geht es u. a. um die verwendete Testmethode. Davon gibt es eine ganze Menge und die werden in der Statistik hinsichtlich ihrer Qualität unterschieden. Ein guter Test erkennt möglichst früh, wenn es Abweichungen von der Normalverteilung gibt (hohe Trennschärfe). Ein schlechter Test auf Normalverteilung ist dagegen sehr unscharf und gibt erst bei sehr starken Abweichungen von der Normalverteilung ein entsprechendes Signal.

    gute Tests auf Normalverteilung: z. B. Anderson-Darling, Shapiro-Wilk/Shapiro-Francia, Ryan Joiner
    schlechte Tests auf Normalverteilung: z. B. Chi^2-Test auf Verteilung, Kolmogorov-Smirnov/KS

    Etwas anschaulicher ist der Vergleich der Test-Qualität mit verschiedenen Messmitteln für die Aufnahme von mm-Messwerten:

    • Chi^2-Test auf Verteilung = Schätzeisen mit Kerben
    • Kolmogorov-Smirnov = Lineal mit mm-Einteilung
    • Anderson-Darling = kalibrierter digitaler Messschieber mit 3 Nachkommastellen

    Perfekt ist natürlich kein Test, genauso wenig wie es ein perfekt genaues Messmittel gibt.

    Nachzulesen ist das z. B. in:
    Gross, Jürgen (2004). A Normal Distribution Course.
    Peter Lang AG. ISBN 9783631529348.

    quote:


    Ursprünglich veröffentlicht von 19dreas70

    „Wie ist die Schwankungsbreite des cmK?“: Der cmK tendierte gegen eine untere Toleranzgrenze und lag unter 1,67. Nach nochmaliger Analyse der Spezifikationsgrenzen war es möglich, diese anzugleichen, so dass ein Wert von ca. 3 errechnet werden konnte. Die erneute Bemusterung ergab, dass die Messungen jetzt einen cpK Wert von unter 1,67 ergaben, welche allerdings die obere Spezifikationsgrenze betrafen, was den Prozesseigner dahingehend bewegte, die Toleranz grundsätzlich als nicht herstellbar einzuordnen. Das Ganze mit der Forderung verbunden, diese jetzt nach oben zu öffnen. Der obere cpk war hingegen in der ersten Bemusterung weit weg von 1,67.


    Und wenn Ihr das ganze noch drei mal wiederholt, werdet Ihr vermutlich noch mindestens zwei Mal die Toleranzgrenzen anpassen müssen, weil der Cmk-Wert lustig durch die Gegend wandert. Klar hat der Prozesseigner Recht, wenn er sagt, dass die Toleranz im aktuellen Prozess nicht zuverlässig eingehalten werden kann.

    Es wäre allerdings aus meiner Erfahrung ein Irrtum anzunehmen, dass das ein grundsätzliches Problem von Spritzguss-Prozessen ist. Stell Dir einfach mal vor, wie viele kritische Kunststoff-Teile es im Medizinbereich gibt, bei denen die Abmessungen auch stimmen müssen (z. B. Spritzen, Kanülen). Wenn da die Werte ständig chaotisch durch die Gegend hüpfen würden, wäre das extrem unschön.

    Die sehr viel wahrscheinlichere Ursache für nicht-stabile Prozesse sind Veränderungen im Prozess, die bewusst oder unbewusst vorgenommen werden. Darauf hat ja auch schon Frank hingewiesen. Und natürlich hat er auch Recht wenn er sagt, dass es meistens schon deutlich weiterhilft, mit den Menschen zu reden und darüber die Ursachen für die schwankenden Messwerte zu finden und im nächsten Schritt abzustellen.

    Wenn die Fronten zwischen Entwicklung und Produktion verhärtet und offene Gespräche kaum möglich sind oder wenn Meetings zu endlosen und fruchtlosen Plauderstunden geworden sind, können statistische Methoden Hinweise auf Einflüsse und Veränderungen geben. Es gibt immer eine oder mehrere Gründe für Prozessveränderungen. Kein Prozess hüpft einfach so von einem Wertebereich zum nächsten und (mögliche) Ursachen für die Messwertveränderungen lassen sich sehr häufig in den Messdaten finden, wenn neben dem Messwert auch die Parameter für den Prozess (von Restfeuchte bis Flanschtemperatur inklusive möglicher Störgrößen wie Luftfeuchtigkeit und Raumtemperatur) mit aufgenommen wurden. Dann kann z. B. mit DoE-Methoden oder der Auswertung vorhandener Prozessdaten Licht in die Prozess Black-Box gebracht werden.

    quote:


    Ursprünglich veröffentlicht von 19dreas70

    Dabei habe ich mir die Frage gestellt, was diese Untersuchung für einen Nährwert hat, wenn diese ganz offensichtlich nicht zu statistisch belastbaren Ergebnissen führt?


    Das ist wie Essen im amerikanischen Spezialitäten-Restaurant. Zuerst hast Du das Gefühl pappsatt zu sein und nach einer halben Stunde ist der Hunger wieder da. Sprich: Die Papiertiger sind erstmal beruhigt, wenn irgendwo Toleranzen mit einem hohen berechneten Cmk stehen. Das Brüllen geht kurz darauf wieder los, wenn die neuen Messwerte aus der Produktion die Erwartungen verfehlen.

    Ich finde diese Papiertiger-Fütterung ziemlich anstrengend. Leider wird am Ende oft behauptet, die Statistik sei schuld an dem entstandenen Chaos. Das ist ungefähr so richtig wie die Aussage, dass eine Kettensäge immer ein Mordwerkzeug ist.

    quote:


    Ursprünglich veröffentlicht von 19dreas70

    Zum Thema Literatur: Wie gesagt ich bin Entwickler, würde mich aber gerne in diese Sachen weiterbilden, da dies immer mehr bei uns zum Thema wird und weil mich die Sache interssiert und auch Spass macht. Vielleicht gibt es eine Art Einsteigerliteratur? Da ich in Mathematik eigentlich fit bin, wäre es sogar schön, wenn manches nicht nur verbal sondern auch mathematisch bewiesen werden würde!


    Ein Buch in dem ALLES steht, gibt es nicht, denn das hätte vermutlich mehr als 1000 Seiten [;)] Es gibt einige brauchbare Einstiegsbücher und dann noch für viele Methoden Vertiefungsbücher mit Beweisen.

    Für die statistischen Grundlagen finde ich folgendes ganz brauchbar:
    Fahrmeir, L.; Künstler, R.; Pigeot, I.; Tutz, G. [2012]: Statistik. Der Weg zur Datenanalyse.
    7. Auflage, 2. Druck, Springer Verlag, ISBN 9783642019388

    Als Einstieg in das Thema Prozessvalidierung mit statistischen Methoden gefällt mir:
    Bläsing, J. (Hrsg.); Reuter, K. [2005]: Workbook Validierung von Prozessen und Produkten. Ausgewählte Methoden und Verfahren.
    erhältlich über den TQU-Eigenverlag http://www.tqu-verlag.de

    Auf meiner Internetseite gibt es noch ein paar mehr Buch-Empfehlungen zu unterschiedlichen Themenbereichen: http://www.bb-sbl.de/linksliteratur/literatur.html
    Wenn Du Dich für etwas Spezielles interessierst, sag einfach Bescheid.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Barbara,

    danke nochmals für die ausführliche Beantwortung zum Thema. Ob die zweite Untersuchung auch normalverteilt war??

    Das muß ich echt prüfen. Das erste Ergebnis kam als qstat Ausdruck und das zweite Ergebnis wurde mir tatsächlich nur über eine Mail mitgeteilt … ohne entsprechendes Dokument sondern nur in Prosa! Das lasse ich mir nochmal zukommen.

    Ich werden nächste Woche einmal in der Stadt in eine gute Buchhandlung mit den empfohlenen Einkaufszettel gehen. Mal sehen, ob die Bücher verfügbar sind und ob ich das als „quereinsteigender Entwickler“ auch verstehe. [:)]

    Ich bin mir sicher, dass es der Papiertiger viele gibt. Ich erinnere mich an Analysen, wo Spezifikationsgrenzen funktionsbedingt gleich sein müssen aber diese über mehre Baugrößen hinweg untersucht wurden. Das Ganze wurde auf einer Folie dargestellt und dann kamen die unterschiedlichsten Verteilungsfunktionen heraus und diese lagen an unteren und oberen Toleranzgrenzen. Im Unterschied zu dem geschilderten Kunststofffall, wurde aber nur eine Analyse pro Baugröße durchgeführt. Es wurden also (bis jetzt) keine Folgeuntersuchungen durchgeführt.

    Fazit, wenn ich eine einheitliche Spezifikationsgrenze aufgrund der „Addition“ aller Verteilungen festlegen müßte, dann würde ich von meinen Chef gelyncht werden. Das mit der Addition ist vielleicht besser so beschrieben: Ich untersuche in einer PFU alle Größen gleichzeitig.

    Das sind alles Fälle, wo die Statistik sehr hilfreich ist, denn das zeigt, dass man über diese Größen nicht einfach das Verfahren 1:1 übernehmen kann, sondern das hier von Größe zu Größe die Prozesse untersucht werden müßten, damit Alles zusammenpasst.

    Ein Beispiel (weit hergeholt)

    Ich habe eine kleine und eine riesige Scheibe Brot, welche ich in der tolerierten Zeit X mit Butter bestreichen muß. Als Werkzeug (Anlage) steht mir ein für die kleine Scheibe Brot ausgelegtes Messer zur Verfügung. Dann lege ich los und einer Stoppt das Prozessziel Zeit. Jetzt wird herauskommen, dass ich mit dem gleichen Messer 125 kleine Brote in der tolerierten Zeit schaffe … für 125 große Scheiben brauche ich sehr viel länger.

    Das ist das Ergebnis und jetzt könnte der Prozeßeigner sagen:

    Die Zeit ist zu eng toleriert und das mit den kleinen Messer erwähnt er nicht.
    Würde ich die Scheiben Brot nicht selbst geschmiert haben, dann glaube ich ihn das dann auch auf Anhieb. „Das scheint also nicht machbar zu sein“

    Der bequeme Weg ist sicher, eine tolerierte Größe zu erweitern als auch einmal auf den Prozess zu schauen, denn die Auswertung sagt eigentlich, der Prozeß muss angepasst oder untersucht werden ( das mit den kleinen Messer, was übersetzt die gleiche Anlage ist) funktioniert nicht. Entweder ich erhöhe meine Taktfrequenz oder ich nehme ein größeres Messer.

    Oh ich glaube, dass ist dann wirklich arg konstruiert. Na ja! Aber so ähnlich sehen die Konflikte teilweise im realen Leben wirklich aus.

    Danke nochmals

    Viele Grüße

    Andreas

    Stefan741
    Mitglied
    Beitragsanzahl: 46

    quote:


    Ursprünglich veröffentlicht von 19dreas70

    Fazit, wenn ich eine einheitliche Spezifikationsgrenze aufgrund der „Addition“ aller Verteilungen festlegen müßte, dann würde ich von meinen Chef gelyncht werden.


    Es kommt darauf an, wie man die Verteilungen addiert. Wenn man die einzelnen Verteilungen oder Toleranzen einfach 1 +1 addiert, und davon eine Gesamttoleranz ableitet, wird letztere größer sein als nötig. Vielleicht erfüllt das gefertigte Produkt damit die geplante Funktion zumindest theoretisch nicht mehr.

    Besser ist, sich anzuschauen, was wie addiert werden sollte. Man kann manches quadratisch addieren, anderes muss vielleicht 1:1 addiert werden.

Ansicht von 14 Beiträgen – 1 bis 14 (von insgesamt 14)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben