jenseits von cpk-Berechnung2006-06-15T11:17:56+01:00

QM-Forum Foren Qualitätsmanagement jenseits von cpk-Berechnung

Ansicht von 8 Beiträgen – 1 bis 8 (von insgesamt 8)
  • Autor
    Beiträge
  • QMine
    Mitglied
    Beitragsanzahl: 3

    Hallo.

    Ich habe bei in einem Fertigungsbereich eines Automobilzulieferers die Aufgabe, die Qualitätsregelkarten, die derzeit auf Papier erfasst und später in QS STAT erfasst werden, auf eine sofortige elektronische Erfassung mit Procella umzustellen und damit den Zeitaufwand für den Werker zu senken.
    Die Einführung soll möglichst wenig kosten. Organisatorische Änderungen sind nicht angedacht.

    In der Produktion werden im Moment idR einmal pro Schicht 5 SPC-Teile an der jeweiligen MAschine entnommen und gemessen. Da die übrigen Teile idR gleich an der nächsten Stationen weiterbearbeitet oder mit anderen Teilen gepaart werden, ist es nicht möglich:
    – die Teile wieder dort einzuschleusen, wo sie entnommen wurden sind (FIF0?)
    – bei Messungen außer Toleranz genau die Teile herauszufinden, bis zu denen theoretisch 100% zurückverlesen werden muss
    Teilweise werden, wenn 1 Teil außer Toleranz(!) ist, im Moment AQL-Tests angewendet mit 14 oder 60 Stichproben. Oder es wird einfach soweit zurückverlesen, bis man keine schlechten Teile mehr findet.

    Von meinem Standpunkt aus als Studentin mit wenig Praxiserfahrung, ist dieses Vorgehen sehr fragwürdig.

    Ich würde gern wissen, wie die Stichprobenhäufigkeit und die Verleseaktionen definiert werden sollten.Es werden pro Fertigungslinie i.d.R. im 3-Schicht-System 4000 Einzelteile gefertigt, teilweise eingelagert und später montiert. Bei der Montage selbst gibt es auch noch mal Maß- und Funktionsprüfungen.

    Marco444
    Teilnehmer
    Beitragsanzahl: 221

    Hallo QMine,

    4000 Teile in drei Schichten bedeutet je Schicht etwa 1300 Stück je Schicht.
    Ihr macht eine Kontrolle mit 5 Teilen
    nachdem 1000 Teile gefertigt wurden.
    Jetzt stellt Ihr einen Fehler fest und könnt nicht bestimmen seit wann die Maschine Fehler gefertigt hat.
    Auch bei deiner AQL Prüfung von 16 oder 60 Stück verbleiben sicherlich noch fehlerhafte
    Teile im Los.
    Der Prüfaufwand solange aussortieren bis keine Fehler mehr gefunden werden ist auch Zeitaufwendig.
    Wie oft passiert sowas bei Euch?

    Mein Vorschlag:
    1. Sorge für einen Vorlauf von 1300 Stück.
    Das bedeutet evtl. Maschine
    mal am Samstag oder Sonntag laufen lassen.
    Dadurch klaut der andere Arbeitsschritt
    keine Teile.
    2. Lege danach Prüfungen von 1,2 oder 3
    Stunden fest. So kannst du die
    produzierten Fehlerteile eingrenzen.
    3. Falls du auch noch die Produktionszeiten
    auf Behältern zwischen d. Prüfungen
    dokumentiest brauchst du evtl. nicht alle
    fehlerhaften Behälter und Teile
    kontrollieren.

    Tschüß

    QMine
    Mitglied
    Beitragsanzahl: 3

    Hallo Marco

    Danke für Deinen Tip.
    So was in der Art habe ich mir auch gedacht.
    Mit der Erhöhung der Prüfhäufigkeit und dem Einsatz von 100%-Prüfung statt AQL stoße ich wahrscheinlich nicht gerade auf Begeisterung in der Fertigung…

    QMINE

    Marco444
    Teilnehmer
    Beitragsanzahl: 221

    Hallo QMine,

    ich meinte keine 100% Prüfung, sondern
    die Prüfintervalle verkürzen.
    5 Stück je Stunde oder zwei Stunden oder nach 300 bis 400 Teilen.
    100% ist zu teuer. Aber das mußt du einschätzen können.
    5 Stück je Stunde oder nach 300 bis 400 Teilen.
    Diese Teile zwischen jeder Prüfung seperat
    stellen. Bei Feststellung eines Fehlers bei der folgenden Prüfung brauchst du nur die
    Teile kontrollieren bis zur Prüfung davor.

    Wie oft habt Ihr mit n.i.O. Teilen Probleme?
    In der Folgefertigung wird doch auch noch geprüft. Bedeutet dieser Fehler im ersten Produktionsschritt bei euch Abfall oder Nacharbeit?
    Der Kunde bekommt ja scheinbar fehlerfreie ZSB-Teile.
    Mach mal nähere Angaben.

    Tschüß

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo QMine,

    allgemein von außen lässt sich Deine Frage nicht beantworten, weil wir die Gegebenheiten und Anforderungen nur zu einem Bruchteil kennen.

    Grundsätzlich soll mit der Stichprobenprüfung eine repräsentative Aussage über die Prozess-Qualität gemacht werden. Die Sicherheit, mit der die (Wahrscheinlichkeits-)Aussage „Produktion i.O. / Produktion n.i.O.“ getroffen wird, wird über die Fehler 1. und 2. Art festgelegt (alpha und beta). Bei einer Stichprobenprüfung steht am Ende die Aussage:
    H0: Prozess hat sich nicht geändert.
    oder
    H1: Prozess hat sich signifikant geändert.

    Bei jedem Prozess ist es zuerst wichtig, die aktuelle Fähigkeit bzw. Qualitätslage zu bestimmen. Dafür nimmst Du vorhandene Daten und schaust, ob es bestimmte Muster gibt und wie hoch der zu erwartende Anteil n.i.O.-Teile ist bzw. innerhalb welcher Grenzen Messwerte normalerweise auftreten verglichen mit den vorgegebenen Anforderungen an die Teile.

    Im zweiten Schritt wird dann festgelegt, wie viele Teile für eine valide Prozess-Absicherung geprüft werden müssen (nach Formeln oder AQL-Tabellen, wobei ich von letzteren wenig halte), und wie oft bzw. in welchem Rhythmus Proben entnommen werden.

    Die Probenentnahme ist abhängig davon, wie gut der Prozess läuft (s. o.) und wie schnell eine Prozess-Veränderung entdeckt werden muss. Dafür gibt es keine Formeln. Vielmehr läuft diese Entscheidung über GMV (gesunden Menschenverstand) derjenigen, die sich mit dem Prozess auskennen, verknüpft mit dem Wissen aus der Prozess-Fähigkeit / Qualitätslage und dem Prüfaufwand.

    Danach wird der Prüfplan umgesetzt, die Ergebnisse aufgeschrieben bzw. im PC erfasst und können so später auch langfristig ausgewertet werden.

    Ganz wichtig sind konkrete Maßnahmenpläne für den Fall, dass eine Prüfung eine signifikante Prozess-Änderung anzeigt.

    Die Stichprobenprüfung ist einer Überwachung des Prozesses mit QRKs sehr ähnlich, weil auch hier das Ziel ist, eine Prozess-Änderung früh genug zu erkennen.

    Viele Grüße

    Barbara

    _____________________________________

    Fakten hören nicht auf zu existieren, wenn man sie absichtlich übersieht. (Aldous Huxley)

    QMine
    Mitglied
    Beitragsanzahl: 3

    Hallo Barbara

    SPC wird bei uns formal schon praktiziert. Meistens werden Shewart-Karten (xquer, s, feste Stichprobe) verwendet, nachdem zuvor maschinenfähigkeit, Prozessfähigkeit sowie Vorlauf gemacht wurde.

    Eine Verletzung der Stabilitätsbedingungen in der laufenden Fertigung zeigt für mich an, dass der Prozess nicht mehr beherrscht und damit auch nicht mehr vorhersagbar ist.
    (Eine Stabilitätsverletzung tritt ja nur mit einer Restwahrscheinlichkeit von 0,27% auf)

    Trotzdem wird für eine solche Stabilitätsverletzung ein Rückverlesen der zuvor produzierten Teile vom obersten QM-Koordinator/SPC-Beauftragten des Werkes (8000MA)nur dann verlangt, wenn beide Kennwerte xquer und s die Eingriffgrenzen verletzen.

    Selbst wenn ein Messwert x der Stichprobe außerhalb der Zeichnungstoleranz liegt und einer der Kennwerte (z.B. xquer) die Eingriffsgrenzen verletzt, wird nur ein AQL-Test für attributive(!) Daten durchgeführt.Dafür wird aus den vorher produzierten Teilen eine Stichprobe von n=14 oder n=60 gezogen und gemessen. Liegt keines der Teile außerhalb der Zeichnungstoleranz, wird die Ware nicht gesperrt.(Das entspricht einer Annahmewahrscheinlichkeit von Pa=90% für p=0,75% mit c=0)

    Diese Arbeitsanweisung ist sicher nicht vereinbar mit Null-Fehler-Orientierung und geringen ppm-Werten.

    Es ist aber auch nicht wirtschaftlich, im Falle von Stabilitätsverletzungen alle 1000 bereits produzierten Teile einer Schicht zu messen (z.B. Rundlauf) und zu sortieren.
    Wir haben teilweise Prozesse mit hohen cpk-Werten. Manchmal sind die Eingriffsgrenzen im Vergleich zu den Toleranzen sehr eng gezogen. Eine Sortieraktion bei Verletzung der natürlichen Prozessgrenzen ist dann sehr unpopulär.

    Ich habe also nur 2 Alternativen:
    a) wir prüfen häufiger. Im Fall von Stabilitätsverletzungen müssen dann nur noch wenige Teile sortiert werden.
    Für die häufigeren SPC-Prüfungen bräuchten wir mehr Personal
    b) Bei entdeckten Stabilitätsverletzungen eine AQL-Prüfung auf Basis variabler(!) Daten für die bereits produzierten Teile anordnen:
    Da letzlich besteht kein Unterschied zwischen einer „SPC-Annahmekarte mit toleranzbezogenen Eingriffsgrenzen“ und „AQL mit variablen Daten“ besteht, tun wir so, als ob wie den Prozess mit einer Annahmekarte bewerten würden und entscheiden so, ob wir 100% der produzierten Ware verlesen müssen oder nicht.

    Wie stark wirkt sich bei b) eine Verletzung der Normalverteiungsannahme auf die Entscheidungsfindung aus?

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo QMine,

    so viele Fragen ;-)

    Grundsätzlich ist es schwierig, statistisch abgesicherte Aussagen zu Prozessen zu machen, die nahe der Toleranzgrenzen laufen und für die nur sehr wenig Messwerte erhoben werden. 5 Teile pro Schicht ist für mich SPC im Sinne von „Show Program for Customer“, d. h. nur dann sinnvoll, wenn ein absolut fähiger Prozess überwacht wird, bei dem eine winzige Chance auf n.i.O.-Teile besteht.

    1. Wahrscheinlichkeit für Teile außerhalb der Toleranz: 0,27 %
    Das hört sich erstmal nett an. Erstens ist das nur haltbar, wenn tatsächlich normalverteilte Werte vorliegen und zweitens sind 0,27 % von Eurer Tagesproduktion 4000*0,0072 = 10,8 Teile, d. h. Ihr habt – statistisch gesehen – jeden Tag Teile, die außerhalb der 99,73 %-Grenzen liegen. Dass Ihr die dann auch in der Stichprobe findet ist höchst unwahrscheinlich, da Ihr nur 15 Teile pro Tag prüft.
    Eine Frage, die ich in diesem Zusammenhang habe: Wie oft bekommt Ihr n.i.O.-Teile bzw. Reklamationen vom Kunden? Kann es sein, dass Euer Kunde die engen Toleranzen gar nicht wirklich braucht? Denn andernfalls würd er Euch täglich einen 8D-Report ausfüllen lassen, weil jede zweite Stunde ein n.i.O.-Teil bei ihm ankommt.

    2. Stichproben-Pläne: Voraussetzungen für die Auswahl von Teilen
    Für eine abgesicherte und repräsentative Stichprobe müssen die Teile zufällig ausgewählt werden, d. h. jedes produzierte Teil *muss* die gleiche Chance haben, in der Stichprobe zu landen. Ohne die zufällige Auswahl hast Du schlimmstenfalls nicht mal ansatzweise repräsentative Daten, d. h. Du kannst dann von den Messwerten der Stichprobe nicht auf den gesamten Prozess schließen, weil nicht zufällig, sondern willkürlich ausgewählt wurde.

    3. Stichproben-Pläne: Voraussetzungen für die Fehler & Verteilung
    Wie ich schon mehrfach geschrieben habe, gibt es für Stichproben-Pläne *immer* Voraussetzungen. Auch für AQL-Pläne ist das nicht anders. Insbesondere müssen für attributive Pläne die Fehler unabhängig voneinander auftreten, was bei Verschleiß, Rundlauf, etc. nicht gegeben ist. Bei variablen Plänen müssen die Fehler nicht nur zufällig / unabhängig auftreten, die Messergebnisse müssen zusätzlich normalverteilt sein.

    4. Probleme bei AQL-Plänen
    a) AQL-Pläne nach 2859-1 (Prüfung der AQL in der Serie) haben eine Wahrscheinlichkeit für einen Fehler 2. Art (Prozess n.i.O., kein Alarm) von über 10 %, d. h. die Wahrscheinlichkeit, eine wichtige Prozess-Veschlechterung zu entdecken, liegt nur bei 90 %. In der Folge bleibt 1 von 10 wichtigen Prozess-Verschlechterungen unentdeckt.
    b) AQL-Pläne nach 2859-1 haben exakte Anweisungen, was bei schlechten Losen mit dem Prüfaufwand passiert (-> Sprunganweisungen). Diese Sprunganweisungen müssen eingehalten werden, damit überhaupt noch so etwas wie statistische Sicherheit erreicht werden kann.
    c) AQL-Pläne nach 2859-1 sind *grundsätzlich* nicht für die Planung von einzelnen Stichproben geeignet, sondern für die Serienprüfung. Wenn wie bei Euch nur dann geprüft wird, wenn etwas auffällig ist, dann müsstet Ihr die 2859-2 anwenden (LQ-Prüfung für Einzellose). Auch bei der sind extrem hohe Wahrscheinlichkeit für eine Fehl-Entscheidung (Fehler 1. und 2. Art) inklusive.

    5. Abweichung von der Normalverteilung
    a) Wenn die direkten Messwerte x nicht normalverteilt sind, aber stabil, dann ist es für eine Prozess-Sicherung sinnvoll, die wichtigen Einflussgrößen zu kennen und zu überwachen. Die Stabilität müsste sich dann zeigen, wenn Du statt der direkten Messwerte den Mittelwert von jeweils einer Prüfung (5 Teile) anschaust. Wenn die Messwerte aus einem stabilen System stammen, dann sind die Mittelwerte nach dem Zentralen Grenzwertsatz (ZGWS) normalverteilt.
    b) Anders herum heißt das, wenn die Mittelwerte der Messwerte nicht normalverteilt sind, ist das System auch nicht stabil. Und was dann passiert, kann ich Dir auch nicht sagen, denn ohne Stabilität wird jede Prognose extrem wackelig. Du weißt ja nie, was als nächstes passiert, wohin der Prozess demnächst wandert oder ob es nicht plötzlich und spontan Änderungen gibt, mit denen niemand gerechnet hat.
    Deine Frage, was sich bei der Verletzung der Normalverteilung ändert, ist ungefähr so: „Ich hab ein Auto gehabt, einen Kombi, mit dem ich immer prima Platz hatte, um den Wochenendeinkauf unterzubringen. Jetzt hab ich ein neues Auto geschenkt bekommen, dass ich aber noch nicht gesehen habe. Kann ich in meinem neuen Auto auch meine Wochenendeinkäufe gut transportieren?“ Um diese Frage zu beantworten, musst Du Dir das Auto (=die Messwerte) anschauen.

    Viele Grüße

    Barbara

    _____________________________________

    Fakten hören nicht auf zu existieren, wenn man sie absichtlich übersieht. (Aldous Huxley)

    IsoMan
    Mitglied
    Beitragsanzahl: 421

    @Barbara,
    „Ich hab ein Auto gehabt, einen Kombi, mit dem ich immer prima Platz hatte, um den Wochenendeinkauf unterzubringen. Jetzt hab ich ein neues Auto geschenkt bekommen, dass ich aber noch nicht gesehen habe. Kann ich in meinem neuen Auto auch meine Wochenendeinkäufe gut transportieren?“

    Es ist immer wieder schön, deine Vergleiche zu lesen, da macht Statistik noch mehr Spaß!

    Viel Spaß weiterhin!

    IsoMan

Ansicht von 8 Beiträgen – 1 bis 8 (von insgesamt 8)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben