Verfasste Forenbeiträge

Ansicht von 4 Beiträgen – 61 bis 64 (von insgesamt 64)
  • Autor
    Beiträge
  • Fritz
    Mitglied
    Beitragsanzahl: 66

    Hallo X-Tilde
    allen kritischen Beiträgen zum Trotz, hast Du die Methode von Clements auf einen Deiner Datensätzen angewendet und werden diese Kennwerte vom gesunden Menschenverstand bestätigt?
    Würde mich interessieren, wie Du diese Methode beurteilst.

    Hallo Barbara
    wir sind uns bei unterschiedlichen Fragestellungen in unterschiedlichen Foren schon begegnet. Ich schätze Deinen Sachverstand und bin mir sicher, dass ich noch vieles lernen kann. Darum muss ich an dieser Stelle Deine Aussagen etwas hinterfragen:
    Du schreibst, dass Schiefe und Wölbung zwei Kenngrößen, darstellen, die von den Statistikern nicht sonderlich geschätzt sind. Ich habe mich, als Autodidakt, bei der Fragestellung nach einer Modelanpassung in der Literatur auf den Weg gemacht, um mathematisch abgesicherte Verfahren kennen zu lernen. Ich fand
    a) die Gleichungssysteme von PEARSON
    b) die Transformationsmethode nach JOHNSON.
    Jedes dieser Systeme basieren auf diesen beiden Formkenngrößen. Daraus schließe ich, dass sie so schlecht nicht sein können.
    (auch QS-STAT bietet diese beiden Systeme an; ich frage mich warum?)
    Ich geb Dir natürlich Recht, wenn Du schreibst, dass im Idealfall das Prozesswissen das Verteilungsmodel vorgibt. Du weißt aber zu gut, dass z.B. nur dann die Normalverteilung beobachtet wird, wenn viele gleichgewichtige Streuquellen auf eine Zielgröße einwirken. Ist jedoch die Gewichtung nur weniger dieser Streuquellen dominant, dann war´s das schon, mit der Normalverteilung. (Ich vielen Fällen wird man mit dieser leicht schiefen Verteilungsform leben müssen siehe auch [Kaiser / Nowack 1999 Nur scheinbar stabil, QZ 44 S 761) . Bei Perason, wie auch bei Johnson kein Problem, denn die Normalverteilung ist ein Sonderfall vieler Möglichkeiten.
    Gerade bei Null-begrenzten Merkmalen würde ich die Log-Normalverteilung (auch eine Element der Johnsonmethode) a priori nicht ausschliessen, weil sie in meinem Erfahrungsbereich das Geschehen realer Prozesse sehr gut nachbildete. Natürlich kann auch die Betragsverteilung (1 und 2)gute Ergebnisse liefern. Der Versuch, komplexe Zusammenhänge modellhaft zu beschreiben wird immer eine mehr oder weniger gute Annäherung an die Realität darstellen.
    Noch eine Frage: Kennst Du die Methode von Clements und deren Validierung im praktischen Gebrauch?
    Gruß aus Ulm
    Fritz
    P.S. Ich glaube, Deine Antwort auf den Beitrag vom qualyman trifft den Tatbestand nicht richtig. Wenn ich´s richtig sehe, meint er, ob ein Fähigkeitskennwert für eine obere Grenze von 125 mm möglich ist. Natürlich qualyman, durch den Cpk-Wert für diese Grenze.

    Fritz
    Mitglied
    Beitragsanzahl: 66

    Hallo swissair
    Du suchst, wie ich vermute, ein Excel Sheet, in das Du Meßwerte eintragen kannst und das Dich dann über statistische Kenngrößen dieser Datenreihe informiert. Im letzten Punkt mußt Du schon deutlicher werden, wenn Dir geholfen werden so.
    Gruß von der schönen blauen Donau
    Fritz

    Fritz
    Mitglied
    Beitragsanzahl: 66

    Hallo X-Tilde
    diese berechtigte Frage stellen sich immer wieder Leute und das ist gut so, denn in diesem Bereich hat die Statistik sehr oft die Funktion eines Feigenblattes, mit dem man Blösen zu verdecken sucht.
    Hier ein pragmatischer Lösungsansatz.
    In der Zeitschrift Quality Progress (Sept. 1989) S. 95-100 veröffentlichte John Clements einen Aufsatz mit dem Titel :
    >Process Capability for Non-Normal Distributions<
    Er beschreibt schiefe Verteilungsformen mit der standardisierten Pearson – Verteilungsfamilie. Dadurch wird es möglich, mittels Mittelwert, Standardabweichung und den Formkenngrößen Schiefe und Wölbung die bisher so oft erwähnten Quantile zu berechnen. Schiefe und Wölbung werden dazu verwendet, um aus (im Aufsatz abgedruckte) Tabellen Multiplikatoren für die Standardabweichung zu bestimmen. Hier muß etwas aufgepaßt werden, denn in diesem Artikel wird davon ausgegangen, dass die Normalverteilung die kurtosis = 0 besitzt, ich aber auch Programme kennen, die für die Normalverteilung eine Wölbung von 3 ausgeben. Also zuerst mit einem Referenzdatensatz testen.
    Ein abgedrucktes Anwendungsbeispiel sollte die letzten Fragen klären.
    Mit dieser Methode kannst Du jedenfalls Kennwerte bestimmen, die es mit anderen Vorkennensweisen zu vergleichen gilt. Über die Güte dieser Methode wissen vielleicht die Spezialisten in diesem Forum Bescheid.
    Eine Kopie des Aufsatzes findest Du in Deinem Postfach.
    Gruß von der schönen blauen Donau
    Fritz

    Für Normalverteilung lauten die Formeln

    cp = Gesamttoleranz/6s
    cpk = ((Gesamttoleranz/2)-abs(xq))/3s

    Wie sind eigentlich die Formeln für cp/cpk bei nullbegrenzten Merkmalen (z.B. Rundheit)?

    Fritz
    Mitglied
    Beitragsanzahl: 66
    als Antwort auf: QS-Stat MMF Verfahren 1 #33740

    Hallo QM-Junkie
    ich glaube, ich kann Dir eine Hilfe anbieten.
    Dein Dickentaster stammt, so wie es aussieht von einem seriösen Hersteller, der die Anzeige, sprich Auflösung auf die innere Streuung des Messgerätes angepasst hat. Der Gerätefehler beträgt dann typisch +/- ein Digit.
    Mit Verfahren 1 wird die Richtigkeit der Anzeige und die Wiederholbarkeit (Präzision) eines Meßgerätes analysiert. Wiederholbedingungen sind gleicher Ort, gleicher Bediener, in kurzer Zeit, das gleich Objekt. Da die systematische Abweichung (Richtigkeit) der Anzeige mit ermittelt werden soll, muß das Objekt ein Normal oder Einstellmeister sein.
    Die Meßreihe wird dann zum Mittelwert und der Standardabweichung verdichtet. Die Mittelwertsabweichung von Zielmaß des Normals informiert über die Richtigkeit der Anzeige. Die 6Standardabweichungen stellen das Grundrauschen des Meßverfahrens dar und stehen für die Wiederholbarkeit.
    Fähig ist ein Prozess dann, wenn >Wollen< und >Können< aufeinander abgestimmt sind. Die Unzulänglichkeiten des Meßmittels sollte nicht größer als 20% der Zeichnungstoleranz sein, dann spricht man von vernachlässigbaren Abweichungen.
    Wenn nun Deine Meßwerte nicht streuen, was jederzeit vorkommen kann, dann gibt es bei Verfahren 1 ein Problem, denn das Prüfmittel scheint keine meßtechnische Unzulänglichkeit zu besitzen.
    Dies kannst Du folgendermaßen lösen.
    Nehmen wir an, Du mißt ein 20 mm Endmaß. Die Meßwertanzeige 20,00 kann jederzeit ein Merkmalsausprägung repräsentieren, die 20,003 aber auch 19,997 sein kann. Beide Zustände werden intern auf 20,00 gerundet. Das Streuen findet also in einem Bereich statt, der nicht zur Anzeige gelangt. Die einzige Information über diese Streuung ist der Gestalt, daß der Anzeigewert im Bereich +/- 0,005mm unsicher ist. Diese Mindestunsicherheit kann man nun über die Rechteckverteilung in eine Standardabweichung überführen. (siehe auch VDA 5) Smin = 0,005(mm)*0,577 = 0,0029 (mm)
    Man findet oft auch einen Wert, der annähernd doppelt so groß ist, weil diese Problematik auch beim >NULLEN< des Meßgerätes präsent ist.(Die Anzeige ist ja immer die Differenz zweier Ablesungen. Nur weil wir glauben, die eine Ablesung sei immer Null, vergessen wir diese Tatsache. Unsere Null ist aber genauso, wie die Ablesung mit Normal, unsicher.)
    Somit sollte dieses Problem befriedigend gelöst sein, denn jetzt mußt Du nichtmehr durch Null teilen, auch wenn die Meßreihe nicht streut.
    Diese Betrachtungsweise ist umso wichtiger, je geringer die Auflösung eines Meßssystems ist. Messen wir z.B. ein Endmass mit einem Meßschieber, der nur ganze Millimeter anzeigt, dann werden wir mit größter Wahrscheinlichkeit die Streuung >NULL< beobachten. Das dieser Meßschieber keine >unendliche Fähigkeit< besitzt, leuchtet jederman ein.
    Warum dieser Fall bei QS-Stat nicht abgefangen wird, weiß ich nicht. Frag doch bei den Herren Dietrich & Schulze mal nach.

    Verfahren 2 beschäftigt sich dann speziell mit dem Meßverfahren vor Ort, also Vergleichsbedingungen. (unterschiedliche Werker, unterschiedliche Zeiten, verändertes Umfeld, Werkstücke) Die Zufallsstreuung (repeatablity) geht dann natürlich nach oben. Dazu kommt dann noch eine Streukomponente, die auf die Schichten zurück zu führen ist (reproduciblity). Beide werden nach dem quadratischen Fehlerfortpflanzungsgestzt addiert, das gibt dann die Kenngröße R&R.

    Gruß von der schönen blauen Donau
    Fritz
    [

Ansicht von 4 Beiträgen – 61 bis 64 (von insgesamt 64)