Fähigkeiten2006-07-27T15:33:29+01:00

QM-Forum Foren Qualitätsmanagement Fähigkeiten

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 22)
  • Autor
    Beiträge
  • JUCarsten
    Mitglied
    Beitragsanzahl: 7

    Wie stellt Ihr Fähigkeiten von merkmalen fest, bei denen nur ein Minimalwert vorgegeben ist. Z.B. Mindestrauhheit 20ym.

    Kann ich die Normalverteilung verwenden und nur bei der Berechnung die obere Toleranzgrenze weglassen, oder gibt es galantere Methoden.

    Danke schon mal Carsten

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo JUCarsten,

    Fähigkeiten bei einseitig tolerierten Merkmalen kannst Du nur über den Cpk-Index (in Deinem Fall Cpku) abbilden.

    Die Abschä*tzungen zum ppm funktionieren allerdings *nur* bei normalverteilten Messwerten. Eine elegantere Methode um nachzuweisen, wie viele niO-Teile produziert werden, kenne ich nicht.

    Wichtig ist natürlich, dass Euer Mess-System gut funktioniert (-> MSA).

    Ansonsten such hier mal im Forum nach „Normalverteilung“ „Einseitige Fähigkeiten“ und ähnlichen Schlagworten; das hatten wir hier nämlich schon ziemlich oft.

    Viele Grüße

    Barbara

    _____________________________________

    Fakten hören nicht auf zu existieren, wenn man sie absichtlich übersieht.
    (Aldous Huxley)

    Fritz
    Mitglied
    Beitragsanzahl: 66

    Hallo zusammen!
    @ JUCarsten:
    Wenn die Werte normalverteilt sind, geht das mit Cpku, wie Barbara schreibt. Bei Merkmalen, die natürlich begrenzt sind, wie die Rauheit, beobachtet man aber häufig eine schiefe Verteilung und dann wird´s komplizierter. Einen Test auf NV solltest Du also auf jeden Fall machen.

    @ Barbara:
    Du schreibst, dass die ppm´s nur bei NV zu berechnen seinen – oder hab ich das nicht richtig verstanden?
    Die Transformationsmethodik nach Johnson basiert auf dem Ansatz, dass alle eingipfligen Verteilungen durch geschickte Transformation zur NV zurück zu führen sind. Mit drei Transformationssystemen, nämlich System bounded, System unbounded und als Übergangsmodell zwischen diesen beiden Systemen die Log-NV gelingt es, (fast) jeden eingipfligen Datensatz, als NV darzustellen. Ich poste Euch mal ein Beispiel, bei dem sehr schön zu sehen ist, dass die Summenhäufigkeit, wenn geschickt >verzerrt< sprich transformiert, im WA-Netz einer Geraden folgen. (Regressionskoeffizient!)
    Somit lässt sich, wenn die Geradengleichung bekannt, der Schnittpunkt zwischen dieser Geraden und jedem beliebigen X-Wert berechnen. Die Y-Ordinate entspricht der Standard-Normalverteilungsvariablen u die ja fest mit den Flächenanteilen gekoppelt ist.
    Somit lassen sich nach dieser Methode angepasste und realitätsnahe Fähigkeitskennwerte berechnen. Weiterhin ist ein Abschätzen des niO-Anteils möglich.

    Gruß von der schönen blauen Donau
    Fritz

    __________________________________________________________
    Null Fehler ist >OUT< – Null Streuung ist >IN<!

    IsoMan
    Mitglied
    Beitragsanzahl: 421

    Hallo Fritz,

    wäre auch an dem Beispiel interessiert.

    IsoMan (I_Klein@gmx.de)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Fritz,

    also:
    Du kannst selbstverständlich mit jeder Verteilung die ppms abschätzen, wenn Du die Verteilung kennst.

    Warum sollte das Ganze also normalverteilt sein?
    Stell Dir vor, Du hast ein stabiles System, z. B. einen Zuckerstreuer, durch den Zucker auf einen Tisch rieselt. Es ergibt sich automatisch ein Haufen, der symmetrisch um die Mitte ist. Wenn Du einen Querschnitt des Zuckerhaufens anschaust, sieht das einer Normalverteilung ähnlich (wenn genug Zucker durchgegangen ist, d. h. der Stichprobenumfang groß genug ist).

    Auf Statistik-Deutsch heißt das:
    Stabiles System ohne systematische Einflüsse
    -> Werte streuen zufällig um Mittelwert
    -> Normalverteilung ergibt sich automatisch
    (Der Beweis dazu steht beim Zentralen Grenzwertsatz und geht vom Prinzip her so, dass Du bei Werten, die alle aus derselben Verteilung stammen und deshalb insbesondere denselben Erwartungswert und dieselbe Varianz haben (stabiles System!) automatisch bei der Normalverteilung landest.)

    Der Zentrale Grenzwertsatz (ZGWS oder CLT / Central Limit Theorem) wird vor allem auf Mittelwerte von Stichprobengruppen angewendet. Wenn die Messwerte aus einem stabilen Prozess-System stammen sind die Stichproben-Mittelwerte normalverteilt, ganz egal, wie die ursprüngliche Verteilung aussah. Einzige Bedingung: Der Prozess läuft stabil.

    Nun stellen wir uns mal die übliche Situation vor: Die dusseligen Messwerte (bzw. die Mittelwerte der Stichprobengruppen) sind nicht normalverteilt (was natürlich mit einem guten Test auf Normalverteilung geprüft wurde und grafisch bestätigt worden ist). Was nun?

    1. Möglichkeit:
    Transformieren, z. B. mit Johnson oder Box-Cox oder was auch immer. Anschließend sind die transformierten Messwerte normalverteilt und die ppm-Abschätzung möglich.

    2. Möglichkeit:
    Automatische Verteilungssuche, d. h. eine Software sucht die am besten passende Verteilung zu den Messwerten. Auch dann ist über die „bekannte“ bzw. identifizierte Verteilung eine ppm-Abschätzung möglich.

    Ist doch prima, oder?
    Nee, ist es eben nicht!

    Denn was Du dann absolut nicht weißt ist, *warum* die (Mittelwerte der) Messwerte nicht normalverteilt sind. Dafür muss es ja schließlich einen Grund geben! Da Du diesen Grund so nicht entdecken kannst, weißt Du auch nicht, wie lange Dein System noch stabil ist, was Dein System so ticken lässt, wie es tickt oder was in den nächsten Wochen und Monaten noch alles an lustigen Überraschungen auf Dich wartet. Insbesondere bei zeitabhängigen Strukturen ist eine Transformation oder Verteilungssuche aus statistischer Sicht Datenquälerei, die Dir keine auch nur halbwegs sichere ppm-Abschä*tzung erlaubt.

    Also gibt es noch
    3. Möglichkeit
    Aufbau eines statistischen Prozess-Modells mit Identifikation der relevanten Einflüsse *und* vor allem mit einer Untersuchung (Modell-Validierung), ob alle wichtigen Einflüsse gefunden worden sind oder es weitere noch nicht kontrollierte gibt, die einen entscheidenden Einfluss auf das Prozess-Ergebnis haben.

    Erst wenn Du ein gutes statistisches Prozess-Modell hast, kannst Du a) eine ppm-Aussage machen, die zeitstabil ist und hast b) eine Absicherung, wie genau Deine ppm-Schä*tzung auch in Zukunft ist (Streuung & Prognoseintervall).

    Ein statistisches Modell ist ein funktionaler Zusammenhang zwischen Einflussgrößen X (Druck, Material-Art, etc.) und Zielgrößen Y (Prozess-Ergebnis, z. B. Gewicht, Lufteinschlüsse vorhanden/nicht vorhanden, etc.):
    Y = f(X)

    Bei *einer* variablen Einflussgröße X (z. B. Temperatur) und *einer* variablen Zielgröße Y (z. B. Länge) ergibt sich ein Modell für die Ausgleichsgerade:
    Y = b0 + b1*X
    (heißt dann in der Statistik einfaches lineares Regressionsmodell).

    Bei *einer* attributiven Einflussgröße (z. B. Korngröße klein/mittel/groß) und *einer* variablen Zielgröße (z. B. Bruchfestigkeit) ergibt sich ein ANOVA-Modell (Varianzanalyse-Modell, Streuungszerlegung wie bei einer MSA).

    Und so gibt es für alle möglichen Kombinationen von Einfluss- und Zielgrößen unterschiedliche statistische Modelle, die alle dieselben Ergebnisse liefern, nämlich Antworten auf die Fragen:
    1. Welche Einflussgrößen X sind wichtig für die Werte der Zielgröße Y?
    2. Sind alle wichtigen Einflussgrößen im Modell enthalten oder fehlen welche?
    3. Gibt es wichtige Wechselwirkungen zwischen den Einflussgrößen?
    4. Wie groß ist die Grundstreuung im Prozess?
    5. Wie viel erklärt das statistische Modell (prozentualer Anteil R²)?
    6. Gibt es zeitabhängige Strukturen?
    7. Wo wird das Prozess-Ergebnis, d. h. die Werte für die Zielgröße Y, bei einer bestimmten Einstellung der Einflussgrößen liegen?
    8. Wie sollten die Einflussgrößen eingestellt werden, damit ein optimales Prozess-Ergebnis erreicht wird?

    Ein statistisches Modell zu entwickeln, geht übrigens ziemlich schnell (auch für Nicht-Statistiker), wenn man weiß, wie es geht. Selbst bei vielen Einflussgrößen dauert es nicht länger als 2 h ein Modell aufzubauen, die wichtigen Einflussgrößen X zu finden, Wechselwirkungen zu identifizieren und das Modell zu validieren (sprich zu schauen, wie gut das Modell ist und ob noch wichtige Einflussgrößen X fehlen).

    Viele Grüße

    Barbara

    _____________________________________

    Fakten hören nicht auf zu existieren, wenn man sie absichtlich übersieht.
    (Aldous Huxley)

    Fritz
    Mitglied
    Beitragsanzahl: 66

    Hallo Barbara
    bei aller Liebe zum Zentralen Grenzwertsatz; in der Praxis beobachtet man auch bei >stabilen< Prozessen ein Merkmalstreuen, dass nun eben nicht normalverteilt ist. Gerade bei einseitig begrenzten Merkmalen, bei denen man in der Masse einer natürlichen Grenze sehr nahe kommt, ist dies nicht selten der Fall.
    Zeig doch bitte mal das statistische Modell für Rauheitswerte bzw. Rundlaufabweichungen auf. Ich bin überzeugt, Du würdest das Interesse einer großen Leserschaft auf Dich ziehen.
    Ich bin überzeugt, dass bei Prozessen, die nahe am Optimum gefahren werden, sehr viel Gehirnschmalz verbraten wurde, bis man diesen Zustand erreicht hat, sprich, bis man die Steuergrößen qualitativ und quantitativ im Griff hat. Dies möchte man dann auch durch adäquate Fähigkeitskennwerte dem Kunden weitergeben.
    Ich bin mit Dir einer Meinung, dass das Modellieren von Verteilungen auf Grund von wenigen (<50) Beobachtungen und das anschließende Ableiten von ppm´s totaler Schwachsinn ist.
    Leider hat in vielen Unternehmen die Statistik bestenfalls eine Alibifunktion. Arbeiten wir daran, dass sich dies ändert.
    Gruß von der schönen blauen Donau
    Fritz

    __________________________________________________________
    Null Fehler ist >OUT< – Null Streuung ist >IN<!

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Fritz,

    dass die Statistik häufig Alibi-Funktion hat, weiß ich doch. Andererseits zeigt meine Zahl von Postings hier, dass viele gerne verstehen würden, warum sie das auf eine bestimmte Art machen sollen und wann welche statistische Methode eingesetzt wird.

    Also zum Inhalt:
    Der Zentrale Grenzwertsatz ist genauso ein mathematisch richtiger Satz wie der Satz des Pythargoras (das mit dem rechten Winkel und den Seitenlängen). Ob ich den nun mag oder nicht, spielt keine Rolle. Wichtig ist, dass unter bestimmten Voraussetzungen (stabiler Prozess) ein bestimmtes Ergebnis (normalverteilte Mittelwerte) herauskommt. (Im Umkehrschluss heißt das, wenn keine Normalverteilung vorliegt, ist der Prozess nicht stabil.)

    Dann gibt es noch den gesunden Menschenverstand (GMV). Wenn ich einen stabilen Prozess habe, dann müssten da Messwerte rauskommen, die um einen Wert streuen (um den Mittelwert).

    Wenn ich ZGWS und GMV zusammennehme und mit meinen Messwerten vergleiche, gibt es zwei Möglichkeiten:
    1. Messwerte normalverteilt.
    2. Messwerte nicht normalverteilt.

    Bei 1. bin ich dann fertig und kann die ppms berechnen, bei 2. stellt sich mir die Frage, warum das so ist. Es muss irgend einen (oder mehrere) systematische, wichtige Einflussgrößen X geben, die dazu führen, dass die Schlussfolgerung „Mittelwerte normalverteilt“ nicht funktioniert.

    Solange ich diese Einflussgrößen nicht identifiziert habe, läuft der Prozess – wenn ich Glück habe – stabil, nur kann ich wegen meiner zu schmalen Wissensbasis nicht sagen, wann sich das ändert.

    Ich kann allerdings Vermutungen darüber anstellen, warum es Abweichungen von der Normalverteilung gibt bzw. welche systematischen Einflussgrößen wirken könnten. Und genau die werden dann mit statistischen Modellen untersucht, einmal unter dem Aspekt, ob sie tatsächlich einen wichtigen Einfluss haben, und zum anderen, wie groß ihr Einfluss ist.

    Ich kann Dir gerne etwas zu statistischen Modellen für Rauheiten sagen, wenn Du mir verrätst, welche Einflussgrößen da für Dich eine Rolle spielen und welches Messniveau diese Einflussgrößen haben.

    Viele Grüße

    Barbara

    _____________________________________

    Fakten hören nicht auf zu existieren, wenn man sie absichtlich übersieht.
    (Aldous Huxley)

    Harm
    Mitglied
    Beitragsanzahl: 412

    @Fritz, @Barbara

    macht weiter, allmählich wird es spannend ;-))

    IsoMan
    Mitglied
    Beitragsanzahl: 421

    @Barbara, @Fritz,

    schliesse mich dem Kommentar von Harm an! Wenn ihr so weitermacht, dann kommen wir irgendwann dahin, den Sinn/Unsinn von Statistik in der Produktion zu hinterfragen und damit endlich auf ein sinnvolles Level runterzuschrauben (wobei man zwischen Batch-/Teilefertigung und Kontifertigung nochmals unterscheiden muss).

    IsoMan

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    @Harm, @IsoMan:
    immer wieder gerne :-)

    @ IsoMan:
    Das mit dem Unterschied zwischen Batch-Fertigung und kontinuierlicher Fertigung ist klar und selbstverständlich kannst Du das auch entsprechend modellieren, z. B. indem Du die Einflussgröße „Batch“ als variablen Effekt (random effect) mitnimmst.

    Bei der Modellierung siehst Du dann, ob „Batch“ einen wichtigen Einfluss hat und wie groß dieser Einfluss ist. Damit hast Du dann eine gute Grundlage, um z. B. auszurechnen welche finanziellen Unterschiede durch schwan*kende Batch-Qualitäten entstehen.

    Viele Grüße

    Barbara

    _____________________________________

    Fakten hören nicht auf zu existieren, wenn man sie absichtlich übersieht.
    (Aldous Huxley)

    Fritz
    Mitglied
    Beitragsanzahl: 66

    Hallo zusammen
    ein abschließendes Statement meinerseits zu diesem Thema.
    Frage an Radio Eriwan: >Stimmt es, dass bei Tätigkeiten, die man Prozesse nennt, alle Steuerparameter bekannt und die Endergebnisse, sprich Merkmalsausprägungen vorhersagbar sind? <
    Antwort von Radio Eriwan: > Im Prinzip ja, es kommt nur darauf an, was du unter „ALLE“ verstehst! <
    Fakt ist, dass z.Zt. Prozesse akzeptiert werden (müssen), bei denen die wichtigsten Parameter bekannt sind und deren Streuen über einen längeren Zeitraum modellhaft vorhersagbar ist. Dies ist unter anderem die Basis für DIN 55319:2002-03 > Qualitätsfähigkeitskenngrößen <. Dieser Zustand ist zweifelsohne nicht befriedigend, aber die Norm stellt einen Rahmen bereit, der : „..für die praktische Arbeit eine brauchbare und handhabbare Hilfe sein kann. „
    Weiterhin steht in Kap. 1 Anwendungsbereich: „… um die Qualitätsfähigkeit eines Prozesses in Hinblick auf ein betrachtetes Produktmerkmal abschätzen zu können.“
    Es wird also nicht der Anspruch erhoben, ein für allemal und für alle Ewigkeit die ppm´s vorhersagen zu wollen, sondern der Versuch unternommen, „..die qualitativ definierte Qualitätsfähigkeit anhand der erwähnten Kenngrößen quantitativ auszudrücken.“
    IsoMan erwähnt die CONTI-Fertigung, die Gummiherstellung, einen Industriezweig, bei dem die Merkmaleigenschaft stark von den Eigenschaften des Rohmaterials abhängig ist. Diese Eigenschaften von Rohstoffen lassen sich aber nicht immer im gewünschten Maß beeinflussen. Viele Unternehmen sind froh, wenn es überhaupt genügend Rohmaterial auf dem Weltmarkt einkaufen können. Diese äußeren Streuungsquellen sind nur ein Beispiel, auf das praxisnahe Statistik eine Antwort liefern muß.
    Die in DIN 55319 beschriebenen 8 Verteilungsmodelle sind bestenfalls Ersatzbilder dessen, was in der Realität beobachtet wird.
    Das Ende der Fahnenstange bei diesen Bemühungen ist die Forderung Barbaras, Prozesse so zu beschreiben, dass die Streuung eines jeden Merkmals (wenigstens theoretisch) nur noch vom zufallsbedingten Grundrauschen der einzelnen Steuergrößen abhängig ist. In wie weit diese Erkenntnisse dann technisch umsetzbar sind, steht auf einem anderen Blatt.
    Für mich ist dies der Punkt am Horizont, auf den wir unsere Aktivitäten ausrichten müssen, ob und wie nahe wir ihm kommen, hängt wiederum von vielen Faktoren ab. Beispiele dafür, dass er erreichbar ist, kennt sicherlich jeder aus seinem Umfeld; das sind im Regelfall die Prozesse, mit denen gutes Geld zu verdienen ist.

    @IsoMan
    Je seltener wir die Einzelteile auf dem Weg vom Hersteller zum Endprodukt in die Hand nehmen wollen, umso intensiver müssen wir uns um die produktbegleitende Information kümmern. Um da keinen Schiffbruch zu erleiden, brauchen wir in Zukunft vermehrt betriebsübergreifend wahrheitsgetreues (Stichwort: MSA, Messunsicherheit) , aktuelles Zahlenmaterial. Mit dem Werkzeug >Statistik< können wir diese Mosaiksteinchen zu einem Bild zusammenfügen, das uns das Wesentliche zeigt. Das Dilemma guter fertigungsnaher Statistik liegt heut sicherlich noch daran, dass sie nichts kosten sollte.(Es scheint, viele Führungskräfte haben kein Vertrauen in die Statistik und sie wollen auch nicht, dass sich daran was ändert!) Ich vertreten schon lange den Standpunkt, dass ein bisschen Statistik viel gefährlicher ist als keine Statistik. Z.Zt. zahlen alle den Preis für oft zweifelhafte Statistik. So bewegen sich die Schwellwerte für die Fähigkeitskennwerte in solch schwindelerregenden Höhen, dass einerseits durch den so geschaffenen Puffer viel statistischer Blödsinn abgefangen wird, andererseits die Kosten für das massenhafte Anheben auf diesen Qualitätslevel eine exponentiale Kostensteigung mit sich bringt.
    Also, Q-Leute, schaut mal, wie ihr das auf die Reihe bringt!
    Investieren wir doch besser in
    a) Werkzeuge, die dem >Nichtstatistiker< helfen, seine Prozesse besser zu verstehen und korrigierbare von nicht korrigierbarer Streuung zu trennen.
    b) Fachleute, die es gelernt haben, neue bzw. schwierige Prozesse datenfundiert zu analysieren und modellhaft zu beschreiben
    c) ein Bewusstsein in unseren Köpfen, dass Streuung der Feind Nummer 1 bezüglich gleichbleibender Qualität ist und die Bereitschaft, dagegen anzukämpfen.

    Gruß von der schönen blauen Donau
    Fritz

    __________________________________________________________
    Null Fehler ist >OUT< – Null Streuung ist >IN<!

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Fritz und alle anderen Interessierten,

    also so wild sind statistische Modelle auch nicht, dass sie nicht jeder verstehen kann. (Da ist es im Steuersystem wirklich undurchschaubarer und ja, ich habe einen Steuerberater, obwohl ich doppelte Buchführung kann.)

    In Deutschland werden in sehr vielen Bereichen statistische Modelle angewendet. In der Medizin wird geprüft, ob Medikament A eine bessere Wirkung als Medikament B hat. In der Marktforschung wird geschaut, nach welchen Kriterien Verbraucher bestimmte Produkte kaufen (hat Werbung einen Einfluss? welche Verpackung spricht die Käufer an? mit welchen Vertragsbedingungen bekommt man am meisten Handy-Kunden? -> s. z. B. die Base-Aktion von E-Plus.) In der Versicherungswelt wird geprüft, wie hoch das Risiko für einen Unfall bei Fahrern ist (berücksichtigt werden z. B. Alter, Fahrerfahrung, usw.)

    All das sind statistische Modelle, die in Deutschland angewendet werden. Nur in der Industrie kriege ich immer wieder zu hören, dass sei viel zu kompliziert, um es anwenden zu können.

    Und es kann doch nicht sein, dass außerhalb von Deutschland in sämtlichen englischsprachigen Ländern in der Industrie statistische Modelle bekannt sind und genutzt werden – und bei uns sind die zu schwer zu verstehen, um angewendet zu werden. Es kann nicht sein, dass im asiatischen Raum Versuchsplanung seit Jahrzehnten gemacht wird (auch eine Form der statistischen Modellierung) – und hier sind die Menschen zu blöd, um das zu begreifen. Das stimmt doch einfach nicht.

    Wir verwenden jeden Tag statistische Modelle ohne uns darüber bewusst zu sein. Die Frage z. B., wann ich morgens aufstehen muss, um pünktlich in der Firma zu sein, ist nichts anderes als ein statistisches Modell, bei dem die Einflussgrößen „Zeit für Aufwachen“ „Zeit für Dusche / Bad“ „Zeit für Frühstück“, „Zeitung lesen: ja/nein“ und „Zeit für Arbeitsweg“ zusammen eine Zeitspanne ergeben, mit der ich mir ausrechnen kann, wann ich aufstehen muss, um zu einer bestimmten Uhrzeit am Schreibtisch zu sitzen.

    Sicherlich gibt es bei jedem einzelnen Baustein Streuungen (vielleicht brauch im Montags etwas länger zum Aufwachen, weil die Nächte am Wochenende kurz waren), und dennoch wissen wir alle, wann wir aufstehen müssen.

    Also arbeitet JedeR von uns mit statistischen Modellen. Nur ist das kaum jemandem bewusst – und genau da fehlen die Informationen.

    Die Berechnung ist eine andere Sache; dafür muss ich ein bisschen mehr wissen bzw. eine Software anwenden können. Die Formeln brauch ich dafür allerdings weder anzuschauen noch zu verstehen. (Die Formeln sind in der Tat etwas sperrig.)

    Genauso wenig wie ich mich mit der Auswahl des richtigen Stahls für einen eines Hammers beschäftigen muss, um einen Nagel in die Wand zu kriegen, genauso wenig muss ich mich mit den Formeln herumschlagen, um statistische Modelle anwenden zu können.

    In den DIN-Normen sehe ich leider sehr, sehr viele Ansätze, bei denen die Ersteller nicht gewusst haben, was sie da aus statistischer Sicht eigentlich tun. Sehr oft ist das, was da vorgestellt wird viel, viel komplizierter, als ein statistisches Modell. Und ich hab da schon lange drüber gebrütet und geflucht, weil das a) oft unsinnig und b) oft viel zu kompliziert vom Weg ist und c) viel zu wenig anschaulich erklärt ist.

    Wenn Ihr Euch anschaut, wie oft den Menschen hier das Verständnis dafür fehlt, warum sie bestimmte statistische Methoden machen sollen oder eben nicht, dann läuft das für mich immer wieder auf eine und dieselbe Schlussfolgerung hinaus: Die Menschen haben zu wenig verständliche Informationen darüber, warum was wie in der Statistik gemacht wird. Die sind bestimmt genauso schlau wie der Rest der Menschheit auf diesem Planeten, nur müssen sie sich mit deutschen Normen plagen und da haben die anderen einen echten Vorteil.

    Ich hab oben schon die acht Vorteile beschrieben, die eine statistische Modellierung von Prozessen gegenüber den üblicherweise angewendeten Verfahren wie MSA mit Excel-Sheets oder lustige Transformationen von Verteilungen bzw. Messwerten haben.

    Also lasst uns doch endlich davon aufhören, dass statistische Modelle zu kompliziert sind, um sie zu verstehen. Und lasst uns auch damit aufhören, dass die Anwendung von statistischen Modellen keinerlei Vorteile bringt.

    Wer heute noch Prozess-Potential zu verschenken hat, der mag sich das leisten können. Für alle anderen wird es Zeit, sich mit statistischen Modellen zu beschäftigen, damit sie wirklich weiter kommen und die Prozess echt stabil und optimiert ablaufen.

    Viele Grüße

    Barbara

    _____________________________________

    Fakten hören nicht auf zu existieren, wenn man sie absichtlich übersieht.
    (Aldous Huxley)

    IsoMan
    Mitglied
    Beitragsanzahl: 421

    Hallo Barbara, Hallo Fritz,

    Statistik und deutsche Unternehmen, ja das ist ein heikles Thema. Ich beispielsweise habe bisher fast nur negative Erfahrungen machen dürfen – leider insbes. bei den Automobilzulieferern, die uns auditiert haben und teilweise wirklich unsinnige Forderungen hinsichtlich Prozessfähigkeiten aufstellen wollten/haben.
    Daher in meinem vorherigen Posting die Trennung von Batch- zu kontinuierlicher Fertigung. Das sind wirklich unterschiedliche Dinge, insbes. wenn du chem. Prozesse hast, die nicht nur von sehr inhomogenen Vorstoffen sondern auch von inhomogenen Prozeßteilergebnissen abhängen. Da hat es ein Batchfertiger doch schon einfacher.
    Wenn ich dann von den mich auditierenden Leuten höre, warum wendet ihr nicht das Programmpaket x oder y an (kostet nur viel Geld) damit geht alles wie von allein, dann frage ich mich, ob da wohl genügend Sachverstand vorhanden ist, um das zu beurteilen.
    @Barbara
    Du hast natürlich Recht mit der Aussage, dass die Normen ein sehr überfrachtetes Papierwerk sind, welches dem Anwender eher Barrieren aufbaut als dass es ihm einen schnellen Einstieg gibt.
    In diesem Zusammenhang kann ich nur sagen, es gab einmal (1995) ein sehr gutes Statistikseminar der DGQ über SPC für chem. Prozesse, abgehalten von einem Praktiker, der wusste worauf es ankommt. Ob es dieses Seminar jetzt noch gibt, ist mir leider nicht bekannt. Aber solche Veranstaltungen sind für den Anwender Gold wert – nur es gibt leider zu wenig davon.

    IsoMan

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo IsoMan und Ihr anderen,

    Fähigkeiten und andere Anforderungen werden leider oft mit wenig Sachverstand aufgestellt werden (wie wir hier ja schon häufig gelesen haben). Und natürlich gibt es keine eierlegenden Wollmilchsauen, die statistische Methoden per Knopfdruck abbilden und schwupps läuft alles prima.

    Das Wichtigste bei der Anwendung von Statistik ist und bleibt der gesunde Menschenverstand. Den kann einfach keine Maschine oder Software ersetzen (auch wenn das häufiger mal behauptet wird).

    Interessant wird es doch dann, wenn der gesunde Menschenverstand und das Ergebnis aus den Messwerten nicht zueinander passen, womit wir da wieder bei der Frage nach dem „Warum“ sind. Um diese Frage zu beantworten gibt es ein mächtiges Hilfsmittel: die statistischen Modelle.

    Selbstverständlich sind statistische Modelle keine „one size fits all“-Geschichten. In verschiedenen Situationen (Batch- vs. kontinuierliche Fertigung) sind natürlich auch unterschiedliche statistische Modelle passend. Der grundsätzliche Ansatz bleibt dabei immer der gleiche: Zielgrößen werden durch eine Funktion von Einflussgrößen bestimmt.

    Bedauerlicherweise haben die meisten Menschen diese Grundlagen nicht mitgekriegt, sondern wurden allenfalls mal im Studium mit Formeln für den Mittelwert und Standardabweichung gequält. Auch deshalb gibt es in Deutschland zu wenig Basiswissen, welche statistischen Methoden wann sinnvoll sind.

    Apropos Automobil-Industrie: Vor knapp 30 Jahren wurde in Dortmund der Fachbereich Statistik aufgemacht. Die Professoren haben in der Industrie nachgefragt, an welchen Stellen Bedarf für Statistiker gesehen wird. Die Aussage eines großen deutschen Automobilbauers war: „Statistiker brauchen wir hier nicht, jetzt nicht und auch in Zukunft niemals.“ Mittlerweile arbeiten auch da Statistiker ;-)

    Viele Grüße

    Barbara

    _____________________________________

    Fakten hören nicht auf zu existieren, wenn man sie absichtlich übersieht.
    (Aldous Huxley)

    JUCarsten
    Mitglied
    Beitragsanzahl: 7

    Oh man, ich war ein paar Tage im Urlaub und stelle fest, dass sich um meine Frage doch die Gemüter ziemlich erhitzt haben. Eigentlich wollte ich erfahren, ob es einfache und akzeptable Metohden gibt für einseitig begrenze Merkmale Fähigkeiten darzustellen ohne zu sehr in die Tiefe der Statistik einsteigen zu müssen. Ich bedanke mich sehr bei den Autoren, die Diskussion war auf jeden Fall sehr aufschlussreich.

    Viele Grüße von Carsten

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 22)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben