QM-Forum › Foren › Qualitätsmanagement › Erweiterte Eingriffsgrenzen
-
AutorBeiträge
-
Hallo Gemeinde,
aufgrund von Chargenabhängigkeiten im Herstellungsprozess arbeiten wir mit dem Prozessmodell C4 und den „erweiterten Eingriffsgrenzen“ gemäß ISO 22514-2:2015 und AIAG Manual. Jetzt kommt ein Auditor und fragt, warum wir die klassischen Auswertemethoden wie Runs und Trends bei der Regelkarte nicht betrachten. Er entzieht sich auch der Argumentation, dass bei „Sprüngen“ des Mittelwerts (Lage) aufgrund der Chargenabhängigkeit Runs/Trends nicht aussagekräftig sind. Er möchte gerne wissen, WO es schriftlich fixiert ist, dass das Prozessmodell C4 die Betrachtung von Runs und Trends ausschließt. Ich hab nix gefunden. Kennt jemand eine Norm/Handbuch etc., auf das wir uns berufen können? Vielen Dank vorab!!!!
Hallo Nafets,
das Verteilungszeitmodell C4 gibt es in der (DIN) ISO 22514-2; die Beschreibung stand so ähnlich auch in der DIN ISO 21747. In den Stichprobengruppen sind die Werte normaleverteilt (kurzzeitige Betrachtung). Über alle Messwerte hinweg sind die Messdaten wegen Veränderung in den Mittelwerten NICHT normalverteilt sondern irgendwie anders, z. B. mehrgipflig. Das Verteilungszeitmodell C4 kann beispielsweise bei Chargen-Abhängigkeit auftreten. Der Prozess ist nicht beherrscht, weder bei C4 noch bei allen anderen Verteilungszeitmodellen außer A1 (Kurzzeit-Verteilung und Verteilung über alle Werte = Normalverteilung).
Was es allerdings weder in der ISO 22514-Reihe noch im AIAG Manual (MSA4 oder SPC2) gibt, ist eine Erwähnung vor erweiterten Eingriffsgrenzen. Diese finden sich nur und ausschließlich in den Büchern von Dietrich/Schulze (frühere Q-Das Geschäfsführer) und in ihren Software-Produkten. Zu diesem Thema gibt es hier im Forum schon einige Beiträge, z. B.
Bitte um Hilfe bei Sachverhalt instabiler Prozess
Prozessfähigkeit mit qs-STAT ja/neinIch kenne nach wie vor kein Statistik-Fachbuch oder Norm, in dem bei einem nicht-beherrschten Prozess (wie z. B. Verteilungszeitmodell C4) erweiterte Eingriffsgrenzen für die Bewertung des Prozesses verwendet. (Falls jemand da etwas hat, freue ich mich immer über eine Horizonterweitertung!)
Es gibt für diese Art der Grenzwertberechnung nicht mal eine englische Übersetzung, weil dieses Konzept einfach nicht auftaucht. In der Statistik werden solche Prozesse so untersucht:
1. Finde die Ursache für die Sprünge/Veränderungen
2. Finde eine mathematische Beschreibung für die Veränderungen
3. Prüfe, ob Du wirklich die Ursachen gefunden hast
4. Überwache den Prozess mit Berücksichtigung der mathematischen BeschreibungBei 1. ist die Chargen-Abhängigkeit eine erste Spur, nur ist das für den zweiten Punkt noch viel zu wenig. Eine Chargen-Abhängigkeit entsteht durch die Qualität oder Eigenschaften der Charge (und nicht durch die bloße Nummer oder Chargenbezeichnung selbst). Um herauszufinden, welche Qualität/Eigenschaft die Unterschiede im Prozess verursacht, werden Chargen-Qualitäten/-Eigenschaften und die mit ihnen erreichten Prozess-Ergebnisse verglichen.
quote:
Ursprünglich veröffentlicht von Nafets
Er möchte gerne wissen, WO es schriftlich fixiert ist, dass das Prozessmodell C4 die Betrachtung von Runs und Trends ausschließt. Ich hab nix gefunden. Kennt jemand eine Norm/Handbuch etc., auf das wir uns berufen können?Nein. Selbst in den Veröffentlichungen von Dietrich/Schulze wird nirgends erwähnt, dass die erweiterten Eingriffsgrenzen eine Betrachtung von Runs oder Trends ausschließt. Und da diese Autoren (nach meinem Kenntnisstand) die einzigen sind, die etwas zu erweiterten Eingriffsgrenzen schreiben, wüsste ich auch nicht, wo sonst etwas zu finden wäre.
SPC-Methoden sollen ja gerade dazu dienen, möglichst frühzeitig mitzubekommen, wenn sich im Prozess Lage, Streuung oder anderes ändert. Dafür werden u. a. auch Trends oder andere zeitliche Veränderungen betrachtet, denn wie soll sonst festgestellt werden, dass der Prozess sich geändert hat?
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Barbara,
vielen Dank! Ich bin kein Statistiker und vielleicht auch daher ein wenig verwundert über die Aussage zu den erweiterten Eingriffsgrenzen. Bei meinem 6 Sigma Lehrgang wurde dies z.B. als probates Mittel der Überwachung von instabilen Prozessen aufgeführt. Allerdings damals noch auf Basis der alten 21747. Vielleicht ist der Begriff irreführend. Gemäß alter ISO wurde hier von „ausdrücklicher Einbeziehung zusätzlicher Streuung“ gesprochen.
Zu „SPC-Methoden sollen ja gerade dazu dienen, möglichst frühzeitig mitzubekommen, wenn sich im Prozess Lage, Streuung oder anderes ändert. Dafür werden u. a. auch Trends oder andere zeitliche Veränderungen betrachtet, denn wie soll sonst festgestellt werden, dass der Prozess sich geändert hat?“
-> Logisch, dafür sind sie da….. Dies gilt bei einer Xquer/s Karte aber nur für die Betrachtung der Streuung!? Bei einem nicht beherrschtem Prozess mit chargen- oder sonstwie bedingter zufälliger Prozesslage kann ich doch für den Mittelwert bei der Feststellung eines z.B. Trends keine Aussage machen, ob dies wirklich ein Grund zum Eingreifen in den Prozess ist oder ob der Trend nur aufgrund der chargenbedingten Lageveränderung aufgetreten ist???? Es sei den, ich weiß, wann die neue Charge die Mittelwertveränderung verursacht hat. Dies ist aber bei uns nicht der Fall.Wir versuchen gerade, eine Argumentationskette für zukünftige Audits aufzubauen. Wenn wir in der Literatur nichts finden, müssen wir eben mit logischem Denken arbeiten. Ist aber bei manchen Auditoren schwierig.
Gruß
StefanServus,
ist es denn sinnvoll, bei den genannten Chargenabhängigkeiten eine durchgehende Regelkarte zu führen? Oder wäre es nicht eher zielführend, bei Chargenwechsel auch eine neue Regelkarte anzufangen..?
–Rainaari
Hallo zusammen,
bei uns in der Firma (automotive „Mittelständler“) ist das auch immer ein Thema, einmal ist es injection molding, dann wieder mal ein Mehrfachspindelprozess, dann wieder mal ein klassischer Verschleißprozess.
Wir haben sowohl Regelkarten mit erweiterten EG`s und auch jedesmal neu berechnete EG`s
Das ist von Fall zu Fall verschieden ( Einflussfaktoren hierfür sind Kundenwünsche, vorhandenes SPC-Knowhow, Länderspezifische Ansichten usw.)
Sachlich und fachlich gibt es gegen erweiterte Eingriffsgrenzen nichts zu argumentieren.
Die zusätzliche Xquer-Streuung muss berechnet werden, die EG´s einhaltbar sein und der geforderte Cpk – Wert muss erreicht werden.
Hier können dann Stabilitätskriterien wie Trend Run etc. logischerweise gar nicht zur Anwendung kommen
Das würde zudem in eine „over adjusment“ und einem Aktionismus ohne gleichen enden.
Weder Produktion noch Montage würden hier „mitspielen“, nein ich gehe sogar soweit die Akzeptanz für diese ja sinnvollen Anwendungen würde gegen NULL tendieren, mit Recht.
Klar muss man diese Diskussionen aushalten, wenn nicht wir wer dann?
Bis auf die bereits erwähnte ISO / DIN kenne ich auch nichts anderes
Aber diverse Firmen haben Richtlinien erstellt, die diese Thematik aufgreifen
Gruß BlackmanHallo Stefan und Ihr anderen,
die Methode mit den erweiterten Eingriffsgrenzen stand so auch nie in der (DIN) ISO 21747. Dort gab es eine nicht näher beschriebene Methode, mit der zusätzliche Streuung einbezogen werden sollte. Weder in der Norm noch in Statistik-Fachbüchern stand, wie genau das gemacht werden soll und ob das tatsächlich dazu führen kann, dass ein Chargen-abhängiger Prozess gut bewertet werden kann. Deshalb bin ich froh, dass dieser Teil aus der (DIN) ISO 22514-2 herausgenommen wurde.
Unter dem Strich bleibt es wie so oft logisch: Wenn ein Prozess wild herumhüpft, ist er nicht beherrscht, ganz egal, ob sich die Hüpfer auf einen Chargen-Wechsel zurückführen lassen oder nicht. In einem beherrschten Prozess ist vorher klar, was hinten rauskommt (mit einer gewissen Wahrscheinlichkeit). Das lässt sich für einen Prozess mit Sprüngen nicht hinkriegen, weil niemand vor der neuen Charge weiß, wie sich die Messwerte verändern werden. Erst wenn der Prozess so weit verstanden ist, dass VORHERSEHBAR wird, welches Ergebnis auftaucht, ist der Prozess auch beherrscht.
Ja, ich weiß, dass sich das leicht sagt und schwer in der Praxis umzusetzen ist. Deshalb gibt es ja auch so viele Menschen, die froh sind, wenn sie mit einem (scheinbar/angeblich anerkannten) Schema der erweiterten Eingriffsgrenzen einen hüpfenden Prozess „kontrollieren“ bzw. „überwachen & regeln“ können. Wenn das so eine hervorragende Methode ist, warum hat sie dann immer noch keinen Eingang in die SPC-Methoden außerhalb der Q-Das-Welt genommen?
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo Barbara,
guckst du hier: VDA Band 4 „Wirtschaftliche Prozessgestaltung und -lenkung“. Dort sind die „erweiterten Eingriffgrenzen“ beschrieben. Mir scheint, dass du dich etwas der Praxis entziehst (sorry…). Das Problem nicht nur von uns sind halbwissende Auditoren vs. gesundem Menschenverstand. Die fordern (zurecht)Regelkartentechnik für kritische Prozessmerkmale. Und dann müssen wir gucken, wie wir das sinnvoll hinbekommen. Und da wir seit über 20 Jahren mit erweiterten Eingriffgrenzen, unsinnigen cpk Berechnungen, fehlenden Run/Trend Betrachtungen etc. zu kämpfen haben, stellen wir momentan Schritt für Schritt auf eine 100% Prüfung des Prozessmerkmals um. Dann diskutieren wir auch nicht mehr über erweiterte Eingriffgrenzen…..
Hallo Stefan,
das VDA Handbuch 4 kenne ich und finde es aus fachlichen Gründen bemerkenswert. Da stehen einige fragwürdige und veraltete Sachen drin, z. B. zur Prozessfähigkeit.
Ich bewege mich im übrigen NICHT in der Theorie, sondern in der industriellen Praxis und dort sehr oft im regulierten Bereich, sprich bei den Themen, an denen Zulassungsbehörden die Entscheidung treffen, ob ein Produkt so auf den Markt kann oder nicht. Da sind die Anforderungen an saubere statistische Methoden und zuverlässige Ergebnisse hoch, weil Fehler lebensgefährlich sein können. Natürlich gibt es auch dort immer wieder Chargen-Abhängigkeiten, Werkzeug-Verschleiß oder andere systematische Einflüsse auf einen Prozess. Um das angemessen zu beschreiben und zu bewerten, kennt die Statistik entsprechende Methoden. Die sind allerdings deutlich anspruchsvoller als das, was sich in einer Norm oder einem Handbuch abbilden lässt, gerade auch weil die Einflüsse in Art und Stärke sehr unterschiedlich sind.
Wie schon gesagt: Literatur AUßERHALB der Q-Das-Welt kennt keine erweiterten Eingriffsgrenzen. (Versuch einfach mal herauszufinden, wer den Teil 4 des VDA Handbuchs mitgeschrieben hat, wirf einen Blick in die genannten Automobilhersteller und deren Werksnormen und schau in die Literaturliste, dann siehst Du, auf welcher Basis dieser Teil entstanden ist.) Wo sind die Untersuchungen dazu, wie gut die Absicherung von Prozessen mit diesen Grenzen funktioniert (Fehlalarm-Risiko, ARL / average run length)? Ich lerne wirklich gerne dazu und wenn es irgendwo saubere, unabhängige Studien dazu gäbe, wie belastbar die Prozesskontrolle mit den erweiterten Eingriffsgrenzen ist, würde ich die gerne sehen.
Auch ohne wilde Formeln ist für mich schon der erste Schritt bei den erweiterten Eingriffsgrenzen nicht nachvollziehbar: Üblicherweise decken die Shewart-Regelkartengrenzen 99,73% des Prozessbereichs ab (+/-3*S-Bereich bei Normalverteilung). Bei den erweiterten Eingriffsgrenzen ist das anders. Dort wird für die Streuung innerhalb der Stichprobengruppen der 99,73%-Bereich verwendet. Für die Streuung der Mittelwerte (z. B. Chargen-Unterschiede) wird allerdings nur der +/-1,5*S-Bereich verwendet, der nur 86,64% der Mittelwert-Streuung abdeckt. Warum sollen denn die Mittelwert-Streuung deutlich stärker eingeschränkt werden als die Streuung innerhalb der Stichprobengruppen?
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo zusammen,
Q-DAS und VDA hin oder her und okay jeder hat dazu seine Meinung ;–)
Wir berechnen unsere Eingriffsgrenzen für bestimmte (nicht alle) besondere Prozesse schon seit über 30 Jahren mit der zusätzlich Xquer Streuung.
Diese muss bekannt und beherrschbar sein, ebenso muss die Prozessfähigkeit gegeben sein und der Prozess innerhalb der EG`s laufen
Damals berechneten wir manuell, später mit Softwareunterstützung
Bis auf 1x in unserem Produktionswerk in China hatten wir nie nennenswerte Diskussionen mit Kunden oder Zertifizieren
Klar gibt es bei den statistischen Methoden eine theoretische Basis die es zu beachten gilt, aber wir brauchen auch pragmatische Lösungen.
Das sich über dieses Thema sehr viele automotive Zulieferer Gedanken gemacht haben sieht man an den vielen Diskussionen und erstellten Firmenrichtlinien
Fazit: Jeder ist seine Glückes Schmied
Gruß BlackmanHallo Blackman,
es geht mir hier NICHT um meine Meinung, sondern darum zu erklären, wie z. B. erweiterte Eingriffsgrenzen in scheinbar neutrale Handbücher des VDA kommen.
Stefan hatte ursprünglich danach gefragt, wo es Bücher, Veröffentlichungen o. Ä. zu erweiterten Eingriffsgrenzen und der Beurteilung der Regelkarten mit den erweiterten Eingriffsgrenzen gibt. Dazu habe ich geschrieben, dass ich keine neutralen Veröffentlichungen dazu kenne, die außerhalb der Q-Das-Welt sind.
Weder im Dietrich/Schulze noch im VDA Band 4 steht irgend etwas zu Runs, Trends oder anderen nicht-zufälligen Mustern bei Regelkarten mit erweiterten Eingriffsgrenzen, also bleibt meine Aussage: Ich kenne kein Statistik-Fachbuch, Veröffentlichung o. Ä., in dem diese Art von Grenzen oder das Führen von solchen Regelkarten beschrieben wird.
Da ich genauso wenig allwissend bin wie alle anderen Menschen also die Frage an Dich: Wo gibt es mehr veröffentlichte Informationen über Regelkarten mit erweiterten Eingriffsgrenzen?
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo zusammen!
Erstmal vielen Dank für die anregenden Informationen. Für mich haben sich folgende Fakten ergeben:
1. es gibt in den für den Automobilsektor geltenden Standards das Modell der „erweiterte Eingriffgrenzen“ (VDA 4)
2. es gibt (leider) kein offizielles/dokumentiertes Statement zu der Nichtbetrachtung von Runs/Trens etc. bei diesem Modell
3. Praxis und Theorie sind immer noch zwei Paar Schuhe. Die Theorie hat Größe 39 und die Praxis mit Größe 47 passt nicht hinein ;)Also halte ich es wie „Blackman“: Eigene Regel erstellen und das Glück selber schmieden.
Danke nochmal!
Gruß,
StefanHallo zusammen,
habe alles noch mal Revue passieren lassen und komme zu folgender Erkenntnis:
Alles was hier geschrieben wurde ist richtig.
1. Es gibt keine ISO / EN oder DIN für diesen Sachverhalt, bzw. nur bedingt
2. Im automotive Umfeld gibt es viele Quellen auch außerhalb der Q-DAS Welt für dieses Thema
(die älteste mir bekannte ist z.B. die FORD Richtlinie Eu880B von 1985)
3. Q-DAS wirkt hier wie ein Katalysator, hat sich dem Thema angenähert, Lösungen bereitgestellt und trifft damit anscheinend den Nerv der Branche.
Natürlich findet sich die Q-DAS Philosophie im VDA Band 4, und nicht nur dort !!!
Jetzt bleibt es dem Anwender überlassen die für seinen Anwendungsfall richtige Entscheidung zu treffen
Gruß BlackmanHallo,
es geht bei dieser Frage nicht um eine Entscheidung, ob ich lieber Schokoladen- oder Vanille-Eis esse. Statistik ist trotz anders lautender Vermutungen eine Naturwissenschaft. Damit gibt es auch in der Statistik Möglichkeiten um zu prüfen, wie gut oder schlecht Methoden funktionieren, z. B. Effizienz, Erwartungstreue, ARL usw.
Wenn eine neue Methode entwickelt wird oder für eine Anwendung sinnvoll erscheint, wird untersucht, wie gut diese Methode funktioniert. Dazu gehört z. B. die Frage, wie zuverlässig nicht-zufällige Ursachen (special causes) auf einer Qualitätsregelkarte angezeigt werden. Für die erweiterten Eingriffsgrenzen kenne ich solche Untersuchungen nicht. So etwas wird üblicherweise in Fachzeitschriften wie dem Journal of Quality Technology (JQT, herausgegeben von der ASQ) oder Quality and Reliability Engineering (QREI, herausgegeben von Wiley) veröffentlicht.
Es stimmt, dass Prozesse oft Verschiebungen im Mittelwert der Stichproben oder Teilgruppen zeigen, weil sich die Proezsslage durch Chargen- oder andere Wechsel verändert. Warum ist die Statistik-Fachwelt so ignorant und veröffentlicht nichts zu den erweiterten Eingriffsgrenzen, wo das doch für die Praxis so wichtig ist? Sind Statistiker so weltfremd?
Selbstverständlich gibt es wie schon oben geschrieben zu den Prozessen mit Sprüngen eine aktuell gültige Norm, die (DIN) ISO 22514-2 (Nachfolgenorm der (DIN) ISO 21747). Dort findet sich auch explizit die Bewertung, dass Prozess mit Sprüngen nicht beherrscht bzw. not under statistical control sind. Prozess-Stabilität (=Prozess zeigt nur zufälliges Rauschen, keine „special causes“) ist eine Basisanforderung dafür, dass Qualitätsregelkarten zuverlässig systematische Prozess-Veränderungen (special causes) anzeigen können.
Zwei Zitate von Rinne & Mittag, die in ihren Büchern zu Qualitätssicherung und Prozessfähigkeit zahlreiche Methoden beschreiben und bewerten, sowie Donald Wheeler, einem der weltweit führenden Statistiker mit starkem Fokus auf praktikable Methoden (z. B. Short Run SPC):
Ändert sich der Prozeßzustand in der Zeit, egal ob schleichend oder kontinuierlich oder plötzlich und abrupt, so wird sich dadurch die Verteilung von X [Anmerkung: Qualitätsmerkmal] ändern (Auftreten beeinflußbarer Störungen, sog. „‘special causes“’ im Sinne von W. A. Shewart ). In diesem Fall heißt der Prozeß nicht beherrscht oder außer statistischer Kontrolle.[…] Bei einem nicht beherrschten Prozess ist die Wahrscheinlichkeit dafür, daß das betrachtete Qualitätsmerkmal in einen gegebenen Bereich fällt, weder konstant noch vorhersagbar.[…] Bei nicht beherrschten Prozessen macht die Unterscheidung zwischen „‘fähig“’ und „‘nicht fähig“’ keinen Sinn. Nicht beherrschte Prozesse sollten stets als nicht fähig gelten.
Rinne , Horst; Mittag, Hans-Joachim (1999). „Prozeßfähigkeitsmessung für die industrielle Praxis.“
Fachbuchverlag Leipzig. ISBN : 9783446211179. S. 9You cannot compute your way around the problem of an unpredictable process. No amount of data manipulation will ever make an unpredictable process predictable. When a process is unpredictable, the past cannot be used as a reliable guide to the future.
Wheeler , Donald J. (2000). „Beyond Capability Confusion.“
2. Auflage, SPC PRESS (Statistical Process Control). ISBN : 9780945320579. S. 46Ein Anwender, der mit erweiterten Eingriffsgrenzen arbeitet, entscheidet sich damit für eine statistisch nicht geprüfte und somit diskussionswürdige Methode. Dabei ist es unerheblich, wie viele Anwender diese Entscheidung treffen. Viele Anwender gehen davon aus, dass eine Methode, die in der Automobilwelt weit verbreitet ist, auch gut/brauchbar ist. Die allermeisten wissen nicht, mit welchem Risiko sie dabei unterwegs sind.
Mich erinnert das ein bisschen an die Diskussion um Johnson-Transformationen. Diese Transformationen wurden eine Zeit lang extrem oft bei nicht-normalverteilten Messdaten angewandt. Mittlerweile hat sich bei einigen herumgesprochen, dass diese Transformation ein hohes Risiko für falsche Bewertungen bei der Prozessfähigkeit hat (s. z. B. ISO/TR 22514-4). Dennoch gibt es immer noch (gerade in der Automobilwelt) viele, die die Johnson-Transformation anwenden und nicht wissen, dass damit ein hohes Risiko verbunden ist.
Wenn ich mich hinstelle und behaupte 1+1 = 5, dann muss ich auch zeigen, dass das so ist. „Beweis mir doch das Gegenteil“ zu brüllen ist etwas schräg, wenn sich der Rest der Menschheit (inklusive der Mathematiker und Statistiker) einig ist, dass 1+1 = 2 ist. Vielleicht gibt es irgendwann eine wissenschaftliche Untersuchung zur Aussagekraft von erweiterten Eingriffsgrenzen. Bis dahin ist das aus wissenschaftlicher Sicht eine experimentelle Methode mit unbekanntem Risiko.
Viele Grüße
Barbara
————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Hallo,
ich muss das jetzt kommentieren, denn es stoßen in sofern Theorie und Praxis aufeinander, dass Kunden (vor allem Automotivekunden) die gebrachten Zitate von Barbara zu nicht beherrschten Prozessen nicht hören wollen. Wenn Sie auf eine Merkmal eine kritische Kennzeichnung gemacht haben, dann muss es einen Cpk-geben, FERTIG.
Die Alternative ist die 100% Prüfung, aber wenn ich keine Probleme mit den Bauteilen habe seit Ewigkeiten?
DIe Argumentation von Barbara ist bestimmt richtig und ich bin ihr absolut dankbar, wenn sie sie im regulatorischen Bereich auch so strikt anwendet, ich will nämlich nicht der sein mit dem 0,01% Fehler in der sterilen Spritze.
Aber muss ich diesen Maßstab bei dem Becherhalter eines Autos auch anwenden??
Die Tatsasche das Nafets schreibt: „es gab noch keine Probleme bei Kunden und anderen Auditoren“, stützt die Theorie: Eigentlich sind alle glücklich, solange sie einen Haken auf ihrer Checkliste machen können und wollen den Weg zum Cpk gar nicht hinterfragen (und können es auch nicht, fehlendes Wissen).
Hätte der Auditor den totalen Durchblick hätte er wie Barbara argumentieren müssen, der ist nicht beherrscht und damit nicht fähig.
So Leben wir in der Grauzone, der Wahrheit und des Kundenwunsch.
Gruß
TamTom
Hallo TamTom,
die Frage von Nafets bezog sich auf erweiterte Eingriffsgrenzen, nicht auf Cpk-Werte.
Zum Argument „Wenn das alle so machen, kann es nicht ganz falsch sein“ möchte ich nur an die Geschichte der Monsterwellen erinnern. Lange Zeit (bis 1995) galten Wellen über 15m als Seemansgarn, weil die Wellenhöhe normalverteilt sei und die Wahrscheinlichkeit für 20m oder höhere Wellen unglaublich winzig sei.
Mit dieser Begründung wurden auch alle Schadensersatzansprüche von Schiffseignern abgewiesen. Alle großen Versicherungen und viele Wissenschaftler waren sich einig, dass es keine so großen Wellen geben könne. Die Statistik spräche dagegen. Seemänner sollten einfach weniger Alkohol trinken, dann würden ihnen die Wellen auch nicht so riesig erscheinen. Und sowieso wisse man doch, dass Seemänner zu Übertreibungen neigen.
Mit fortschreitender Messtechnik wurden dann doch Wellenhöhen deutlich über 20m gemessen und es gab Mitte der 1990er Jahre erste Videos von Monsterwellen, die über ein Schiff rollen. Damit war klar, dass die vorher von der überwältigenden Mehrheit akzeptierte Theorie falsch war und Wellenhöhen doch nicht einfach nur normalverteilt sind.
Fazit: Nur weil sich viele/alle Menschen auf eine Theorie geeinigt haben, muss die nicht richtig sein.
Viele Grüße
Barbara————
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.