Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: Notfallmanagement #60573
Hallo Qubi,
ob Dich da wirklich eine Vorlage weiterbringt, weiß ich nicht. Denn die Maßnahmen bei Notfällen müssen auf die Firma, die Gebäude, die Infrastruktur und die Mitarbeiter abgestimmt sein. Und was ein Notfall ist bzw. wie schwer ein Notfall ist, hängt auch noch mal von der Art des Unternehmens ab und davon, wofür der Notfallplan sein soll (Normen, allgemeiner Arbeitsschutz, Risikomanagement, etc.)
Ein paar Infos zu Notfällen und Notfallplanung findest Du schon hier im Forum:
Notfallplan-Vorlage
Notfallplan Stromausfall
(weitere Themen über die Suche)Wenns spezieller sein soll, wäre es hilfreich, wenn Du etwas genauer beschreibst, wofür Du den Notfallplan entwickelst.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Härtemessgerät #60572Hallo Becco,
klar ist es erlaubt, im Forum nach Anwendermeinungen zu fragen. Dafür sind wir doch hier :)
Ungern gesehen ist versteckte oder offene Werbung nach dem Motto: Guck mal wie toll mein Produkt ist oder das Produkt XY ist toll (und der Schreiber ist Hersteller dieses Produkts).
Zu Deiner Frage nach dem Härtemessgerät kann ich leider inhaltlich nichts sagen.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: FDA/HACCP bei eingefärbten Kunststoffteilen #60514Der „verbotene Begriff“ ist vermutlich tab_le (ohne Unterstrich, enthalten in akzeptab_les).
als Antwort auf: FDA/HACCP bei eingefärbten Kunststoffteilen #60510Irgendwelche Klammer-Ausrufungszeichen-Kombinationen oder Ähnliches?
als Antwort auf: FDA/HACCP bei eingefärbten Kunststoffteilen #60508Der Klassiker: k i l l in irgend einem Wort ohne die Leerzeichen?
als Antwort auf: Verteilungszeitmodell #60507Hallo Andreas,
immer gerne :)
Eine Prozessfähigkeitsbewertung mit Excel ist extrem mühselig. Du bist also nicht zu doof, sondern erstmal ist Excel für statistische Auswertungen schwierig, sobald es über die Berechnung eines Mittelwerts hinausgeht. (Excel ist keine Statistik-Software, sondern ein Tabellenkalkulations-Programm.)
Falls Du die Möglichkeit hast, Statistik-Software zu installieren und zu nutzen, würd ich Dir eine kostenlose Demoversion von Minitab für die Auswertung empfehlen (z. B. hier). Die Demoversion von Minitab läuft 30 Tage ohne Einschränkung und der Assistent für die Prozessfähigkeitsbewertung liefert auf einen Rutsch alle relevanten Auswertungen plus die Interpretation der Ergebnisse.
Die Frage, ob Du durch eine manuelle Sortierung die Verteilung beeinflusst hast, kann ich Dir nicht beantworten ohne die Werte gesehen zu haben. 120 von knapp 5000 Werten sind nicht so arg viele (2,6%), andererseits steckt in jedem Wert Information über den Prozess. Nach welchen Kriterien hast Du denn entschieden, ob ein Wert ein Ausreißer ist oder nicht?
Dass ein Prozess weniger Standardabweichung hat als bei der Messunsicherheitsbewertung finde ich erstmal seltsam, denn die Prozess-Streuung ergibt sich aus Mess-Unsicherheit PLUS Fertigungs-Streuung, und ist damit immer größer als die Mess-Unsicherheit alleine. Andererseits ist die Bewertung der Streuung über die Kennzahl Standardabweichung nur dann einfach und sinnvoll interpretierbar, wenn die Messdaten normalverteilt sind.
Hochladen oder Anhängen kannst Du in diesem Forum nichts. Du kannst nur auf andere Server etwas hochladen (z. B. imageshack.us) und den Link hier posten. Leider hilft mir Deine Tabelle nicht weiter, weil da (zum Glück) nicht alle 4700 einzelnen Werte aufgelistet sind.
Wenn Du möchtest, kannst Du mir Deine Daten und die Toleranzgrenze(n) per Mail schicken, dann schubs ich die durch Minitab und schick Dir die Ergebnisse. Gut wäre es, wenn Du die unbereinigten und die bereinigten Werte für die Auswertung zur Verfügung stellen könntest, damit Unterschiede untersucht werden können.
Infos zum Wahrscheinlichkeitsnetz findest Du u. a. bei Wikipedia Wahrscheinlichkeitsnetz bzw. Wikipedia Q-Q-Plot oder auf meiner Seite oder in jedem Statistik-Buch unter den Stichworten Normal-Quantil-Plot, Quantil-Plot, QQ-Plot, PP-Plot. Der Begriff „Wahrscheinlichkeitsnetz“ wird für diese Art von Grafik eigentlich nur in der Industrie verwendet, der gemeine Statistiker sagt da eher QQ-Plot zu.
Bevor Du weiter versuchst, mit der DIN ISO 21747 irgendwie zu rechnen (was alles andere als einfach ist und verzerrte Ergebnisse liefert) wäre meine Empfehlung, erstmal zu schauen wie schlimm die Abweichungen von der Normalverteilung sind und dann zu überlegen, wie der Prozess statistisch sinnvoll bewertet werden kann. Die Umsetzung der DIN ISO 21747 ist sowieso schon arg kompliziert und wenn Du nur Excel zur Verfügung hast, eine echte Herausforderung.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Verteilungszeitmodell #60503Hallo Andreas,
willkommen im Qualitäter-Forum :)
Du hast Recht: Belastbare Prozessfähigkeitsbewertungen brauchen immer ein belastbares Verteilungsmodell.
Bei der Prüfung auf Normalverteilung ist der Chi²-Test ziemlich schlecht, genauso der Kolmogorov-Smirnoff-Test. Anderson-Darling, Shapiro-Wilks oder Ryan-Joiner sind gute Tests, d. h. sie finden sehr viel zuverlässiger als der Chi²- oder KS-Test heraus, ob die Daten normalverteilt sind oder nicht.
Wichtig ist in jedem Fall neben dem Test auch die Betrachtung des Wahrscheinlichkeits-Netzes, weil Dir die Testergebnisse nur eine ja/nein-Entscheidung geben, Du aber in der Grafik auch Hinweise auf die Ursachen für eine Entscheidung geben (z. B. Werte zu gleich / zu geringe Auflösung mit nur 5 verschiedene Werte in der Tabelle oder auch Ausreißer, usw.) Das Wahrscheinlichkeitsnetz sollte die Punkte NICHT in Gruppen zusammenfassen, sondern alle 4700 Punkte einzeln zeigen.
Bei vielen Werten muss der Unterschied zwischen Prüfverteilung (z. B. Normalverteilung) und Messdaten extrem klein sein, weil jede Abweichung „so müsste der Wert bei dieser Verteilung sein – so ist der Wert“ zusammengezählt wird. Je mehr Messdaten Du hast, desto mehr (auch kleine) Abweichungen werden zusammengezählt. Dadurch bekommst Du sehr schnell eine Ablehnung der Verteilungsannahme im Test, auch wenn die Daten im Wahrscheinlichkeitsnetz der Ideallinie gut folgen.
Zu den Momentanverteilungen oder auch Verteilungszeitmodellen gibt es ziemlich wenig, weil die (vermutlich) eine Erfindung deutscher Anwender ist, die für alle möglichen Messdaten-Verteilungen eine Methodik zur Prozessfähigkeits-Bewertung haben wollten. In der Statistik wird so anders gemacht, deshalb gibt es in Statistik-Büchern auch so einen Mumpitz wie Momentanverteilungen oder Verteilungszeitmodelle als Grundlage für die Prozessfähigkeitsbewertung nicht.
Wo Du eventuell noch etwas finden könntest ist in dem Normenwurf ISO/DIS 22514-2: Statistical methods in process management — Capability and performance — Part 2: Process capability and performance of time-dependent process models (der gekauf werden muss, wenn ihn Deine Uni nicht haben sollte).
Hier noch ein kurzer Überblick über den aktuellen Stand der Normen zu zeitabhängigen Prozess-Daten:
DIN ISO 21747:2007-03 „Statistische Verfahren – Prozessleistungs- und Prozessfähigkeitskenngrößen für kontinuierliche Qualitätsmerkmale“ ist (noch) gültig und enthält Verteilungszeitmodelle (wie sie u. a. in qs-stat implementiert sind)
Beziehbar über beuth.deDie englische Version der 21747
ISO 21747:2006 „Statistical methods — Process performance and capability statistics for measured quality characteristics“
ist schon vor einiger Zeit zurückgezogen worden. Als Ersatz nennt die ISO die ISO/DIS 22514-2 für zeitabhängige Verteilungen. Das Interesse an dieser Norm ist allerdings so bahnbrechend groß, dass der Status „in Entwicklung“ schon ganz schön lange dauert. Naja, der Norm-Entwurf kann auf jeden Fall schon gekauft werden. (Ich hab den Entwurf bislang weder gesehen noch gekauft, deshalb kann ich Dir zu Inhalt und Brauchbarkeit nichts sagen.)Die Prozessfähigkeits-Bewertung von zeitstabilen Prozessen und variablen Messdaten wird in der ISO/TR 22514-4:2007 „Statistical methods in process management — Capability and performance — Part 4: Process capability estimates and performance measures“ beschrieben und enthält statistisch sinnvolle Methoden sowie entsprechende Warnungen bei wackeligeren Ansätzen (z. B. Johnson-Transformation oder Pearson-Modellen).
Damit Du weiterkommst, würd ich folgende drei Dinge tun:
1. Bewertung der Verteilungsanpassung über ein Wahrscheinlichkeitsnetz mit Einzeldaten, ggf. zusätzlich ein gutes Testverfahren
2. Falls noch nicht geschehen: Prüfung der Messmittel-Fähigkeit und Mess-Prozess-Sicherheit (Verfahren 1, Gage R&R ANOVA, ggf. erweiterte Mess-Unsicherheit)
3. Verwendung gültiger internationaler Standards und Normen der ISO bei der Bewertung von Prozessen, weil meiner Erfahrung nach in deutschen Normen die statistischen Verfahren sehr verbogen und/oder wenig anschaulich dargestellt werdenIch hoffe, das hilft Dir ein Stück weiter.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Q-DAS Solara #60479Hallo Thomas,
hast Du mal bei Q-Das angerufen? Eventuell gibts da einen Bugfix.
(Da ich nicht mit Solara arbeite, kann ich das auch nicht nachprüfen.)
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: MSA Kennwerte EV & AV #60476Hallo Stefan,
am besten ist es, wenn sowohl EV (Messmittel-Streuung) als auch AV (Prüfer-Einfluss) klein sind, weil beide Werte in den GRR-Wert eingehen:
GRR = Wurzel( EV² + AV² )
Dein Mess-Prozess ist also nur dann gut, wenn sowohl EV als auch AV klein sind.
Was da drinsteckt ist die Formel vom Satz den Pythargoras:
a² + b² = c²
(Die Summe der quadrierten Seitenlängen der kurzen Seite ist das Quadrat der langen Seite in einem rechtwinkligen Dreieck, s. a. Wikipedia: Satz des Pythargoras.)Um eine kurze lange Seite c (=GRR) zu bekommen, müssen sowohl die Seitenlänge a (=EV) als auch die Seitenlänge b (=AV) klein sein. Ist eine von den beiden Seitenlängen a (EV) oder b (AV) groß, ist auch c (GRR) groß.
Wenn Du nur eine lange Seite bei a und b hast, sprich wenn nur EV ODER AV groß ist, sind die Verbesserungsmaßnahmen unterschiedlich:
EV groß = Messmittel streut stark
AV groß = Bedienerunterschied großWelche der beiden Möglichkeiten bei einer konkreten Mess-Aufgabe „besser“ ist, lässt sich nicht generell sagen.
Ich hoffe, das ist eine für Dich plausible Erklärung.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: ANOVA Berechnung negative Wurzel #60475Hallo Falk,
es kann gut sein, dass es einen Bedienereinfluss gibt. (Ich halte den auch für wahrscheinlich, jedenfalls solange bis das Gegenteil bewiesen ist.)
Du hast allerdings in Deinen Daten nicht genügend Unterschiede bezüglich der Prüfer, um einen Bedienereinfluss nachweisen zu können. Deshalb ist es auch legitim (und gängige Praxis), die Varianzkomponente auf 0 zu setzen, wenn sie negativ ist.
Hast Du Dir mal angeschaut, wie unterschiedlich die Prüfer-Ergebnisse je Bauteil sind (Streudiagramm in dem je Bauteil die Prüferergebnisse eingezeichnet sind)? Vermutlich sind die Unterschiede vernachlässigbar verglichen mit der Streuung zwischen den Bauteilen und/oder der Wiederhol-Streuung.
Die ARM-Methode ist aus statistischer Sicht ungenauer bei der Bewertung von Mess-Prozessen. Deshalb ist seit 2010 sowohl von der AIAG (MSA 4) als auch vom VDA (Band 5) die ANOVA-Methode als Standardmethode angegeben (es sei denn das Mess-System muss ohne PC bewertet werden, sprich, Du machst die Auswertung mit Papier und Bleistift).
Es gibt diverse Grafiken, mit denen die Zahlen veranschaulicht werden können, damit die Ergebnisse leichter nachvollziehbar sind. Wenn Du Deine Excel-Auswertung noch ein bisschen besser machen willst, wäre es sinnvoll, diese Grafiken mit zu erzeugen.
Beispiele dafür, welche Grafiken weiterhelfen, findest Du u. a. in Minitab (Assistent > Mess-System-Analyse). Die kostenlose 30-Tage-Testversion kannst Du hier herunterladen. Du kannst mir auch Deine Daten schicken, dann schubs ich das eben mal durch.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: ANOVA Berechnung negative Wurzel #60470Hallo Falk,
bei der ANOVA für Verfahren 2 wird mit Varianzkomponenten gearbeitet, nicht mit der Standardabweichung. Der Grund dafür ist, dass es sich um ein ANOVA-Modell mit zufälligen Effekten handelt, weil davon ausgegangen wird, dass die Prüfer und Teile nur eine Auswahl aus allen möglichen Prüfern und Teilen bilden.
Fester/fixer Effekt: Die Stufen der attributiven Größe in den Daten entsprechen allen möglichen Stufen.
Beispiel: Es gibt 2 Anlagen. Der Effekt durch die Anlage ist dann ein fester Effekt.Zufälliger Effekt: Die Stufen der attributiven Größe entsprechen einer Auswahl aus allen möglichen Stufen.
Beispiel: Für den Vergleich von Teilen werden aus der Produktion 10 Teile ausgewählt. Die Teile sind damit ein zufälliger Effekt.Dass der Prüfer grundsätzlich auch als zufälliger Effekt im Modell bei Verfahren 2 / Gage R&R ANOVA auftaucht, kann man diskutieren. Wenn es exakt 2 (oder exakt 3) Prüfer gibt und die alle bei der Mess-System-Analyse Messdaten aufnehmen, wäre der Prüfer eigentlich ein fester/fixer Effekt.
Uneigentlich könnte in der Zukunft auch ein weiterer Prüfer eingestellt werden und da wären dann die Prüfer in der Untersuchung wieder nur eine Auswahl gewesen, sobald ein neuer Prüfer mitmacht. Um dann nicht nochmal von vorne anzufangen, wird der Prüfer als zufälliger Effekt behandelt.
Dass nur zur Erklärung, warum nicht die übliche Standardabweichung verwendet wird, sondern die Formeln ein ganz klein bisschen wilder sind.
Negative Varianzkomponenten werden auf 0 gesetzt (negative Streuung gibts nun mal nicht). Ein bisschen mehr mit Formeln steht das z. B. in diesem Artikel.
Wenn Du Dein Excel-Sheet auf Fehler prüfen willst, kannst Du z. B. in diesem Thread bei elsmar.com eine Excel-Vorlage finden (Beitrag von Ingo1966).
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Notfallplan #60463Hi Nobbe,
klare Antwort: Es kommt darauf an. Bei Risiken, deren Auftrittswahrscheinlichkeit gegen 0 geht und bei denen ein extremer Aufwand im Vorfeld betrieben werden müsste, ist „ein bisschen darüber nachdenken und mögliche Ausweichoptionen aufschreiben“ ausreichend.
Wenn es Risiken mit höherer Auftrittswahrscheinlichkeit gibt, hilft die Liste von Matthias gut weiter. Ich würd hier eine Risikoanalyse machen mit Schweregrad und Auftrittswahrscheinlichkeit und danach weitere Maßnahmen planen.
Letztlich gibt es immer Risiken, die spontan auftreten und an die vorher niemand so wirklich gedacht hat. Im August ist hier in der Gegend eine ganze Werkshalle abgebrannt (s. Youtube-Video Ergster Stahlwerk brennt). So etwas im Vorfeld durch einen Notfallplan abzufedern halte ich schon für schwierig, auch weil bei einem Großschadens-Ereignis niemand vorab einschätzen kann, wie groß „groß“ ist.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Qualität der Organisationsentwickluing #60451Hallo Wolfgang,
ich bezweifel, dass Du irgendwo eine Antwort auf Deine Frage findest, weil Du die Antwort schon vorgegeben hast.
Du hälst es grundsätzlich für unmöglich, das Bewusstsein, die Motivation oder andere weiche Kriterien zu messen. (Dass ich da anderer Meinung bin haben wir schon oft genug diskutiert, deshalb geh ich darauf nicht ein.)
Auf der anderen Seite „suchst“ Du nach einer Antwort auf die Frage, wie Qualität in der Organisationsentwicklung bewertet werden kann und mögliche Stolpersteine im Vorfeld erkannt und beseitigt werden können. Organisationsentwicklung beschäftigt sich in erster Linie mit den weichen Kriterien.
Eine Bewertung beinhaltet einen „Wert“, d. h. ein messbares Kriterium, wie z. B. die RPZ in FMEAs.
Wie soll also ein für Dich belastbarer Wert vergeben werden für etwas, dass Du für nicht messbar hälst, nämlich für die weichen Kriterien?
Generell wäre es sicher möglich, einen Kriterienkatalog für die Fragen „Woran erkennen wir (Kunde+Berater), dass das Projekt funktioniert?“ und „Woran machen wir Schwierigkeiten fest?“ im Vorfeld zu erarbeiten und im Projektverlauf zu prüfen, ob und wie diese Kriterien auftreten. Allerdings funktioniert meiner Meinung nach hierbei keine allgemeine Checkliste, sondern nur eine Kunden- und Projekt-spezifische Kriterienliste.
Eine konkrete Möglichkeit zur Projektbewertung und Qualitätsmessung findest Du z. B. bei Holger Zimmermann (Projektmensch, http://www.projektmensch.com) unter dem Stichwort „Zufriedenheitsgarantie“ und „Projekt-Wartung“.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Qualität der Organisationsentwickluing #60423Hallo Wolfgang,
vielleicht hab ich nicht so ganz verstanden, wonach Du eigentlich suchst, aber warst DU es nicht, der das Messen von SoftSkil_ls generell in Frage gestellt hatte, weil Menschen und deren Bewusstsein nicht messbar sind (wie Du z. B. im Thread „TS/ 6.2.2.4 Mitarbeiterbewusstseinsmessung“ geschrieben hast)?
Wie willst Du denn Qualität messen oder beurteilen, wenn Du das Werk der Qualitäts-Arbeiter im Soft-Skil_ls-Bereich als nicht (zuverlässig) messbar einstufst?
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Stichprobengröße und Probenplan #60366Hallo Frederick,
ja, es wäre defintiv sinnvoll mal mit dem Kunden über die Anwendung und die Grenzen zu sprechen.
Solange es da keine Veränderung gibt, könnt Ihr aber auch schon etwas machen: Nehmt Euch ein paar Teile (gerne auch ein paar mehr) und prüft, bei welchem Druck sie ausfallen. Daraus könnt Ihr dann berechnen, wie haltbar die Dinger sind.
Nachteil: Zerstörende Prüfung
Vorteil: Messdaten über die DruckbelastungsfähigkeitDas dürfte allerdings keine wirklich zielführende Prüfung sein, jedenfalls dann nicht, wenn das Teil in der Anwendung dauerhaft Druck ausgesetzt ist. Das könnte nur dann ansatzweise funktionieren, wenn das Teil 1 Mal im Betrieb belastet wird und dabei einen Druck von 1,0bar zuverlässig aushalten soll.
Ansonsten bist Du mit dieser Aufgabenstellung nämlich nicht im Bereich der üblichen Stichprobenprüfung, sondern im Bereich der Lebensdauerprüfung. Da gelten andere Konzepte und Anforderungen, z. B. eine Überlebenswahrscheinlichkeit von 99,9999% nach 10000 Betriebsstunden unter 1,0bar Druck.
Da Ihr nur 1 Schadensfall bislang habt, könnte es sein, dass Eure Teile besser sind als die Prüfergebnisse in der 2,5bar-Prüfung vermuten lassen (jedenfalls wenn die Dinger schon länger beim Kunden verbaut wurden, der Prozess stabil ist und es bislang keine Probleme gab).
Wenn Ihr die 9000 Teile erstmalig geliefert habt, könnte aber auch eine Schadensfall-Welle auf Euch zukommen, wenn die Bauteile im Betrieb nach und nach (und viel zu früh) ausfallen.
Deshalb wäre es sinnvoll, mehr über die Belastungsfähigkeit Eurer Bauteile zu wissen. Das würde dann auch wieder bei den Gesprächen mit dem Kunden helfen, weil Ihr belastbare Daten hättet. Und Ihr könntet abschätzen, wie groß das Risiko für einen weiteren Schadensfall ist, und wenn es zu groß ist, weitere Maßnahmen umsetzen (Rückrufaktionen, etc.) Das wäre sicherlich unschön, aber immer noch besser als weitere Schadensfälle.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge