QM-Forum › Foren › Qualitätsmanagement › Entwicklungsverifizierung – Stichprobengrößen?
-
AutorBeiträge
-
Hallo zusammen,
Hat sich jemand von euch schon einmal mit dem Thema statistisch begründete Stichprobenfestlegung bei Tests zur Entwicklungsverifizierung auseinander gesetzt?
Mit Tests zur Entwicklungsverifierung meine ich jetzt zum Beispiel:
Tests zur elektrischen Sicherheit, Tests bzgl. Produktlebensdauer, EMV Tests, statische und dynamische Belastungstests von Produkten, ect.
Wenn ja…wie war die Vorgehensweise?
Auf Basis welches Standards wurden die Stichproben für diese Tests festgelegt?
Vielen Dank für eure Unterstützung!
Viele Grüße,
AphelHallo Aphel,
aus meiner Erfahrung als Qualitätsvorausplaner in der Automobilindustrie kann ich sagen, dass viele Tests nicht statistisch abgesichert waren.
Das hatte mit der Dauer der Tests und mit den Kosten zu tun. Bestimmte Tests wurden nur ein- oder zweimal durchgeführt, z.B. Sonnensimulation des Fahrzeugs irgendwo am Äquator.
Erst die Versuche, die auf die Komponenten heruntergebrochen worden sind, wurden manchmal statistisch abgesichert, z.B. Zugtests um Klebeverbindungen zu prüfen. War dazu aber ein Alterung mittels Klimawechseltet nötig, war der Prüfumfang schon wieder reduziert.
Es ist halt für alles immer eine Risikoabschätzung des ganzen Systems in Betracht zu ziehen.
Z.B. In wie weit ähnelt die Konstruktion ähnlichen, die schon funktioniert haben?
Was passiert beim Ausfall?Es braucht viel Erfahrung und GMV, sonst würden die Kosten und die Dauer der Tests ins unendliche Laufen.
Hallo Aphel,
wie Stephan schon geschrieben hat, ist das eine Sache der Anforderungen und Risiken.
Wenn der Nachweis gefordert wird, müssen entsprechende Tests gemacht werden und dann wird sinnvollerweise auch vorher (statistisch) berechnet, wie viele Geräte oder Systeme über welchen Zeitraum geprüft werden müssen.
Aus Spaß an der Freud macht sich niemand diese Mühe (jedenfalls hab ich noch niemanden getroffen). Wer schon mal mit einer Neu-Entwicklung übel auf die Nase gefallen ist, weil sie zwar in kleinstem Umfang funktioniert (haben wir schon 1 Mal hingekriegt, funktioniert also auch die anderen 1.000.000 Male), steht der Statistik erfahrungsgemäß etwas offener gegenüber ;)
Was Du brauchst sind sinnvolle Vorgaben oder Anforderungen und alles was Du an Vorinformationen kriegen kannst (Ausfallverhalten, technisches Wissen, etc.) Für die Statistik sind das Risikobewertungen (Fehler 1. und 2. Art, Zuverlässigkeitsniveau, usw.) Viel detaillierter lässt sich das nicht allgemein sagen, weil die konkrete Anwendung immer vom Testproblem abhängt.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)Genau so wie Barbara das geschrieben hat, meine ich das auch.
Das übliche Werkzeug zur Risikoabschätzung ist die FMEA.
Kann man auf Erfahrungen zurückgreifen, reicht eventuell ein geringer Prüfumfang um das ganze nochmal abzusichern.Je weniger das möglich ist, umso mehr muss man testen und das sollte dann statistisch auswerten.
Beispiel Dauerlauftests von Komponenten (Wann ist irgendwas durchgescheuert oder wann funktioniert der Schalter nicht mehr): Hier testet man eine vorher festgelegte Versuchsreihe und wertet statistisch aus ob die Anforderungen erfüllt werden.
Wegen der Dauer oder der Kosten von Prüfungen konnten wir da vielleicht nur 30 Teile testen, haben dann aber z.B. daraus den CPK-Wert ermittelt.
Meist wurden in der Serie die Komponentenprüfungen wiederholt, auch wieder ausgewertet und mit den Daten aus der Entwicklungsphase abgeglichen.Für nicht normalverteilte Daten gibt es andere Verfahren zur Berechnung der Ausfallwahrscheinlichkeit.
Lebensdauertests haben oft eine Weibull-Verteilung. Mangels Kenntnisse habe ich selbst noch nicht damit rumgerechnet, obwohl ich das schon öfter gebraucht hätte.Gruß
Stefangeändert von – Stefan741 on 12/11/2012 21:40:40
-
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.