Verfasste Forenbeiträge

Ansicht von 15 Beiträgen – 136 bis 150 (von insgesamt 2,697)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Kaluz,

    willkommen im Forum [:)]

    Warum die Buchstaben „I“ und „O“ nur ab und zu in den AQL-Tabellen auftauchen weiß ich auch nicht. Verwechslungsgefahr wäre eine Möglichkeit, allerdings dürfte das im zweiten Weltkrieg (wo diese Tabellen entstanden) wegen den Schreibmaschinen nicht mehr so relevant gewesen sein.

    Vermutlich sind diese Buchstaben eher aus anderen Gründen weggefallen: Beim „I“ knickt der Zusammenhang zwischen Stichproben- und Losumfang ab, s. Zusammenhang AQL-Kennbuchstabe, Los- und Stichprobenumfang.

    In der Grafik kannst Du auch sehen, dass ein „O“ ein bisschen knubbelig werden würde. Für „O“ wäre der Losumfang bei ca. 250.000 und da wollten die Festleger des Military Standards 105 vermutlich einfach nicht noch einen Buchstaben reinsetzen.

    quote:


    Ursprünglich veröffentlicht von evereve99„ich habe eine eventuell etwas seltsame Frage.“ Ist Statistik nicht immer etwas seltsam?


    Klar ist Statistik manchmal seltsam [:D] nur diese verwirrenden Bezeichnungen haben tatsächlich gar nichts mit Statistik zu tun.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: qualitätskennzahlen aql #62707

    Hallo Kaluz,

    quote:


    Ursprünglich veröffentlicht von KaluzDafür gibt es ja ene formel. 100/(100/80)^((pist-pv)/2)^2. Wobei pist=(np/n)*100 und pv=aql/2


    Leider sagt mir diese Formel nichts. Wo hast Du die denn her? Und was genau soll Dir das berechnete Ergebnis angeben?

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: MSA nach AIAG #62696

    Hallo Schniker,

    es mag sein, dass da gerade an der MSA 5 gearbeitet wird (das weiß ich nicht). Aktuell ist die MSA 4, denn eine andere wird weder bei tuev-buch.de noch bei aiag.org angeboten. Und ich glaube kaum, dass ein Auditor oder Kunde von Euch erwarten kann ein Handbuch zu nutzen, das nicht öffentlich verfügbar ist.

    Es gibt bei elsmar.com einen Thread, in dem ein User alle drei Monate die aktuellen Versionen der AIAG Manuals (MSA, SPC, PPAP, usw.) postet:
    AIAG Update Information – Current editions of AIAG manuals
    Das letzte Update ist vom 24.10.2014 und zeigt auch MSA 4 als die aktuelle Version an. Der User macht die Aktualisierung alle drei Monate im Rahmen seines Management Reviews. Grundlage ist das, was auf der aiag.org-Seite angeboten wird. Bei elsmar.com würde auch eine Info zu MSA 5 zu finden sein, wenn es sie gäbe.

    Die einzige Version 5 die mir in diesem Zusammenhang einfällt ist die vom VDA Band 5 zur Prüfprozesseignung (letzte Aktualisierung in 2011). Dort wird allerdings auch nur auf MSA 4 verwiesen.

    Vermutlich handelt es sich hieralso um ein nicht-substantielles Gerücht eines Auditors/Kunden [}:)]

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Interressante Stelle #62686

    Moin,

    vielleicht haben die ein Werk das nicht elektrifiziert ist und brauchen jemanden, der dann immer noch lesbare Auditberichte schreiben kann [}:)]

    VIele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Rudi,

    wenn ich mir die Forderungen aus der DIN 5008 (s. z. B. Geschäftsbrief nach DIN 5008) anschaue find ich die ganz schön staubig. Leerzeilen einfügen? Dafür gibt es doch Formatvorlagen.

    Mir persönlich ist es auch schnuppe, ob ein Unternehmen mir DIN 5008-konforme Briefe schreibt oder sich selbst etwas ausdenkt, solange die Angaben mir dabei helfen, den Brief zu verstehen, den Adressaten ansprechen zu können und eine eindeutige Zuordnung zu einem Thema erlauben.

    Insofern finde ich für die Folgeseiten bei längeren Briefen folgende Angaben wichtig:

    • Seite x von AnzahlSeiten
    • Firmenname bzw. kurze Details
    • Bezug/Thema/Geschäftszeichen/…

    Das reicht mir persönlich für die „Rückverfolgbarkeit“ falls ich mal irgendwo eine einzelne Blattseite finden sollte und die einem Brief zuordnen will.

    Für mich gilt hier ganz klar: Weniger ist mehr. Und was die DIN 5008 fordert, finde ich nicht zeitgemäß und vermute, dass die meisten Menschen im Berufsalltag wenig Wert darauf legen ob und wenn ja nach welcher Norm ein Brief geschrieben worden ist.

    Oder ist das bei Euch anders und die DIN 5008 gehört zum Standard-Ausbildungsprogramm für Entwickler, Teamleiter, usw.?

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo JürgenG,

    willkommen im Forum [:)] Freut mich, dass Dir meine Beiträge weiterhelfen.

    quote:


    Ursprünglich veröffentlicht von Barbara
    Theoretisch ist die Chance für 0 niO-Teile in einer Stichprobe mit n=4219 und einer Gesamt-Fehlerrate von 8% ziemlich klein, genauer 1,662814e-153.


    Das Ergebnis stimmt so, nur werden bei Benjamin n=422 Teile prozessbegleitend untersucht und nicht 4219.

    Für n=422 bei einer tatsächlichen Ausschussrate von 8%=0,08 ist die Chance 0 niO-Teile zu finden etwas größer: 5.229536e-16 und immer noch verschwindend gering: 1 Mal in 2 Billiarden (10^15) Prüfungen.

    Gerechnet hab ich das mit R (Statistik-Software):

    pbinom(0,422,0.08)

    pbinom ist die Verteilungsfunktion der Binomialverteilung (gut-schlecht-Verteilung), 0 die Anzahl niO-Teile in der Stichprobe, 422 der Stichprobenumfang und 0.08 die Ausschussrate (8% mit Punkt als Dezimaltrennzeichen).

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: UT 2014 #62660

    Hallo zusammen,

    das war ja wieder mal ein super-gelungenes Usertreffen 2014 [:)] Danke nochmal an Karsten für die tolle Organisation vor Ort, die spannenden Einblicke in die Hochdruckreinigung (500 bar für Kugi!) und die tolle Stadtführung. Wer hätte gedacht, dass die Stadt die es nicht gibt so viele interessante Ecken hat?

    Ich freu mich schon aufs nächste Usertreffen (UT 2015) mit Euch!

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo reticent,

    t-Test und ANOVA untersuchen beide ausschließlich den Unterschied zwischen den Mittelwerten.

    Bei der Signifikanzprüfung wird dann zusätzlich die Streuung innerhalb der Messreihen verwendet. Geprüft wird weder beim t-Test noch bei der ANOVA, ob die Varianzen oder Standardabweichungen gleich sind (das ist Vorarbeit mit einem Test auf Varianzgleichheit oder Nacharbeit mit der Residuenanalyse).

    t-Test und ANOVA untersuchen hier:
    H0: Mittelwerte der beiden Messreihen sind gleich.
    vs. H1: Mittelwerte der beiden Messreihen sind ungleich/unterschiedlich.

    Ein p-Wert von 0,10 = 10% sagt, dass die Wahrscheinlichkeit für „Mittelwerte sind gleich“ (H0) bei diesem Mittelwert-Unterschied 10% groß ist, wenn die Mittelwerte tatsächlich gleich sind. Oder anders: Du hast eine Chance von 10% einen so hohen Unterschied oder noch größeren in den Mittelwerten zu finden, wenn die Mittelwerte tatsächlich gleich sind.

    Die Varianzen oder Standardabweichungen von den beiden Messreihen sind sowohl mit als auch ohne Extremwert ähnlich genug um von gleicher Varianz ausgehen zu können. Der Extremwert hat auch keinen wirklichen Effekt auf das Ergebnis des t-Tests (ohne Extremwert: p=0,104), d. h. die beiden Mittelwerte in den Messreihen A und B sind zu ähnlich, um von einem statistisch signifikanten Unterschied sprechen zu können.

    Ist das „von hinten durch die Brust ins Auge“ etwas klarer? Statistische Tests erscheinen immer etwas verschwurbelt [;)]

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo reticent,

    ich hab mal einen kurzen Blick in die Daten geworfen. Die kurze Antwort: Verglichen mit der Streuung innerhalb der Messreihen ist der Unterschied zwischen den Mittelwerten relativ klein.

    Die Langform mit bunten Bildchen & Minitab-R16-Projektdatei findest Du hier: https://login.yoursecurecloud.de/d/cf9173052f/ (keine Anmeldung erforderlich).

    Wie dieser Unterschied praktisch zu bewerten ist, steht auf einem anderen Blatt, denn dazu bräuchte ich Infos über den Prozess aus dem Messwerte stammen, usw. Statistische Signifikanz und technische Relevanz sind zwei verschiedene Dinge (s. a. Minitab: Common Statistical Mistakes).

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo reticent,

    eine einfache Frage, die ganz viele Antwortmöglichkeiten bietet [;)]

    Die Voraussetzung mit der Normalverteilung der Einzelwerte ist mittelmäßig wichtig. Wenn Du für eine Stichprobe/Messreihe/Kategorie/Gruppe mehr als 30 Messwerte hast und die Abweichungen von der Normalverteilung klein genug sind (AD-Test auf Normalverteilung mit AD-Wert im Bereich 0 bis 1, Wahrscheinlichkeitsnetz zeigt keine deutlichen Strukturen), kannst Du den t-Test auch dann nehmen, wenn die eine Messreihe nicht so ganz schick normalverteilt ist. Denn nach dem Zentralen Grenzwertsatz sind Mittelwerte normalverteilt, wenn die Grundgesamtheit (hier: der Prozess) stabil sind und für den t-Test wird die Verteilung des Mittelwerts und nicht der Einzelwerte verwendet.

    Der t-Test für den Vergleich von Mittelwerten aus 2 Messreihen ist derselbe Test wie der F-Test der ANOVA für 2 Gruppen, wenn auf Gleichheit der Mittelwerte getestet wird. Nimmst Du die ANOVA, werden (üblicherweise) nicht mehr die einzelnen Messreihen auf Normalverteilung geprüft sondern die Residuen aus der Varianzanalyse. Diese sollten normalverteilt sein bzw. keine deutlichen Anzeichen von der Normalverteilung zeigen (p-Wert größer 0,05, AD-Wert klein, keine Strukturen im Wahrscheinlichkeitsnetz).

    Das mit dem Test auf Normalverteilung ist dann etwas tückisch, wenn Du „viele“ (>100) Messwerte hast. Jeder Test auf Normalverteilung vergleicht die optimalen Werte (wie müsste es aussehen, wenn die Messwerte normalverteilt wären) mit den tatsächlich aufgenommenen Werten. Für jeden Messwert gibt es eine Abweichung vom Idealwert. Bei vielen Messwerten summieren sich die Abweichungen, so dass der p-Wert oft klein ist (<0,05) und die Messwerteverteilung im Wahrscheinlichkeitsnetz trotzdem ganz gut aussieht.

    Hier ist es dann beim Anderson-Darling Tests (AD) sinnvoll, den AD-Wert und nicht den p-Wert anzuschauen. Der AD-Wert ist so etwas wie die Summe der Abweichungen Messwert-Idealwert. Wenn die Abweichungen klein sind, bleibt diese Summe zwischen ca. 0 und 1; bei deutlicheren Abweichungen wird der AD-Wert größer (kann auch größer 100 werden). Es gibt leider keinen Test auf Normalverteilung, der die Anzahl Messwerte bei vielen Werten gut berücksichtigt.

    Sind die Abweichungen von der Normalverteilung bei mindestens einer Messreihe oder den Residuen deutlich (p<0,05, hoher AD-Wert, Strukturen im Wahrscheinlichkeitsnetz), funktionieren der t-Test und der F-Test immer noch, nur ist dann die Frage ob die Mittelwerte der Messreihe aussagekräftige Kennzahlen zur Beschreibung der mittleren Lage sind.

    Hast Du z. B. 1-2 Extremwerte in einer der Messreihen wird der Mittelwert dieser Messreihe deutlich verzerrt und gibt damit kein realistisches Bild der mittleren Lage wieder. In solchen Situationen ist es besser einen nicht-parametrischen Test für den Vergleich der Mediane zu verwenden. In Minitab: Statistik > Nichtparametrische Tests > Mann-Whitney (2 Messreihen) oder Kruskal-Wallis (2 oder mehr Messreihen).

    Nichtparametrische Tests haben sehr viel schwächere Voraussetzungen als die parametrischen (z. B. t-, F-Test) und brauchen keine normalverteilten Werte in den Messreihen. Dafür sind sie weniger trennscharf, d. h. die Unterschiede müssen deutlicher sein um einen signifikanten p-Wert zu bekommen.

    Ich würd mir vermutlich erstmal die Wahrscheinlichkeitsnetze für jede Messreihe anschauen und dann entscheiden, ob die Abweichungen von der Normalverteilung klein genug sind für einen Mittelwert-Vergleich (trotz p<0,05 bei einer der Messreihen) oder ob die nichtparametrische Variante besser ist. Und ich würd mir die Ergebnisse der beiden Testverfahren anschauen und prüfen, ob die Aussage deckungsgleich oder unterschiedlich ist.

    Kannst ja mal schreiben wofür Du Dich entschieden hast!

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: UT 2014 #62647

    Hallo Mr. Idea,

    danke für Dein Einsammel-Angebot. Ich schick Dir gleich eine PN mit Infos.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Benjamin,

    xcurit hat eine schöne Erklärung geschrieben. Reicht Dir das so?

    Bei der Parameterschätzung kriegst Du auch einen Stichprobenumfang. Der bezieht sich allerdings nur auf das alpha-Risiko (Risiko für Fehlalarm). Das Risiko für schlechte-Qualität-übersehen (beta-Risiko) bleibt bei der Parameterschätzung unberücksichtigt.

    Das mit dem stabilen Prozess ist ein ganz wichtiger Punkt. Ich würd das neben dem Produktionsprozess auch auf den Messprozess erweitern und fände es auch etwas merkwürdig, wenn in der Produktion so gar kein niO-Teil aufgetreten ist und in der Praktikanten-Prüfung 8%.

    Theoretisch ist die Chance für 0 niO-Teile in einer Stichprobe mit n=4219 und einer Gesamt-Fehlerrate von 8% ziemlich klein, genauer 1,662814e-153. Das spricht dafür, dass entweder die Prüfschärfe bei den beiden Prüfungen sehr unterschiedlich war („passt schon“ vs. „Korinthenkacker“) oder sich die Leiterplatten-Lötstellen zeitlich stark verschlechtert haben (was Eure Kunden vermutlich nicht glücklich machen würde). Für mich wäre das auf jeden Fall etwas zum intensiver Nachhaken.

    Grundsätzlich: Wenn Du einen Fehleranteil von 8% absolut zuverlässig (=100%-ig) finden willst, brauchst Du eine 100%-Kontrolle. Sobald Du weniger prüfst, hast Du ein Risiko dafür schlechtere/höhere Fehleranteile zu übersehen. Und dann bist Du bei den vier von xcurit genannten Parametern.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: UT 2014 #62635

    Hallo zusammen,

    @QM-Stefan: ich hoffe es geht Dir gesundheitlich bald wieder gut & wir sehen uns in 2015!

    Bislang haben sich fünf TN für das Usertreffen 2014 angemeldet: Mr. Idea, Frank Hergt, Schimmy, Kugi und ich (Barbara).

    Wer noch teilnehmen möchte: Anmeldeschluss ist der 24.09.2014 (1 Tag vor Beginn des Usertreffens) und das Anmeldeformular gibts hier.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: AQL ISO 2859 #62631

    Hallo xcurit,

    Du hast Recht, dass der Losumfang bei der hypergeometrischen Verteilung eine Rolle spielt. Er ist nur für das Verhältnis von Stichprobenumfang zu Losumfang irrelevant, d. h. der Stichprobenumfang wird auf Basis der Risiko/Absicherung/Wahrscheinlichkeit für Ausschuss ermittelt und ist nicht proportional zur Anzahl Teile im Los.

    Die meisten erwarten, dass bei einem größeren Los mehr Teile geprüft werden müssen als bei einem kleineren Los. Der Höhe von Risiko/Absicherung ist es ziemlich egal, ob in dem Los N=20 oder N=2.000.000 Teile sind – es wird „nur“ mit der Formel berechnet, wie viele Teile geprüft werden müssen um die Sicherheit in der Entscheidung zu haben.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Toni,

    quote:


    Ursprünglich veröffentlicht von Bokassa

    Ist es auch möglich, den Referenzwert aus Mittelwerten einer vorhandenen Messreihe zu bilden, wenn kein Normal oder Masterteil vorhanden ist?


    Ja, das ist möglich. Bevorzugt sollte dafür ein genaueres Messmittel als in der MSA verwendet werden (so verfügbar) und es sollten eine Handvoll Wiederhol-Messwerte aufgenommen werden, s. z. B. MSA 4, p. 45.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 15 Beiträgen – 136 bis 150 (von insgesamt 2,697)