Was ist schon normal?2004-04-01T14:22:13+01:00

QM-Forum Foren Qualitätsmanagement Was ist schon normal?

Ansicht von 11 Beiträgen – 1 bis 11 (von insgesamt 11)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo zusammen,

    ich hab mal ein neues Thema aufgemacht, weil die Unterstellung und Überprüfung der Normalverteilungsannahme deutlich über das Führen einer X-S-Karte hinausgeht und es hier offensichtlich sehr viele unterschiedliche Ansätze dazu gibt.

    Statistische Datenanalyse ist vergleichbar mit einem Hausbau: Als erstes brauche ich ein gutes Fundament, dann kann ich die erste Etage bauen und danach weitere Etagen und das Dach. Das Fundament ist eine gründliche Untersuchung der Daten. In der ersten Etage wird die Verteilung für die Daten (nach einer entsprechenden Überprüfung) festgelegt und dann kann ich die nächsten Etagen wie Prozessregelkarten, Prozessfähigkeitsindizes oder anderes darauf aufbauen. Wenn das Fundament allerdings bröckelig ist oder das Haus auf Treibsand gebaut, dann kann ich so viele und so schöne Methoden für die zweite Etage haben wie ich möchte: Das Haus wird instabil sein.

    Fundament: Ich hab eine Sammlung von Daten. Kann ich davon ausgehen, dass diese Daten eine Zufallsstichprobe sind?

    Bei einer Zufallsstichprobe gilt:
    a) Alle Werte sind unabhängig voneinander erhoben worden.
    b) Alle Werte stammen aus der gleichen Wahrscheinlichkeitsverteilung. (Erklär ich unten)

    a) ist zum Beispiel dann nicht erfüllt, wenn ich einen Verschleiß im Arbeitsprozess habe oder wenn sich zwei Prüfer miteinander besprechen, bevor sie die Messwerte eintragen.
    b) Eine Wahrscheinlichkeitsverteilung ist eine Funktion die mir angibt, mit welcher Wahrscheinlichkeit ein Wert auftritt. Beim Würfeln habe ich z. B. die gleiche Wahrscheinlichkeit von 1/6 für jede Zahl zwischen 1 und 6, alle anderen Zahlen haben die Wahrscheinlichkeit 0. Bei Messprozessen gibt es oft keine überschaubare Anzahl von möglichen Werten. (Die Wahrscheinlichkeitsverteilung wird deshalb als stetig bezeichnet.)
    Wenn alle Werte aus einer Normalverteilung stammen, dann sind die Werte symmetrisch und in einer Glockenform um den Mittelwert verteilt. Wenn die Daten aus der gleichen Verteilung stammen (egal aus welcher), dann kann ich annehmen, dass der Mittelwert der Daten normalverteilt ist, wenn ich genügend (mehr als 20 bis 25) Daten habe. Der Lageparameter wird dann durch das Stichprobenmittel geschätzt und die Varianz durch die Stichprobenvarianz. (Zentraler Grenzwertsatz)
    Die Bedingung b) ist z. B. dann nicht erfüllt, wenn zwei Messgeräte systematisch unterschiedlich messen oder zwei Prüfer unterschiedlich beurteilen. Eine andere Möglichkeit ist, dass es Einflüsse auf die Messwerte gibt, die unbekannt und deshalb auch unkontrolliert sind oder dass es Einflüsse gibt, die unkontrollierbar sind (Wind, Wetter, Qualitätsschwankungen bei Naturprodukten, etc.).

    Da wir nicht unter Laborbedingungen arbeiten, sind diese beiden Bedingungen selten strikt gegeben. Es ist also immer die Frage, ob die Abweichungen von den Grundannahmen so deutlich ist, dass meine Daten keine Zufallsstichprobe sind oder ob meine Daten ungefähr eine Zufallsstichprobe sind. Das kann mit unterschiedlichen Methoden überprüft werden, z. B. mit Grafiken, Kennzahlen und statistischen Testverfahren. Dazu schreibe ich später noch etwas, jetzt geh ich erstmal weiterarbeiten ;-)

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Wie stelle ich nun fest, ob meine Daten tatsächlich eine Zufallsstichprobe sind?

    Eine strukturierte Vorgehensweise ist die Folgende:

    Nach den inhaltlichen Überlegungen, in die ALLE am Prozess beteiligten MAs einbezogen werden sollten, sollte ein Standardprozess gefunden werden. Die Entwicklung eines Standardprozesses läuft in sieben Schritten ab:

    1. Sammeln aller möglichen Einflussfaktoren, unabhängig davon, ob vermutet wird, dass sie einen (großen) Einfluss haben oder nicht.
    2. Überprüfung, welche Einflussfaktoren signifikant wichtig im statistischen Sinn für das Prozessergebnis sind.
    3. Quantifizierung des Einflusses der signifikant wichtigen Faktoren.
    4. Optimierung des Modells
    5. Umsetzung
    6. Kontrolle
    7. Angabe zur Fähigkeit eines Prozesses

    Umsetzung:
    1. Das Sammeln von möglichen Einflussfaktoren geht z. B. mit Ursache-Wirkungs-Diagrammen und auch wieder mit der Mitarbeit aller am Prozess Beteiligten.
    2. Überprüfen, ob ein Faktor generell einen signifikanten Einfluss hat, funktioniert mit statistischen Verfahren wie Versuchsplänen. Das kostet natürlich erstmal Zeit und Geld. Es werden auch Versuche gemacht werden müssen, bei denen von vorneherein vermutet werden kann, dass das Ergebnis Schrott sein wird. Auch diese „Schrottwerte“ sind für die Modellierung wichtig, um zu wissen, wie sehr die Qualität unter bestimmten Faktoreinstellungen leidet. Ein netter Effekt der Signifikanzprüfung ist, dass auch Faktoren als unwichtig erkannt werden können, von denen vorher alle gedacht haben, dass sie wichtig sind.
    3. Die Quantifizierung der Einflüsse und ihrer Wechselwirkungen erfolgt durch eine entsprechende Datenmodellierung. (Das Feld ist zu weit und würde den Rahmen hier sprengen. Ansprechpartner für solche Sachen sind z. B. die Fachbereiche Statistik der Unis in Dortmund oder München und natürlich alle anderen Statistiker.) Am Ende steht ein Modell für den Standardprozess. Hier wird dann nicht nur das Modell aufgestellt, sondern auch untersucht, wie viel der Streuung durch das Modell erklärt wird bzw. wie gut das Modell zu den erhobenen Daten passt. Erst wenn das Modell so gut ist, dass aus Anwendersicht genügend erklärt wird, geht es in den nächsten Schritt, ansonsten muss geschaut werden, woran es liegt (Einflussfaktor vergessen? Gab es nicht modellierte Prozessänderungen wie z. B. Reperaturen, etc.?)
    4. Aus dem Modell werden dann die optimalen Faktoreinstellungen berechnet. Zusätzlich kann das Modell robustifiziert werden, wenn es z. B. unkontrollierbare Einflussfaktoren gibt (Variation beim Input, z. B. Naturmaterialien). Am Ende der Modellierung steht der Standardprozess, der in jedem Fall im laufenden Prozess weiter überprüft werden sollte:
    5. Die Umsetzung erfolgt durch das Einstellen der Faktoren auf optimales Niveau.
    6. Dann wird im laufenden Prozess kontrolliert, ob die gewünschte Qualität auch erreicht wird. Das funktioniert über Regelkarten, je nach Prozess für die Prozesslage und / oder -streuung und mit dem Prozess angemessenen Schätzern und Verteilungen.
    7. Und ganz am Ende des Verfahrens kann ich dann angeben, ob mein Prozess fähig ist oder nicht.

    Und was hat das alles mit der Frage nach der Zufallsstichprobe zu tun?

    Ganz einfach: Wenn ich einen Standardprozess habe, dann kann ich die wichtigen Einflussgrößen dahingehend kontrollieren und einstellen, dass das Ergebnis bis auf die natürliche Prozessvariation feststeht. Damit stammen meine gemessenen Werte aus demselben Modell, bzw. folgen derselben Wahrscheinlichkeitsverteilung. Wenn ich davon ausgehen kann, dass die Werte unabhängig sind (das ist auch überprüfbar und sollte in der Modellierung berücksichtigt worden sein), dann habe ich eine Zufallsstichprobe.

    In der PRAXIS…

    … sieht es anders aus. Oft wird davon ausgegangen, dass der Prozess unter Kontrolle ist und die optimalen Einstellungen schon gefunden sind und sowieso bekannt ist, welche Faktoren einen Einfluss haben. Die Schritte 1-5 werden übersprungen und es wird einfach unterstellt, dass der Prozess kontrolliert abläuft, die Daten aus einer Zufallsstichprobe stammen und somit zumindest der Mittelwert normalverteilt ist. Und wenn das alles nicht funktioniert, dann liegt es daran, dass die Statistik versagt.

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    So, nach dieser ganzen Theorie würde ich gerne mit Euch über etwas diskutieren, was ich ziemlich merkwürdig finde:

    Es zeigt sich immer wieder, dass es in der Praxis nicht funktioniert, wenn die Modellfindung und Optimierung übersprungen wird. Und dann liegt es an der Statistik, weil man ja bekanntlich keiner Statistik trauen soll, die man nicht selbst gefälscht hat.

    Die Statistik ist also schuld an dem Nicht-Funktionieren der Regelkarten und Fähigkeitsindizes? Wenn der Bauer nicht schwimmen kann, liegts bekanntlich an der Badehose!

    Was mich dabei wundert ist die Vehemenz, mit der Grundsätze der Statistik als Unfug dargestellt werden. Gerade im Qualitätsmanagement geht es doch darum, Prozesse transparent zu machen und somit kontrollierbar(er). Nichts anderes ist für die Datensammlung und -auswertung erforderlich, aber genau an diesem Punkt wird dann behauptet, das bräuchte man alles nicht, weil man ja schon alles weiß.

    Könnt Ihr mir das erklären?

    Viele Grüße

    Barbara

    Anonym
    Gast
    Beitragsanzahl: 2122

    Hallo Barbara,

    du hast viel geschrieben. Der Vergleich mit dem Bauern ist gut.
    Denn bekanntlich gilt, was er nicht kennt, dass frisst er nicht ;-)

    In der letzten Firma hab ich viel Statistik gemacht. Meine Erfahrung ist, solange der betroffene nicht etwas davon hat, wird er es ablehnen. Beispiel SPC, am Anfang verschrien als neumodischer „Mist“, haben die Schichten später interne Wettberwerbe gemacht, wer hat die besten QKZ. Allerdings gab es dann auch solche Dinge wie die berühmten 5 Teile, die nur zum messen verwendet wurden und der QS´ler sich den Kopf zerbrach, wieso die Regelkarte so „super aussieht“.

    Gruß
    Thomas R

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Thomas,

    ich fände es auch nicht weiter verwunderlich, wenn Statistik als „neumodischer Kram“ angesehen würde. Was mich völlig irritiert ist die Tatsache, dass statistische Verfahren angewendet werden und dann – wenn sie nicht so funktionieren, wie sie es eigentlich sollten – es an der Statistik liegt und nicht daran, dass die Grundannahmen nicht stimmen.

    Wenn z. B. Mittelwerte als normalverteilt angenommen werden, dann haben sie einen Mittelwert mu und eine Varianz von 1/n * sigma². Es gelten insbesondere zwei Dinge:

    1. Unabhängigkeit von Prozesslage und Streuung (bzw. Varianz)
    2. Die Approximation wird besser (genauer), wenn mehr Daten erhoben werden.

    Zu 1.
    Bei der Theorie der Kurzzeit- und Langzeitprozessstreuung wird angenommen, dass der Prozess zwar kurzfristig stabil mit Werten im 6s-Intervall ist, im Laufe der Zeit aber stärker schwankt, z. B. dass die Grenzen eigentlich größer sein müssen (z. B. [-4.5s,4.5s] sprich 9s-Intervall), damit sie zum Prozess passen. Die Prozesslage und die Prozessstreuung sind aber bei normalverteilten Daten grundsätzlich unabhängig voneinander und die Streuung wird mit wachsendem n nicht größer.

    zu 2.
    Allgemein wird die Approximation durch die Normalverteilung für den Mittelwert einer Zufallsstichprobe für 25 oder mehr Mittelwerte als gut angesehen; bei Messreihen von 500 und Messreihen von 5000 ergeben sich keine signifikanten Unterschiede.

    Wenn die Kurzzeitstreuung wirklich kleiner als die Langzeitstreuung ist, dann kann das zwei Gründe haben: Entweder folgen die Werte keiner Normalverteilung oder der Prozess ist nicht unter Kontrolle. Wenn die Werte aus einer Normalverteilung kommen, müssten die Schätzungen der Streuung mit der Zeit besser, d. h. genauer werden. Wenn der Prozess unter Kontrolle ist, dann folgen alle Werte der gleichen Verteilung, somit müsste die Approximation im Laufe der Zeit besser (genauer) werden.

    Grundsätzlich denke ich, dass Messungen normalverteilt sind, wenn der Prozess unter Kontrolle ist. Ich gehe eher davon aus, dass die untersuchten Prozesse nicht genügend unter Kontrolle sind, damit die Grundannahmen so getroffen werden können.

    Aber wenn die Prozesse in Wirklichkeit gar nicht unter Kontrolle sind, was nützen uns dann die Regelkarten und Prozessfähigkeitsindizes? Führen Sie uns / die Entscheider nicht eher in die Irre, als dass sie hilfreiche Entscheidungsgrundlagen oder Einschätzungen liefern?

    Viele Grüße

    Barbara

    pit
    Mitglied
    Beitragsanzahl: 174

    Habe mal in alten Beiträgen gestöbert…

    man man man Barbara… wie kann man für Statistik nur so eine Leidenschaft aufbringen – habe nicht die Wörter gezählt aber der Beitrag erinnert mich an so eine Szene aus einem Film (glaube American Pie?!?) wo eine Mädel so ganz schnell und aufgeregt erzählt… – habe echt geschmunzelt…
    Danke ;)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo pit,

    dass Du den alten Thread tatsächlich noch mal rausgekramt hast ;-) Naja, Du hast mich halt noch nie tippen sehen – das mach ich nämlich in Sprechgeschwindigkeit.

    Und mit der Leidenschaft für die Statistik hast Du absolut Recht (wie unschwer an meinen zahlreichen Beiträgen dazu erkennbar ist) .

    Viele Grüße

    Barbara

    _____________________________________

    Ich fühle, dass Kleinigkeiten die Summe des Lebens ausmachen.
    (Charles Dickens, Schriftsteller)

    Systemmanager
    Teilnehmer
    Beitragsanzahl: 291

    Hallo Barbara!

    Zunächst einmal, deine Darlegung ist ist eine tolle Zusammenfassung in (relativ) wenigen Worten (klatsch, Klatsch)!!

    Zu deiner Kernfrage nach dem „warum“ habe ich so meine Erfahrungen…..
    Wenn ich in ein Unternehmen komme (Audit) ist für mich eine der zu klärenden Punkte, ob denn im Unternehmen fundiertes Wissen über die Statistik Vorhanden ist. Da frage ich im Zuge des Audits nach,wer denn diesbezüglich der „Profi“ ist.
    Es ist dann unschwer die Grenzen dieses MA (oder meine eigenen ;-)) aus zu loten (natürlich ohne dass er das merkt). Damit weiß ich, was ich im Unternehmen erwarten kann.

    Nun, es gibt echte Profis, die als global Player der Statistik bezeichnet werden können. Dabei stellt sich aber die Frage, ob diese Profis in der Lage sind, ihr Wissen im Unternehmen um zu setzen.
    Zum Einen gibt es leider sehr wenige global Player, zum Anderen noch weniger, die ihr Wissen auch entsprechend umsetzten können.

    Daraus resultiert und das ist eine mögliche Antwort auf deine Kernfrage, dass Regelkarten mittels Software zum Einsatz gebracht werden, die die handelnden Personen nicht verstehen. Da werden Daten einfach hinein geschaufelt und ausgewertet, ohne nur im geringsten die von dir aufgezählten Punkte zu beachten.

    Das Ergebnis ist ernüchternd: Die MA können mit den Daten nichts anfangen, es zeigt falsch an und man weiß nicht warum…
    Dazu kommen die gefürchteten Aufwendungen, die nichts produktives bringen.

    Es gibt also in einem Unternehmen nicht viele, die mit Statistik wirklich etwas anfangen können. Deshalb ist es wesentlich, dass diese wenigen auch die (persönliche und organisatorische) Kompetenz mit sich bringen, etwas in diese Richtung zu bewegen. Eine gewählte Methodik darf nur dann eingesetzt werden, wenn sie einen geforderten Zweck erfüllt. Statistik wird aber oftmals um der Statistik willen eingesetzt.

    Die Statistik muss im Unternehmen auch sehr verständlich verpackt werden. Der Anwender muss einfach kapiert haben, dass ein NV Voraussetzung für bestimmte weitere Analysen/ Aussagen ist. Die Ableitung, warum und weshalb das so ist, ist m.M nach in der Praxis von unter geordneter Bedeutung.

    Konklusio (meine Erfahrung):
    In den meisten, vor allem kleineren und mittleren Betrieben, scheitert die Statistik and der Fachkompetenz der MA.

    Noch ein Statement zu deinen Ausführungen –> Zitat:
    „…..Wenn die Kurzzeitstreuung wirklich kleiner als die Langzeitstreuung ist, dann kann das zwei Gründe haben: Entweder folgen die Werte keiner Normalverteilung oder der Prozess ist nicht unter Kontrolle. Wenn die Werte aus einer Normalverteilung kommen, müssten die Schätzungen der Streuung mit der Zeit besser, d. h. genauer werden. Wenn der Prozess unter Kontrolle ist, dann folgen alle Werte der gleichen Verteilung, somit müsste die Approximation im Laufe der Zeit besser (genauer) werden.“………….

    Diesen Punkt sollten wir nochmals beleuchten.
    M.M. nach muss sich in der Praxis eine bessere Kurzzeitfähigkeit gegenüber der Langzeitfähigkeit zeigen:
    Um die Kurzzeitfähigkeit, wo im Allgemeinen ein höherer Wert gefordert wird, zu bestimmen, muss ein möglichst kurzes Intervall aus dem Prozess betrachtet werden. Hier sollen möglichst alle Einflussfaktoren wie z.B. Klima, Materialstreung, Personen, Werkzeugabnutzung, Anlagenveränderungen….ausgeschaltet werden.
    Es soll ermittelt werden welche Fähigkeit erzielt werden kann.

    Bei der Langzeitbetrachtung sollen hingegen alle Einflussparameter mit ins Boot genommen werden, also Klima, Material, Personen, Abnützung….
    Die Langzeitbetrachtung wird daher auch Anfahr-, Abstell-, Rüstvorgänge, aber auch Materialchargen über ein langes Intervall betrachten.
    Der Prozessfähigkeitsindex muss kleiner (schlechter) werden.

    Also ich meine, eine geringere Langzeitfähigkeit gegenüber der größeren Kurzzeitfähigkeit kann allgemein nicht so ausgelegt werden, dass dies ein Hinweis auf einen unbeherrschten Prozess anzeigt.

    Systemmanager :-)
    (nicht ganz so flott mit dem Tippen)

    IsoMan
    Mitglied
    Beitragsanzahl: 421

    Hallo Barbara,

    du hast es schon sehr richtig analysiert, der Problembereich ist ganz am Anfang zu finden.
    Die kritische Betrachtung des Prozesses wird auch durch die entspr. MA blockiert, die ihr Expertenwissen nicht weitergeben und somit leider nicht dazu beitragen, dass der Prozess wirklich transparent wird. Oftmals kann man feststellen, dass es MA gibt, die ihre speziellen Prozesserfahrungen für sich behalten, damit sie immer als Könige gegenüber den anderen oder neuen Kollegen dastehen. Und sind wir mal ehrlich, ich habe es bisher schon häufig erlebt, dass der Chef sagt, dann muss halt Werker x die Anlage fahren damit es klappt. Er hat nicht gefragt warum können die anderen das nicht so gut. Übrigens ein Thema, bei dem ich dann auch mal gegen die Wand laufe, weil der Chef nicht kritisch hinterfragt (ist manchmal sehr frustrierend).
    Also nach meiner Meinung kann eine gute Grundlage für statistische Betrachtungen von Prozessen nur erfolgen, wenn man diese kleinen Herrgötter ausmerzt.

    IsoMan

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo zusammen,

    danke für Eure Antworten. Ich habe ähnliche in den letzten drei Jahren gefunden (s. o., der Thread ist von April 2004!)

    In der Zwischenzeit hat sich einiges geändert, nicht nur in diesem Forum, sondern auch in den Köpfen der Menschen.

    Vor drei Jahren waren die häufigsten Sätze, die ich zu hören bekommen habe wenn es um Statistik ging „Glaube keiner Statistik, die Du nicht selbst gefälscht hast!“ „Wieso brauche ich ein Statistik-Programm, ich hab doch Excel?“ und „Statistik fand ich schon in der Ausbildung / Schule / Studium doof, tausend Formeln und kein Sinn dahinter.“

    Mittlerweile hat sich das langsam und stetig geändert. Der Anteil der Menschen, die den Nutzen von statistischen Verfahren sehen, wächst. Es gibt immer mehr Menschen, die wissen wollen, warum sie diesen „komischen Kram“ machen sollen.

    Auch die Fragen hier gehen tiefer und zeigen, dass das Interesse an statistischen Verfahren und Möglichkeiten wächst. (Nee, die kritische Masse ist noch nicht erreicht. Das wird noch 5-10 Jahre dauern. So ungefähr. Hoffe ich.)

    Ich denke, dass die Forderung der TS, alle Mitarbeiter sollten Grundkenntnisse in statistischen Verfahren haben, berechtigt ist. Denn nur dann können die Verfahren auch sinnvoll angewendet werden bzw. überhaupt verstanden werden. Und ich denke, dass auch alle nicht-Automobilisten mit dem gezielten Einsatz von statistischen Methoden ihre Prozesse besser regeln könnten.

    Statistik-Verstehen hat für mich sehr viel mit gesundem Menschenverstand und anschaulichen Beispielen zu tun (Stichworte: Red Bead, Qunicunx, Sand läuft durch Trichter) – und überhaupt nichts mit Formeln, wie es leider immer wieder gelehrt wird. Die Formeln und die Mathematik sind für die „Spezialisten“ bestimmt.

    Da Statistik das ZDF-Prinzip sehr stark unterstützt, wird Expertenwissen durch Grafiken und Kennzahlen transparent. Das passt natürlich denjenigen nicht, die durch exklusives Wissen eine bestimmte Position sichern konnten. Bei der heutigen Arbeitsmarktsituation kann ich auch gut nachvollziehen, dass manche Mitarbeiter aktive Jobsicherung durch Zurückhaltung von Wissen betreiben.

    Das Dumme daran ist nur, dass damit die Kundenzufriedenheit aufs Spiel gesetzt wird, weil suboptimal laufende Prozesse zu Lieferverzögerungen, Qualitätsverschlechterungen oder -schwankungen und Reklamationen führen können. Damit ist diese Art der Jobsicherung langfristig ein Jobkiller.

    Ich denke, dass die Statistik ihren Stellenwert in deutschen Firmen in den nächsten Jahren deutlich ausbauen wird. Einerseits gibt es immer mehr Firmen, von denen das gefordert wird (z. B. TS, Six Sigma), andererseits gibt es immer mehr Mitarbeiter, die eigene Erfolge mit statistischen Methoden erreicht haben.

    Damit wird sich die technische Statistik in den nächsten Jahrzehnten dann auch allmählich an den Punkt weiterentwickeln, an dem alle anderen statistischen Teilbereiche wie Medizin, Markforschung, Soziologie, Versicherungsmathematik, Verkehrswesen, etc. schon heute sind. Das ist meine Prognose, die natürlich mit einer gewissen Unsicherheit behaftet ist – bin ich doch Statistikerin ;-)

    Viele Grüße

    Barbara

    _____________________________________

    Ich fühle, dass Kleinigkeiten die Summe des Lebens ausmachen.
    (Charles Dickens, Schriftsteller)

    QMarc
    Mitglied
    Beitragsanzahl: 925

    Hallo zusammen,

    wow, was für ein Thread. :-)

    Wohin wird die Statisktik gehen? Ich denke, die Probleme, die Statisktik den Anwendern macht, haben wir hier sehr umfangreich immer wieder vor Augen.

    Aus meiner Sicht wird die Zukunft der Statistik darin liegen, die Voraussetzung der Black Box-Systeme bzw. der statistischen Basis deutlicher darzustellen und damit auch das Vertrauen und die Bewertbarkeit von Aussagen zu verbessern.

    Vielleicht wäre es in einer Software auch angebracht, die Daten daraufhin zu überprüfen, ob sie die Aussage, die der Anwender braucht, auch liefern kann. Zu häufig erlebe ich dann doch den Knopfdruck und das unkritische Übernehmen von Aussagen, die so gar nicht zulässig sind.

    Alles scheint eine Frage von Transparenz und vor allem Verstehen zu sein und da braucht es eben Ritterinen wie Barbara, die den Anwendern die Fakten mal klar und deutlich rüberbringen und den unwissenden Knopfdruck nicht mehr akzeptieren.
    Dann wird das „Warum“ irgendwann vielleicht auch nicht mehr nötig sein …

    Wahrscheinlich wird aber das Problem in Betrieben „Wenig Zeit und X Anforderungen bei denen ich mich wirklich auskennen muss“ nicht so einfach zu überwinden sein. Vielleicht ein Ansatz für eine neue Dimension von Softwareprodukten, die wirklich leisten, was Anwender brauchen = Antworten auf Fragen geben udn eben auch Grenzen des Machbaren aufzeigen.

    Viele Grüße
    Qmarc

    geändert von – qmarc on 15/02/2007 10:24:33

Ansicht von 11 Beiträgen – 1 bis 11 (von insgesamt 11)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben