Annahmestich- probenprüfung

Slides:



Advertisements
Ähnliche Präsentationen
Die folgende Präsentation illustriert die Teilkapitel 5. 2 bis 5. 4
Advertisements

Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Vorlesung Programmieren II
Alternativ: Direkte schrittweise Berechnung dieser sogenannten gemeinsamen Wahrscheinlichkeiten auf Grund der Einzelwahrscheinlichkeiten Wahrscheinlichkeit.
Die Binomialverteilung
Grundlagen der Wahrscheinlichkeitsrechnung - Verteilungen -
Statistische Methoden in der Qualitätssicherung
5. Sortier-Algorithmen Vorbemerkungen:
Genetische Algorithmen für die Variogrammanpassung
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Gliederung Vertrauensintervalle Arten von Hypothesen
Gliederung Tabellarische und grafische Darstellung von Rohwerten mittels Histogramme und Polygone Statistische Kennwertbeschreibung mittels Tendenz- und.
Qualitätsregelkarten
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
Genetische Algorithmen
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
Hypothesen testen: Grundidee
Struktur und Funktion von Biopolymeren Elmar Lang
Konfidenzintervalle Intervallschätzung
Bitte mein Manuskript (liegt im Bibliotheksgebäude aus) nicht nach Außerhalb tragen. Die Weitergabe an Dritte (d. h. an Personen, die nicht Hörer der Vorlesung.
Die Student- oder t-Verteilung
Statistische Methoden I WS 2007/2008 Donnerstag, 31. Januar 2008 und Freitag, 1. Februar 2008 Probeklausur - statt Vorlesungen -
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Statistische Methoden I SS 2005 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Statistische Methoden I WS 2007/2008 Donnerstag, 31. Januar 2008 und Freitag, 1. Februar 2008 Probeklausur nächste Woche - statt Vorlesungen -
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
Die Vorlesung am 14. Mai (Tag nach Himmelfahrt) wird auf Montag, den 17. Mai verlegt! Zeit: 16 Uhr Ort: Kiste Nächste Woche!!!!
Statistische Methoden II SS 2003 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
III. Induktive Statistik
Die Vorlesung am 14. Mai (Tag nach Himmelfahrt) wird verlegt. Der Nachholtermin wird noch bekannt gegeben.
Urnenmodelle. Die Normalverteilung (Gauß-Verteilung) (Gaußsche Glockenkurve)
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Univariate Statistik M. Kresken.
Rating Ratingvalidierung – quantitative Validierung
Tutorium Willkommen zurück, in der wunderbaren Welt der Statistik Teil II.
Vorlesung: ANOVA I
Wie macht man ein Sudoku? Transformations-Methode:
Kakuro Regeln und Strategien
Variationsformalismus für das freie Teilchen
Histogramm/empirische Verteilung Verteilungen
Formulierung und Überprüfung von Hypothesen
Sali zäma.
Einführung in die beurteilende Statistik
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
STATISIK LV Nr.: 1375 SS März 2005.
Kapitel 10 Multikollinearität
Stichproben-Verfahren in der Annahmekontrolle
Wahrscheinlichkeitsrechnung
Wahrscheinlichkeitsrechnung
1 Stichprobenverfahren zur Qualitätssicherung Hilfestellung der Statistik in der Wirtschaftsprüfung.
1 (C) 2002, Hermann Knoll, HTW Chur, Fachhochschule Ostschweiz Wahrscheinlichkeitsverteilung Lernziele: Wahrscheinlichkeitsverteilung und der Wahrscheinlichkeitsdichte.
Vorwissen: Begriff der Steigung Geradengleichung Polynomfunktionen Monotonie und Extremwerte In den ersten Beispielen werden dieses Wissen allerdings wiederholt.
Disziplin 3: Cycle. Man geht aus von zwei 3er-Stapeln und einem 6er-Stapel
Toleranzanalyse und Simulation Beispiel 1, Montage von Einzelteilen
SFZ FN Sj. 13/14 Python 3 Rekursion Inf K1/2 Sj 13/14
Statistik – Regression - Korrelation
Beachten Sie die Temperaturen von Locarno und Altdorf.
Analyse der Laufzeit von Algorithmen
setzt Linearität des Zusammenhangs voraus
Die Binomialverteilung
Geoinformationssysteme
Vertikale Integration
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Methoden zur Strategieumsetzung Prof. Dr. Klaus-Peter Franz Übung Werttreiberbaum Prof. Dr. Klaus-Peter Franz Heinrich-Heine-Universität Düsseldorf.
 Präsentation transkript:

Annahmestich- probenprüfung

Wird die Qualität eines Produktes überprüft, so geschieht dies in der Regel im Rahmen einer Annahme-, Zwischen- oder Abnahmeprüfung durch eine zufällige Stichprobennahme. Sie bietet gegenüber einer 100%-Prüfung folgende Vorteile: geringere Prüfkosten, weniger Bedienfehler, kürzere Prüfzeit, (dadurch liegt eher ein Ergebnis vor) weniger monotone Arbeit, (dadurch besser motiviertes Personal) zurückweisen fordert vom Lieferanten Qualitätssteigerung kontinuierliche Aufzeichnung dokumentiert Produktqualität Demgegenüber steht das Risiko, eine gute Lieferung zurückzuweisen bzw. eine schlechte Lieferung anzunehmen. Diese Risiken kann man mit statistischen Methoden im wesentlichen beherrschen.

Eine einfache Stichprobenkontrolle erfolgt nach folgendem Schema: Lieferant und Kunde einigen sich auf den Umfang n der Stichprobe und die Anzahl c fehlerhafter Einheiten, die sie enthalten darf. Man spricht dann von einer n-c Prüfanweisung. Die Lieferung wird nicht angenommen, wenn die Anzahl der fehlerhaften Teile der Stichprobe größer als c ist. Wie hoch ist nun die Annahmewahrscheinlichkeit ? Einfache Stichprobenkontrollen lassen sich durch Urnenmodelle beschreiben, die Wahrscheinlichkeit lässt sich daher mit der Binomial- bzw. der hypergeometrischen Verteilung berechnen. In der Praxis verwendet man, falls der Stichprobenumfang n weniger als 1/10 der Losgröße N beträgt, stets die Binomialverteilung mit p = M/N, wobei M die Anzahl fehlerhafter Teile ist. Beträgt also der tatsächliche Fehleranteil p, so ist die Annahmewahr-scheinlichkeit Die Funktion L(p) wird auch Annahmekennlinie oder Operationscharakteristik genannt.

Beispiel: Annahmekennlinie oder Operations-Charakteristik l(p) > 1- l(p) <  p1- p

ist das Lieferantenrisiko,  ist das Abnehmerrisiko, meist  =  = 0.1 p1- wird oft als AQL-Wert (Acceptable Quality Level = Annehmbare Qualitätsgrenzlage) bezeichnet. Dieser Begriff wird allerdings im Stichprobensystem der internationalen Norm ISO 2859 weiter gefasst. Dort geht man von verschiedenen Prüfniveaus aus (reduzierte, normale und verschärfte Prüfung) mit jeweils angepassten Prüfanweisungen. p heißt RQL (Rejectable Quality Level = Rückzuweisende Qualitätsgrenz-lage), p0,5 heißt IQL (Indifferent Quality Level = Indifferente Qualitätslage). Der Bereich zwischen p1- und p wird Bereich mittlerer Annahme-wahrscheinlichkeit genannt, er ist umso kleiner, d.h. die Operations-charakteristik verläuft umso steiler, je größer der Stichprobenumfang ist. Je steiler der OC-Verlauf, desto “wirksamer“ ist die Prüfanweisung.

Neben der OC wird auch der sogenannte Durchschlupf zur Bewerten von Prüfanweisungen herangezogen. Darunter versteht man den Rest-fehleranteil, der im Mittel (bezogen auf mehrere Prüflose mit gleichem Fehleranteil) unentdeckt bleibt. Das Vorgehen ist dabei folgendes, aus einer Lieferung von m Produkten werden m/N Prüflose vom Umfang N ausgewählt, die den gleichen Fehleranteil M/N haben. Die Lose werden einer n-c Prüfanweisung unter-zogen. Die Annahmewahrscheinlichkeit L(p) mit p = M/N führt bei L(p)*m/N Losen zur Annahme, bei (1– L(p))*m/N Prüflosen zur Ablehnung. Bei den angenommenen Prüflosen werden die fehlerhaften unter den n geprüften durch fehlerfreie ersetzt, so dass n*L(p)*m/N Produkte fehlerfrei sind. Werden die abgelehnten Lose einer 100%-Prüfung unterzogen, so sind nach entsprechendem Austausch auch diese fehlerfrei. Unter den restlichen verbleiben im statistischen Mittel p% fehlerhafte, also eine Restfehleranteil bzw. Durchschlupf von

Ist n sehr klein im Verhältnis zu N, so wird der Durchschlupf näherungs-weise zu p·L(p) . Er hängt damit von p ab und ist stets kleiner als p. Der Durchschlupf wird auch als AOQ (Average Outgoing Quality) bezeichnet. Er ist klein für sehr gute Lieferungen (kleines p) aber auch für sehr schlechte Lieferungen, (weil dann sehr viele Lose zurückgewiesen werden). Daher wird der AOQ mit wachsendem p zunächst steigen und dann wieder fallen. Das zwischenzeitlich erreichte Maximum heißt AOQL (Average Outgoing Quality Level) oder maximaler Durchschlupf. Dieser gibt also eine Obergrenze für den maximalen "mittleren" Restfehleranteil an. Beispiel: Zur 100-5 Prüfanweisung ergibt sich für großes N (z.B. N > 10000) folgendes Durchschlupfdiagramm: AOQL = 0.032 für pAOQL=4.2% AOQL Für textil- und bekleidungstechnische Probleme spielt der Durchschlupf nur eine untergeordnete Rolle, da häufig alle Stichproben zerstört sind.

Auswahl einer Prüfanweisung Lieferant: Die Annahmewahrscheinlichkeit soll hoch sein (mindestens 90% bei entsprechend kleinem Fehleranteil p1- im Prüflos). Abnehmer: Ab einem bestimmten Fehleranteil p darf die Annahmewahr- scheinlichkeit nicht größer als 10% sein. Die Prüfparameter n und c sind nun so zu bestimmen, dass beide Forderun-gen möglichst gut erfüllt werden. Eine rechnerische Bestimmung ist sehr aufwendig, man bestimmt die Größen entweder zeichnerisch (durch soge-nannte Larson – Nomogramme), Probieren oder mit Hilfe der 2-Verteilung. Für p1-= 2% etwa erhält man L(p) = 0.1 für n=5 und c=0 oder n=27 und c=1 sowie n=55 und c=2, n=88 und c=3 und n=122 mit c=4. Ist p = 8%, so sind n=98, c=4 und n=82,c=3 und n=65, c=2 und n=47 und c=1 sowie n=28 bei c=0. Die Einigung gelingt am besten bei c=3. Dann können beide mit n=82 gut leben. (Kleinster Prüfaufwand)

Für das Beispiel  =  = 0.1 und p1- = 2% sowie p = 8% ergibt sich: Für die n-c Prüfanweisungen gilt: Die Bedingungen L(p1-)  1- und L(p)   werden von mindestens einer Prüfanweisung erfüllt. Diese genügt der Bedingung: Für das Beispiel  =  = 0.1 und p1- = 2% sowie p = 8% ergibt sich: n=84, c=3. Diese Werte sind auch zutreffend, wenn der Operationscharakteristik die hypergeometrische oder die Poisson-Verteilung zugrunde gelegt wird. Im Falle der Poisson-Verteilung ist das kleinste n, dass der obigen Ungleichung (für das kleinstmögliche c) genügt, der minimal mögliche Wert.