Frequently Asked Questions
Find quick answers to your questions about my8data
Detailed explanations of the methods can be found at www.sixsigmablackbelt.de
General
my8data is a web-based software solution for statistical quality management. The application supports you in performing measurement system analyses (MSA), machine capability investigations (MFU), and statistical process control (SPC) according to common industry standards such as VDA and AIAG.
my8data runs optimally in current versions of Chrome, Firefox, Edge, and Safari. For the best experience, we recommend Google Chrome or Mozilla Firefox.
You can change the language via the globe icon in the top navigation bar. Currently German and English are supported. Your setting is saved automatically.
All your analyses are automatically saved in the cloud. You can also export each analysis as an Excel file. To do this, go to the respective analysis and click on "Export".
Measurement System Analysis (MSA)
MSA1 (Cg/Cgk) tests the capability of a measuring instrument using a reference standard. MSA2 (Gage R&R) examines repeatability and reproducibility with multiple operators. MSA3 is a simplified Gage R&R with only one operator.
According to VDA Volume 5: Cg ≥ 1.33 and Cgk ≥ 1.33 are the minimum requirements. For special processes, Cg ≥ 1.67 and Cgk ≥ 1.67 are often required.
%GRR shows the proportion of measurement system variation in the total variation. Rating: ≤10% = capable (green), 10-30% = conditionally capable (yellow), >30% = not capable (red). Additionally, ndc should be ≥ 5.
VDA recommends: at least 10 parts, 3 operators, and 2-3 repetitions per part and operator. The parts should be distributed across the entire tolerance range.
MSA7 evaluates attributive (pass/fail) inspection processes with multiple operators using Kappa statistics and agreement rates. MSA7A is for automated inspection systems with only one "operator" (automation).
Machine Capability (MFU)
Cm/Cmk (machine capability) is determined from short-term measurements under stable conditions. Cp/Cpk (process capability) is based on long-term data and considers all process influences. Cm/Cmk should be higher than Cp/Cpk.
VDA recommends at least 50 consecutive measurements. The measurement should be performed under stable conditions (same batch, same operator, same machine).
For new machines: Cmk ≥ 1.67. For existing machines: Cmk ≥ 1.33. For special processes, higher values may be required.
Yes, the assumption of normal distribution should be verified with a test (e.g., Anderson-Darling). For non-normally distributed data, alternative distributions or transformations can be used.
Statistical Process Control (SPC)
X̄-R chart: for sample sizes 2-10. X̄-S chart: for sample sizes >10. I-MR chart: for individual values. The choice depends on your sampling concept.
Control limits are calculated from the process data (not from specification limits!). UCL = Mean + 3σ, LCL = Mean - 3σ. The exact calculation depends on the chart type.
A process is considered out of control when: point outside control limits, 7 consecutive points on one side of the center line, trends, cycles, or other non-random patterns.
Cp/Cpk is based on within-variation (short-term), Pp/Ppk on overall variation (long-term). For a stable process, both are similar. Large differences indicate instability.
Data & Import
You can enter data directly into the spreadsheet fields, paste from Excel via Copy&Paste, or import DFQ files (Q-DAS format).
Each analysis can be exported as an Excel file (.xlsx). The file contains all input data, calculations, and results. To do this, go to the analysis and click on "Export".
Yes, via the Excel template management you can create and reuse templates with predefined header data and settings.
The data generator creates synthetic measurement data for training purposes. You can choose different distributions (Normal, Weibull, etc.) and parameters.
Account & License
Go to your user settings (click on your name → Settings) and select "Change password".
Yes, all data is stored encrypted on German servers. We fully comply with GDPR. Your analysis data belongs exclusively to you.
MSA: Fundamentals
Das primäre Ziel ist der statistische Nachweis, dass ein Messprozess (bestehend aus Gerät, Mensch, Methode und Umwelt) am konkreten Einsatzort für die vorgesehene Messaufgabe geeignet ist. Es soll sichergestellt werden, dass die Messeinrichtung ein Qualitätsmerkmal mit einer im Verhältnis zur Toleranz hinreichend geringen systematischen Messabweichung (Richtigkeit) und einer hinreichend geringen Messwertstreuung (Präzision) erfassen kann.
Der Nachweis bezieht sich immer auf den gesamten Messprozess am Einsatzort, nicht nur auf das isolierte Messgerät. Ein Messgerät kann unter Laborbedingungen exzellent sein, aber durch Einflussfaktoren wie Vibrationen in der Fertigung, Temperaturschwankungen, unzureichende Vorrichtungen oder unterschiedliche Bedienerhandhabung im realen Prozess untauglich werden. Daher muss die Untersuchung unter Serienbedingungen erfolgen.
Ja, grundsätzlich gilt der Fähigkeitsnachweis ausschließlich für das untersuchte Merkmal. Werden mit derselben Messeinrichtung unterschiedliche Merkmale (z. B. Durchmesser und Rundlauf) oder Merkmale mit deutlich unterschiedlichen Toleranzen gemessen, ist für jedes dieser Merkmale ein separater Fähigkeitsnachweis erforderlich, da sich die Auflösung, die Handhabung und die physikalischen Gegebenheiten unterscheiden können.
Die Auflösung der Messeinrichtung muss klein genug sein, um die Toleranz des Merkmals ausreichend fein zu unterteilen. Als Faustregel ("Goldene Regel der Messtechnik") gilt, dass die Auflösung maximal 5% der Toleranz T betragen sollte (≤ 5% · T). In begründeten Ausnahmefällen ist eine Auflösung von bis zu 10% der Toleranz zulässig (≤ 10% · T), wenn technisch keine besseren Geräte verfügbar sind. Eine unzureichende Auflösung führt zu Informationsverlust und verfälscht die statistische Auswertung der Streuung.
Die statistischen Berechnungsmodelle der Verfahren 1 bis 5 (wie Mittelwert, Standardabweichung, Cgk, ANOVA) basieren mathematisch auf der Annahme einer Normalverteilung der Messwerte. Liegt keine Normalverteilung vor (z. B. bei einseitigen physikalischen Begrenzungen, Formfehlern oder Mischverteilungen), liefern diese Standardverfahren falsche oder irreführende Ergebnisse. In solchen Fällen müssen Sonderverfahren angewandt oder Datentransformationen geprüft werden.
Eine sorgfältige und dokumentierte Prüfplanung ist die zwingende Voraussetzung für jeden Fähigkeitsnachweis. Sie legt fest, was (Merkmal), womit (Prüfmittel), wie (Methode) und wie oft gemessen wird. Ohne diese Definition ist ein Fähigkeitsnachweis nicht reproduzierbar und normativ wertlos. Die Grenzwerte für die Fähigkeitskennzahlen (z. B. 1,33 oder 1,67) richten sich nach den kundenspezifischen oder normativen Vorgaben.
Die Messprozessfähigkeit bewertet die Eignung eines Systems im Verhältnis zur Toleranz eines Merkmals für die Serienüberwachung (Fokus: "Ist das Gerät gut genug für dieses Teil?"). Die Messunsicherheit (nach VDA 5 / GUM) ist ein Parameter, der jedem Messergebnis zugeordnet ist und den Bereich kennzeichnet, in dem der wahre Wert liegt. Während die Fähigkeit oft für die Freigabe genutzt wird, ist die Messunsicherheit für Konformitätsentscheidungen nach ISO 14253 entscheidend.
Die Dokumentation muss so vollständig sein, dass die Untersuchung jederzeit nachvollziehbar ist. Dazu gehören: Eindeutige Identifikation des Prüfplans, Datum/Uhrzeit, Umgebungsbedingungen (Temperatur), Identifikation der verwendeten Normale (Kalibrierschein-Nr.), Namen der Bediener, alle Rohdaten (Einzelmesswerte), die verwendeten Grenzwerte, die Auswertemethode sowie das Ergebnis inklusive einer klaren Bewertung ("fähig" / "nicht fähig").
Wenn die Standardverfahren oder die AIAG MSA technisch nicht anwendbar sind (z. B. bei zerstörenden Prüfungen, extrem komplexen Geometrien oder dynamischen Messungen), müssen eigene Sonderverfahren entwickelt werden. Diese Vorgehensweise muss dokumentiert und zwingend mit dem zuständigen Qualitätsmanagement-Bereich sowie im Falle von Lieferbeziehungen mit dem Kunden abgestimmt werden, bevor sie angewendet wird.
Method 1: Cg/Cgk
Verfahren 1 ist eine "Maschinenfähigkeitsuntersuchung" für das Messgerät. Es dient dazu, das Messsystem isoliert zu betrachten – also ohne den Einfluss von verschiedenen Bedienern oder der Streuung von Serienteilen. Geprüft werden die systematische Messabweichung (Bias) gegenüber einem bekannten Referenzwert und die Wiederholbarkeit (Streuung) des Gerätes.
Das Normal muss langzeitstabil sein und dem zu messenden Serienmerkmal in Geometrie und Beschaffenheit möglichst genau entsprechen. Entscheidend ist, dass es kalibriert ist und der "richtige Wert" (Referenzwert xm) bekannt ist. Die Unsicherheit der Kalibrierung Ukal sollte deutlich kleiner sein als die Toleranz des Merkmals (Idealfall: Ukal < 1% · T; Mindestanforderung: Ukal < 10% · T).
Um eine verlässliche statistische Aussage über die Streuung und den Mittelwert zu erhalten, ist eine ausreichende Stichprobengröße nötig. Es werden mindestens 25 Messungen gefordert, empfohlen werden jedoch 50 Messungen. Eine zu geringe Anzahl an Messungen führt zu großen Vertrauensbereichen, was das Risiko von Fehlentscheidungen (falsch-positiv oder falsch-negativ) erhöht.
Das bloße Wiederholen der Messung ohne Bewegung des Teils würde nur die innere Elektronik- oder Mechanik-Streuung des Gerätes erfassen. Um den realen Prozess abzubilden, müssen alle Handhabungsschritte simuliert werden (Spannen, Positionieren, Antasten). Nur so wird die Streuung erfasst, die auch im späteren Serienbetrieb durch das Einlegen der Teile entsteht.
Cg (Potenzieller Fähigkeitsindex): Setzt die Streuung des Messgerätes (üblicherweise 6·s) ins Verhältnis zur Toleranz (üblicherweise 0,2·T). Er sagt aus, wie präzise das Gerät ist, ignoriert aber die Richtigkeit. Cgk (Kritischer Fähigkeitsindex): Berücksichtigt zusätzlich zur Streuung auch die systematische Abweichung (Bias) vom wahren Wert. Er prüft, ob die Messwerte nicht nur eng beieinander liegen, sondern auch zentriert zur Referenz sind.
Nach gängigen Normen gelten die Mindestanforderungen Cg ≥ 1,33 und Cgk ≥ 1,33. Werte unter 1,33 weisen darauf hin, dass die Streuung zu groß ist (Gerät unpräzise) oder die systematische Abweichung zu hoch ist (Gerät falsch justiert), wodurch der Toleranzbereich zu stark durch die Messunsicherheit eingeschränkt wird.
Bei Merkmalen ohne natürliche Grenze (z. B. Abstand > 10mm) existiert keine feste Toleranzbreite T, weshalb Cg und Cgk nicht berechnet werden können. In diesem Fall wird Verfahren 1 genutzt, um Bias und Streuung zu ermitteln. Daraus wird ein reduzierter Akzeptanzbereich für die Produktion berechnet (z. B. z ≤ OGW - 4s - |Bias|), um sicherzustellen, dass keine Schlechtteile fälschlicherweise als Gutteile akzeptiert werden.
Das sind Merkmale, die physikalisch nicht kleiner als Null werden können, wie z. B. Rundlauf, Rauheit oder Betrag einer Unwucht. Hier stellt die Null (UGW* = 0) eine natürliche Grenze dar. In diesen Fällen kann oft eine Ersatz-Toleranz T* (Differenz aus Grenzwert und Null) gebildet werden, um Cg-Werte analog zu zweiseitigen Merkmalen zu berechnen.
Im Rahmen von Verfahren 1 wird mittels eines t-Tests geprüft, ob die gemessene Abweichung (x̄ - xm) statistisch signifikant ungleich Null ist oder ob sie nur durch Zufallsstreuung entstanden sein könnte. Ist die Abweichung statistisch nicht signifikant, darf der Bias in bestimmten Berechnungen (z. B. bei der Festlegung von Akzeptanzkriterien) vernachlässigt werden.
Verfahren 1 prüft die "Basis-Hygiene" des Messgerätes. Wenn das Messgerät selbst (ohne Bedienereinfluss und Teilevariation) schon nicht in der Lage ist, reproduzierbare und richtige Werte am Normal zu liefern, macht es keinen Sinn, komplexere Studien (Verfahren 2/3) durchzuführen. Ein Scheitern in Verfahren 2 wäre dann vorprogrammiert und die Fehlersuche unnötig kompliziert.
Method 2: Gage R&R
Verfahren 2 (Gage R&R) muss immer dann durchgeführt werden, wenn der Bediener einen Einfluss auf das Messergebnis haben kann. Dies ist der Fall bei Handmessmitteln (Messschieber, Bügelmessschraube), bei manueller Bestückung von Vorrichtungen, oder wenn der Bediener subjektive Entscheidungen bei der Auswertung trifft (z. B. manuelles Setzen von Messlinien).
Der Standard fordert: Mindestens 10 repräsentative Serienteile (n ≥ 10), mindestens 3 verschiedene Bediener (k ≥ 3), mindestens 2 Wiederholungsmessungen pro Teil und Bediener (r ≥ 2). Dies ergibt eine Gesamtanzahl von mindestens 10 × 3 × 2 = 60 Messwerten.
Die Teile sollten nicht ideal sein, sondern die tatsächliche Streuung des Fertigungsprozesses repräsentieren. Idealerweise decken sie den gesamten Toleranzbereich ab. Wenn die Teile zu ähnlich sind (zu geringe Teilestreuung), kann dies mathematisch dazu führen, dass der Messprozess schlechter bewertet wird, als er ist (siehe Problematik ndc).
Um psychologische Effekte auszuschließen ("Erinnerungseffekt"), darf der Prüfer nicht wissen, welches Teil er gerade misst oder was er beim letzten Mal gemessen hat. Eine zufällige Reihenfolge (Randomisierung) verhindert zudem, dass Trends (z. B. Erwärmung des Gerätes) fälschlicherweise als Teilestreuung oder Bedienerunterschied interpretiert werden.
Die entscheidende Kennzahl ist %GRR (Gauge Repeatability and Reproducibility). Sie setzt die kombinierte Streuung aus Gerät (EV) und Bediener (AV) ins Verhältnis zur Bezugsgröße. In der Regel ist die Bezugsgröße die Toleranz T. Die Formel lautet vereinfacht: %GRR = (6 · GRR / T) · 100%.
%GRR ≤ 10%: Der Messprozess gilt als fähig. 10% < %GRR ≤ 30%: Der Messprozess ist bedingt fähig. Eine Nutzung ist oft möglich, aber Maßnahmen zur Verbesserung sollten geprüft werden. %GRR > 30%: Der Messprozess ist nicht fähig und darf nicht verwendet werden.
Die AIAG MSA empfiehlt oft die Gesamtstreuung (Total Variation, TV) als Bezugsgröße. Dies ist jedoch problematisch: Wenn ein Fertigungsprozess sehr präzise ist (sehr kleine Teilestreuung), erscheint der Messfehler im Verhältnis dazu riesig, obwohl das Messgerät bezogen auf die Toleranz (Funktion des Teils) völlig ausreichend ist. Der Toleranzbezug ist daher technisch meist relevanter.
Der ndc-Wert gibt an, wie viele unterscheidbare Kategorien (Klassen) das Messsystem innerhalb der Prozessstreuung erkennen kann. Er ist ein Maß für das Auflösungsvermögen des Messsystems relativ zur Variation der Teile. Ein Wert von 1 würde bedeuten, das Gerät kann nicht zwischen verschiedenen Teilen unterscheiden.
Gemäß AIAG MSA sollte der Wert ndc ≥ 5 sein. Dies stellt sicher, dass das Messsystem fein genug auflöst, um Prozessregelung und -analyse sinnvoll durchzuführen. Ein Wert unter 5 deutet darauf hin, dass die Messstreuung im Vergleich zur Teilestreuung zu groß ist.
EV (Equipment Variation): Beschreibt die Wiederholpräzision. Das ist die Streuung, die entsteht, wenn derselbe Bediener dasselbe Teil mehrfach misst (Gerätestreuung). AV (Appraiser Variation): Beschreibt die Vergleichpräzision. Das ist die systematische Abweichung der Mittelwerte zwischen den verschiedenen Bedienern (Bedienerstreuung).
Ein hoher AV-Wert bedeutet, dass die Bediener im Durchschnitt unterschiedlich messen. Ursachen können sein: Unklare Arbeitsanweisungen, unterschiedliche Kraft beim Spannen der Teile, Parallaxenfehler beim Ablesen von Skalen, mangelnde Schulung oder unterschiedliche Interpretation der Messstelle.
Ein hoher EV-Wert deutet auf Probleme mit dem Messmittel selbst hin. Ursachen können sein: Verschleiß oder Spiel in der Mechanik, schlechte Klemmung des Teils (Wackeln), Verschmutzung, instabile Umgebungsbedingungen (Vibrationen).
Die ANOVA (Analysis of Variance) ist mathematisch exakter. Im Gegensatz zur veralteten Mittelwert-Spannweiten-Methode (ARM) kann die ANOVA Wechselwirkungen zwischen Bediener und Teil erkennen (z. B. wenn Bediener A nur bei kleinen Teilen anders misst als Bediener B). Außerdem nutzt sie alle Daten effizienter zur Schätzung der Varianzen.
In solchen Ausnahmefällen kann Verfahren 2 auch mit weniger Teilen durchgeführt werden. Um jedoch die statistische Sicherheit (Freiheitsgrade) aufrechtzuerhalten, muss die Anzahl der Messwiederholungen oder der Prüfer erhöht werden. Dies muss im Bericht explizit als Abweichung dokumentiert und begründet werden.
Method 3: Automatic
Verfahren 3 (oft "Type 3 Study" genannt) kommt bei vollautomatischen Messsystemen zum Einsatz, bei denen der Bediener keinerlei Einfluss auf das Messergebnis hat. Beispiele sind automatisierte Prüfautomaten in Fertigungslinien, bei denen Zuführung, Positionierung und Messung maschinell erfolgen.
Da der Einflussfaktor "Bediener" wegfällt, wird der Parameter k (Anzahl Prüfer) auf 1 gesetzt (bzw. entfällt). Die Streuung AV (Appraiser Variation) ist somit Null. Die Gesamtstreuung GRR wird in diesem Fall ausschließlich durch die Wiederholpräzision (EV) und die Interaktion Teil/Maschine bestimmt.
Da die Variation durch verschiedene Bediener als Informationsquelle wegfällt, müssen mehr Teile gemessen werden, um eine statistisch belastbare Aussage über das Zusammenspiel von Messgerät und unterschiedlichen Teilegeometrien zu erhalten. 25 Teile bieten hierfür eine breitere Basis als die 10 Teile aus Verfahren 2.
Der Standard fordert: Mindestens 25 Serienteile (n ≥ 25) und mindestens 2 Messzyklen pro Teil (r ≥ 2). Die Teile müssen dabei in jedem Zyklus neu zugeführt/eingelegt werden, um den realen Automatikprozess abzubilden.
Nein, die Grenzwerte für die Fähigkeit sind identisch. Auch hier gilt: %GRR ≤ 10% ist fähig, bis 30% ist bedingt fähig und darüber nicht fähig. Die Bezugsgröße bleibt vorzugsweise die Toleranz.
Method 4: Linearity
Normalerweise wird die Linearität bei der Kalibrierung geprüft. Verfahren 4 ist jedoch zusätzlich erforderlich, wenn das Messgerät über einen sehr großen Arbeitsbereich eingesetzt wird und der Verdacht besteht, dass die Genauigkeit nicht über den gesamten Bereich konstant ist (z. B. bei nicht-linearer Sensorcharakteristik).
Es werden mindestens 5 Referenzteile (g ≥ 5) ausgewählt, die den gesamten Arbeitsbereich der Messeinrichtung abdecken. Jedes dieser Teile wird mindestens 12-mal (m ≥ 12) gemessen. Aus den Mittelwerten der Abweichungen wird eine Regressionsgerade berechnet.
Der Test nach AIAG MSA prüft rein statistisch, ob die Steigung und der Achsenabschnitt der Regressionsgeraden signifikant von Null abweichen. Dabei wird oft der Bezug zur technischen Toleranz vernachlässigt. Ein sehr präzises Gerät kann statistisch durchfallen (weil kleinste Abweichungen signifikant sind), obwohl sie technisch irrelevant sind. Umgekehrt kann ein stark streuendes Gerät bestehen, weil die Vertrauensbereiche riesig sind.
Eine empfohlene Alternative ist, statt der komplexen Regression nach MSA, das Verfahren 1 mehrfach an verschiedenen Stützstellen des Messbereichs durchzuführen (z. B. am unteren, mittleren und oberen Bereich des Toleranzfeldes). Dies stellt sicher, dass an jedem Punkt die Anforderungen an Cg und Cgk erfüllt sind, was technisch relevanter ist als der reine Linearitätstest.
Nach AIAG MSA ist das System linear, wenn die "Null-Linie" (keine Abweichung) vollständig innerhalb der 95%-Vertrauensbänder der Regressionsgeraden liegt. Das bedeutet, dass weder die konstante Abweichung (Achsenabschnitt) noch die variable Abweichung (Steigung) statistisch signifikant sind.
Method 5: Stability
Verfahren 5 überwacht die Langzeitstabilität des Messprozesses. Während Verfahren 1-3 Momentaufnahmen sind, stellt Verfahren 5 sicher, dass das Messsystem auch über Wochen und Monate hinweg (trotz Temperaturwechsel, Verschleiß, Verschmutzung) korrekte Werte liefert. Es funktioniert ähnlich wie eine SPC-Regelkarte (Statistical Process Control).
Besonders bei elektronischen Messsystemen, die driften können, bei mechanischem Verschleiß, oder wenn Umgebungsbedingungen (Temperatur, Feuchte) kritischen Einfluss haben. Auch bei Messprozessen, die in Verfahren 1-3 nur knapp die Fähigkeit erreicht haben, ist eine Dauerüberwachung ratsam.
Es wird ein sogenanntes Stabilitätsteil (Referenzteil oder Normal) in regelmäßigen Abständen gemessen. Wichtig ist, dass dieses Teil selbst stabil ist und nicht durch die Messung verändert wird (keine Zerstörung).
Üblicherweise werden eine Mittelwertkarte (x̄-Karte) zur Überwachung der Richtigkeit (Bias-Drift) und eine Standardabweichungskarte (s-Karte) zur Überwachung der Präzision (Verschleiß/Lose) geführt. Alternativ kann bei kleinen Stichproben auch eine Urwertkarte geführt werden.
Es gibt zwei Ansätze: 1. Basierend auf einer Vorlaufuntersuchung (historische Daten des Prozesses). 2. Basierend auf der Toleranz (z. B. wird oft festgelegt, dass die Standardabweichung s maximal 2,5% der Toleranz betragen darf). Die Grenzen definieren den Bereich, in dem der Messprozess als "unter Kontrolle" gilt.
Ein Punkt liegt außerhalb der roten Eingriffsgrenzen (OEG/UEG). "Trend": 7 aufeinanderfolgende Punkte steigen an oder fallen ab. "Run": 7 aufeinanderfolgende Punkte liegen auf derselben Seite der Mittellinie. Solche Muster deuten auf systematische Veränderungen (z. B. Drift, Verschmutzung) hin.
Das Intervall hängt von der Stabilität ab. In der Anlaufphase wird oft häufiger gemessen (z. B. mehrmals pro Schicht). Zeigt die Karte über lange Zeit stabile Werte, kann das Intervall verlängert werden (z. B. einmal pro Tag oder Woche). Das Intervall muss so gewählt sein, dass fehlerhafte Messungen zeitnah erkannt werden, um Rückrufaktionen zu minimieren.
Method 6: Gauges
Das sind Merkmale, die physikalisch kontinuierlich messbar wären (z. B. ein Durchmesser), aber im Prozess nur attributiv (diskret) bewertet werden. Ein klassisches Beispiel ist die Prüfung mit einem Grenzlehrdorn: Das Ergebnis ist nur "Gut" oder "Ausschuss" (IO/NIO), obwohl der Durchmesser eigentlich ein Maß hat.
Attributive Prüfungen haben eine sehr geringe Informationsdichte. Man weiß nur "gut" oder "schlecht", aber nicht "wie gut" oder "wie knapp". Um niedrige ppm-Fehlerraten statistisch sicher nachzuweisen, wären extrem hohe Stichprobenumfänge nötig, die wirtschaftlich kaum vertretbar sind. Messende Verfahren sind daher immer vorzuziehen.
Man verwendet ein Referenzlos von 50 Teilen. Diese Teile werden zunächst präzise gemessen, um ihren wahren kontinuierlichen Wert (Referenzwert) zu bestimmen. Danach werden sie mit dem attributiven Prüfmittel (z. B. Lehre) mehrfach geprüft.
Bei der Prüfung der 50 Teile wird man feststellen, dass Teile weit weg von der Grenze immer korrekt erkannt werden. Teile sehr nah an der Toleranzgrenze werden jedoch manchmal als "Gut" und manchmal als "Schlecht" bewertet. Der Bereich der Referenzwerte, in dem diese uneinheitlichen Bewertungen auftreten, ist der Unsicherheitsbereich (Zwischenbereich).
Die Breite dieses Unsicherheitsbereichs (d) wird als Maß für die Streuung des Prüfprozesses interpretiert. Analog zu Verfahren 2 setzt man diese Breite ins Verhältnis zur Toleranz T. Die Formel für den Fähigkeitsindex entspricht dem %GRR-Ansatz.
Die Kriterien sind analog zu den messenden Verfahren: Berechnetes %GRR ≤ 10%: Fähig. Berechnetes %GRR ≤ 30%: Bedingt fähig. Darüber: Nicht fähig.
Method 7: Attributive
Verfahren 7 wird für rein qualitative Merkmale verwendet, bei denen keine Messwerte existieren. Beispiele sind Sichtprüfungen auf Kratzer, Farbabweichungen, Lunker, Vollständigkeitsprüfungen oder Geräuschprüfungen ("Klingt gut/schlecht").
Ein klar definierter Standard, meist in Form eines Grenzmusterkatalogs. Dieser muss physische Teile oder Fotos enthalten, die eindeutig festlegen, was gerade noch "Gut" und was schon "Schlecht" ist, um die Subjektivität der Prüfer zu minimieren.
Es werden mindestens 50 Teile benötigt (besser 100+). Das Los sollte eine Mischung aus eindeutig guten Teilen, eindeutig schlechten Teilen und vor allem Grenzfällen enthalten. Die Zusammensetzung sollte idealerweise die reale Fehlerverteilung in der Fertigung widerspiegeln. Die "wahren" Werte (Referenz) müssen vorab von Experten festgelegt werden.
Mindestens 2 (besser 3) Prüfer bewerten alle Teile des Referenzloses unabhängig voneinander. Jeder Prüfer muss das Los mindestens 2-mal (besser 3-mal) prüfen. Wichtig ist, dass die Teile bei jedem Durchgang neu gemischt werden (Randomisierung), damit sich die Prüfer die Ergebnisse nicht merken können.
Kappa ist ein statistisches Maß für die Übereinstimmung von Bewertungen. Der einfache Prozentsatz der Übereinstimmung ist irreführend, da man auch durch reines Raten eine gewisse Übereinstimmung erzielen würde. Kappa korrigiert diesen Zufallsfaktor und gibt an, wie stark die Übereinstimmung über den reinen Zufall hinausgeht.
Es wird Fleiss' Kappa verwendet. Im Gegensatz zu Cohen's Kappa (das nur 2 Prüfer vergleicht) ist Fleiss' Kappa für beliebig viele Prüfer und Kategorien geeignet und daher universeller einsetzbar.
1. Wiederholbarkeit (Innerhalb Prüfer): Stimmt der Prüfer bei Wiederholungen mit sich selbst überein? 2. Vergleichbarkeit (Zwischen Prüfern): Stimmen die Prüfer untereinander überein? 3. Richtigkeit (Gegen Referenz): Stimmen die Prüfer mit dem Expertenstandard (Referenzwert) überein?
κ ≥ 0,9: Prüfprozess ist fähig (sehr gute Übereinstimmung). 0,7 ≤ κ < 0,9: Prüfprozess ist bedingt fähig (Verbesserung nötig). κ < 0,7: Prüfprozess ist nicht fähig (Übereinstimmung zu gering).
Ein Wert von 0 bedeutet, dass die Übereinstimmung rein zufällig ist. Die Prüfer haben quasi geraten. Ein Wert von 1 wäre perfekte Übereinstimmung. Negative Werte deuten auf eine systematische Meinungsverschiedenheit hin (schlechter als Zufall).
Anstatt Prüfer entscheiden zu lassen zwischen "Gut", "Nacharbeit" und "Ausschuss" (3 Kategorien in einem Schritt), ist es oft besser, erst "IO / NIO" zu prüfen und im zweiten Schritt "NIO" in "Nacharbeit / Ausschuss" zu unterteilen. Dies reduziert die Komplexität der Entscheidung und erhöht meist die Konsistenz (Kappa).
MSA: Practical Tips
Nicht sofort das Messgerät austauschen! Zuerst muss eine Ursachenanalyse (z. B. Ishikawa, 5-Why) durchgeführt werden. Liegt es am Gerät (EV zu hoch)? Liegt es an den Mitarbeitern (AV zu hoch, Schulung nötig)? Oder liegt es an der Vorrichtung/Umgebung? Oft sind es einfache Handhabungsfehler oder verschmutzte Teile.
Der Prozess darf vorläufig genutzt werden, aber nur unter Auflagen. Das bedeutet meist: Erhöhte Prüffrequenz, Mehrfachmessung mit Mittelwertbildung zur Reduzierung der Streuung, oder intensive Schulung der Mitarbeiter. Ziel muss sein, den Prozess durch Maßnahmen in den fähigen Bereich zu bringen.
Ja, mathematisch verbessert eine größere Toleranz sofort die Fähigkeitskennzahlen (Cgk, %GRR), da diese im Nenner die Toleranz haben. Dies ist jedoch nur zulässig, wenn die Konstruktion/Entwicklung bestätigt, dass die Funktion des Bauteils auch mit der erweiterten Toleranz gewährleistet ist.
Wenn ein Messprozess (noch) nicht fähig ist, aber dringend benötigt wird (z. B. Produktionsstart), kann eine befristete Sonderfreigabe erteilt werden. Diese muss Maßnahmen zur Risikoabsicherung enthalten (z. B. 100%-Prüfung, Gegenmessung im Labor) und einen Zeitplan zur Behebung des Mangels.
Da der Abstand zur Toleranzgrenze kritisch ist, muss ein Schutzabstand eingehalten werden. Die Fertigungstoleranz wird um die Messunsicherheit (bzw. 4·s oder Ukal) eingeengt (OGWneu = OGW - Unsicherheit). Produziert man in diesem eingeengten Bereich, ist man trotz Messunsicherheit auf der sicheren Seite.
Bei Verfahren 1 wird ein ideales Normal unter idealen Bedingungen (oft durch Experten) gemessen. Bei Verfahren 2 kommen echte Serienteile (Formfehler, Rauheit) und normale Bediener (Handhabungsschwankungen) hinzu. Daher ist die Streuung in Verfahren 2 fast immer größer. Verfahren 1 ist das "technische Limit", Verfahren 2 die "Realität".
Dies ist ein häufiges Szenario. Es bedeutet: Das Messgerät an sich ist präzise (V1 okay), aber der Einsatzprozess taugt nichts (V2 schlecht). Ursachen sind oft: Vorrichtung passt nicht gut für Serienteile, Bediener legen unterschiedlich ein, oder die Teilegeometrie ist problematisch. Hier muss am Prozess (Vorrichtung, Anweisung), nicht am Sensor gearbeitet werden.
T ist die Toleranz aus der Zeichnung (OGW - UGW). T* ist eine Hilfsgröße für einseitige Merkmale mit natürlicher Grenze (z. B. Rauheit). Hier wird T* = OGW - 0 (natürliche Grenze) gesetzt, um Formeln, die eine Toleranzbreite benötigen, anwenden zu können.
Tmin ist die theoretisch kleinste Toleranz, für die dieser Messprozess noch als fähig gelten würde (bei gegebenem Cgk=1,33). Ist die tatsächliche Toleranz kleiner als Tmin, ist der Prozess nicht fähig. Der Wert hilft abzuschätzen, "wie weit" man vom Ziel entfernt ist.
Ausreißer dürfen nicht einfach gelöscht werden, um das Ergebnis zu schönen. Jeder Ausreißer muss auf seine physikalische Ursache untersucht werden (z. B. Tippfehler, Teil verschmutzt, Messfehler). Nur wenn eine klare Ursache gefunden wird, darf der Wert korrigiert oder nachgemessen werden. Andernfalls gehört er zur Prozessstreuung.
Temperatur ist oft der größte Störfaktor (Längenausdehnung). Messungen sollten idealerweise bei der Bezugstemperatur (20 °C) stattfinden. Ist das in der Fertigung nicht möglich, müssen Messgerät und Teil zumindest die gleiche Temperatur haben (akklimatisieren) oder es muss eine Temperaturkompensation erfolgen.
Messen: Liefert einen konkreten Zahlenwert (quantitativ). Man weiß, wie gut oder schlecht das Teil ist. Ermöglicht Prozessregelung. Lehren: Liefert nur eine Statusmeldung (qualitativ, Gut/Schlecht). Man weiß nicht, ob das Teil grenzwertig ist. Prozessregelung ist kaum möglich. Daher wird Messen im Qualitätsmanagement bevorzugt.
Methodisch ist Verfahren 3 eigentlich ein Spezialfall von Verfahren 2 (mit Anzahl Prüfer k=1). In der Software werden sie oft ähnlich behandelt. Wenn bei Verfahren 2 der Bedienereinfluss (AV) vernachlässigbar klein ist (≈ 0), nähert sich das Ergebnis dem von Verfahren 3 an.
Das Messsystem ist dennoch nicht geeignet. Eine ausreichende Auflösung (≤ 5% T) ist ein K.O.-Kriterium. Wenn die Auflösung zu grob ist (z. B. nur 3-4 Schritte innerhalb der Toleranz), sind die berechneten Standardabweichungen mathematisch unzuverlässig und die Prozessregelung funktioniert nicht ("Treppenstufeneffekt").