Taguchi-Verlustfunktion: ein genauerer Blick. Konzept der Taguchi-Verlustfunktion

Taguchi-Verlustfunktion: ein genauerer Blick. Konzept der Taguchi-Verlustfunktion

Das in Abbildung 34 dargestellte Diagramm der Taguchi-Verlustfunktion ist eine Parabel, die sich entlang der vertikalen Achse erstreckt und einen Minimalwert von Null beim Nominalwert des Qualitätsfaktors aufweist.

Die Gleichung einer solchen Parabel lautet:

L(x) = c(x - x0)2,

wobei: x – Messwert des Qualitätsindikators; x0 - sein Nennwert; L(x) – der Wert der Taguchi-Verlustfunktion am Punkt x; c ist der Skalierungsfaktor (ausgewählt entsprechend der Währungseinheit, die bei der Verlustmessung verwendet wird). Dies ist die natürlichste und einfachste mathematische Funktion, die sich zur Darstellung der Hauptmerkmale der in Kapitel 11* diskutierten Taguchi-Verlustfunktion eignet. Dies bedeutet natürlich nicht, dass dieser Typ in jedem konkreten Anwendungsfall die beste Wahl ist. Beachten wir beispielsweise die Tatsache, dass die obige Formel bei Abweichungen vom Nominalwert in beide Richtungen von gleich hohen Verlusten ausgeht (am Ende des vorherigen Kapitels haben wir einen konkreten Fall betrachtet, in dem diese Annahme nicht erfüllt ist). Andererseits ist dieses Modell zwar innerhalb seiner Toleranzen und nicht zu weit von den Toleranzgrenzen entfernt oft eine vernünftige Näherung für den Qualitätsfaktor, für große Abweichungen vom Nominalwert ist es aber offensichtlich nicht geeignet. Allerdings sind unsere Prozesse nicht so schlecht, dass wir solch erhebliche Abweichungen berücksichtigen müssten.

* Einige Statistiker werden für diese Wahl eine offensichtliche Analogie für die Taguchi-Verlustfunktion mit der Methode der kleinsten Quadrate finden. - Ca. Auto

Reis. 36. Darstellungen eines Ansatzes zum Qualitätsmanagement basierend auf Toleranzgrenzen unter Verwendung der Taguchi-Verlustfunktion

Aber auch wenn unser parabolisches Modell nicht ganz korrekt ist, ist es zweifellos viel näher an der Realität als die Verlustfunktion, die dem in Abbildung 36 gezeigten toleranzgebundenen Qualitätsansatz entspricht. Letzteres Modell geht davon aus, dass es für alle Abweichungen von der Qualität keinen Verlust gibt Der Nominalwert liegt innerhalb der Toleranzen, sie treten jedoch abrupt an den Grenzen der Toleranzzone auf. Aufgrund der Diskussion im vorangegangenen Kapitel bedarf es hier bis auf einen Aspekt keiner detaillierten Betrachtung dieses Themas. Erinnern Sie sich an unsere Beobachtung in Kapitel 11 zum Verständnis der Bedeutung von Toleranzen. In jedem System, sei es mechanisch oder bürokratisch, das sich nur dann von selbst fängt, wenn etwas außerhalb der Toleranz liegt, ist übereiltes Handeln sehr kostspielig. Also rein ähnliche Fälle Zwar kommt es zu einem starken Anstieg der Verluste, nachdem der Qualitätsindikator die Toleranzgrenzen überschreitet, diese Verluste werden jedoch durch das Managementsystem selbst verursacht und entstehen nicht durch Abweichungen im Qualitätsniveau des Produkts oder der Dienstleistung selbst.

Im Folgenden verwenden wir das parabolische Modell, um die in Kapitel 11 behandelten Konzepte und Beispiele detaillierter zu untersuchen. Da es sich lediglich um ein Modell handelt, sind die spezifischen Zahlen, die sich aus den Berechnungen ergeben, nicht so wichtig. Daher werden geringfügige zahlenmäßige Unterschiede nicht als signifikant angesehen. Eine Strategie, die etwas größere Verluste erzeugt als eine andere Strategie, kann sich unter der Annahme der Anwendbarkeit dieses Modells als vorteilhafter für die Verlustfunktion erweisen, wenn dieses Modell durch ein anderes ersetzt wird. Aber wenn wir Unterschiede in Größenordnungen feststellen (wenn beispielsweise die Verluste einer Strategie 10, 50 oder sogar 100 Mal größer sind als die Verluste einer anderen), können wir mit voller Sicherheit sagen, dass die Unterschiede zwischen den Strategien sogar recht erheblich sind unter Berücksichtigung der Tatsache, dass das parabolische Modell nur eine Idealisierung ist.

Als weitere Idealisierung, die für numerische Vergleiche in diesem Kapitel notwendig ist, müssen wir davon ausgehen, dass die hier betrachteten Prozesse absolut stabil sind. Der in Kapitel 4 verwendete Begriff „absolut stabil“ impliziert, dass einhundert

Organisation als System

Die statistische Verteilung des Prozesses ist unverändert und schwankt nicht. Dies bedeutet insbesondere, dass wir von den wahren Werten für den Mittelwert und die Standardabweichung sprechen können, die wir bezeichnen werden (aber nur in

(dieses Kapitel) Symbole

Wenn der Prozess absolut stabil ist und eine What, kann der durchschnittliche Taguchi-Verlust berechnet werden aus:

Dies entspricht der Fläche unter der Kurve, die sich aus dem Produkt der Verlustfunktion L(x) und der Wahrscheinlichkeitsdichte f(x) ergibt. Einige offensichtliche mathematische Transformationen ermöglichen es uns, diesen Ausdruck auf die Form zu reduzieren:

Dabei stellen die Begriffe in den geschweiften Klammern ((...)) die quadratische (Standard-)Abweichung (normalerweise mit der Varianz verbunden) bzw. den quadratischen Bias dar. Es ist zu beachten, dass der durchschnittliche Taguchi-Verlust nicht in irgendeiner komplexen Weise von f(x) abhängt; Sie können ganz einfach berechnet werden, wenn die im letzten Ausdruck enthaltenen einfachen Parameter bekannt sind*.

Um den Vergleich zu erleichtern, führen wir auch eine Notation für die Prozessreproduzierbarkeit ein. Es wird in verschiedenen Unternehmen unterschiedlich definiert, aber wir gehen davon aus, dass es der Differenz zwischen den oberen und unteren Toleranzgrenzen geteilt durch die Differenz zwischen den oberen und unteren natürlichen Grenzen des Prozesses entspricht, wobei es sich um natürliche Grenzen handelt

In diesem Prozess verwenden wir „echte“ Grenzen

* Eine wichtige Konsequenz daraus ist das Fehlen jeglicher Annahmen über die Art der Funktion, beispielsweise ihre Übereinstimmung oder Nähe zur Normalverteilung (Gaußverteilung). Wir haben jedoch die Normalverteilung verwendet, um die Berechnungen in den letzten beiden Beispielen dieses Kapitels in den Abbildungen 37–40 und in einigen Einzelheiten zu veranschaulichen. - Ca. Auto

**Dies ist nicht Demings Definition von Reproduzierbarkeit. Es überrascht nicht, dass er die Reproduzierbarkeit eines (stabilen) Prozesses einfach als Definition der natürlichen Grenzen des Prozesses definiert, ohne Bezug auf Toleranzen. - Ca. Auto

jeweils. (Obwohl dies widersprüchlich ist

Demings wichtige Bemerkung zu realen Prozessen; siehe: „Die Krise überwinden“, Seite 293.)

Im Folgenden verwenden wir Taguchis Konzept des durchschnittlichen Verlusts. Durchschnittliche Taguchi-Verluste, bezogen auf eine Probe oder Charge von n Produkten, für die die Werte X1, x2,..., xn des betrachteten Qualitätsindikators x gleich sind:

für Einzelpersonen

Beobachtungen, daher kann der Nenner einfach geschrieben werden als

Kapitel 12: Taguchi-Verlustfunktion: Ein genauerer Blick

Eine Reproduzierbarkeit von 1 (einfache Reproduzierbarkeit) entspricht einem Prozess, der in den meisten Fällen gerade noch innerhalb der Toleranzgrenzen liegt*. Ein Prozess wird manchmal als reproduzierbar oder nicht reproduzierbar bezeichnet, je nachdem, ob der Reproduzierbarkeitsindex größer als eins ist oder nicht. Die im Westen übliche Denkweise besteht darin, einen Wert von 1 1/3 als äußerst effizienten Prozess zu akzeptieren und einen Wert von 12/3 als möglicherweise zu extravagant, da die Wahrscheinlichkeit einer Messung außerhalb der Toleranz liegt ist in diesem Fall vernachlässigbar**. Beachten Sie jedoch, dass die in Kapitel 11 erwähnten japanischen Prozessdaten eine Reproduzierbarkeitsbewertung zwischen 3 und 5 zulassen. Und dass das Reproduzierbarkeitsmaß widerspiegelt, was der Prozess tatsächlich produzieren kann (nicht, wozu er potenziell in der Lage ist), müssen wir annehmen dass der Prozess genau abgestimmt (zentriert) ist, d.h. der Prozessdurchschnitt stimmt mit dem Nominalwert x0 überein. Im Folgenden schauen wir uns an, was passiert, wenn diese Annahme nicht erfüllt ist.

Wir müssen einen Wert für den Skalierungsfaktor c in der Gleichung für die Parabel wählen, so dass ein Prozess mit einer Wiederholbarkeit von 1 und perfekter Zentrierung einen durchschnittlichen Taguchi-Verlust von 100 Einheiten haben würde. Betrachten wir zunächst die durchschnittlichen Taguchi-Verluste für einen absolut stabilen Prozess, genau abgestimmt auf den Nominalwert von Xy, aber unter der Annahme einer unterschiedlichen Prozessreproduzierbarkeit.

Tabelle 1. Absolut stabiler Prozess, fein abgestimmt

Wir sehen, dass eine Erhöhung der Reproduzierbarkeit von 1 1/3 auf 12/3 den durchschnittlichen Taguchi-Verlust um die Hälfte bis ein Drittel seines Wertes reduziert, verglichen mit dem Verlust, der einer einzelnen Reproduzierbarkeit entspricht. Die Erhöhung der Reproduzierbarkeit auf 3–5 führt jedoch zu einem enormen Effekt, der in Größenordnungen beschrieben wird, wie wir bereits zuvor besprochen haben. Diagramme der durchschnittlichen Taguchi-Verluste im Vergleich zur Prozessreproduzierbarkeit für alle in diesem Kapitel behandelten Beispiele sind in Abbildung 41 dargestellt.

* Wenn der Prozess beispielsweise genau zentriert ist und die Verteilung normal ist, liegt im Durchschnitt eine Messung von fast 400 außerhalb der Toleranzgrenzen, und zwar um einen sehr geringen Betrag. - Ca. Auto

** Das derzeit modische „Six Sigma“ entspricht einer Reproduzierbarkeit von 2. - Ca. Auto Reproduzierbarkeit 1/2 3/4 1 1 1/3 12/z 2 3 5 Durchschnittliche Taguchi-Verluste 400 178 100 56 36 25 11 4 174

Organisation als System

Wie wichtig die Feinabstimmung (Zentrierung) des Prozesses ist, lässt sich schnell erkennen, wenn man die Daten in den Tabellen 1 und 2 vergleicht.

Die Daten in Tabelle 2 werden unter der Annahme berechnet, dass der Prozess lose abgestimmt und in der Mitte des Bereichs zwischen dem Nennwert und einer der Toleranzgrenzen zentriert ist.

Tabelle 2. Absolut stabiler Prozess, zentriert in der Mitte zwischen dem Nennwert und einer der Toleranzgrenzen

Eine schlechte Prozesseinrichtung macht alle potenziellen Vorteile einer verbesserten Reproduzierbarkeit vollständig zunichte. Doch selbst bei solch einer schlechten Abstimmung wird ein Prozess mit einer Reproduzierbarkeit von 2 oder höher praktisch keine Produkte außerhalb der Toleranzgrenzen produzieren. Obwohl ein solcher Prozess in Bezug auf die Einhaltung bestimmter Toleranzen sicherlich als herausragend angesehen werden würde, ist er aus der Perspektive der Taguchi-Verlustfunktion sicherlich viel schlechter als ein fein abgestimmter Prozess; Beispielsweise betragen die Verluste in Tabelle 2 für einen Wirkungsgrad von 2 das Zehnfache der in Tabelle 1 angegebenen Verluste.

Wir betrachten nun die beiden Beispiele, die am Ende des vorherigen Kapitels beschrieben wurden. Gehen wir zunächst auf das Problem des Werkzeugverschleißes ein. Erinnern wir uns an die Details: Zunächst wird der Prozess so konfiguriert, dass die Messergebnisse nahe an der oberen Toleranzgrenze (ULL) liegen. Dann führt der Werkzeugverschleiß zu einem allmählichen Abfall der Werte; Wenn sich die Ergebnisse der unteren Toleranzgrenze (LTL) nähern, wird der Prozess gestoppt und das Werkzeug ausgetauscht. Beachten Sie, dass die Reproduzierbarkeit des betrachteten Prozesses (ohne Berücksichtigung seiner Drift) größer als 1 sein muss, damit ein solches Schema überhaupt umgesetzt werden kann, sonst gäbe es einfach keine Manövriermöglichkeit. Um das Bild zu vervollständigen, betrachten wir im Folgenden auch den Fall, der der Einzelreproduzierbarkeit entspricht.

Abbildung 37 zeigt den Fall, wenn die Prozessreproduzierbarkeit 3 ​​beträgt. Beispielsweise nehmen wir die Werte von OGD und IOP gleich 10 und 16

entsprechend und die Standardabweichung Reproduzierbarkeit 1/2 1/3 1 1 1/3 12/з 2 3 Durchschnittliche Verluste Taguchi 625 403 325 281 261 250 236 - gleich 1/3 (wenn

la ist gleich 1, dann wäre auch die Reproduzierbarkeit des Prozesses gleich eins). Zunächst legen wir den Mittelpunkt der Verteilung auf 15 fest, sodass die Verteilung knapp unter dem IOP liegt. Angenommen, der Prozessdurchschnitt bewegt sich mit konstanter Geschwindigkeit nach unten auf einen Wert von 11. An diesem Punkt stoppen wir den Prozess, wechseln das Werkzeug und setzen ihn auf 15 zurück. (Wenn die Prozesseffizienz 2 statt 3 wäre, d. h. .

0,5, dann müssten wir zunächst das Zentrum des Pro-

Beginnen Sie mit 14,5 und lassen Sie es dann auf 11,5 sinken, wenn es soweit ist

Kapitel 12: Taguchi-Verlustfunktion: Ein genauerer Blick

Reis. 37. Prozess mit Drift. Die Reproduzierbarkeit beträgt 3

Reis. 38. Prozess mit Drift. Die Reproduzierbarkeit beträgt 2

Ersetzen Sie das Werkzeug. Dieser Fall ist in Abbildung 38 dargestellt.) Die durchschnittlichen Taguchi-Verluste für Prozesse mit unterschiedlicher Reproduzierbarkeit, die auf diese Weise „kontrolliert“ werden, sind in Tabelle 3 dargestellt. (In diesem Fall wurden die Kosten für den Austausch des Werkzeugs in den Berechnungen nicht explizit berücksichtigt.)

Tisch für. Prozess mit konstanter Driftrate.

Startet und stoppt so, dass die Toleranzgrenzen nicht überschritten werden

Aber was für eine Überraschung! Bei kleinen Werten der Reproduzierbarkeit nimmt der Taguchi-Verlust zunächst ab, beginnt aber bald anzusteigen, sodass der Verlust für einen Prozess mit einer Reproduzierbarkeit von 5 mehr als doppelt so groß ist wie für einen Prozess mit einer Reproduzierbarkeit von 1! Nach Reproduzierbarkeit 1 11/3 12/z 2 3 5 Durchschnittliche Verluste Taguchi 100 75 84 100 144 196 176

Organisation als System

Mit gesundem Menschenverstand wird der Grund für diesen Anstieg klar. Wenn die Reproduzierbarkeit eines Prozesses hoch ist, erzeugt seine anfängliche Einstellung Werte, die sehr nahe am IOP liegen, sodass er gezwungen ist, Produkte mit Parametern herzustellen, die sich stark von den Nominalwerten unterscheiden, was folglich zu hohen Taguchi-Verlusten führt. Das Gleiche gilt, wenn der Prozess unmittelbar vor dem Werkzeugwechsel bereits auf OGD umgestellt wurde. Aufgrund der quadratischen Natur der Verlustfunktion ist der dadurch verursachte Schaden groß Extremsituationen, übersteigt den Nutzen aus dem Empfang gute Produkte in Momenten, in denen der Prozess nahe dem Nominalwert lag, auf halbem Weg vom IOP zum OGD.

Beachten Sie, dass die resultierende Schlussfolgerung im direkten Widerspruch zu der Welt steht, die auf der Verwendung eines Toleranzeinhaltungsmodells basiert. Das System selbst ist so organisiert, dass unabhängig von der Reproduzierbarkeit des Prozesses (solange sie 1 übersteigt) keine Produkte hergestellt werden, die außerhalb der Toleranzgrenzen liegen. Die Erhöhung der Prozessreproduzierbarkeit hat unter diesem Gesichtspunkt die positive Konsequenz, dass der Prozess länger dauern kann, bevor ein Werkzeugwechsel erforderlich wird. Wie wir jedoch jetzt sehen, ist dieser Vorteil im Vergleich zu Taguchis Verlusten falsch. Der durchschnittliche Taguchi-Verlust würde deutlich reduziert, wenn wir beispielsweise die Werkzeuge doppelt so oft wechseln könnten. Für einen Prozess mit einer Wiederholbarkeit von 3 würde dies also ermöglichen, ihn zunächst auf 14 (statt 15) abzustimmen und zu ersetzen, wenn der Durchschnitt auf 12 (statt 11) sinkt. Der durchschnittliche Taguchi-Verlust würde dann 44 statt 144 betragen, obwohl dies immer noch nicht annähernd das Ergebnis eines Prozesses mit einer Wiederholgenauigkeit von 3 ohne Bias erreicht (in diesem Fall beträgt der durchschnittliche Taguchi-Verlust laut Tabelle 1 11). . Gleichzeitig ist dies eine deutliche Verbesserung gegenüber dem, was passiert, wenn wir mit dem Werkzeugwechsel so lange wie möglich warten. Tabelle 3B zeigt das Ergebnis doppelt so häufiger Werkzeugwechsel bei gleichen Wiederholgenauigkeitswerten wie in Tabelle 3A.

ZB-Tabelle. Prozess mit konstanter Driftrate.

Der Werkzeugwechsel erfolgt doppelt so häufig wie in Tabelle 3, wobei der Prozess so nah wie möglich an den Nennwert angepasst wird

Ist die deutliche Reduzierung der durchschnittlichen Taguchi-Verluste im Vergleich zu den Verlusten entsprechend Tabelle 3 die Mehrkosten wert, die durch den doppelt so häufigen Werkzeugwechsel entstehen? Diese Frage muss derjenige beantworten, der das System verwaltet. Reproduzierbarkeit 1 1 1/3 12/z 2 3 5 Durchschnittlicher Taguchi-Verlust 100 61 48 44 44 52 Kapitel 12. Taguchi-Verlustfunktion: ein genauerer Blick

Und schließlich kommen wir zum Trimmen. Denken Sie daran, dass der Prozessdurchschnitt auf einen Wert festgelegt wurde, der über dem Nominalwert liegt, und zwar aufgrund der offensichtlichen Logik, dass es einfacher ist, einen langen Stab zu kürzen als einen kurzen zu verlängern. Lassen Sie uns diesen Fall modellieren, indem wir davon ausgehen, dass der Durchschnitt des Schneidvorgangs auf IOP eingestellt ist und wenn die Länge des Stabes größer als die obere Toleranz ist, dann wird ein zusätzlicher Abschnitt davon geschnitten, der dem Toleranzintervall entspricht (d. h. der Differenz zwischen IOP und OGD). Natürlich handelt es sich hierbei auch um ein sehr vereinfachtes Modell, aber das Ergebnis ist sehr interessant und stimmt recht gut mit der realen Situation überein, die als Anlass für diese Überlegung diente.

Reis. 39. Trimmvorgang. Längenverteilung im Anfangsmoment

Das Problem dieses Diagramms lässt sich leicht erkennen, wenn man die beiden Abbildungen untersucht. Die Verteilung entsprechend dem ersten Schnitt ist in Abbildung 39 dargestellt. Nachdem die Hälfte der Stäbe, die sich als zu lang erwiesen haben, erneut geschnitten wurde, weisen die Längen der verbleibenden Stäbe die in Abbildung 40 dargestellte Verteilung auf.

Daraus wird deutlich, warum die durchschnittlichen Taguchi-Verluste so hoch sind (siehe Tabelle 4). Für die meisten Ruten ihrer Länge

Reis. 40. Trimmvorgang. Verteilung nach Überarbeitung

Organisation als System

liegen nahe an den Toleranzgrenzen, und nur bei sehr wenigen davon kommt es vor, dass ihre Länge nahe am Nennwert liegt. Mit anderen Worten: Die meisten Balken haben Längen, die den maximalen Verlustfunktionswert aller möglichen Werte innerhalb des Toleranzbereichs angeben. Gleichzeitig gibt es praktisch keine Stäbe mit Längen, die einen kleinen Beitrag zur Durchschnittsverlustfunktion leisten. Wie im vorherigen Fall sollte es für den Leser offensichtlich sein, dass dies ein weiterer Fall ist, bei dem die Erhöhung der Reproduzierbarkeit eines Prozesses die Situation tatsächlich verschlimmert.

Tabelle 4. Der Trimmvorgang konzentriert sich auf den Augeninnendruck.

Ein Stab mit einer Länge größer als der IGD wird zusätzlich um einen Betrag entsprechend dem IGD-NGD abgeschnitten

Wie wir sehen können, führt ein System, das im Hinblick auf die Erfüllung der Toleranzanforderungen durchaus akzeptabel ist, zu einem katastrophalen Ergebnis im Hinblick auf die Taguchi-Verlustfunktion.

Wie bereits erwähnt, zeigt Abbildung 41 Diagramme des durchschnittlichen Taguchi-Verlusts für alle Beispiele, die wir in diesem Kapitel untersucht haben. Es fallen enorme Unterschiede auf, die uns jedoch verborgen bleiben, wenn wir uns nur mit den Anforderungen an Toleranzen (Spezifikationen) zufrieden geben.

Reis. 41. Abhängigkeitsdiagramme für durchschnittliche Taguchi-Verluste Reproduzierbarkeit 1/2 3/4 1 1 1/3 1 2/3 2 3 5 Durchschnittliche Taguchi-Verluste 343 439 521 597 649 686 752 808

Genichi Taguchi entwickelte einst sein eigenes System, das technische und statistische Methoden kombinierte schneller Anstieg wirtschaftliche Indikatoren der Unternehmens- und Produktqualität durch Optimierung des Designs von Produkten und ihrer Herstellungsprozesse. Diese Methodik, die sowohl eine allgemeine Philosophie als auch eine Reihe praktischer Werkzeuge für das Qualitätsmanagement umfasst, wird Taguchi-Methoden genannt.

Die Qualitätsphilosophie (nach Taguchi) lässt sich auf folgende Grundpostulate reduzieren:

  1. Wir können die Kosten nicht senken, ohne die Qualität zu beeinträchtigen.
  2. Wir können die Qualität verbessern, ohne die Kosten zu erhöhen;
  3. Wir können die Kosten senken, indem wir die Qualität verbessern;
  4. Wir können Kosten senken, indem wir die Variabilität reduzieren, was automatisch zu einer höheren Qualität und Effizienz führt.

Taguchi ist mit der allgemein akzeptierten Definition von Qualität nicht einverstanden: „Produktparameter innerhalb festgelegter Grenzen finden“. Mit dieser Definition können wir davon ausgehen, dass sich zwei Produkte kaum voneinander unterscheiden, wenn die Parameter des einen nahe an der Toleranzgrenze liegen und die Parameter des anderen leicht außerhalb dieser Grenzen liegen. Allerdings gilt die erste davon als „gut“ und die zweite als „schlecht“. Im Gegensatz zum traditionellen Ansatz zielen Taguchi-Methoden darauf ab, minimale Abweichungen der Produktparameter von den vorgegebenen Parametern sicherzustellen, bei denen es aufgrund der Qualität nicht zu einer Kostensteigerung kommt.

Taguchi schlägt vor, die Qualität anhand der Höhe des Schadens zu bewerten, der der Gesellschaft ab dem Zeitpunkt der Lieferung des Produkts entsteht – je geringer dieser Schaden, desto höher die Qualität. Grundlage seines Konzepts der Qualitätssicherung ist die Theorie des Schadens durch mangelhafte Qualität. Wenn wir an Schäden für die Gesellschaft denken, kommen uns als Erstes die schädlichen Abgasemissionen oder die erhöhte Geräuschentwicklung eines Autos mit defektem Schalldämpfer in den Sinn. Allerdings betrachtet Taguchi den Schaden für die Gesellschaft aus einer breiteren Perspektive. Er bringt mögliche Verluste mit jedem Produkt in Verbindung, das in die Hände des Verbrauchers fällt. Darüber hinaus sieht er als Komponenten dieser Verluste die Unzufriedenheit der Verbraucher, zusätzliche Herstellerkosten für Gewährleistungsverpflichtungen sowie eine Verschlechterung der Reputation des Unternehmens, die den Verlust eines Teils des Marktes mit sich bringt, der ihm bisher gehörte.

Die Idee, soziale Verluste zu minimieren, ist an sich recht abstrakt und lässt sich nur schwer mit den aktuellen Zielen eines bestimmten Unternehmens vereinbaren. Wenn wir den der Gesellschaft zugefügten Schaden als langfristige Kosten des Unternehmens betrachten und diese Konzepte als gleichwertig betrachten, erhält diese Formulierung eine größere praktische Bedeutung.

Wie oben erwähnt, werden Qualitätskosten in der Regel mit den Kosten für die Entsorgung fehlerhafter Produkte oder der Nacharbeit fehlerhafter Produkte, mit Garantiekosten und anderen durchaus greifbaren Kosten identifiziert. Wie bereits gezeigt wurde, sind diese „greifbaren“ Kosten jedoch nur die Spitze des Eisbergs.

Was ist mit den versteckten Kosten oder langfristigen Schäden, die beispielsweise mit verschwendeter Entwicklungs- und Managementzeit, erhöhtem Lagerbestand, Unzufriedenheit der Kunden oder dem langfristigen Verlust von Marktanteilen des Unternehmens verbunden sind? Ist es möglich, solche Verluste zu beziffern? Es scheint, dass solche Schätzungen möglich, wenn auch nicht präzise sind. Wir müssen nach Wegen zur Annäherung suchen versteckten Kosten und Verluste, die langfristig möglich sind, da sie die mit der Qualität verbundenen Kosten und Aufwendungen deutlich erhöhen. Zu diesem Zweck führt Taguchi das Konzept einer Qualitätsverlustfunktion oder Quality Loss Function (QLF) ein.

Die Art und Weise, wie ein QLF aufgebaut ist, hängt von der Art der verwendeten Qualitätsindikatoren ab, also den Parametern, die wir messen, um das technische Niveau oder die Qualität eines Produkts zu beurteilen. Es gibt die folgenden fünf Arten von Qualitätsindikatoren.

  1. „Das Beste ist der Nennwert.“ Wir müssen den Nominalwert mit minimaler Variabilität anstreben. Zu solchen Parametern gehören beispielsweise geometrische Abmessungen oder Ausgangsspannung.
  2. „Weniger ist besser“. Es ist notwendig, Ausgabeparameter, wie zum Beispiel das Ausmaß der Schrumpfung oder des Verschleißes, zu minimieren.
  3. "Je mehr desto besser". Es ist notwendig, Leistungsparameter wie Zugkraft oder Zugfestigkeit zu maximieren.
  4. Ein diskretes „Attribut“-Maß, das beispielsweise zum Klassifizieren oder Zählen der Häufigkeit des Auftretens bestimmter Ereignisse verwendet wird.
  5. Eine dynamische Kenngröße, deren Wert von den Eingangsdaten abhängt, beispielsweise der Anzahl der Lüfterumdrehungen, die je nach Motortemperatur variiert.

Bei der Entwicklung eines detaillierten Systems zur Abrechnung qualitätsbezogener Kosten sollte man sich an den folgenden zwei wichtigen Kriterien orientieren: 1) Kostendaten sollten als Instrument zur Begründung von Maßnahmen zur Qualitätsverbesserung und zur Bewertung ihrer Wirksamkeit dienen; 2) Die Einbeziehung von Informationen zu Sekundärkosten in die gesammelten Daten ist nicht von Bedeutung.

Der Hauptzweck der Verwendung von Buchhaltungsdaten in der Qualitätssicherung besteht darin, qualitätsbezogene Kosten zu senken. Dieses Ziel kann nur durch die Erhebung und Nutzung aller für die Praxis wichtigen Daten zu erheblichen Kosten erreicht werden. Bei der Lösung dieser Aufgabe ist unbedingt auf Konsequenz und Ehrlichkeit zu achten. Es macht keinen Sinn, Ihr Unternehmen mit anderen zu vergleichen, nur Ihre eigene Erfahrung zählt. Nur die schrittweise Reduzierung qualitätsbezogener Kosten hat ihren Preis.

Beim traditionellen Ansatz der Qualitätskontrolle wird davon ausgegangen, dass der kontrollierte Indikator, der innerhalb der Toleranz liegt, die erforderliche Qualität des Produkts gewährleistet. Taguchi schlug vor, Qualitätsverluste zu berücksichtigen, die nicht nur damit verbunden sind, dass der Wert des Indikators die Toleranzgrenzen überschreitet, sondern auch mit der Abweichung dieses Indikators vom Nennwert, selbst wenn diese Abweichung innerhalb der Toleranz liegt.

G. Taguchi schlug eine Qualitätsverlustfunktion L(X) vor, nach der nur solche Indikatoren als qualitativ gelten, deren Werte wertmäßig vollständig mit den Nominalwerten dieser Indikatoren übereinstimmen, und jede Abweichung vom Nominalwert ist mit dem einen oder anderen Verlust der Produktqualität verbunden (Abb. 3.8) :

L(Х) = k (Х – mo) 2

wobei mо der Nominalwert des Qualitätsindikators (Parameters) ist,

k ist ein konstanter Koeffizient, der das Geldäquivalent charakterisiert,

X – aktueller Wert des Qualitätsindikators (Parameter).

Dabei nehmen Qualitätseinbußen in quadratischer Abhängigkeit zu, da die wahren (gemessenen) Werte des Parameters von den Nominalwerten abweichen und können sowohl beim Hersteller als auch beim Verbraucher (Kunden) des Produkts auftreten.

Wenn die Höhe der Verluste an den Toleranzgrenzen T bekannt ist, lassen sich die Werte des konstanten Koeffizienten k leicht berechnen. Wenn wir davon ausgehen, dass die Toleranz des Qualitätsparameters symmetrisch zum Nennmo ist und die Höhe der Verluste an jeder der Toleranzgrenzen gleich und gleich Lo ist, dann gilt

k = 4 Lo/T 2

Formel (3.1) entspricht dem wirtschaftlichen Qualitätsverlust einer einzelnen Messung des Qualitätsindikators in Abhängigkeit von seiner Lage im Streufeld relativ zur Koordinate des Nominalwerts des Parameters mо.

Laut Taguchi müssen entwickelte Produkte und Prozesse im Verhältnis zum Möglichen stabil (robust) sein äußere Einflüsse: Es müssen solche Parameterkombinationen eingestellt werden, bei denen die Streuung gegenüber dem Nennwert minimal ist. Um eine Funktion mit minimalem Verlust sicherzustellen und ein robustes Produkt zu schaffen, können experimentelle Entwurfsmethoden verwendet werden. Faktoren, die den Qualitätsindikator beeinflussen, können in kontrollierbare und unkontrollierbare Faktoren unterteilt werden. Der Qualitätsindikator sollte gleichermaßen auf das kontrollierte Signal reagieren und möglichst nicht auf unkontrolliertes Rauschen (zufällige Änderungen der Temperatur, Luftfeuchtigkeit usw.) reagieren.

G. Taguchi selbst formulierte moderne Probleme Qualitäten:

a) Es ist notwendig, den Schaden abzuschätzen, den minderwertige Produkte für die Gesellschaft verursachen können. Dabei werden Schäden durch fertige Produkte (Ausfälle, Verletzungen, Unfälle, Unfähigkeit, ihre Funktionen zu erfüllen usw.) und Schäden im Prozess der Herstellung minderwertiger Produkte (unproduktive Zeit-, Energie-, Arbeitsverschwendung usw.) berücksichtigt.



b) Damit die Produkte eines Unternehmens wettbewerbsfähig sind, ist es notwendig, deren Qualität ständig zu verbessern und die Kosten zu senken. Die Anforderungen der Kunden steigen stetig.

c) Das Hauptziel des Qualitätsverbesserungsprogramms eines Unternehmens sollte darin bestehen, Abweichungen zwischen Produktqualitätsindikatoren und den vom Kunden angegebenen Merkmalen ständig zu reduzieren.

d) Der Schaden, der dem Kunden aufgrund der Nichteinhaltung der Anforderungen entsteht, ist proportional zum Quadrat der Abweichung der Qualitätsindikatoren. Dies muss bei der Festlegung von Anforderungen an die Qualität von Produktionsprozessen berücksichtigt werden.

e) Qualität und Kosten des fertigen Produkts werden hauptsächlich durch die Qualität des Designs und der Technologie bestimmt.

f) In den Phasen der Produktentwicklung und des Testens seiner Prototypen ist es notwendig, Abweichungen der Produkteigenschaften von der spezifizierten Qualität zu reduzieren.

g) Es ist notwendig, die Abhängigkeit der Betriebseigenschaften von anderen Parametern des Produkts und des technologischen Prozesses zu ermitteln und unter Verwendung der festgestellten Abhängigkeit eine Versuchsplanung auf der Grundlage statistischer Berechnungen durchzuführen.


Six Sigma-Strategie

Smith (ein Ingenieur bei Motorola) entdeckte das folgende Muster: Es ist notwendig, Produkte ohne Abweichungen von der Dokumentation herzustellen, was eine Erhöhung der Stabilität und Genauigkeit des technologischen Systems erfordert. Die Variabilität des technologischen Systems ist der Hauptfaktor für Abweichungen einzelner Parameterwerte von den Anforderungen der technischen Dokumentation. Als Kriterium zur Beurteilung der Variabilität eines technologischen Systems wird üblicherweise der Prozessreproduzierbarkeitsindex Cp verwendet: Cp = T / 6y, wobei T die Toleranz für den Parameter und y die Standardabweichung der Verteilung ist. CP liegt zwischen 1 und 1,33.



Die Six Sigma-Strategie basiert auf der Tatsache, dass ein direkter Zusammenhang zwischen der Anzahl der Produktfehler und dem Grad der Kundenzufriedenheit besteht. Im Six Sigma-Konzept ist der allgemeine Indikator die Anzahl der Fehler pro hergestellter Produkteinheit in allen Phasen des Lebenszyklus.

Das Six-Sigma-Konzept basiert auf dem Postulat, dass in der festgelegten Toleranz T für einen bestimmten Parameter A die Standardabweichung der Verteilung y 1/12 der Toleranz beträgt. Das bedeutet, dass das Streufeld der Parameterwerte gleich der halben Toleranz ist. Offensichtlich gilt: Je höher das Sigma, desto geringer ist die Wahrscheinlichkeit, dass ein Fehler auftritt, desto seltener kommt es zu Prozessausfällen, desto höher ist die Produktzuverlässigkeit, desto geringer ist der Bedarf an Inspektionen und Tests, desto weniger Arbeit ist im Gange und desto geringer sind die Kosten und Produktionszykluszeit und damit eine höhere Kundenzufriedenheit.

Die Six Sigma-Methode basiert im Gegensatz zum ursprünglichen Konzept von Cp = 2 auf der Tatsache, dass Prozesse, die dieses Kriterium erfüllen, nicht mehr als 3,4 Fehler pro Million Produkte zulassen. Im Rahmen der Six Sigma-Methode wird akzeptiert, dass der Mittelpunkt der Verteilung der Parameterwerte nicht mit der Koordinate der Mitte des Toleranzfeldes übereinstimmt, sondern sich relativ dazu in die eine oder andere Richtung verschieben kann bei 1,5u(Abb. 3.23). Diese. V praktische Bedingungen Es ist unmöglich, ein technologisches System mit einem Reproduzierbarkeitsindex = 2 gleichzeitig mit der Bedingung einer Nullverschiebung des Streufeldzentrums vom Zentrum des Toleranzfelds zu erstellen.



Die Anwendungsphilosophie lässt sich auf die folgenden Prinzipien reduzieren

Eine effektive Umsetzung der Six Sigma-Methode ist nur mit dem Interesse des ersten Managers des Unternehmens möglich.

Diese Methode ist für Sie, Ihr Unternehmen und Ihren Verbraucher notwendig,

Ergebnisse können nur durch Teamarbeit erzielt werden,

Alles muss gemessen und analysiert werden.

Jeder Prozess kostet Geld.

Wem und was bietet die Six Sigma-Strategie:

Für Verbraucher – bietet mehr hohe Qualität Und niedrige Preise,

Aktionäre – bietet die Möglichkeit, das Einkommen zu steigern,

Bietet Lieferanten die Möglichkeit, neue Wege zum Erfolg zu erschließen,

Für die Mitarbeiter eröffnet es größere Arbeitsmöglichkeiten und vermittelt ein Gefühl des Stolzes auf die geleistete Arbeit.

Vorteile:

1. Nahezu vollständige Abwesenheit von Mängeln, die zu fehlerhaften Produkten oder deren Veränderung in einen marktfähigen Zustand führen; beseitigt das Problem von Verlusten aufgrund unzureichender Qualität und ermöglicht es Ihnen, die Produktionskosten zu senken und die Wettbewerbsfähigkeit zu steigern.

2. Null-Fehler steigern die Bewertung (Image) des Unternehmens beim Verbraucher deutlich und steigern die Attraktivität seiner Produkte.

3. Qualitätsverluste (nach Taguchi) von Produktelementen werden deutlich reduziert, sofern die Koordinaten der Mitte des Toleranzfeldes fehlen oder leicht von der Mitte des Parameterstreufeldes verschoben sind.

4. Fast Halbierung des Streufeldparameters im Vergleich zu traditionelle Methoden Durch die Gewährleistung der Genauigkeit können wir Teile mit hohen Präzisionsstandards herstellen

Nachteile der Six Sigma-Methode:

1. Die Umsetzung der Six Sigma-Methode erfordert erhebliche Kosten, sowohl für die Personalschulung als auch vor allem für die Inbetriebnahme des technologischen Systems eine große Anzahl der wichtigsten Qualitätsindikatoren auf die erforderliche Genauigkeit.

2. Qualitätsverluste (nach Taguchi) bei der Herstellung eines Einzelteils können auch bei einem kleinen Streufeld des Parameters recht groß sein, wenn die Mitte des Toleranzfeldes nicht mit der Koordinate des Nennmaßes übereinstimmt

3. Die Qualität eines Produkts hängt nicht so sehr von der Qualität der Herstellung der darin enthaltenen Teile ab, sondern von der Qualität des abschließenden Glieds in der Maßkette des Produkts. Bei Ketten mit kleinen Gliedern ist es besonders schwierig, die Qualität der Schließglieder sicherzustellen.

Im Allgemeinen können wir uns bei der Bewertung der Six Sigma-Methode darauf einigen, dass die weltweit führenden Unternehmen bei der Implementierung dieser Methode nicht so sehr auf eine geringe Anzahl von Fehlern pro Million Möglichkeiten achten, sondern auf eine Strategie zur systematischen Reduzierung der Prozessvariabilität.


Systembestellung und 5S

Das System „Ordnung“ ist ein System zur Schaffung von Ordnung, Sauberkeit, Stärkung der Disziplin und Schaffung sicherer Arbeitsbedingungen unter Beteiligung aller Mitarbeiter.

Das „Ordering“-System basiert auf den in Tabelle 2.1 dargestellten Prinzipien. Die größte Schwierigkeit bei der Implementierung des Systems besteht darin, dass vom Verständnis der Prinzipien zu deren Umsetzung und der ständigen Einhaltung der im Team getroffenen Anforderungen, Regeln und Vereinbarungen übergegangen werden muss.

Tabelle 2.1 – Prinzipien des „U“-Systems

Prinzip Der Inhalt der Arbeit
1. Unnötige Dinge entfernen Alle Gegenstände innerhalb des Unternehmens und seiner Bereiche werden in drei Kategorien eingeteilt: unnötig, nicht dringend benötigt und notwendig. a) Unnötige werden nach bestimmten Regeln entfernt. b) Unnötige werden dringend in einer bestimmten Entfernung vom Arbeitsplatz platziert oder zentral gelagert. c) Notwendige werden am Arbeitsplatz gelagert. Jedem Mitarbeiter werden Verantwortungsbereiche zugewiesen
2. Rationale Platzierung von Gegenständen In Bezug auf notwendige und nicht dringend benötigte Gegenstände werden Lösungen entwickelt und umgesetzt, die Folgendes bieten: - Schnelligkeit, Leichtigkeit und Sicherheit des Zugangs zu ihnen; - Visualisierung der Methode zur Speicherung und Überwachung der Anwesenheit, Abwesenheit oder des Standorts des gewünschten Artikels; - Bewegungsfreiheit von Objekten und Ästhetik der Produktionsumgebung
3. Reinigung, Kontrolle, Fehlerbehebung Allgemeine Reinigung der Räumlichkeiten (falls erforderlich) Gründliche Reinigung und Reinigung der Geräte, Behebung von Störungen Identifizierung schwer zugänglicher und komplexer Verschmutzungsquellen (Problembereiche) Beseitigung von Störungen und Entwicklung von Maßnahmen zu deren Vermeidung Entwicklung und Umsetzung von Reinigungsmaßnahmen schwer zugängliche Stellen, Beseitigung von Problem- und Kontaminationsquellen. Entwicklung von Regeln für Reinigung, Reinigungsgeräte, Schmierung, Inspektion
4. Standardisierung der Regeln Festlegen der Regeln für das Entfernen unnötiger Gegenstände, die rationelle Platzierung von Gegenständen, das Reinigen, Schmieren und Überprüfen in schriftlicher Form. Maximale Visualisierung der Darstellung der Regeln (Zeichnungen, Diagramme, Piktogramme, Schilder, Farbcodierung). Visualisierung der Überwachung des Normalzustands und der Abweichungen (in der Ausrüstung). Betrieb, Lagerbestände usw. .) Standardisierung und Vereinheitlichung aller Bezeichnungen (Größe, Farbe, Symbolbild usw.) Rationalisierung der Informationsträger (Material, Art der Aufbringung von Beschriftungen, Schutzbeschichtungen), Orte ihrer Platzierung und Befestigung
5. Disziplin und Verantwortung Konsolidierung der Verantwortungsbereiche jedes Mitarbeiters (Aufmerksamkeitsobjekte und Hauptverantwortung für deren Aufrechterhaltung im Normalzustand) Entwicklung der richtigen Gewohnheiten bei den Mitarbeitern, Festigung der Fähigkeiten zur Einhaltung von Regeln Anwendung wirksamer Kontrollmethoden

Aktivitäten zur Wiederherstellung von Ordnung, Sauberkeit und Stärkung der Disziplin konzentrieren sich in erster Linie auf die Verhaltensänderung der Mitarbeiter. Deshalb kann es nicht sofort umgesetzt werden (z. B. durch eine Generalreinigung der gesamten Organisation).

Für eine erfolgreiche Implementierung des Systems ist es notwendig, die Hindernisse zu kennen, die einer Implementierung im Wege stehen. Wir laden Sie ein, sich mit den folgenden Informationen vertraut zu machen.

Zahlreiche Qualitätsstatistiken zeigen, dass etwa 85–90 % der Produktfehler auf menschliche Faktoren zurückzuführen sind. Überlegen wir, welche Gründe im Zusammenhang mit dem Arbeitnehmer die Nichteinhaltung der technischen Dokumentation bis hin zu fehlerhaften Produkten beeinflussen können. Dazu gehören: geringe Qualifikation, kurze Berufserfahrung, schlechtes Gefühl, Unaufmerksamkeit beim Kennenlernen von Zeichnungen, Technologien oder Anleitungen, schlechte Vorbereitung des Arbeitsplatzes. Es sollte betont werden, dass die Gründe für eine Heirat nicht nur mit einer Person, sondern auch mit einem Werkzeug, einer technologischen Ausrüstung und einer Ausrüstung in Verbindung gebracht werden können. Geht man dem Schuldigen auf den Grund, handelt es sich in der überwiegenden Mehrheit um eine Person, die im Unternehmen oder beim Lieferanten arbeitet.

Oftmals verstehen die Mitarbeiter einfach ihre Führung nicht oder verstehen die Anweisungen oder Arbeitsregeln nicht oder kennen sie nicht. Chefs und Vorarbeitern wird oft der Kontakt zur Geschäftsleitung verwehrt, und zwischen Spitzenbeamten und Arbeitern herrscht eine tiefe Kluft, wodurch in den Werkstätten Apathie und Gleichgültigkeit herrschen. Die Menschen leben in einem Vakuum und verstehen weder die Strategie des Unternehmens noch den Wert ihrer Arbeit.

Das System „Organisation“ verfolgt folgende Ziele:

a) im Bereich Qualität:

– Reduzierung von Mängelschäden

–Organisation eines Produktionsprozesses, der das erforderliche Qualitätsniveau gewährleistet

b) im Bereich Sicherheit

– Verhinderung des Austretens von Dampf, Gas, Druckluft, Öl, Wasser und anderen Substanzen, einschließlich schädlicher und gesundheitsgefährdender Substanzen

– Reduzierung von Unfällen und Gerätestörungen

– Verbesserung der sanitären und hygienischen Bedingungen

– Beseitigung der Ursachen von Unfällen, Bränden, Unfällen

– Erhöhung der Disziplin des Personals unter Einhaltung der Arbeitsschutzvorschriften und -anweisungen

c) im Bereich Produktivität

– Reduzierung unnötiger Lagerbestände

effiziente Nutzung Arbeitsplätze

– Vermeidung von Verlusten und Suche nach notwendigen Gegenständen

– Reduzierung der Ausfallzeiten aufgrund von Geräteausfällen

– Verbesserung der Arbeitsorganisation

– Erhöhung der Personalverantwortung

– Motivation des Teams für produktive Arbeit

Bei der Implementierung des Systems „Organisation“ sind grundlegende Änderungen erforderlich, vor allem in Unternehmenskultur, wobei der Arbeitnehmer das Vermögen des Unternehmens ist, d.h. kein Arbeiter, sondern ein Mitarbeiter.

Das System „U“ ist ein modernisiertes 5-S-System, das die Prinzipien von NOT und Qualitätsverbesserungspraktiken berücksichtigt. 5 S: Sortieren, Reinigen, Organisieren, Standardisieren, Selbstkontrolle. Japanische Forscher glauben, dass Manager nicht in der Lage sein werden, effektiv zu verwalten, wenn sie 5S nicht umsetzen können.

1. Das System „Organisation“ ist die Grundlage für die Umsetzung komplexerer Techniken und Methoden der Produktionsorganisation.

2. Das Vorhandensein oder Fehlen des Systems „Organisation“ kann als wichtige Informationsquelle für die Diagnose des Produktionszustands dienen Organisationssystem, sowohl Führungskräfte als auch Geschäftspartner.

3. Oftmals legen Manager keinen Wert darauf, eine grundsätzliche Ordnung herzustellen, und hoffen darauf hohes Niveau Organisation und Produktivität der Arbeit können unter Produktionsbedingungen nur mit moderner technischer Ausstattung erreicht werden. Jedoch große Renovierung, Umbau oder sogar komplette technische Neuausrüstung der Produktion oder Verlagerung von Büroarbeiten auf Informationstechnologie bringen keine Ergebnisse, es sei denn, die Mitarbeiter entwickeln neue Fähigkeiten und ihre Einstellung zu den Arbeitsmitteln und der Organisation des Arbeitsumfelds ändert sich nicht.

4. Das „Ordnungs“-System sorgt nicht nur für die Entwicklung einer äußerst verantwortungsvollen Haltung einer Person gegenüber ihren Aktivitäten, sondern auch für eine ganze Reihe von Maßnahmen, die die Möglichkeit versehentlicher Fehler ausschließen, sowie für ein relativ einfaches und harmonisches Präventionssystem Dadurch wird die Möglichkeit unerwarteter und schwerwiegender Ausfälle beim Betrieb von Geräten ausgeschlossen.

5. Das „Streamline“-System ist nicht nur eine Möglichkeit, das Personal effektiv in die Praxis der kontinuierlichen Verbesserung einzubinden, sondern auch eine Methode, die zu einer radikalen Veränderung der Managementqualität auf operativer Ebene beiträgt.

6. Ein weiterer Aspekt des Systems „Organisation“ ist die hohe Personaldisziplin, die bei seiner Umsetzung erreicht wird und die es uns wiederum ermöglicht, die Einhaltung aller Arbeitsschutz- und Arbeitssicherheitsvorschriften zu gewährleisten.


Der japanische Wissenschaftler G. Taguchi schlug 1960 vor, dass Qualität nicht länger als Maß für die Einhaltung der Anforderungen der Entwurfs-/Baudokumentation betrachtet werden kann. Die Einhaltung der Qualität im Sinne von Toleranzgrenzen reicht nicht aus. Es ist notwendig, ständig nach dem Nominalwert zu streben, um die Streuung auch innerhalb der vom Projekt festgelegten Grenzen zu verringern.

G. Taguchi schlug vor, dass die Einhaltung von Toleranzanforderungen keineswegs ein ausreichendes Kriterium für die Beurteilung der Qualität sei. Letztendlich sind die Kosten für die Wartung des Produkts nach Erhalt beim Verbraucher minimal, d. h. Nacharbeiten, Anpassungen und Garantiekosten werden minimiert.

Ein Management, das nur auf die Einhaltung von Toleranzvorgaben abzielt, führt zu ganz eigenen Problemen. Gleichzeitig ist anzumerken, dass die Toleranzen über die Jahre hinweg treue Dienste geleistet haben: Sie ermöglichten die Herstellung von Objekten, die für ihre Zeit recht gut waren.

  • Mit der Taguchi-Methode können Sie Prioritäten in einem Qualitätsmanagementprogramm festlegen
  • Qualitätsverbesserung quantifizieren

Schauen wir uns zum Beispiel einige Probleme an, die auftreten können, wenn die Wellen und Löcher nicht perfekt aufeinander abgestimmt sind. Entspricht ihre Artikulation einer engeren Passung, kommt es beim Betrieb der Maschine zu übermäßiger Reibung. Um es zu überwinden, ist mehr Leistung oder Kraftstoffverbrauch erforderlich.

In diesem Fall kann es zu einer lokalen Überhitzung kommen, die zu einer gewissen Verformung und schlechter Leistung führen kann. Bei zu lockerer Passung kann Schmierstoff austreten und an anderer Stelle Schäden verursachen. Die kleinste Sache – der Wechsel des Schmiermittels – kann ein kostspieliger Vorgang sein, sowohl wegen der Kosten für das Schmiermittel selbst als auch wegen der Notwendigkeit, die Maschine für Wartungsarbeiten häufiger anzuhalten. Lockere Passungen können auch zu Vibrationen führen, die Geräusche und pulsierende Belastungen verursachen, was sehr wahrscheinlich zu einer verkürzten Lebensdauer aufgrund von belastungsbedingten Ausfällen führt.

Offensichtlich ist ein anderer, qualitativ anderer Ansatz erforderlich, der keine künstliche Definition von gut und schlecht, gut und schlecht, fehlerhaft und nicht fehlerhaft erfordert. Dieser Ansatz wiederum geht davon aus, dass dies der Fall ist bester Wert, und dass jede Abweichung von diesem Nennwert einen gewissen Verlust oder eine gewisse Komplexität verursacht, entsprechend der Art der Beziehung, die in den Beispielen für den Durchmesser von Wellen und Löchern diskutiert wurde.

Genau das macht die Verlustfunktion von Taguchi. Grafisch wird die Taguchi-Verlustfunktion normalerweise in der Form dargestellt:

Reis. 1. Grafische Taguchi-Verlustfunktion

Der Qualitätsindikatorwert wird auf der horizontalen Achse aufgetragen und die vertikale Achse zeigt den „Verlust“, „Schaden“ oder „Signifikanz“, der mit den Qualitätsindikatorwerten verbunden ist. Diese Verluste werden als Null angenommen, wenn das Qualitätsmerkmal seinen Nominalwert erreicht.

Die mathematische Form der Taguchi-Funktion wird in der Kopfzeile des Diagramms dargestellt X- Messwert des Qualitätsindikators; x0- sein Nennwert; L(x)- Wert der Taguchi-Verlustfunktion an einem Punkt X; Mit- Skalierungsfaktor.

Taguchi Genichi

geboren am 01.01.1924, gestorben am 06.02.2012.

Genichi Taguchi – Konzeptersteller robustes Design(Qualitätssystemdesign oder Qualitätstechnik), Ehrenmitglied der japanischen Gesellschaft für Qualitätskontrolle JUSE, der amerikanischen Gesellschaft für Qualität ASQ, des asiatischen Qualitätsnetzwerks ANQ, der International Academy of Quality IAQ, Gewinner der renommiertesten Auszeichnungen im Bereich Qualität (die Der Deming-Preis wurde ihm viermal verliehen.
Als berühmter japanischer Statistiker untersuchte er Fragen der Verbesserung industrieller Prozesse und Produkte und entwickelte Ideen mathematische Statistik, insbesondere statistische Methoden zur Versuchsplanung (DOE = Design of Experiment) und zur Qualitätskontrolle. Taguchi war der erste, der eine mathematische Verbindung herstellte volkswirtschaftliche Kosten und Qualität, Vorstellung des Konzepts Qualitätsverlustfunktionen. Er zeigte als Erster, dass Qualitätsverluste auch im Toleranzbereich auftreten – sie treten ab dem Moment auf, in dem der Nominalwert des in der technischen Dokumentation angegebenen Parameters nicht mit dem Wert der untersuchten Zufallsvariablen übereinstimmt. Taguchi wird auch zugeschrieben, relativ einfache Argumente und Techniken gefunden zu haben, die robustes experimentelles Design in der Qualitätssicherung Wirklichkeit werden ließen. Taguchi-Methoden stellen einen der grundlegend neuen Ansätze zur Lösung von Qualitätsproblemen dar. Der Hauptgrundsatz der Taguchi-Philosophie besteht darin, die Qualität zu verbessern und gleichzeitig die Kosten zu senken.

Vor dem Aufruf Militärdienst Er studierte ein Jahr lang Textiltechnik an einer technischen Hochschule. Nachdem er in der astronomischen Abteilung des Navigationsinstituts des japanischen Kaiserreichs gedient hatte Marine, Taguchi arbeitete für das Gesundheitsministerium und das Institut für Mathematische Statistik des Bildungsministeriums. Der berühmte japanische Statistiker und nationale Preisträger Matosaburo Masuyama, den Taguchi im Gesundheitsministerium traf, half ihm dabei, die Methoden des experimentellen Designs und die Verwendung orthogonaler Anordnungen eingehend zu studieren. Dieses Wissen gab ihm später die Gelegenheit, Morinaga Pharmaceuticals und deren Tochtergesellschaft Morinaga Seika zu beraten.
1950 begann Taguchi im neu gegründeten Telekommunikationslabor von Nippon Telephone and Telegraph zu arbeiten, mit dem Ziel, die Effizienz der Entwicklungsarbeit zu verbessern, indem er Ingenieure in fortschrittlicheren Arbeitsmethoden ausbildete. Dort arbeitete er mehr als 12 Jahre lang und begann in dieser Zeit, eigene Methoden zu entwickeln und aktiv zu beraten Industrieunternehmen. In den frühen 50er Jahren begannen japanische Unternehmen, darunter Toyota und seine Tochtergesellschaften, seine Methoden in großem Umfang anzuwenden.
1951 wurde G. Taguchis erstes Buch veröffentlicht, das viele mit dem Konzept der „orthogonalen Anordnungen“ bekannt machte.
Während 1954-1955 G. Taguchi arbeitete auf Empfehlung des indischen Wissenschaftlers P. Mahalanolus als Gastprofessor am Indian Institute of Statistics. Hier traf er die berühmten Statistiker R. Fisher und W. Shewhart. 1957-1958 Die erste Auflage seines zweibändigen Buches „Design of Experiments“ erschien.
1962 besuchte Taguchi zum ersten Mal die Vereinigten Staaten an der Princeton University und besuchte bei demselben Besuch die Bell Laboratories von AT&T. In Princeton wurde Taguchi vom berühmten Statistiker John Tukey eingeladen, mit Industriestatistikern zusammenzuarbeiten. Im selben Jahr verlieh ihm die Kyushu-Universität seinen Doktortitel.
1964 wurde Taguchi Professor an der Aoyama-Gakuin-Universität in Tokio und blieb in dieser Position bis 1982.
1966 schrieben Taguchi und seine Co-Autoren das Buch „Management by Total Results“, das von Yun Wu ins Chinesische übersetzt wurde. Zu dieser Zeit waren Taguchis Methoden im Westen noch wenig bekannt, obwohl sie bereits in Indien und Taiwan angewendet wurden. In dieser Zeit und in den 70er Jahren wurden seine Methoden hauptsächlich in Herstellungsprozessen eingesetzt, und in den 80er Jahren erfolgte der Übergang zu ihrer Verwendung für die Produktentwicklung und das Design.
In den frühen 70er Jahren entwickelte Taguchi das Konzept der Quality Loss Function, in den gleichen Jahren veröffentlichte er zwei weitere Bücher und veröffentlichte die dritte (letzte) Auflage des Buches „Design of Experiments“.
Am Ende des Jahrzehnts war die Liste der Auszeichnungen Taguchis beeindruckend: 1960 der Deming-Preis für die Anwendung von Methoden und 1951 und 1953 der Preis für Qualitätsliteratur.
1980 wurde Taguchi eingeladen, in Begleitung von Yun Wu aufzutreten, der in die USA ausgewandert war. Zu diesem Zeitpunkt war Taguchi Direktor der Japan Quality Academy. Während dieses Besuchs in den Vereinigten Staaten besuchte Taguchi erneut die Bell Laboratories, wo er von Madhav Phadke empfangen wurde. Trotz Sprachproblemen wurden die Experimente erfolgreich durchgeführt, wodurch Taguchis Methoden von den Bell Laboratories anerkannt wurden.
Nach Taguchis Besuch in Amerika wird seine Methodik zunehmend in der amerikanischen Industrie angewendet. Allerdings stießen Taguchis Methoden bei amerikanischen Statistikern nicht immer auf positive Resonanz. Aber vielleicht war das eine Reaktion auf die Art und Weise, wie sie vermarktet wurden. Wie viele auch immer Amerikanische Unternehmen, insbesondere Xerox, Ford und ITT, interessierten sich für die Verwendung der Methoden des japanischen Wissenschaftlers.
1982 gab Taguchi seine Lehrtätigkeit an der Universität auf und wurde nach seiner Pensionierung Berater der Japan Standards Association.
1983 wurde er zum geschäftsführenden Direktor des American Institute of Lieferanten ernannt, wo auch sein Sohn Sheen arbeitete.
1984 wurde Taguchi erneut mit dem Deming-Preis für Bücher für Qualität ausgezeichnet, und 1986. Internationales Institut Technologie verlieh ihm die Willard-Rockwell-Medaille. In Europa hatten Taguchis Methoden zu dieser Zeit jedoch keinen großen Erfolg. Dies änderte sich, als das Institute of Statisticians (UK) 1987 die erste Konferenz zu diesen Methoden organisierte. Im selben Jahr wurde der Taguchi Club des Vereinigten Königreichs gegründet.

Die Methodik von Taguchi konzentriert sich eher auf die gezielte Optimierung von Produkten und Prozessen vor Produktionsbeginn als auf die Erzielung von Qualität durch Management. Die Aufgabe, Qualität und Zuverlässigkeit sicherzustellen, wurde in die Designphase verlagert. Die Methodik von Taguchi ermöglicht eine effiziente Planung von Experimenten mit entworfenen Produkten, bevor die Produktionsphase beginnt. Die von ihm vorgeschlagenen Techniken können jedoch auch in der Produktion als Methode zur Beseitigung von Schwierigkeiten bei der Identifizierung dringender Probleme eingesetzt werden.
Im Gegensatz zu westlichen Wissenschaftlern definiert Taguchi Produktqualität als „die (minimalen) Verluste, die der Gesellschaft ab dem Zeitpunkt der Markteinführung entstehen“. Dazu gehören nicht nur die Verluste, die dem Unternehmen durch die Zahlung von Änderungen oder Mängeln, Wartung, Ausfallzeiten aufgrund von Geräteausfällen und seinen Gewährleistungspflichten entstehen, sondern auch Verluste für Verbraucher, die mit der schlechten Qualität des Produkts und seiner Unzuverlässigkeit verbunden sind, was wiederum zu Folgeschäden führt Verluste des Herstellers aufgrund eines Rückgangs seines Marktanteils. Nimmt man seinen spezifischen Zielwert als den bestmöglichen Wert eines Qualitätsindikators und betrachtet diesen Wert als Referenz, assoziiert Taguchi ein einfaches quadratische Funktion Verluste bei Abweichung von diesem Ziel. Die Verlustfunktion zeigt, dass eine Verringerung der Abweichungen zu geringeren Verlusten und damit zu einer verbesserten Qualität führt. Nach dieser Theorie treten Verluste auch dann auf, wenn die Qualitätsindikatoren innerhalb akzeptabler Grenzen liegen. Sie sind jedoch nur dann minimal, wenn diese Indikatoren mit den Zielwerten übereinstimmen. Wenn Sie einen Qualitätsfaktor (z. B. Festigkeit) maximieren oder minimieren (z. B. Schrumpfung) möchten, wird die Verlustfunktion semiparabolisch.
Anhand der Verlustfunktion kann entschieden werden, ob zusätzliche Investitionen in Produkte in der Designphase sinnvoll sind und ob dies zur Vermarktung des Produkts beiträgt.
Taguchis Theorie kann auf das Produktqualitätsmanagement in der Entwurfsphase oder, seltener, auf das laufende Qualitätsmanagement während der Produktion angewendet werden. Geht man davon aus, dass Qualität schon während der Entwicklung in das Produkt eingebaut wird, dann verliert das Qualitätsmanagement in den einzelnen Produktionsstufen an Bedeutung und der Schwerpunkt liegt auf dem Management in der Vorproduktionsphase.
Taguchi unterteilt das Qualitätsmanagement vor der Produktion in drei Phasen:
1. Strukturelles Design.
2. Bestimmung von Parametern (Qualitätsindikatoren).
3. Bestimmung der Toleranzen für Parameter.
Auf der Ebene der technischen Lösung werden zunächst Einzelteile, Materialien und Parameter ausgewählt. Bei der Ermittlung der Bedingungen des Produktionsprozesses wird die Art der Ausrüstung ausgewählt und individuelle Produktionsfaktoren berücksichtigt. Dies gelingt am besten mit der Funktion „ Brainstorming„unter Beteiligung von Produktionsingenieuren und Designern.
Die Auswahl eines Parameterwerts ist der wichtigste Schritt: Hier haben die Japaner hervorragende Ergebnisse bei der Verbesserung der Qualität erzielt, ohne die Kosten zu erhöhen. In dieser Phase werden die ausgewählten Zielwerte der Qualitätsindikatoren überprüft, deren optimale Kombinationen ermittelt und die am wenigsten beeinflussbaren Parameter des Produktionsprozesses berechnet. Umfeld und andere unkontrollierbare Faktoren. Taguchi hat in diesem Bereich mehrere Innovationen vorzuweisen: Der Schwerpunkt liegt auf dem Signal-Rausch-Verhältnis, der Verwendung orthogonaler Anordnungen zur Reduzierung der Anzahl experimenteller Versuche und der schrittweisen Annäherung an das Optimum.
Schließlich zielt die Entwicklung von Toleranzgrenzen darauf ab, die Variation zu verringern, indem die akzeptablen Grenzen für diejenigen Faktoren verschärft werden, die den größten Einfluss auf die Variation des Qualitätsindikators haben. In dieser Phase (Fokus auf die Verlustfunktion) fallen die größten mit dem Kauf verbundenen Kosten an die besten Materialien oder bessere Ausrüstung, was ein Ausdruck der japanischen Philosophie ist, dass man „zuletzt investieren“ sollte, statt „zuerst investieren [und später nachdenken]“.
Diese Methoden sind sowohl für die britische als auch für die globale Industrie insgesamt wichtig. Typischerweise sind Design und Debugging von Produktionslinien in der Realität alles andere als perfekt. Viele Produktionswitze beziehen sich auf die Notwendigkeit, wichtige Parameter zu „überdimensionieren“. Taguchis Theorie ist ein Modell, das es einem Ingenieur oder Designer ermöglicht, die optimalen Parameter zu bestimmen. Wenn diese beibehalten werden, sind die hergestellten Produkte von hoher Qualität und werden nicht im Laufe der Zeit eingestellt.
Taguchis Theorie hat zwei Hauptvorteile. Erstens wird es hauptsächlich von Ingenieuren und nicht von Statistikern entwickelt und verwendet. Dadurch entfallen die Sprach- und Kommunikationsprobleme, die traditionell mit statistischen Methoden verbunden sind. Dies ermöglicht Ihnen, in technischen Begriffen zu denken. Als Ergebnis des Problems zufällige Variationen die oft stören Fertigungsprozess, sollten zusätzlich zu den eingeführten kontrollierten Variationen berücksichtigt werden. Bei der Produktoptimierung geht es nicht nur darum, seine Qualitätsindikatoren den Zielwerten anzunähern, sondern auch darum, Abweichungen von diesen Zielwerten zu minimieren. Das ist ein Teil Statistische Prozesskontrolle (SPC).
Taguchis Theorie kann verwendet werden, um das Spektrum der Qualitätsindikatoren einzugrenzen und Variationen zu identifizieren, auf denen das Management basieren kann. SPC kann verwendet werden, um Leistungswerte weiterhin in der Nähe der Zielwerte zu halten. Dies ist im Wesentlichen die Innovation von Taguchi: Die Verwendung des Signal-Rausch-Verhältnisses zur Auswahl von Steuerparametern, die die Empfindlichkeit gegenüber Rauschen (zufällige Interferenz) minimieren würden. Diese Ergänzungen machen die Methodik grundlegend.
Das Wichtigste in Taguchis Theorie ist jedoch die Formalisierung der Konstruktion des sogenannten orthogonale Anordnungen. Sie wurden bereits früher bei der Planung von Experimenten verwendet, aber es war Taguchi, der sie formalisierte. Dadurch können Ingenieure automatisch die Mindestanzahl an Prototypen ermitteln, die für ein Experiment benötigt werden. Diese Anzahl wird bewusst auf ein Minimum reduziert, indem alle (oder fast alle) Interaktionsinformationen, die in der Designlösung enthalten sind, verworfen werden. Solche Informationen können später im Stadium der industriellen Anwendung gewonnen werden, wenn ein weiterer Prototyp evaluiert wird – und zwar genau der, der den vorhergesagten optimalen Parametern entspricht.
Dies ist der Unterschied zwischen dem industriellen Experiment und dem landwirtschaftlichen Inhalt des Experiments, auf dem die meisten westlichen Menschen basieren statistische Methoden. IN Landwirtschaft Die Reaktion auf das Experiment ist langsam, und wenn Prototypkombinationen ignoriert werden und Wechselwirkungen nicht berücksichtigt werden, wird es ein weiteres Jahr im landwirtschaftlichen Zyklus dauern, um zu bestätigen, ob die vorhergesagten Merkmalskombinationen optimal sind. In der Industrie ist die Reaktion auf ein Experiment meist schnell und man kann sofort einen Schritt zurückgehen und eine andere Probe ausprobieren.
Wechselwirkungen können jedoch auch in Taguchis Theorie verwendet werden. Es bietet ein einfaches grafisches Format, mit dem Sie Informationen einfach und systematisch analysieren können. Allerdings kann nur eine begrenzte Anzahl an Wechselwirkungen berücksichtigt werden, was nicht zu einer signifikanten Erhöhung der Probenzahl und Erweiterung des Versuchsmaßstabs führt.