La fonction de perte de tagouti : un examen plus approfondi. Le concept de la fonction de perte de Taguchi

La fonction de perte de tagouti : un examen plus approfondi. Le concept de la fonction de perte de Taguchi

Le tracé de la fonction de perte de Taguchi, illustré à la figure 34, est une parabole étirée le long de l'axe vertical et ayant une valeur minimale de zéro au point de la valeur nominale de l'indice de qualité.

L'équation d'une telle parabole a la forme :

L(x) = c(x - x0)2,

où : x est la valeur mesurée de l'indicateur de qualité ; x0 - sa valeur nominale ; L(x) est la valeur de la fonction de perte de Taguchi au point x ; c - facteur d'échelle (sélectionné en fonction de la devise utilisée dans la mesure des pertes). Il s'agit de la fonction mathématique la plus naturelle et la plus simple, et elle convient pour représenter les principales caractéristiques de la fonction de perte de Taguchi discutée au chapitre 11*. Bien sûr, cela ne signifie pas que ce type est le meilleur choix dans chaque cas spécifique de son application. Notez, par exemple, le fait que la formule ci-dessus suppose le même niveau de pertes pour les écarts par rapport à la valeur nominale dans les deux sens (à la fin du chapitre précédent, nous avons considéré un cas particulier où cette hypothèse n'est pas remplie). En revanche, bien que ce modèle serve souvent d'approximation raisonnable d'un facteur de qualité dans ses tolérances et pas trop loin des limites de tolérance, il n'est évidemment pas adapté aux grands écarts par rapport à la valeur nominale. Cependant, nos processus ne sont pas si mauvais que nous devons prendre en compte des écarts aussi importants.

* Certains statisticiens pourront déceler l'analogie évidente d'un tel choix pour la fonction de perte de Taguchi avec la méthode des moindres carrés. - Environ. éd.

Riz. 36. Représentations de l'approche de gestion de la qualité basée sur la tolérance à l'aide de la fonction de perte de Taguchi

Mais même si notre modèle parabolique n'est pas tout à fait correct, il est sans doute beaucoup plus proche de la réalité que la fonction de perte correspondant à l'approche de limitation de la qualité illustrée à la figure 36. Ce dernier modèle suppose qu'il n'y a pas de perte pour tous les écarts par rapport à la valeur nominale dans les tolérances, mais ils apparaissent brusquement aux limites du champ de tolérance. Compte tenu de la discussion du chapitre précédent, il n'y a pas lieu ici de discuter en détail de cette question, à l'exception d'un aspect. Rappelez-vous l'observation que nous avons faite au chapitre 11 sur la compréhension de l'importance de la tolérance. Dans tout système, mécanique ou bureaucratique, qui n'est détecté que lorsque quelque chose est hors tolérance, une action hâtive est coûteuse. Alors dans cas similaires En effet, il y a une forte augmentation des pertes après que l'indicateur de qualité dépasse les tolérances, mais ces pertes sont dues au système de contrôle lui-même et ne résultent pas d'écarts dans le niveau de qualité du produit ou du service lui-même.

Ci-dessous, nous utiliserons le modèle parabolique pour explorer plus en détail les concepts et les exemples abordés au chapitre 11. Comme il ne s'agit que d'un modèle, les chiffres exacts qui ressortent des calculs ne sont pas si importants. Par conséquent, des différences mineures dans les nombres ne seront pas considérées comme quelque chose de significatif. Une stratégie qui a une perte légèrement plus grande qu'une autre stratégie, en supposant l'applicabilité de ce modèle, lors du remplacement de ce modèle par un autre, peut être plus préférable pour la fonction de perte. Mais lorsque nous constatons des différences d'ordres de grandeur (par exemple, lorsque les pertes d'une stratégie sont 10, 50 ou même 100 fois les pertes d'une autre), nous pouvons dire en toute confiance que les différences de stratégies sont assez importantes, voire en tenant compte du fait que le modèle parabolique n'est qu'une idéalisation.

Comme idéalisation supplémentaire nécessaire pour les comparaisons numériques dans ce chapitre, nous sommes forcés de supposer que les processus considérés ici seront absolument stables. Le terme « absolument stable » au chapitre 4 suggère que

L'organisation en tant que système

La distribution statistique du processus est inchangée, ne fluctue pas. En particulier, cela signifie que nous pouvons parler en termes de valeurs vraies pour la moyenne et l'écart type, que nous désignerons (mais uniquement dans

ce chapitre) symboles

Si le processus est absolument stable et a une distribution de densité de probabilité, alors la perte moyenne de Taguchi peut être calculée à partir de :

qui correspond à l'aire sous la courbe donnée par le produit de la fonction de perte L(x) et de la densité de probabilité f(x). Certaines transformations mathématiques évidentes permettent de mettre cette expression sous la forme :

où les termes à l'intérieur des accolades ((...)) représentent respectivement l'écart au carré (type) (généralement lié à la variance) et le carré du biais. Il convient de noter que la perte moyenne de Taguchi ne dépend pas d'une manière compliquée de f(x); ils peuvent être calculés très simplement si les paramètres simples inclus dans la dernière expression* sont connus.

Pour faciliter les comparaisons, introduisons également une notation pour la reproductibilité du processus. Dans différentes entreprises, il est défini de différentes manières, mais nous supposerons qu'il est égal à la différence entre les limites de tolérance supérieure et inférieure divisée par la différence entre les limites naturelles supérieure et inférieure du processus, où pour les limites naturelles

processus, nous utilisons de "vraies" limites

* Une conséquence importante de ceci est l'absence de toute hypothèse sur le type de fonction, par exemple, sa correspondance, sa proximité avec la distribution normale (gaussienne). Nous avons cependant utilisé la distribution normale pour illustrer dans les figures 37 à 40, et avec quelques détails, les calculs des deux derniers exemples de ce chapitre. - Environ. éd.

** Ce n'est pas la définition de Deming de la reproductibilité. Sans surprise, il définit la reproductibilité d'un processus (stable) simplement comme une détermination des limites naturelles du processus, sans référence aux tolérances. - Environ. éd.

respectivement. (Bien que cela contredise

Remarque importante de Deming sur les processus réels ; voir : "Sortir de la crise", p. 293.)

Dans ce qui suit, nous utiliserons la notion de pertes moyennes de Taguchi. La perte moyenne de Taguchi, par rapport à un échantillon ou lot de n produits, pour lesquels les valeurs X1, x2, ..., xn de l'indicateur de qualité considéré x sont égales à :

pour particulier

observations, de sorte que le dénominateur peut être représenté simplement comme

Chapitre 12 La fonction de perte de Taguchi : un examen plus approfondi

Une reproductibilité de 1 (reproductibilité simple) correspond à un processus qui, dans la plupart des cas, est à peine dans la tolérance*. Un procédé est parfois dit reproductible ou non reproductible, selon que l'indice de reproductibilité est supérieur ou non à un. La façon de penser habituelle en Occident - accepter la valeur 1 1/3 comme correspondant à un procédé exceptionnellement efficace, et la valeur 12/3 - est peut-être déjà trop extravagante, puisque la probabilité d'obtenir une mesure hors tolérance dans ce cas s'avère négligeable **. Notons toutefois que les données sur les procédés issus de la pratique japonaise, évoquées au chapitre 11, permettent d'estimer leur niveau de reproductibilité de 3 à 5. Et que la mesure de la reproductibilité reflète ce que le procédé peut réellement donner (et non ce qu'il est potentiellement capable de). ), nous devons supposer que le processus est affiné (centré), c'est-à-dire la moyenne du processus coïncide avec la valeur nominale x0. Ci-dessous, nous verrons ce qui se passe si cette hypothèse n'est pas remplie.

Nous devons choisir la valeur du facteur d'échelle c dans l'équation de la parabole de sorte qu'un processus qui a une reproductibilité de 1 et qui est parfaitement centré aurait une perte de Taguchi moyenne de 100 unités. Considérons d'abord les pertes moyennes de Taguchi pour un processus parfaitement stable ajusté à la valeur nominale de X, mais en supposant une reproductibilité différente du processus.

Tableau 1. Processus absolument stable, finement réglé

On voit que l'augmentation de la reproductibilité de 1 1/3 à 12/3 réduit la perte moyenne de Taguchi de la moitié au tiers de sa valeur par rapport à la perte correspondant à une seule reproductibilité. Cependant, augmenter la reproductibilité à 3-5 a un effet énorme, décrit en termes d'ordres de grandeur, comme nous en avons parlé plus tôt. Les graphiques des pertes moyennes de Taguchi, en fonction de la reproductibilité des processus, pour tous les exemples considérés dans ce chapitre sont présentés dans la Figure 41.

* Par exemple, si le processus est exactement centré et que la distribution est normale, alors en moyenne une mesure sur presque 400 sera hors tolérance, et en même temps d'une très petite quantité. - Environ. éd.

** Désormais à la mode "six sigma" correspond à une reproductibilité égale à 2. - Env. éd. Reproductibilité 1/2 3/4 1 1 1/3 12/3 2 3 5 Perte moyenne de Taguchi 400 178 100 56 36 25 11 4 174

L'organisation en tant que système

L'importance du réglage fin (centrage) du processus peut être rapidement évaluée en comparant les données des tableaux 1 et 2.

Les données du tableau 2 sont calculées en supposant que le processus n'est pas réglé avec précision et centré au milieu de la plage entre la valeur nominale et l'une des limites de tolérance.

Tableau 2. Processus absolument stable, centré au milieu entre la valeur nominale et l'une des limites de tolérance

Une mauvaise configuration du processus détruit complètement tous les avantages potentiels d'une reproductibilité améliorée. Cependant, même avec un réglage aussi médiocre, un procédé ayant une reproductibilité de 2 ou plus ne produira pratiquement aucun produit hors tolérance. Par conséquent, bien qu'un tel processus soit considéré comme incontestablement exceptionnel en termes de respect des tolérances données, considéré du point de vue de la fonction de perte de Taguchi, il est certainement bien pire qu'un processus finement réglé ; par exemple, pour un rendement de 2, la perte du tableau 2 est dix fois la perte indiquée dans le tableau 1.

Considérons maintenant les deux exemples décrits à la fin du chapitre précédent. Abordons d'abord le problème de l'usure des outils. Rappelons les détails : initialement, le processus est mis en place pour que les résultats de mesure soient proches de la limite supérieure de tolérance (URL). Ensuite, l'usure de l'outil entraînera une diminution progressive des valeurs; lorsque les résultats commencent à approcher la limite de tolérance inférieure (LTL), le processus est arrêté et l'outil est remplacé. A noter que la reproductibilité du processus considéré (sans tenir compte de sa dérive) doit être supérieure à 1 pour qu'un tel schéma soit mis en œuvre, sinon il n'y aurait simplement aucune marge de manœuvre. Pour compléter le tableau, nous avons également considéré ci-dessous le cas correspondant à la reproductibilité unitaire.

La figure 37 montre le cas où la reproductibilité du processus est de 3. Par exemple, nous prenons les valeurs de LR et UR à 10 et 16

respectivement, et l'écart type Reproductibilité 1/2 1/3 1 1 1/3 12/3 2 3

la est égal à 1, alors la reproductibilité du processus serait également égale à un). Initialement, nous avons défini le centre de distribution sur 15, de sorte que la distribution tombe juste en dessous de l'IOP. Supposons que la moyenne d'un processus diminue à un rythme constant jusqu'à une valeur de 11, et à ce moment précis, nous arrêtons le processus, changeons d'outil et le remettons à 15. (Si l'efficacité du processus était de 2 au lieu de 3, soit .

0,5, alors nous devions initialement définir le centre de pro-

arrêtez-vous à 14,5 et laissez-le glisser jusqu'à 11,5 quand il est temps de

Chapitre 12 La fonction de perte de Taguchi : un examen plus approfondi

Riz. 37. Processus avec dérive. La reproductibilité est de 3

Riz. 38. Processus avec dérive. La reproductibilité est de 2

changer d'outil. Ce cas est illustré à la figure 38.) Les pertes moyennes de Taguchi pour des processus avec une reproductibilité différente, qui sont "gérées" de cette manière, sont présentées dans le tableau 3a. (Dans le même temps, le coût de remplacement de l'outil n'a pas été explicitement pris en compte dans les calculs.)

Tableau pour. Un processus avec un taux de dérive constant.

Démarre et s'arrête de manière à éviter uniquement les dépassements

Mais quelle surprise ! Pour de petites valeurs de reproductibilité, la perte de Taguchi diminue initialement, mais commence rapidement à augmenter, de sorte que les pertes pour un procédé avec une reproductibilité 5 sont plus de deux fois plus importantes que pour un procédé avec une reproductibilité égale à 1 ! To Reproductibilité 1 11/3 12/s 2 3 5 Perte moyenne de Taguchi 100 75 84 100 144 196 176

L'organisation en tant que système

A la réflexion, la raison de cette augmentation devient claire. Lorsque la reproductibilité du procédé est élevée, son réglage initial donne des valeurs très proches de la PIO, il est donc obligé de donner des produits avec des paramètres très différents de ceux nominaux, ce qui entraîne par conséquent des pertes de Taguchi élevées. Il en est de même lorsque le processus est déjà passé en LHD aux instants précédant immédiatement le changement d'outil. En raison de la nature quadratique de la fonction de perte, les dommages causés par ces situations extrêmes, dépasse les avantages de l'obtention bons produits aux moments où le processus était proche de la valeur nominale, à mi-chemin de POP à LOP.

Notez que la conclusion qui en résulte est en conflit direct avec le monde basé sur l'utilisation du modèle de conformité de tolérance. Le schéma lui-même est organisé de telle sorte que quelle que soit la reproductibilité du processus (tant qu'elle dépasse 1), aucun produit ne serait fabriqué au-delà des limites de tolérance. L'augmentation de la reproductibilité du processus de ce point de vue a pour conséquence positive que le processus peut durer plus longtemps jusqu'à ce que le besoin de changement d'outil se fasse sentir. Cependant, comme nous le voyons maintenant, cet avantage est faux en termes de pertes de Taguchi. Les pertes moyennes de Taguchi diminueront considérablement si nous pouvons, par exemple, changer d'outils deux fois plus souvent. Ainsi, pour un procédé avec une reproductibilité de 3, cela permettrait de le fixer initialement à 14 (au lieu de 15) et de le remplacer lorsque la moyenne descend à 12 (au lieu de 11). La perte moyenne de Taguchi dans ce cas sera de 44 au lieu de 144, bien que ce ne soit pas encore proche du résultat donné par le procédé avec une reproductibilité 3 sans biais (dans ce cas, selon le tableau 1, la perte moyenne de Taguchi est de 11). En même temps, c'est une amélioration significative par rapport à ce qui se passe si on attend le plus possible avant de changer d'outil. Le tableau 3B montre le résultat de deux fois plus de changements d'outils pour les mêmes valeurs de répétabilité que dans le tableau A.

tableau ST. Un processus avec un taux de dérive constant.

Les changements d'outils se produisent deux fois plus souvent que dans le tableau 3a, tandis que le processus est réglé aussi près que possible de la valeur nominale.

La réduction significative des pertes moyennes de Taguchi par rapport à celles du tableau 3a vaut-elle le coût supplémentaire de changements d'outils deux fois plus fréquents ? Cette question doit être répondue par celui qui gère le système. Reproductibilité 1 1 1/3 12/3 2 3 5 Perte moyenne de Taguchi 100 61 48 44 44 52 Chapitre 12 Fonction de perte de Taguchi : un examen plus approfondi

Et enfin, nous arrivons à l'examen de l'opération de souche. Rappelons que la moyenne du processus a été fixée à une valeur supérieure à la valeur nominale, en raison de la logique évidente selon laquelle il est plus facile de raccourcir une longue barre que d'allonger une courte. Simulons ce cas en supposant que la moyenne du processus de coupe est définie sur UR, et si la longueur de la barre est supérieure à la tolérance supérieure, alors une longueur supplémentaire égale à l'intervalle de tolérance (c'est-à-dire la différence entre UR et LR ) en est coupé. Bien sûr, c'est aussi un modèle très simplifié, mais le résultat est très intéressant et s'accorde assez bien avec la situation réelle qui a donné lieu à cette considération.

Riz. 39. L'opération de coupe. Répartition des longueurs à l'instant initial

Le problème avec ce circuit est facilement identifié en regardant les deux figures. La répartition correspondant à la première coupe est illustrée à la Figure 39. Après avoir recoupé la moitié des barres qui étaient trop longues, les longueurs des barres restantes ont la répartition illustrée à la Figure 40.

À partir de là, on comprend pourquoi les pertes moyennes de Taguchi sont si élevées (voir tableau 4). Pour la plupart des longueurs de barre

Riz. 40. Souche d'opération. Distribution après reprise

L'organisation en tant que système

s'avèrent proches des limites de tolérance, et ce n'est que pour un très petit nombre d'entre eux qu'il existe des cas où leur longueur s'avère proche de la valeur nominale. En d'autres termes, la plupart des barres ont des longueurs qui donnent la fonction de perte maximale de toutes les valeurs possibles dans la plage de tolérance. Dans le même temps, il n'y a pratiquement pas de barres dont les longueurs apportent une petite contribution à la fonction de perte moyenne. Comme dans le cas précédent, il devrait être évident pour le lecteur qu'il s'agit encore d'un autre cas où l'augmentation de la reproductibilité du processus ne fait qu'aggraver la situation.

Tableau 4. L'opération d'ajustement est centrée sur la PIO.

Une barre d'une longueur supérieure à la PIO est en outre coupée d'une quantité égale à la PIO-LHD

Comme on peut le voir, le système, qui est tout à fait acceptable en termes de respect des exigences de tolérance, donne un résultat déplorable en termes de fonction de perte de Taguchi.

Comme indiqué précédemment, la figure 41 montre les graphiques de perte moyenne de Taguchi pour tous les exemples que nous avons explorés dans ce chapitre. D'énormes différences sont frappantes, qui nous sont cependant cachées si nous ne nous contentons que des exigences de tolérances (spécifications).

Riz. Fig. 41. Graphiques de dépendance pour les pertes moyennes de Taguchi Reproductibilité 1/2 3/4 1 1 1/3 1 2/3 2 3 5 Pertes moyennes de Taguchi 343 439 521 597 649 686 752 808

Genichi Taguchi a un jour développé son propre système, combinant des méthodes d'ingénierie et statistiques, visant à montée rapide la performance économique de l'entreprise et la qualité des produits en optimisant la conception des produits et les processus de fabrication. Cette méthodologie, qui comprend à la fois une philosophie générale et un ensemble d'outils pratiques de gestion de la qualité, a été appelée "Méthodes Taguchi".

La philosophie de la qualité (selon Taguchi) peut être réduite aux postulats de base suivants :

  1. Nous ne pouvons pas réduire les coûts sans affecter la qualité ;
  2. Nous pouvons améliorer la qualité sans augmenter les coûts ;
  3. Nous pouvons réduire les coûts en améliorant la qualité ;
  4. Nous pouvons réduire les coûts en réduisant la variabilité, ce qui conduit automatiquement à une meilleure qualité et efficacité.

Taguchi n'est pas d'accord avec la définition généralement acceptée de la qualité : "trouver les paramètres des produits dans les limites établies". Une telle définition permet de considérer que deux produits diffèrent peu l'un de l'autre si les paramètres de l'un sont proches de la limite de tolérance, et les paramètres de l'autre légèrement au-delà de ces limites. Néanmoins, le premier d'entre eux est considéré comme "bon" et le second - "mauvais". Contrairement à l'approche traditionnelle, les méthodes Taguchi visent à garantir des écarts minimes des paramètres du produit par rapport à ceux donnés, sans augmentation des coûts due à la qualité.

Taguchi propose d'évaluer la qualité par le montant des dommages causés à la société à partir du moment où le produit est livré - moins ces dommages sont importants, plus la qualité est élevée. La base de son concept d'assurance qualité est la théorie de la perte ou des dommages dus à une qualité inadéquate. Lorsque nous parlons des dommages causés à la société, la première chose qui nous vient à l'esprit est les émissions nocives d'échappement ou l'augmentation du bruit produit par une voiture avec un silencieux défectueux. Cependant, Taguchi considère les dommages causés à la société dans un aspect plus large. Il associe les déchets possibles à tout produit qui tombe entre les mains du consommateur. De plus, il considère l'insatisfaction des consommateurs, les surcoûts du constructeur pour les obligations de garantie, la détérioration de la réputation de l'entreprise, qui entraîne la perte d'une partie du marché qui lui appartenait auparavant, comme éléments de ces pertes.

L'idée de minimiser les pertes sociales est assez abstraite en soi, et il est difficile de la concilier avec les missions actuelles d'une entreprise en particulier. Si, au contraire, on considère le dommage causé à la société comme un coût à long terme de l'entreprise, en considérant ces concepts comme équivalents, alors une telle formulation acquiert une plus grande signification pratique.

Comme mentionné ci-dessus, les coûts de qualité sont généralement assimilés au coût de mise au rebut ou de retouche des produits défectueux, aux coûts de garantie et à d'autres coûts tangibles. Cependant, comme on l'a déjà montré, ces coûts « tangibles » ne sont que la partie émergée de l'iceberg.

Et qu'en est-il des coûts cachés ou des dommages à long terme associés, par exemple, à la perte de temps des ingénieurs et des managers, à l'augmentation des stocks, à l'insatisfaction des clients ou à la perte de parts de marché d'une entreprise à long terme ? Est-il possible de quantifier des pertes de ce type ? Il semble que de telles estimations soient possibles, même si elles ne sont pas exactes. Nous devons chercher des moyens d'estimer coûts cachés et des pertes possibles à long terme, car elles augmentent considérablement les coûts et les coûts liés à la qualité. À cette fin, Taguchi introduit le concept de fonction de perte de qualité, ou fonction de perte de qualité (QLF).

La manière dont QLF est construit dépend du type d'indicateurs de qualité utilisés, c'est-à-dire des paramètres que nous mesurons pour évaluer le niveau technique ou la qualité du produit. Il existe cinq types d'indicateurs de qualité.

  1. "Le meilleur de tous - la valeur nominale." Il est nécessaire de rechercher une valeur nominale avec une variabilité minimale. Ces paramètres comprennent, par exemple, les dimensions géométriques ou la tension de sortie.
  2. "Moins c'est mieux". Il est nécessaire de minimiser les paramètres de sortie, tels que, par exemple, la quantité de retrait ou d'usure.
  3. "Le plus gros le meilleur". Il est nécessaire de maximiser les paramètres de sortie, comme par exemple la force de traction ou la résistance à la traction.
  4. "Attribut" de mesure discrète utilisé pour classer ou compter, par exemple, le nombre d'occurrences de certains événements.
  5. Caractéristique dynamique dont la valeur dépend des données d'entrée, par exemple la vitesse du ventilateur, qui change en fonction de la température du moteur.

Lors de l'élaboration détaillée d'un système de comptabilité analytique de la qualité, les deux critères importants suivants doivent être respectés : 1) les données sur les coûts doivent servir d'outil pour justifier les actions visant à améliorer la qualité et pour évaluer leur efficacité ; 2) l'inclusion d'informations sur les coûts secondaires dans les données collectées n'est pas indispensable.

Le principal objectif de l'utilisation des données comptables dans l'assurance qualité est de réduire les coûts associés à la qualité. Cet objectif ne peut être atteint qu'en collectant et en utilisant toutes les données sur les coûts significatifs qui ont une importance pratique. La cohérence et l'honnêteté dans la résolution de ce problème doivent être strictement observées. Cela n'a aucun sens de comparer votre entreprise avec d'autres, seule votre propre expérience compte. La réduction progressive des coûts liés à la qualité est la seule chose qui a un prix.

Dans l'approche traditionnelle du contrôle de la qualité, on suppose que l'indicateur contrôlé, qui se situe dans la tolérance, fournit la qualité requise du produit. Taguchi a proposé de prendre en compte la perte de qualité associée non seulement à la sortie de la valeur de l'indicateur au-delà de la tolérance, mais également à l'écart de cet indicateur par rapport à la valeur nominale, même si cet écart est dans la tolérance.

G. Taguchi a proposé une fonction de perte de qualité L (X), selon laquelle seuls de tels indicateurs sont considérés comme de la qualité, dont les valeurs coïncident complètement en grandeur avec les valeurs nominales de ces indicateurs, et tout écart par rapport à la valeur nominale est associé à l'une ou l'autre perte de qualité du produit (Fig. 3.8) :

L (X) \u003d k (X - mois) 2

où mo est la valeur nominale de l'indicateur de qualité (paramètre),

k est un coefficient constant caractérisant l'équivalent monétaire,

X est la valeur actuelle de l'indicateur de qualité (paramètre).

Dans le même temps, les pertes de qualité augmentent dans une dépendance quadratique lorsque les valeurs réelles (mesurées) du paramètre s'écartent de la valeur nominale et peuvent survenir à la fois chez le fabricant et chez le consommateur (client) du produit.

Si la valeur des pertes aux limites de tolérance T est connue, il est facile de calculer les valeurs du coefficient constant k. Si nous supposons que la tolérance pour le paramètre de qualité est symétrique par rapport au m® nominal, et que la valeur des pertes à l'une des limites de tolérance est la même et égale à L®, alors nous avons

k \u003d 4 Lo / T 2

La formule (3.1) correspond à la perte économique de qualité d'une seule mesure de l'indicateur de qualité, en fonction de sa position dans le champ parasite par rapport à la coordonnée de la valeur nominale du paramètre mo.

Selon Taguchi, les produits et procédés développés doivent être stables (robustes) par rapport à d'éventuelles influences externes: il est nécessaire de définir de telles combinaisons de paramètres pour lesquelles l'écart par rapport à la valeur nominale est minimal. Pour assurer une fonction de perte minimale et créer un produit robuste, des méthodes de planification d'expériences peuvent être utilisées. Les facteurs qui affectent le score de qualité peuvent être divisés en facteurs gérables et ingérables. l'indicateur de qualité doit également répondre au signal contrôlé et, si possible, ne pas répondre au bruit incontrôlé (changements aléatoires de température, d'humidité, etc.)

G. Taguchi lui-même a formulé enjeux contemporains qualités:

a) Il est nécessaire d'évaluer les dommages que les produits de mauvaise qualité peuvent causer à la société. Cela prend en compte les dommages causés par les produits finis (défaillances, blessures, accidents, incapacité à remplir leurs fonctions, etc.) et les dommages dans le processus de fabrication de produits de mauvaise qualité (perte de temps, d'énergie, d'efforts, etc.).



b) Pour que les produits de l'entreprise soient compétitifs, il est nécessaire d'en améliorer constamment la qualité et de réduire les coûts. les exigences des clients ne cessent d'augmenter.

c) L'objectif principal du programme d'amélioration de la qualité de l'entreprise doit être de réduire constamment les écarts entre les indicateurs de qualité du produit et les caractéristiques spécifiées par le client.

d) Le préjudice subi par le client en raison du non-respect des exigences est proportionnel au carré de l'écart des indicateurs de qualité, ce qui doit être pris en compte lors de la définition des exigences de qualité pour les processus de production.

e) La qualité et le coût du produit fini sont principalement déterminés par la qualité du projet et de la technologie.

f) Aux étapes de développement du produit et de test de ses prototypes, il est nécessaire de réduire les écarts des caractéristiques du produit par rapport à la qualité spécifiée.

g) Il est nécessaire d'identifier la dépendance des caractéristiques opérationnelles vis-à-vis d'autres paramètres du produit et du processus technologique et, en utilisant la dépendance établie, d'effectuer la planification de l'expérience sur la base de calculs statistiques.


Stratégie Six Sigma

Smith (ingénieur chez Motorola) a découvert le schéma suivant : il faut fabriquer des produits sans s'écarter de la documentation, ce qui nécessite d'augmenter la stabilité et la précision du système technologique. La variabilité du système technologique est le principal facteur d'écart des valeurs des paramètres individuels par rapport aux exigences de la documentation technique. Comme critère d'évaluation de la variabilité d'un système technologique, l'indice de reproductibilité du processus Cp est généralement utilisé: Cp = T / 6y, où T est la tolérance du paramètre, y est l'écart type de la distribution. Cp est compris entre 1 et 1,33.



La stratégie Six Sigma est basée sur le fait qu'il existe une corrélation directe entre le nombre de défauts du produit et le niveau de satisfaction du client. Dans le concept Six Sigma, l'indicateur global est le nombre de défauts par unité de produit fabriqué à toutes les étapes du cycle de vie.

Le concept Six Sigma est basé sur le postulat que dans la tolérance établie T pour un paramètre spécifique A, l'écart type de la distribution y est de 1/12 de la tolérance. Cela signifie que le champ de dispersion des valeurs de paramètre est égal à la moitié de la tolérance. Évidemment, plus il y a de sigma, moins un défaut est susceptible de se produire, moins il y a d'échecs de processus, plus la fiabilité du produit est élevée, moins il y a de besoin d'inspection et de test, moins il y a de WIP, plus le coût et le délai d'exécution sont faibles, et, par conséquent, la plus grande satisfaction des consommateurs.

La méthode Six Sigma, contrairement au concept original de Cp = 2, est basée sur le fait que les processus qui satisfont à ce critère n'autorisent pas plus de 3,4 défauts par million de produits. dans le cadre de la méthode Six Sigma, on suppose que le centre de distribution des valeurs des paramètres ne coïncide pas avec la coordonnée du milieu du champ de tolérance, mais peut être décalé par rapport à celui-ci dans un sens ou dans l'autre à 1.5u(Fig. 3.23). Ceux. dans conditions pratiques il est impossible de créer un système technologique avec un indice de reproductibilité = 2 simultanément avec la condition de déplacement nul du milieu du champ parasite à partir du milieu du champ de tolérance.



La philosophie d'application peut être réduite aux principes suivants

La mise en œuvre efficace de la méthode Six Sigma n'est possible qu'avec l'intérêt du premier chef d'entreprise,

Cette méthode est nécessaire pour vous, votre entreprise et votre consommateur,

Le résultat ne peut être atteint qu'en travaillant en équipe,

Tout doit être mesuré et analysé.

Chaque processus coûte de l'argent.

Qui et quoi donne la stratégie Six Sigma :

Consommateurs – fournit plus haute qualité et bas prix,

Actionnaires - donne la possibilité d'augmenter les revenus,

Fournisseurs - offre la possibilité d'obtenir de nouveaux moyens de réussir,

Employés - ouvre plus d'opportunités au travail et donne un sentiment de fierté dans le travail effectué.

Avantages :

1. L'absence presque complète de défauts qui conduisent au mariage des produits ou à leur raffinement à un état commercialisable; supprime le problème des pertes dues à une qualité inappropriée et permet de réduire le coût de production et d'augmenter sa compétitivité.

2. Le zéro défaut augmente considérablement la cote (image) de l'entreprise aux yeux du consommateur et augmente l'attractivité de ses produits.

3. La perte de qualité (selon Taguchi) des éléments du produit est considérablement réduite en cas d'absence ou de petits déplacements des coordonnées du centre du champ de tolérance par rapport au centre du champ de dispersion des paramètres.

4. Une diminution presque double du champ de fuite du paramètre par rapport à méthodes traditionnelles assurer la précision vous permet de fabriquer des pièces de haute précision

Inconvénients de la méthode Six Sigma :

1. La mise en œuvre de la méthode Six Sigma nécessite des coûts importants, tant pour la formation du personnel que, principalement, pour la mise à niveau du système technologique. un grand nombre les indicateurs de qualité les plus importants avec la précision requise.

2. La perte de qualité (selon Taguchi) dans la fabrication d'une pièce séparée peut être assez importante même avec un petit champ parasite du paramètre, si le milieu du champ de tolérance ne coïncide pas avec la coordonnée de la taille nominale

3. La qualité du produit ne dépend pas tant de la qualité de fabrication des pièces qu'il contient, mais de la qualité du maillon de fermeture de la chaîne dimensionnelle du produit. Il est particulièrement difficile d'assurer la qualité des maillons de fermeture des chaînes dimensionnelles à petits maillons.

En général, lors de l'évaluation de la méthode Six Sigma, nous pouvons convenir que les principales entreprises mondiales, lors de la mise en œuvre de cette méthode, ne se concentrent pas tant sur un petit nombre de défauts par million d'opportunités, mais sur une stratégie de réduction systématique de la variabilité des processus.


Système de commande et 5S

Le système "Ordering" est un système de mise en ordre, de propreté, de renforcement de la discipline et de création de conditions de travail sûres avec la participation de tout le personnel.

Le système "Ordering" est basé sur les principes présentés dans le tableau 2.1. La plus grande difficulté dans la mise en œuvre du système réside dans le fait qu'il faut passer de la compréhension des principes à leur mise en œuvre, le respect constant des exigences, des règles et des accords conclus en équipe.

Tableau 2.1 - les principes du système "U"

Principe Le contenu de l'ouvrage
1. Suppression inutile Tous les éléments au sein de l'entreprise et de ses divisions sont divisés en trois catégories : inutiles, non nécessaires de toute urgence et nécessaires. a) Les éléments inutiles sont supprimés selon certaines règles b) Ceux qui ne sont pas nécessaires sont situés en urgence à une certaine distance du lieu de travail ou sont stockés de manière centralisée c) Les éléments nécessaires sont stockés sur le lieu de travail Chaque employé se voit attribuer des domaines de responsabilité
2. Placement rationnel des objets En ce qui concerne les articles nécessaires et ceux qui ne sont pas urgents, des solutions sont développées et mises en œuvre qui offrent : - la rapidité, la facilité et la sécurité d'accès à ceux-ci ; - visualisation du mode de stockage et contrôle de la présence, de l'absence ou de la localisation de l'article souhaité ; - liberté de mouvement des objets et esthétique de l'environnement de production
3. Nettoyage, vérification, dépannage Nettoyage général des locaux (si nécessaire) Nettoyage approfondi et nettoyage des équipements, dépannage Identification des sources de pollution, difficiles d'accès et difficiles (lieux problématiques) Dépannage et élaboration de mesures pour les prévenir Elaboration et mise en place de mesures de nettoyage endroits difficiles d'accès, élimination des sources de problèmes et de pollution Elaboration de règles de nettoyage, de nettoyage des équipements, de lubrification, d'inspection
4. Standardisation des règles Fixation par écrit des règles de suppression du placement inutile et rationnel des objets, nettoyage, lubrification, vérification Visualisation maximale de la représentation des règles (dessins, schémas, pictogrammes, pointeurs, codage couleur) Visualisation du contrôle de l'état normal et des écarts ( dans le fonctionnement des équipements, les niveaux de stock, etc. .) Standardisation et unification de toutes les désignations (taille, couleur, image des symboles, etc.) Rationalisation des supports d'information (matériau, méthode d'inscription, revêtements de protection), leur placement et leur fixation
5. Discipline et responsabilité Fixer les domaines de responsabilité de chaque employé (objets d'attention et principales responsabilités pour les maintenir dans un état normal) Développer les bonnes habitudes pour le personnel, renforcer les compétences pour se conformer aux règles Appliquer des méthodes de contrôle efficaces

Les activités visant à rétablir l'ordre, la propreté et la discipline visent principalement à modifier le comportement des employés. C'est pourquoi il ne peut pas être mis en œuvre immédiatement (par exemple, en procédant à un nettoyage général dans toute l'organisation).

Pour une mise en œuvre réussie du système, il est nécessaire de connaître les obstacles à la mise en œuvre. Nous vous invitons à lire les informations suivantes.

De nombreuses statistiques de qualité indiquent que la défectuosité des produits est d'environ 85 à 90 % causée par le facteur humain. Considérons quelles raisons liées au travailleur peuvent affecter le non-respect de la documentation technique, jusqu'au mariage des produits. Parmi eux, citons : faible qualification, courte expérience professionnelle, mauvais pressentiment, inattention lors de la lecture de dessins, de technologies ou d'instructions, mauvaise préparation du poste de travail. Il convient de souligner que les causes du mariage peuvent être associées non seulement à une personne, mais également à un outil, un équipement technologique, un équipement. Si vous découvrez le coupable du défaut, ce sera dans la grande majorité une personne qui travaille dans l'entreprise ou chez le fournisseur.

Souvent, le personnel ne comprend tout simplement pas sa gestion, ou ne comprend pas ou ne connaît pas les consignes, les règles de travail. Les patrons et les contremaîtres sont souvent privés de contact avec la haute direction, et il y a tout un abîme entre les hauts fonctionnaires et les ouvriers, de sorte que l'apathie et l'indifférence règnent dans les ateliers. Les gens vivent dans le vide, ne comprenant ni la stratégie de l'entreprise ni la valeur de leur travail.

Le système "Ordering" poursuit les objectifs suivants :

a) dans le domaine de la qualité :

– réduction des pertes du mariage

– organisation du processus de production qui assure le niveau de qualité requis

b) dans le domaine de la sécurité

– prévention des fuites de vapeur, de gaz, d'air comprimé, d'huile, d'eau et d'autres substances, y compris nocives et dangereuses pour la santé

– réduction des accidents et des dysfonctionnements des équipements

– amélioration des conditions sanitaires et hygiéniques

– élimination des causes d’accidents, incendies, accidents

– renforcer la discipline du personnel dans le respect des règles et instructions de protection du travail

c) dans le domaine de la performance

– réduction des stocks inutiles

utilisation efficace lieux de travail

– prévention des pertes et recherche des bons objets

– réduction des temps d’arrêt dus à une panne d’équipement

– amélioration de l’organisation du travail

– responsabiliser le personnel

- motivation de l'équipe pour un travail productif

Lors de l'introduction du système de "commande", des changements cardinaux sont nécessaires, tout d'abord dans culture d'entreprise, où le salarié est la richesse de l'entreprise, c'est-à-dire pas un employé, mais un employé.

Le système U est un 5 S modernisé, prenant en compte les principes de HOT et les pratiques d'amélioration de la qualité. 5 S : trier, nettoyer, organiser, standardiser, autocontrôler. Les chercheurs japonais pensent que si les managers ne peuvent pas mettre en œuvre les 5S, ils ne seront pas en mesure de gérer efficacement.

1. Le système "Ordering" est à la base de la mise en œuvre de techniques et de méthodes plus complexes d'organisation de la production.

2. La présence ou l'absence du système "Ordering" peut constituer une source d'information importante pour diagnostiquer l'état de la production ou système d'organisationà la fois les cadres supérieurs et les partenaires commerciaux.

3. Souvent, les managers n'attachent pas d'importance au rétablissement de l'ordre élémentaire, s'appuyant sur le fait que haut niveau l'organisation et la productivité du travail ne peuvent être atteintes que dans un environnement de production doté d'équipements techniques modernes. Cependant révision, reconstruction voire rééquipement technique complet de la production ou transfert du travail de bureau à Informatique n'apportent pas de résultats, si en même temps de nouvelles compétences du personnel ne sont pas formées, leur attitude envers les moyens de travail et l'organisation de l'environnement de travail n'a pas changé.

4. Le système de «commande» prévoit non seulement l'éducation d'une attitude hautement responsable d'une personne envers ses activités, mais également toute une gamme de mesures qui excluent la possibilité d'une erreur accidentelle, ainsi qu'un système assez simple et harmonieux de prévention qui élimine la possibilité de pannes inattendues et graves dans le fonctionnement de l'équipement.

5. Le système "Ordering" est non seulement un moyen d'impliquer efficacement le personnel dans la pratique de l'amélioration continue, mais aussi une méthode qui contribue à un changement radical de la qualité de la gestion au niveau opérationnel.

6. Un autre aspect du système "Ordering" est le haut niveau de discipline du personnel, qui est atteint lors de sa mise en œuvre, ce qui, à son tour, permet de garantir le respect de toutes les règles de sécurité du travail et industrielle.


Le scientifique japonais G. Taguchi a exprimé en 1960 l'idée que la qualité ne peut plus être considérée comme une mesure de conformité aux exigences de la conception / documentation de conception. Le respect de la qualité en termes de limites de tolérance ne suffit pas. Il est nécessaire de s'efforcer constamment de faire face, de réduire la propagation même dans les limites établies par le projet.

G. Taguchi a suggéré que le respect des exigences de tolérance n'est en aucun cas un critère suffisant pour juger de la qualité. En fin de compte, les coûts d'entretien du produit après sa réception par le consommateur sont minimes, c'est-à-dire les modifications, les ajustements et les coûts de service de garantie sont minimisés.

Un contrôle visant uniquement à assurer le respect des exigences de tolérance entraîne ses propres problèmes spécifiques. Dans le même temps, il convient de noter que les tolérances ont rendu de fidèles services au fil des ans : elles ont permis la production d'objets assez bons pour leur époque.

  • La méthode Taguchi permet de hiérarchiser les priorités dans un programme de management de la qualité
  • Quantifier l'amélioration de la qualité

Examinons, par exemple, certains des problèmes qui peuvent survenir si la correspondance de l'arbre et du trou n'est pas parfaite. Si leur articulation correspond à un ajustement plus serré, des frottements excessifs se produiront lors du fonctionnement de la machine. Pour le surmonter, il faudra plus de puissance ou de consommation de carburant.

Dans ce cas, une surchauffe locale peut se produire, ce qui peut entraîner certaines déformations et de mauvaises performances. Si l'ajustement est trop lâche, le lubrifiant peut fuir et causer des dommages ailleurs. À tout le moins, changer le lubrifiant peut être coûteux, à la fois en raison du coût du lubrifiant lui-même et en raison de la nécessité d'arrêter la machine plus souvent pour l'entretien. Un ajustement lâche peut également entraîner des vibrations provoquant du bruit, des charges pulsées, qui sont très susceptibles d'entraîner une réduction de la durée de vie en raison de défaillances induites par les contraintes.

De toute évidence, une approche différente, qualitativement différente, est nécessaire, qui ne nécessite pas une définition artificielle du bien et du mal, du bien et du mal, du défectueux et du sans défaut. Cette approche, à son tour, suppose qu'il y a meilleure valeur, et que tout écart par rapport à cette valeur nominale entraîne une sorte de perte ou de complexité, conformément au type de dépendance qui a été considéré dans les exemples pour le diamètre des arbres et des trous.

La fonction de perte de Taguchi est conçue pour faire exactement cela. Graphiquement, la fonction de perte de Taguchi est généralement représentée sous la forme :

Riz. 1. Fonction de perte graphique de Taguchi

La valeur du score de qualité est tracée sur l'axe horizontal, et l'axe vertical indique la "perte", le "dommage" ou l'"importance" liés aux valeurs du score de qualité. Ces pertes sont supposées nulles lorsque la caractéristique de qualité atteint sa valeur nominale.

La forme mathématique de la fonction de Taguchi est présentée dans le titre du graphique, où X- la valeur mesurée de l'indicateur de qualité ; x0- sa valeur nominale ; L(x)- la valeur de la fonction de perte de Taguchi au point X; Avec- facteur d'échelle.

Taguchi Génichi

né le 01/01/1924, décédé le 02/06/2012.

Genichi Taguchi - créateur de concepts conception robuste(conception de systèmes de qualité ou ingénierie de la qualité), membre honoraire de la Société japonaise pour le contrôle de la qualité JUSE, de l'American Society for Quality ASQ, de l'Asian Quality Network ANQ, de l'International Academy of Quality IAQ, lauréat des prix les plus prestigieux du domaine de la qualité (le prix Deming lui a été décerné 4 fois).
Statisticien japonais bien connu, il a étudié les problèmes d'amélioration des processus et des produits industriels, développé des idées statistiques mathématiques liées, en particulier, aux méthodes statistiques de conception d'expériences (DOE = Design of Experiment - conception d'expériences) et au contrôle de la qualité. Taguchi d'abord connecté par dépendance mathématique coûts économiques et la qualité, introduisant le concept fonctions de perte de qualité. Il a été le premier à montrer que des pertes de qualité ont également lieu dans le domaine de la tolérance - elles apparaissent à partir du moment de l'écart entre la valeur nominale du paramètre spécifié par la documentation technique et la valeur de la variable aléatoire étudiée. Le mérite de Taguchi réside également dans le fait qu'il a su trouver des arguments et des techniques relativement simples qui ont fait de la conception robuste d'une expérience dans le domaine de l'assurance qualité une réalité. Les méthodes de Taguchi sont l'une des approches fondamentalement nouvelles pour résoudre les problèmes de qualité. L'essentiel dans la philosophie de Taguchi est d'améliorer la qualité tout en réduisant les coûts..

Avant d'être appelé à service militaire pendant un an, il a étudié l'ingénierie textile dans un collège technique. Après avoir servi dans le département d'astronomie de l'Institut de navigation de l'Empire japonais marine, Taguchi a travaillé au ministère de la Santé et à l'Institut de statistiques mathématiques du ministère de l'Éducation. Un statisticien japonais bien connu, lauréat du prix national Matosaburo Masuyama, que Taguchi a rencontré au ministère de la Santé, l'a aidé à étudier en profondeur les méthodes de planification d'une expérience et d'utilisation d'arrangements orthogonaux. Cette connaissance lui a ensuite permis de consulter Morinaga Pharmaceuticals et sa filiale Morinaga Seika.
En 1950, Taguchi a commencé à travailler dans le nouveau Nippon Telephone and Telegraph Telecommunications Laboratory, dans le but d'aider à améliorer l'efficacité du travail de développement en enseignant aux ingénieurs des méthodes de travail plus avancées. Il y travailla plus de 12 ans et c'est durant cette période qu'il commença à développer ses propres méthodes, consulta activement entreprises industrielles. Au début des années 1950, les entreprises japonaises, dont Toyota et ses filiales, ont commencé à utiliser largement ses méthodes.
En 1951, le premier livre de G. Taguchi a été publié, qui a introduit de nombreuses personnes au concept d '«arrangements orthogonaux».
Au cours de 1954-1955. G. Taguti, sur la recommandation du scientifique indien P. Mahalanolus, a travaillé comme professeur invité à l'Institut indien de statistique. Il y rencontre les célèbres statisticiens R. Fisher et W. Shewhart. En 1957-1958. la première édition de son livre en deux volumes "Design of Experiments" est parue.
En 1962, Taguchi a visité les États-Unis pour la première fois à l'Université de Princeton, et lors du même voyage, il a visité les laboratoires Bell d'AT&T. Taguchi a été invité à Princeton par le célèbre statisticien John Tukey pour travailler avec des statisticiens de l'industrie. La même année, l'Université de Kyushu lui a décerné un doctorat.
En 1964, Taguchi devient professeur à l'Université Aoyama Gakuin de Tokyo, poste qu'il occupe jusqu'en 1982.
En 1966, Taguchi et al ont écrit le livre "Management by Total Results", qui a été traduit en chinois par Yun Wu. A cette époque, les méthodes de Taguchi étaient encore peu connues en Occident, même si elles étaient déjà utilisées en Inde et à Taiwan. À cette époque et tout au long des années 1970, ses méthodes étaient principalement utilisées dans les processus de fabrication, et la transition vers leur utilisation pour le développement et la conception de produits s'est produite dans les années 1980.
Au début des années 1970, Taguchi a développé le concept de fonction de perte de qualité. Au cours des mêmes années, il a publié deux autres livres et publié la troisième (dernière) édition du livre Design of Experiments.
À la fin de la décennie, la liste des récompenses reçues par Taguchi était impressionnante : le prix Deming pour l'application des méthodes en 1960 et pour la littérature sur la qualité en 1951 et 1953.
En 1980, Taguchi a été invité à se produire avec Yun Wu, qui avait émigré aux États-Unis. À cette époque, Taguchi était devenu le directeur de la Japan Quality Academy. Au cours de cette visite aux États-Unis, Taguchi a de nouveau visité les laboratoires Bell, où il a été reçu par Madhav Fadke. Malgré des problèmes de langue, des expériences ont été menées avec succès, à la suite desquelles les méthodes de Taguchi ont été reconnues aux laboratoires Bell.
Depuis la visite de Taguchi en Amérique, de plus en plus de sa méthodologie a été adoptée par l'industrie américaine. Cependant, les méthodes de Taguchi n'ont pas toujours rencontré une attitude positive de la part des statisticiens américains. Mais c'était peut-être une réaction à la façon dont ils commercialisaient. Toutefois plusieurs Entreprises américaines, notamment Xerox, Ford et ITT, se sont emportés à l'aide des méthodes du scientifique japonais.
En 1982, Taguchi a quitté son poste d'enseignant à l'université et, après sa retraite, est devenu conseiller auprès de la Japan Standards Association.
En 1983, il est nommé directeur exécutif de l'American Supplier Institute, où travaille également son fils Shin.
En 1984, Taguchi a de nouveau reçu le Deming Book Quality Award, et en 1986 Institut international technologie lui a valu la médaille Willard Rockwell. En Europe, cependant, les méthodes de Taguchi n'ont pas eu beaucoup de succès à cette époque. La situation a changé lorsque l'Institute of Statisticians (Royaume-Uni) a organisé en 1987 la première conférence sur ces méthodes. La même année, le Taguchi Club au Royaume-Uni a été formé.

La méthodologie Taguchi se concentre davantage sur l'optimisation ciblée des produits et des processus avant la production que sur l'atteinte de la qualité par la gestion. La tâche d'assurer la qualité et la fiabilité a été transférée au stade de la conception. La méthodologie Taguchi permet une conception efficace des expériences de conception de produits avant le début de la phase de production. Cependant, les méthodes qu'il propose peuvent également être utilisées en production comme méthodologie pour éliminer les difficultés d'identification des problèmes urgents.
Contrairement aux scientifiques occidentaux, Taguchi définit la qualité d'un produit comme "les pertes (minimum) que la société supporte à partir du moment où le produit est commercialisé". Ils comprennent non seulement les pertes que l'entreprise supporte en payant les modifications ou les défauts, la maintenance, les temps d'arrêt dus à la défaillance de l'équipement et ses obligations de garantie, mais aussi les pertes du consommateur liées à la mauvaise qualité du produit et à son manque de fiabilité, qui en son tour entraîne des pertes ultérieures pour le fabricant en raison d'une diminution de sa part de marché. Prenant pour la meilleure valeur possible de l'indicateur de qualité sa valeur cible certaine et considérant cette valeur comme référence, Taguchi relie une simple fonction quadratique pertes s'écartant de cet objectif. La fonction de perte montre que la réduction des écarts conduit à une réduction des pertes et, par conséquent, à une amélioration de la qualité. Selon cette théorie, les pertes se produisent même lorsque les indicateurs de qualité sont dans des limites acceptables. Mais ils ne sont minimes que lorsque ces indicateurs coïncident avec les valeurs cibles. Si vous souhaitez maximiser le facteur de qualité (par exemple, la résistance) ou le minimiser (par exemple, le rétrécissement), la fonction de perte devient semi-parabolique.
La fonction de perte peut être utilisée pour décider si un investissement supplémentaire dans les produits au stade de la conception en vaut la peine et si cela contribuera à promouvoir le produit sur le marché.
La théorie de Taguchi peut être appliquée à la gestion de la qualité des produits au stade de la conception ou, plus rarement, à la gestion continue de la qualité pendant la production. Si nous supposons que la qualité est intégrée au produit au cours de son développement, la gestion de la qualité à chaque étape de la production devient moins importante et l'accent est mis sur la gestion de la période de pré-production.
Taguchi décompose la gestion de la qualité de pré-production en trois étapes :
1. Conception structurelle.
2. Définition des paramètres (indicateurs de qualité).
3. Détermination des tolérances pour les paramètres.
Tout d'abord, les pièces individuelles, les matériaux et les paramètres sont sélectionnés au niveau d'une solution technique. Lors du processus de détermination des conditions du processus de production, le type d'équipement est sélectionné et les facteurs de production individuels sont pris en compte. Ceci est mieux réalisé par la méthode réflexion avec la participation d'ingénieurs de production et de designers.
Le choix de la valeur des paramètres est l'étape la plus importante : c'est ici que les Japonais ont obtenu d'excellents résultats pour améliorer la qualité sans augmenter les coûts. À ce stade, les valeurs cibles sélectionnées des indicateurs de qualité sont vérifiées, leurs combinaisons optimales sont déterminées et les paramètres du processus de production les moins affectés sont calculés. environnement et d'autres facteurs incontrôlables. Dans ce domaine, Taguchi a plusieurs innovations : l'accent est mis sur le rapport signal sur bruit, sur l'utilisation d'arrangements orthogonaux afin de réduire le nombre de tentatives expérimentales et d'approximations pas à pas jusqu'à l'optimum.
Enfin, le développement des limites de tolérance vise à réduire la variation en resserrant les limites de tolérance pour les facteurs qui ont le plus d'influence sur la variation de l'indice de qualité. À ce stade (en se concentrant sur la fonction de perte), les coûts les plus importants associés à l'achat sont encourus. les meilleurs matériaux ou un meilleur équipement, qui est une manifestation de la philosophie japonaise, selon laquelle il faut "investir l'argent en dernier" (c'est-à-dire en toute clarté. - Environ par.), et non "investir d'abord [et réfléchir ensuite]".
Ces pratiques sont importantes pour l'industrie britannique et mondiale en général. En règle générale, la conception et le débogage des lignes de production sont loin d'être parfaits. De nombreuses blagues de production sont associées à la nécessité de "recouvrir" des paramètres importants. La théorie de Taguchi est le modèle qui permet à un ingénieur ou à un concepteur de déterminer les paramètres optimaux, tout en maintenant que les produits fabriqués seront de haute qualité et ne seront pas interrompus dans le temps.
La théorie de Taguchi a deux avantages principaux. Premièrement, il a été développé et principalement utilisé par des ingénieurs, et non par des statisticiens. Cela élimine les problèmes de langage et de compréhension qui sont traditionnellement associés à la méthodologie statistique. Cela vous permet de penser en termes d'ingénierie. Suite au problème variations aléatoires qui interfèrent souvent processus de production, doit être considérée en plus des variations contrôlées introduites. L'optimisation du produit consiste non seulement à rapprocher ses indicateurs de qualité des valeurs cibles, mais également à minimiser les écarts par rapport à ces valeurs cibles. C'est la partie contrôle statistique des processus (SPC).
La théorie de Taguchi peut être utilisée pour réduire la portée des mesures de qualité et déterminer les variations sur lesquelles construire la gestion. Le SPC peut être utilisé pour maintenir davantage les scores de qualité proches des valeurs cibles. C'est essentiellement l'innovation de Taguchi : utiliser le rapport signal sur bruit pour sélectionner les paramètres de contrôle qui minimiseraient la sensibilité au bruit (interférence aléatoire). Ces ajouts rendent la méthodologie fondamentale.
Cependant, la chose la plus importante dans la théorie de Taguchi est la formalisation de la construction de la soi-disant dispositions orthogonales. Ils étaient auparavant utilisés dans la planification d'expériences, mais c'est Taguchi qui a été formalisé. Cela permet aux ingénieurs de déterminer automatiquement le nombre minimum de prototypes requis pour une expérience. Ce nombre est délibérément réduit au minimum en supprimant toutes (ou presque toutes) les informations d'interaction contenues dans la solution de conception. Ces informations peuvent être obtenues plus tard au stade de l'application industrielle, si un prototype supplémentaire est évalué - exactement celui qui correspond aux paramètres optimaux prédits.
C'est la différence entre l'expérience industrielle et le contenu agricole de l'expérience sur laquelle la plupart des occidentaux Méthodes statistiques. À agriculture la réaction à l'expérimentation est lente, et si les combinaisons de prototypes sont ignorées, les interactions ne sont pas prises en compte, il faudra une année supplémentaire dans le cycle agricole pour confirmer si les combinaisons de qualités prévues sont optimales. Dans l'industrie, la réaction à une expérience est généralement rapide et vous pouvez immédiatement revenir en arrière et essayer un autre échantillon.
Cependant, les interactions peuvent également être utilisées dans la théorie de Taguchi. Il offre une forme graphique simple qui vous permet d'analyser les informations facilement et systématiquement. Cependant, seul un nombre limité d'interactions peut être considéré, ce qui ne conduit pas à une augmentation significative du nombre d'échantillons et à une expansion de l'échelle de l'expérience.