[Total : 2    Moyenne : 5/5]
La capabilité est sans nul doute une des notions les plus connues dans le management des processus. Encore faut il savoir le mesurer et l’interpréter correctement.

Introduction

Par définition, la capabilité mesure l’aptitude d’un processus à réaliser une tâche. Elle mesure le rapport entre la performance demandée et la performance réelle d’un processus. On la traduit de la manière suivante :

C’est Joseph Juran, l’un des gourous de la Qualité, qui fut le premier à développer un indicateur de ce type à la fin de la seconde guerre mondiale. Pour lui, la capabilité est définie par le rapport entre la largeur de tolérances et la capabilité du process, ce qui correspond aujourd’hui au Cp. Ce ne sera que par la suite que les autres indicateurs Pp… furent crées.

Il existe désormais plusieurs normes expliquant le concept, on retiendra celle du QS9000, la plus répandue. La norme distingue deux types de capabilités :

  • La capabilité long terme : elle traduit la réalité des produits livrés. On parle alors de performance de processus.
  • La capabilité court terme : elle traduit la dispersion sur un temps très court. On parle alors de capabilité de processus, et on traduit la capabilité intrinsèque du processus dans les conditions de travail actuelles.

1 – Capabilité oui, mais avec quelles données ??

Données continuesDonnées attributs
Calcul des capabilités selon indicateurs standards que nous décrivons ci-dessous.Contrôle de la capabilité par comparaison entre le DPMO calculé et le DPMO acceptable par la qualité.
Calcul des indicateurs standards du Six Sigma que sont les DPU, les DPO, les DPMO et les PPM
Identification du niveau de Sigma

Pourquoi on ne peut pas de capabilité avec des données Attributs ?

Calculer une capabilité avec des données attributs est en fait mathématiquement impossible. Avec ce type de donnée, nous obtenons un %. Ce pourcentage de défaut correspond au Z de la loi normale (voir ci-dessous). Mais ce Z, nous ne pouvons savoir s’il provient d’un problème de décentrage (Cpk) ou un problème de largeur de notre distribution (Cp). 

Pour autant, dans la littérature, on retrouve une approximation permettant d’identifier le Cpk (qui est la valeur utilisé par convention) :

(σ – 1,5) / 3

σ / 3

(%client – p) / (3 * √((p * (1 – p))/n))

p : Proportion de défaut que nous obtenons

σ : Niveau de Sigma que nous avons calculé via les DPMO

%client : % de défaut autorisé par le client

n : Nombre d’échantillons

Exemple

Nous voulons calculer la capabilité de notre équipement à bouchonner correctement des flacons. Notre seule mesure est d’identifier si notre bouchon est bien ou mal mis. Nous sommes dans un raisonnement binaire “Bon / Pas Bon”.

Avec de telles données, on calcule un pourcentage de défauts, par exemple 5 défauts sur 100. Avec cette donnée, il nous ait impossible d’avoir un écart type ou un Intervalle de Tolérance.

Notre seul moyen est alors de comparer ce pourcentage à un pourcentage limite donnée par la qualité. Ce qui revient à comparer des DPMO.

Par expérience, on retiendra que l’approximation la plus proche est donnée par la formule

(σ – 1,5) / 3.

2 – Valider la loi normale

La normalité des données est essentielle pour avoir des résultats statistiquement corrects, puisque les formules de calculs de la capabilité sont construits sur l’hypothèse de normalité.

Il est nécessaire d’effectuer un test d’ajustement pour s’assurer de cette condition. On utilise par exemple, le test du χ2, qui sera efficaces à partir du moment où nous avons à minima 30 données. En deçà, on ne pourra que “supposer” de la qualité de l’étude.

On note que dans certains cas, la non-normalité d’un procédé est « normale ». Par exemple :

  • Procédé effectuant plusieurs actions en même temps : pour une machine de remplissage délivrant un liquide dans X bouteilles en même temps, il est fort probable que toutes les buses de remplissage n’aient pas la même usure1… La distribution du remplissage ne sera donc pas « normale », mais néanmoins cela n’indique pas un problème spécifique.
  • Pour des données « bornées », forcément non normale puisque nous avons une limite (exemple : la rugosité, planéité…)2.

Dans le cas où nous n’avons pas obtenu la normalité des données, il peut être envisagé plusieurs solutions :

  • Une transformation des données : on utilisera alors la transformée de Box-Cox.
  • Une augmentation des limites de contrôles : on peut les mettre à 4 ou 5 Sigma plutôt qu’à 33.
  • Recalculer les limites de contrôles : On recalcule les limites à + ou – 3 Sigma en utilisant alors la loi qui s’applique à la distribution de nos données.
  • « Ne rien faire » : l’expérience montre que malgré que les données soient non normales, une interprétation est possible avec toutes les conditions que l’on doit y mettre4 (on ne pourra savoir s’il y a une cause spéciale et on ne pourra pas estimer le pourcentage de défaut).
  • Enquêter : Enfin, on investigue sur les données qui sortent de la loi normale pour savoir s’il s’agit simplement de données aberrantes que l’on peut enlever de l’étude.

3 – Calculer la capabilité long terme

La capabilité long terme se mesure sur au moins une semaine. Elle permet d’inclure dans les calculs, pour prendre en compte les variations de l’ensemble des processus entreprises : changement de série, changement d’équipe…

Lors d’une étude Long Terme, on prêtera attention d’effectuer le relevé des données de manière aléatoire. Par exemple, faire le relevé tous les jours à 14hr.

On ne doit pas attendre qu’un évènement survienne pour effectuer le relevé (attendre une panne, ou au contraire attendre que cela tourne bien…). On cherche à représenter la réalité pas une situation spécifique.

Performance intrinsèque du process Pp

L’indicateur Pp (Process Performance) représente le rapport entre l’intervalle de tolérance ciblé et la dispersion du processus.

Pp = IT / 6σLT

Avec :

  • IT : intervalle de tolérance de la Voix du client
  • LT : dispersion long terme. Elle se calcule sur un minimum de 100 mesures pour être représentatif.

Indicateur de déréglage Ppk

Il représente le décentrage de la distribution par rapport aux tolérances. Il se calcule de la manière suivante :

Ppk = k / 3σLT

Avec :

  • k : distance entre la moyenne de notre processus et la limite de tolérance la plus proche
  • LT : Moitié de la dispersion long terme

4 – Calculer la capabilité court terme

La capabilité court terme traduit un niveau ponctuel de performance à produire ce qui est demandé. Autrement dit, elle mesure la capabilité à bien produire dans des conditions fixées (même produit, même équipe…).

Les formules de calculs sont strictement les mêmes que précédemment. On notera simplement que Pp se nomme dès lors Cp et Ppk se nomme Cpk (Cp provenant de Process Capability).

Cp = IT / 6σCT

Cpk = k / 3σCT

Seul le calcul de la dispersion différe. Pour la calculer, nous avons 2 manières de procéder :

  • Soit nous savons prélever à minima 100 pièces que nous savons être produite dans les mêmes conditions. On calcule alors l’écart type réel. Les sauts et autres dérives seront plus « visibles » avec cette méthode.
  • Soit nous ne pouvons prélever autant de pièces dans des conditions identiques. On va estimer l’écart type à partir des étendues des mesures. A contrario, on verra donc moins les sauts et autres dérives. 2 cas sont possibles :

Nous avons plusieurs échantillons par prélèvement : σCT = Rbarre / d2

Nous avons 1 échantillon par prélèvement : σCT = mRbarre / 1,128

Avec :

  • Rbarre : moyenne des étendues de chaque sous-groupe.
  • mRbarre : étendue mobile. Elle se calcule en faisant la différence entre la valeur i et la valeur i + 1.
  • d2 : Coefficient d’estimation identifié à partir du nombre d’échantillon

Il n’est pas évident de mesurer une capabilité court terme pour des processus demandant des temps long. Par exemple, si nous avons un temps de 5mn, il faudrait plus de 500 minutes pour recueillir le nombre de pièces suffisant. Il est évident qu’on ne peut considérer garantir une stabilité suffisante sur ce laps de temps. On ne peut alors pas effectuer les calculs et on se limitera aux calculs de capabilité long terme.

5 – Interprétation des indicateurs

La capabilité court terme sera utilisée pour valider des lots de productions, là où la capabilité long terme sera plus utilisée pour piloter la charge de production, mener des actions de progrès ou encore concevoir de nouveaux processus.

5.1 Interprétation de Cpk et Ppk

Ces deux indicateurs représentent la position moyenne de notre processus vis-à-vis de la cible recherchée. Le graphique ci-dessous montre différente position de notre processus par rapport à différente valeur de Cpk ou Ppk.

ValeurDescription graphiqueInterprétation CpkInterprétation Ppk
Cpk

ou

Ppk<0,67
Le processus est très décentré.Même si notre dispersion est très faible, le décentrage trop important nous met dans une situation à risque. Un contrôle 100% est sans doute nécessaire. Le processus n’est visiblement pas conçu pour le besoin. Soit des réglages peuvent être suffisant pour le recentrer mais le cas échéant, il faudra reconcevoir.
Cpk

ou

Ppk<1
Le décentrage est relativement faible.La situation est très dépendante de notre valeur de Cp. Néanmoins même si celle-ci est bonne, des actions préventives sont à mettre en œuvre.Quelques actions d’améliorations peuvent suffirent pour se mettre dans une situation plus confortable. Néanmoins, en fonction du cas, on peut rester comme cela.
Cpk

ou

Ppk ≥ 1
Le processus est parfaitement centré.Rien à signaler au nouveau du centrage. Nous sommes parfaitement à la cible.

On considère qu’un procédé est dit capable lorsque Cpk est à 1. On accepte alors qu’environ 3 pièces sur mille soient hors tolérance.

A noter que Toyota exige de ses sous-traitants une capabilité minimale Ppk > 1,67

5.2 Interprétation de Cp et Pp

Les Cp et Pp représentent le rapport entre la dispersion de notre processus et l’intervalle de tolérance de la Voix du Client. Le graphique ci-dessous montre la forme de cette dispersion en fonction de la valeur de Cp ou Pp.

ValeurDescription graphiqueInterprétation CpInterprétation Pp
Cp

ou

Pp<0,67
Dispersion plus grande que l’intervalle.On génère plus de 5% de défauts. Un contrôle 100% est sans doute nécessaire.Nous avons clairement un processus non capable vis-à-vis de la demande client. Il faut soit reconcevoir le processus soit voir avec le client pour augmenter la tolérance.
Cp

ou

Pp<1
Dispersion légèrement plus grande que l’intervalle.On génère entre 0,0063% et 5% de défaut. Il faut regarder Pp pour savoir si cela n’est qu’une situation « ponctuelle » ou « durable ». Si elle est durable, un renforcement du contrôle est nécessaire.Il paraît complexe de « vivre » avec un processus qui ne permet de garantir une performance durable suffisante. Quelques actions simples d’amélioration devraient permettre d’augmenter les performances pour être plus « serein ».
1
ou

Pp<1,33
Dispersion légèrement plus petite que l’intervalle.
1,33
Pp<1,67
Dispersion faible par rapport à l’intervalle.On génère très peu de défaut. Il suffit de contrôler le processus dans le temps et de corriger au fur et à mesure les causes spécialesLe processus est très capable, voir peut être trop. On peut continuer comme cela ou dans certain cas, réduire les performances pour réduire les coûts.
1,67
Pp<2
Dispersion très faible
2
ou

Pp
Dispersion plus de 2 fois plus petite que l’intervalle.

5.3. Calculer les indicateurs Cpm et Ppm

Au regard des différents indicateurs calculés ci-dessus, il est essentiel de les combiner pour les interpréter de la bonne manière. Il ne suffit pas que le processus soit centré pour que le résultat soit bon, et il ne suffit pas que la dispersion soit plus faible que la tolérance pour que le résultat soit bon.

Pour pallier à ce problème, deux indicateurs permettent de prendre en compte à la fois la dispersion et le centrage. On retrouve ainsi :

Pour la capabilité court terme (appelé également « indice de capabilité Taguchi » :

Pour la capabilité long terme :

L’interprétation est la suivante :

  • Cp = Cpk = 1 : dans cette position, nous avons un processus parfaitement centré avec une dispersion égale à l’intervalle de tolérance (au plus juste).
  • Cp = Cpk : au plus la différence entre les deux grandeurs est grande, et plus il y a de possibilité de dysfonctionnement.

5.4 Le taux de maîtrise du processus

Le taux de maîtrise du processus est défini comme le rapport entre la dispersion court terme et la dispersion long terme :

Taux de maîtrise du processus = σCT / σLT

L’interprétation est la suivante :

  • Taux de maîtrise proche de 1 : le processus est considéré comme maîtrisé. Le plus souvent, vouloir améliorer l’indicateur revient à une modification de la technologie.
  • Taux de maîtrise proche de 0 : Le processus n’est pas maîtrisé. De nombreuses pertes sont dues à des temps de changements très importants, une difficulté dans le réglage de l’équipement, une mauvaise organisation…
  • Taux de maîtrise > 1.2 : Il y a une anomalie à court terme. Il faut investiguer.

6 – Illustration

Nous avons tous eu des problèmes pour garer notre voiture dans notre garage ou sur une place de parking. Ci-dessous, nous présentons diverses situations où nous pouvons illustrer les différents indicateurs de capabilité.

IllustrationCapabilitéObservation
Cp > 1

Cpk > 1
Notre voiture étant plus petite que notre place et notre garage étant "libre", nous arrivons facilement à nous garer au centre de celui-ci.
Cp < 1

Cpk ≥ 1
J'ai beau être bien centré, ma voiture étant plus large que mon garage, je ne peut pas rentrer.
Cp ≥ 1

Cpk < 1
Ma voiture rentre bien dans mon garage, mais j'ai du mal à bien viser le centre de celui-ci. De temps à autre, je raye mon rétro...
Pp > 1

Ppk < 1
Il arrive que les enfants laissent leurs vélos n'importent comment dans le garage. Ainsi, même si en soit, j'ai aucun souci pour me garer, il arrive que je sois obligé de manoeuvrer pour me garer et parfois, je raye les rétros ou la portière...

C'est ici toute la différence entre les Cp, Cpk et les Pp, Ppk : on prend des valeurs sur un temps plus important pour évaluer la performance de notre process au global.

7 – Décider des actions

L’analyse unique des indices de capabilité n’est pas suffisante. Il faut la compléter avec l’analyse d’une carte de contrôle. 3 cas peuvent se présenter :

  • Les indices de capabilité sont très bons, et seul des causes spéciales apparaissent sur la carte de contrôle : le processus est déclaré capable. On considère qu’il est possible de piloter directement en utilisant la carte de contrôle adéquat et de passer à l’étape « Control » du DMAIC ou « Check » du PDCA.
  • Les indices de capabilité sont « corrects » et nous retrouvons des causes spéciales et communes sur la carte de contrôle : le processus est déclaré « capable », mais sous contrôle. Il est tout à fait possible et même souhaitable de piloter le processus à partir des limites naturelles du processus. Il faut alors mettre en place en parallèle un projet visant à améliorer les performances du processus et de revenir aux étapes « Analyse » du DMAIC ou « DO » du PDCA.
  • Les indices de capabilité sont mauvais et de nombreuses causes communes apparaissent sur la carte de contrôle :le processus est déclaré non capable. Le processus génère de lui-même de nombreuses variations sans que l’on puisse en trouver les causes. Il est nécessaire de reconcevoir le processus ou de revoir avec le client les spécifications.

8 – Calculer les indicateurs du 6 Sigma

Les PPM ou DPMO

Ils sont en lien direct avec les valeurs de Cp et Cpk. Par convention, on le calculera avec notre Cpk. la formule est la suivante :

PPM ou DPMO = (1 – Zcpk) * 1 000 000

On peut toutefois utiliser le Cp mais il sera moins restrictif que le Cpk puisqu’il fait l’hypothèse que la distribution est centrée.

Par ailleurs, si nous souhaitons nous projeter dans une performance long terme, on utilise Ppk.

PPM = DPMO ? Tout dépend si l’étude porte sur 1 défaut en particulier ou plusieurs défauts. Par exemple, pour la fabrication d’un flacon de sirop, il peut y avoir un problème d’étiquette, de bouchon, de remplissage… :

  • On calcule des DPMO si on considère les problèmes d’étiquette, de bouchon et de remplissage.
  • On calcule des PPM, si on considère uniquement un problème d’étiquette ou un problème de bouchon ou de remplissage.

Le niveau de Sigma

On le calcule de la même manière que la normale via pour rappel la formule suivante :

Niveau de Sigma = 1,5 + Loi.Normale.Standard.Inverse (PPM/1000000)

Le pourcentage de défauts

Le pourcentage de défaut est par évidence les PPM / 1 000 000 le tout mis en pourcentage.

Source

1 – R.R. Mortel, G. C. Runge (1995) – Statistical process control of multiple stream process

2 – N. L. Johnson, S. Kotz (1993) – Process capability indices

3 – S. A. Yourstone, W. J. Zimmer (1992) – Non normality and the deisign of control

4 – H. A. David (1981) – Order statistics

T. Pyzdec (1992) – Psydek’s guide to SPC

M. Pillet (1991) – Les pièges des mesures de capabilité

Norme NF X06-033 – Aptitude des moyens de production et des processus de fabrication

Share This