[Total : 2    Moyenne : 5/5]
Les cartes de contrôles est un outil historique du SPC (Statistical Process Control). Elles permettent de surveiller les paramètres d’un processus pour prévenir des dérives et s’assurer la qualité.

Introduction

C’est l’ingénieur W. A. Shewhart qui développa dans les années 1920 le principe des cartes de contrôles. A cette époque, le management de l’usine de Hawthorne de la Western Electric Company à Chicago (société américaine de production de postes téléphoniques employant 46 000 personnes) souhaitait atteindre l’uniformité de leurs produits afin de fidéliser leurs clients1. Ils mirent en place le premier département d’assurance qualité au monde. L’objectif était noble et l’idée était pour eux de prendre des actions dès que le produit sortait de la norme.

Pour autant, ils s’aperçurent rapidement que loin de s’améliorer, les choses ne faisaient qu’empirer. Ils appelèrent le Dr. Shewhart qui travaillait au Bell Telephone Laboratories, nouvellement créé.

Pour minimiser les risques en réduisant l’occurrence des erreurs, Shewhart créa les cartes de contrôle. Son principe de réflexion repose sur le fait qu’il faut distinguer la variabilité aléatoire naturelle de tout processus de variabilité accidentelle. Il ne s’agit non pas de vérifier qu’il n’y a pas de variabilité dans les processus, mais de la mesurer et de la maîtriser. Cela repose sur le fait qu’on ne peut en réalité supprimer totalement la variabilité.

Le Dr. Shewhart résume ainsi le principe des cartes de contrôle :

« Emmener un processus dans un état de « contrôle statistique » où il y a uniquement des variations naturelle, et le garder sous contrôle, est nécessaire pour prédire les résultats et manager un processus avec efficacité. »

Permettant de distinguer les variations « normales » des variations « exceptionnelles » du processus et elles répondent aux questions :

Est-ce que mon processus a changé ?

Mon processus est-il stable et prédictible ?

Le principe

Une carte de contrôle représente dans le temps l’évolution des paramètres que nous avons décidé de mettre sous contrôle. A une certaine fréquence, on prélève des échantillons. On reporte ensuite sur un graphique les données, en construisant :

  • Une ligne centrale qui représente la moyenne et qui permet d’identifier la « localisation » du processus pour détecter les décrochages et évolutions.
  • Une limite supérieure et inférieure qui sont placées à équidistance, 3σ de la ligne centrale, et qui permet de mesurer le niveau de variabilité du process.

Pourquoi les limites sont-elles à 3σ ?

Tout d’abord, statistiquement, 6σ nous permet d’avoir 99,99967% de chance de contenir les valeurs attendues. Autrement dit, nous n’avons que 0,000333% de chances que la prochaine valeur ne soit pas dans l’intervalle. Ce qui est très faible et qui nous permet de dire que si elle est en dehors de cette limite, il doit y avoir une cause identifiable.
Néanmoins, il en reste qu’il s’agit d’une valeur « arbitraire ». La confiance que l’on peut y apporter et en définitive égale à leur existence. Depuis des décennies, cet outil est utilisé. Et l’expérience prouve, jour après jour, graphique après graphique, que ce choix est correct2.
« Les limites de contrôle de la voix du client ne doivent pas être associées à la recherche des problèmes, ni dans la recherche des causes spéciales. C’est pour cette raison qu’il a utilisé les limites à 3 σ. Plus de 50 ans d’expériences nous montre qu’il a eu raison. » W. E. Deming

Pourquoi parle t’on de décalage de 1,5 ?

Dans le cadre des cartes de contrôle, et que l’on traduit les DPMO en valeur de Sigma, on retrouve dans la formule un 1,5. Son origine s’explique par la précision des cartes de contrôles. En effet, en pratique, un process respectant le 6 Sigma à court terme peut ne pas l’être à long terme, et serait donc de 4,5 Sigma.

Les 2 types de variations

Variation naturelle dû à des causes communes

Tout processus a nécessairement une variabilité naturelle (appelé « bruit »), même infime, que l’on ne pourra jamais supprimer. Tout l’enjeu est de les réduire et les maîtriser. Elles sont le résultat d’effets cumulés de nombreuses petites causes incontrôlables que l’on nomme les causes communes ou aléatoires.

Quelques exemples de causes communes :

  • Problèmes d’organisation : manque de formation, manque d’encadrement, problèmes de communication, procédure pas à jour,…
  • Machine ou produit inadapté à la situation : mauvaise conception, mauvais état, vibrations, process non conforme aux exigences, mauvais réglages…
  • Mauvaise conditions de travail : manque d’éclairage, vibrations, humidités, zone de travail encombrés, problèmes d’ergonomies, problèmes d’approvisionnements…

On note par ailleurs que selon W. E. Deming, environ 94% des problèmes sont en réalités des variations « naturelles » des processus3. Autrement dit, selon Deming, la majorité des problèmes sont dus à des problèmes de management et non à des problèmes de qualité.

Variation accidentelle dû à des causes spéciales

La variation accidentelle (« signal ») est une variation exceptionnelle. Ces variations exceptionnelles sont dû à des causes spéciales (assignables) et dont on sait en retrouver la source.

Cette source peut être très diverses : erreur humaine, problème de qualité de la matière, panne… Tout l’enjeu est de les identifier pour les éliminer.

1. Choisir des paramètres de contrôle

Les paramètres doivent être suffisamment pertinent pour faire en sorte de piloter les processus de manière efficace. Il y a différents critères de choix :

  • La simplicité : le paramètre doit être facile à mesurer. Effectuer le prélèvement ne doit pas prendre trop de temps, et le personnel doit être capable de le faire.
  • L’importance vis-à-vis du client : on aura plus intérêt à choisir un paramètre qui peut avoir un impact direct sur la qualité pour le client.
  • La centralisation : dans certain cas, les paramètres peuvent être corrélés. Si le premier n’est pas conforme, alors les autres ne le seront pas. On a tout intérêt à choisir le paramètre central qui permet d’effectuer le moins de prélèvement, tout en ayant le maximum d’informations.
  • L’historique : il y a peu d’intérêt à mettre sous surveillance un paramètre qui ne nous a jamais posé problème. Il sera plus pertinent de mettre sous contrôle un paramètre que l’on sait être problématique.
  • Le type de données : statistiquement, il est toujours préférable d’effectuer un relevé sur des données quantitatives (un poids, un diamètre…) plutôt que des données qualitatives (bon, pas bon…). Autant que faire se peut, privilégier ce type de variable qui permettent l’utilisation de cartes plus performantes.

2. Mettre en place le mode d’échantillonnage

Comme dans toute procédure de relevée de données pour effectuer des statistiques, il faut respecter les processus de base des plans d’échantillonnage.

2.1 Le mode de prélèvement

Dans le cas spécifique des cartes de contrôles, notre plan d’échantillonnage s’appuie sur une méthodes probabiliste aléatoire. On effectue alors un tirage aléatoire selon 2 méthodes :

  • Soit on effectue un prélèvement à intervalle de temps régulier. On détermine par exemple de prélever 5 échantillons toutes les heures, cela quelque soit la quantité produite sur la dernière heure. On utilise cette approche pour suivre réellement l’évolution du processus.
  • Soit on effectue un prélèvement en fonction de la quantité produite. Par exemple, on décide de prendre 5 échantillons toutes les 1000 pièces ou tous les lots de production. Cette approche est utilisée dans le cas où l’une des finalités du suivi vise à l’acceptation ou non des lots de production.

2.2 Calcul de la taille de l’échantillon

Historiquement, la taille d’un prélèvement est de 5. Ceci pour une simple raison : à l’époque, les cartes étaient remplies à la main. Pour calculer une moyenne, le chiffre 5 est très pratique, car il suffit de multiplier par 10 et de diviser par 2 pour la trouver.

On retiendra que :

  • Le nombre d’échantillons a prélevé dans chaque sous-groupe est généralement de 4 ou 5. Ceci pour 2 raisons6 : la première, pour que le relevé soit représentatif, le prélèvement doit être effectué dans un laps de temps réduit, auquel cas, le processus peut subir des changements qui impacteraient les résultats. La seconde, moins statistique, au plus on effectue de prélèvement, au plus cela coûte cher.
  • La taille de l’échantillon doit être la même à chaque prélèvement. Dans le cas contraire, la taille du plus grand échantillon ne doit pas être plus de 2 fois plus grand que la moyenne, et la taille du plus petit échantillon ne doit pas être plus de 2 fois plus petit que la taille moyenne. Pour les cartes aux proportions, la taille d’échantillons ne doit pas varier de plus de 25% de la taille de référence.

Quoi qu’il en soit, ce sera la pratique qui indiquera la bonne taille d’échantillon. Par exemple, dans le cas où vous êtes soumis à de très faibles variabilités (moins de 1 écart type), les cartes de contrôles manquant de sensibilité sur de si petite dispersion, il est nécessaire d’avoir une taille d’échantillon suffisamment grande pour la détecter.

2.3 Fréquence de prélèvement

Pour déterminer la fréquence, des spécialistes ont définis des abaques. Toutefois, on préférera l’empirisme pour la déterminer. Elle dépend du niveau de qualité attendu et du niveau actuel, de la cadence de production, de la fréquence des réglages, pannes… Et d’une manière générale, des moyens que l’on souhaite mettre en œuvre.

Néanmoins, en première approche, on utilise la règle de Cavé. Principalement lié à la fréquence des réglages réels, cette règle permet de se donner une première base de réflexion. La formule suivante4 :

Pour une production à forte cadence*

Pour une production à faible cadence* ou production continue

Avec :

  • T : temps prit en compte pour le calcul
  • N : Nombre de pièces produites sur l’unité de temps T
  • n : taille d’un échantillon à prélever
  • p : nombre moyen d’échantillons prélevés entre 2 réglages successifs
  • R : nombre moyen de réglage sur l’unité de T

* A noter que pour définir si notre production est à forte ou faible cadence, la condition est la suivante :

  • Si N > p2 * n * R : Forte cadence
  • Si N < p2 * n * R : Faible cadence

Autres règles :

  • Une règle basée sur l’expérience: « la fréquence des actions correctives sur un processus doit être au moins 4 fois plus faible que la fréquence de prélèvement »5.
  • Pour des productions à très faible cadence, si l’estimation de la fréquence de prélèvement par la règle de Cavé nous conduit à contrôler plus de 50% de la production, alors il sera nécessaire de réaliser un contrôle à 100%.
  • On choisira souvent de débuter avec une fréquence assez élevée, pour au fur et à mesure des améliorations, la réduire.

Quelques exemples

 Vérin à gazLots de produits pharmaceutiquesAvionProduit chimique
Cadence moyenne N10 000 par semaine190 par mois30 par moisIndéterminé
Temps pris en compte T7 jours20 jours20 jours30 jours
Nombre moyen de réglage R14 par semaine6 par mois4 par mois8 par mois
p choisi arbitrairement4445
Taille d'échantillon5316
Type de cadencep2 x n x R =1120 < N
Production à forte cadence
p2x n x R =288 > N
Production à faible cadence
p2 x n x R = 48 > N
Production à faible cadence
Production continue
Fréquence calculé de prélèvement F17 10000 x 145=23,94 x 620 = 1,24 x 330 = 0,85 x 830 = 1,33
Fréquence choisie1 échantillon par heure1 échantillon par jour-2 échantillons par jours
% de production contrôlé8,4%47,4%Nous sommes à 80% de fréquence calculée, donc contrôle à 100%N/A

2.4 Valider le recueil

Il faut s’assurer que les données prélevées soient fiables auquel cas, le résultat n’en sera que moins bon. Pour cela, on effectue une étude Gage R&R ou un Kappa Test.

2.5 Valider la distribution des données

Les cartes de contrôles sont construites sur l’hypothèse de normalité des données. Pour s’assurer d’interpréter correctement les résultats, il est nécessaire de s’assurer de cette condition :

  • En effectuant un test d’ajustement à la loi normale
  • En dessous de 4 échantillons par sous-groupes, la validation de l’hypothèse de normalité est importante7.
  • Au delà de 4 échantillons par sous-groupes, l’hypothèse de normalité peut être considérée comme « valide »8.

3. Choisir la carte

 Cartes aux mesuresCartes aux attributs
Type de contrôleMoyenne à grande série et pour des paramètres quantitatifsCompter le nombre de rebut dans chaque échantillons : valeur binaire Bon / Pas BonCompter le nombre de défauts, un même produit pouvant avoir plusieurs défauts.
Taille de l'échantillon1 et +12 à 25 + de 6Plusieurs centaines de préférence, mais quelques dizaines si on ne peut faire mieux.
Type d'échantillonVariableConstanteVariableConstanteVariableConstanteVariable
Sensibilité*< 1 σ1 σ> 1,5σ1 σ< 1 σ
DéréglageLentRapideLent
Nom de la carteCusum aux mesuresEWMA aux mesuresI-mRXbar-RXbar-SNPPCUEWMA aux attributsCusum aux attributs

*La sensibilité est le niveau de performance d’une carte. Plus la sensibilité est faible, et plus la carte est performante. Elle sera en effet capable de détecter des dérives plus faibles et donc d’alerter au plus tôt qu’un problème apparaît.

On note qu’il existe d’autres types de cartes : carte Shainin, carte χ2, carte de Robert-Shiriaev, carte FMA ou encore carte T2(Hotelling).

4. Construire la carte

Le processus de construction des cartes est strictement similaire. Toutes sont composées de la valeur centrale et de deux limites. Seules les formules pour identifier les valeurs sont différentes.

Elles vont se construire en 2 phases selon les critères suivants :

  • Phase I : nous n’avons statistiquement pas suffisamment de données pour avoir une fiabilité dans les calculs. Sont considérés Phase I, lorsque nous avons moins de 15 données ou groupes de données pour les cartes aux mesures. Pour les cartes aux attributs, la norme X06-032-1 préconise d’utiliser ce processus jusqu’à au moins 300 données.
  • Phase II : nous avons statistiquement suffisamment de données pour s’assurer du fait que celle-ci se rapproche d’une loi normale.

La conséquence est sur l’interprétation :

  • On ne peut conclure d’actions sur des cartes de phases I.
  • Seul les cartes de phases II sont fiables.

5. Interpréter un carte de contrôle

On crée différentes zones sur le graphique. On rajoute des lignes à 1 et 2σ au dessus et en dessous de la ligne médiane, et on défini les zones comme dans le graphique ci-contre.

5.1 – Les critères pour « ne pas agir »

La « forme » idéale d’une carte de contrôle doit répondre aux critères suivants :

  • 2/3 des points sont dans les zones A et B.
  • Peu de points sont dans les zones E et F.
  • Les points sont également répartis au dessus et en dessous de la ligne moyenne.
  • Il n’y a pas de points en dehors des limites de contrôle.

 

La première signification d’un profil normal est que le processus est sous contrôle. Il est stable et n’est pas perturbé par des causes extérieures. Il tend à se répéter jour après jour, et par conséquent il est prévisible. On peut déterminer, par le calcul, les caractéristiques sous-jacentes : le centre, la forme et la dispersion de la distribution.

5.2 – Les critères pour « agir »

Un profil « anormal » indique que le processus est hors contrôle. Il n’est pas prévisible.

Même si les critères pour identifier un profil anormal sont identiques pour toutes les cartes, l’interprétation diffère en fonction du type de carte. Nous décrivons ci-dessous les critères, mais nous indiquons uniquement une « règle » générale d’action à effectuer.

Ci-dessous, nous retrouvons les 8 critères définis selon la Western Electric9. L’ordre d’importance dans lequel ils sont mis est par contre celui défini par Nelson10, indiquant les principes suivants :

  • Les règles 1 à 4 sont applicables tout le temps. Le risque de voir un événement alors qu’il n’y en a pas est de l’ordre de 1%.
  • Les règles 5 et 6 sont à appliquer s’il est économiquement viable d’avoir une alarme le plus tôt possible. Mais la probabilité de voir un événement alors qu’il n’y en a pas est de 2%.
  • Les règles 7 et 8 sont intéressantes pour la mise en place des cartes. Le test 7 réagit toujours lorsque les variations proviennent de 2 populations, alors que le test 8 réagit lorsque les variations proviennent d’une même population.

 Description*Probabilités
d'appartion**
Type d'actionsAspect de la carte de contrôle
Critère 1Un point est à l'extérieur des limites.2,7 pour milleUne action immédiate de réglage est nécessaire.
Critère 29 points de suite du même côté de la ligne médiane.3,91 pour milleUn réglage est nécessaire pour recentrer le processus.
Critère 36 points de suite croissant ou décroissant.2,78 pour milleUne dérive du processus se fait sentir sans doute dû à un élément qui se détériore. Il faut le rechercher pour le réparer.
Critère 414 points de suite passent tour à tour de bas en haut.4,57 pour milleLa situation est archaique, il y a un manque clair de contrôle.
Critère 5Parmi les 3 derniers points, 2 se retrouvent en zone E ou F.3,06 pour milleUn nouveau prélèvement est nécessaire pour voir si le processus revient entre les -2 et 2σ. Si ce n’est pas le cas, un réglage sera nécessaire.
Critère 6Parmi les 5 derniers points, 4 se retrouvent en zone C ou D ou au delà.5,53 pour milleIl y a beaucoup de dispersion dans le processus. Une « future » panne en est sans doute l’origine.
Critère 715 points d’affilés à l’intérieur de la zone AB.3,26 pour milleIl serait intéressant de faire un test t pour comparer l’échantillon des 15 points avec les 15 points précédents pour savoir si nous n’avons pas 2 groupes de données distincts permettant de dire que des actions de progrès ont porté leurs fruits.
Critère 88 points de suite situés des 2 côtés de la ligne centrale mais aucun en zone AB.0,1 pour milleIl y a beaucoup de dispersion. Il devient nécessaire d’agir et trouver la cause.

Dans tous les cas, lorsqu’une de ces situations est mise en avant, il faut refaire un prélèvement dans l’immédiat. Pour valider la situation, il faut que le résultat de celui-ci soit dans la zone AB.

Dans le cas contraire, il faut investiguer sur les causes dans l’immédiat.

*Les autres règles

Selon la norme NF X06-031

  1. Un point est à l’extérieur des limites.
  2. 9 points de suite du même côté de la ligne médiane.
  3. 6 points de suite croissant ou décroissant.
  4. Parmi les 3 derniers points, 2 se retrouvent en zone E ou F.

Selon l’AIAG

  1. 1 point en dehors des limites.
  2. 7 points consécutifs sont en dessous ou au dessus de la ligne médiane.
  3. 7 points consécutifs sont croissants ou décroissants.

Selon Juran

  1. 1 point en dehors des limites.
  2. Parmi les 3 derniers points, 2 se retrouvent en zone E ou F
  3. Parmi les 5 derniers points, 4 se retrouvent en zone C ou D ou au delà.
  4. 6 points de suite croissant ou décroissant.
  5. 9 points de suite du même côté de la ligne médiane.
  6. 8 points de suite situés des 2 côtés de la ligne centrale mais aucun en zone AB.

Selon Westgard

  1. Un point est à l’extérieur des limites.
  2. 2 points d’affilés en zone E ou F.
  3. 4 points d’affilés en zone C ou D ou au delà.
  4. 10 points d’affilés du même côté de la ligne médiane.
  5. Pour 2 points d’affilés, 1 est en zone E et l’autre en F ou au delà.
  6. 7 points d’affilés croissant ou décroissant.

**Le calcul des probabilités d’apparition des règles de NELSON

 

Cela fait partie des conditions d’utilisation des cartes de contrôles, les données doivent suivre une loi normale. Cette condition est nécessaire, car elle conditionne le fait que les règles pour “agir” soit valide ou non. Au regard de la loi Normale, la probabilité que nos points soient dans une zone spécifique est indiqué dans le schéma suivant :

D’où nous déduisons la probabilité d’apparition de chacune des règles :

  • Règle 1 : 2 * probabilité pour hors limite = 2 * 0,135% = 2,7 pour mille
  • Règle 2 : 2 * probabilité de A ou B ou C ou D ou E ou F = 2 * (0,13591 + 0,34134 + 0,0214)9 = 3,91 pour mille
  • Règle 3 : Probabilité en comptant que l’ordre est important : (1 + 1) / 6! = 2,78 pour mille
  • Règle 4 : 398721962 / 14! = 4,57 pour mille
  • Règle 5 : 2 * C(2;3) * probabilité de (E ou Limite haute)2 * (1 – Probabilité de E ou limite haute) + 2 * (probabilité de E ou limite haute)3 = 2 * 3 * 0,022752 * 0,97725 + 2 * 0,022753 = 3,06 pour mille
  • Règle 6 : 2 * C(4;5) * probabilité de (Limite haute ou E ou C)4 * (1 – probabilité de (Limite haute ou E ou C)) + 2 * (probabilité de Limite haute ou E ou C)5 = (2 * 5 * 0,158654 * 0,84135 + 2 * 0,0158655 = 5,53 pour mille
  • Règle 7 : Probabilité de (A ou B)15 = 0,6826815 = 3,26 pour mille
  • Règle 8 = probabilité de (limite haute ou E ou C ou D ou F ou Limite basse)8 = 0,317328 = 0,1 pour mille

6. Piloter avec une carte de contrôle

Tout l’intérêt des cartes de contrôle est de fournir aux managers les bons signaux d’actions. Elles permettent d’identifier les « vrais » des « faux » problèmes, de savoir si nos actions ont réellement porté leurs fruits…

On retrouve 2 manières de mal interpréter les cartes de contrôles, que nous détaillons ci-dessous.

Sur-réagir

Dans ce cas, on attribue une variation à une cause spéciale alors qu’elle appartient à des causes communes. Le processus produit en dehors des spécifications définies par la Voix du Client mais à l’intérieur des spécifications définies par la Voix du Process. Autrement dit, le processus est en réalité non-capable. La conséquence traditionnelle conduit le plus souvent à des réglages ou des actions pour revenir à l’intérieur des spécifications clients.

On parle de sur-réaction, simplement parce qu’en réalité, le problème est dû à un processus non capable ou à des spécifications clients trop resserrée que de simple re-réglage ou actions “courts-termistes” ne pourront pas résoudre.

Sous-réagir

On attribue la variation à une cause commune alors qu’elle vient d’une cause spéciale. C’est exactement le cas inverse de la précédente. Le prélèvement indique que nous sommes à l’intérieur des tolérances définies par la Voix du Client. Pour autant, en soit, nous sommes à l’extérieur des limites naturelles du processus. Le processus étant capable, on ne s’aperçoit pas qu’en réalité, il est en train de dériver.

Généralement, aucune action n’est menée, et l’on « attend » la panne ou le défaut majeur pour agir.

Et donc…

Pour manager correctement les processus, il faut pouvoir dissocier la Voix du Client et la Voix du Process. Les tolérances clients permettent uniquement de faire le tri entre ce qui est bon de ce qui est mauvais. Autrement dit, elles permettent de juger ce qui a été fait et donc de regarder en arrière.

A l’inverse, les tolérances naturelles du processus permettent de piloter au jour le jour et de réagir au plus tôt pour ne pas produire de défaut. On est dans une attitude proactive.

7. Standardiser et améliorer

Le processus de prélèvement est rentré dans les mœurs. Le processus est optimisé et génère de moins en moins de problèmes. On peut réduire la surveillance et le nombre de prélèvements.

Source

1 – R. W. Berger (2002) – The certified quality engineer handbook

2 – Western Electric (2012) – Manuel du contrôle statistique de la qualité

3 – W. E. Deming (2000) – Out of crisis

4 – F. Boulanger, G. Chéroute, V. Jolivet (2006) – Maîtrise statistique des processus

5 – M. Pillet (2005) – Appliquer la maîtrise statistique des processus

6 – L. Alwan (2000) – Statistical process analysis

7 – C. D. Montgomery (1996) – The ASTM manuel of presentation of data and control chart analysis

8 – E. G. Schilling, P. R. Nelson (1976) – The effect of non-normality on th control limits Xbarre charts

9 – Western Electric (1956) – Statistical quality control handbook

10 – L. S. Nelson (1984) – Technical aids

D. Griffiths, M. Bunder, C. Gulati, T. Onzawa (2010) – The probability of an Out of Control Signal from Nelson’s Supplementary Zig Zag test.

T. Mariani, P. Mariani (2012) – Juggling paradigms, exemple d’un déroulement de projet Six Sigma de A à Z

W. Shewhart (1931) – Economic control of quality of manufacturing product

D. Howard (2004) – The basics of statistical process control & process behaviour charting

S. Mayeur (2004) – Guide opérationnel de la qualité

F. A. Meyer (2014) – Appliquer la ToC Lean Six Sigma dans les services

H. Toda (1958) – Band-score control charts

P. R. Bertrand (2007) – Une introduction au contrôle qualité

Norme NF X06-031-0 –  Cartes de contrôle, Partie 0 : Principes généraux

Share This