Cours de génie industriel



GÉNIE INDUSTRIEL

1. Six Sigma

1.1. Contrôle qualité

1.2. Défauts/Erreurs

1.3. Indices de capabilité

1.4. Niveaux de qualité

1.5. Modèle de Taguchi

2. Maintenance préventive

2.1. Estimateurs empiriques

2.2. Modèle de Weibull

2.3. Topologie des systèmes

2.4. Méthode ABC

3. Plans d'expériences

3.1. Plans factoriels complets

3.2. Plans factoriels fractionnaires

Le génie industriel englobe la conception, l'amélioration et l'installation de systèmes. Il utilise les connaissances provenant des sciences mathématiques, physiques et sociales, ainsi que les principes et méthodes propres à l'art de l'ingénieur, dans le but de spécifier, prédire et évaluer les résultats découlant de ces systèmes.

Nous pouvons résumer tous les domaines qui touchent au génie industriel (et pas seulement.... cela peut s'appliquer avec adaptation ad hoc à l'administration) par l'objectif d'optimiser et contrôler les performances globales de l'entreprise (coûts, délais, qualité) car:

On ne peut améliorer que ce que l'on mesure!

Remarquons que certaines techniques de génie industriel ont déjà été abordées dans d'autres chapitres comme les techniques de gestion quantitatives, l'optimisation (recherche opérationelle), l'analyse financière, l'analyse des files d'attentes, et autres...

Danc ce chapitre nous traiterons uniquement des deux aspects du SQC (Statistical Quality Control) soit du contrôle statistique de la qualité (dont c'est le métier du "qualiticien") dans le cadre de la fabrication et de la mise en production de biens ou de services.

Selon l'utilisation nous distinguons trois domaines principaux qui dans l'ordre conventionnel sont:

1. Contrôle statistique de processus, surveillance de fabrication ou réglage de qualité (Statistical
Process Control, SPC). Il s'agit de la surveillance d'un processus de fabrication pendant la production de produits de masse, pour découvrir des différences de qualité et pour pouvoir intervenir et conduire directement.

2. Contrôle de réception ou examen d'échantillon de réception (Acceptance Sampling, AC). Il s'agit du contrôle d'entrée, d'un contrôle pendant la production et d'un contrôle final des
produits dans une entreprise (ou usine) sans influence directe sur la production. Ainsi le montant
de rebut produit est mesuré. Le contrôle initial sert aussi à refuser la marchandise arrivante. Elle
n'influence par conséquent la production que de manière indirecte.

3. Maintenance préventive et contrôle du veilissement et de la défaillance et impacts critiques (Analyse des Modes de Défaillances, de leurs Effets et de leur Criticité, AMDEC). Il s'agit principalement de calculer la durée de vie de composants ou de machines afin de prévoir des remplacements à l'avance et les actions y relatives à mener pour éviter les situations critiques humaines ou financières.

Indiquons que depuis la fin du 20ème siècle, il est à la mode de regrouper les deux premiers points dans une méthodologie de travail appelée "Six Sigma" que nous allons aborder immédiatement. Enfin, signalons que dans la pratique, pour avoir un intérêt de la direction d'une entreprise, il faut toujours trouver une relation quantitative entre non-qualité et les coûts pour pouvoir faire bouger les choses...

SIX SIGMA

Six Sigma est à l'origine une démarche qualité limitée dans un premier temps aux techniques de "maîtrise statistique des procédés" (M.S.P.) appelée aussi "statistiques des processus qualité" (S.P.Q. ou S.P.C. en anglais pour Statistical Process Control).

C'est une méthodologie de travail utile pour satisfaire les clients dont l'idée est de délivrer des produits/services de qualité, sachant que la qualité est inversement proportionnelle à la variabilité. Par ailleurs, l'introduction de la qualité doit être optimisée afin de ne pas trop augmenter les coûts. Le jeu subtil entre ces deux paramètres (qualité/coûts) et leur optimisation conjointe est souvent associé au terme de "Lean management". Si nous y intégrons Six Sigma, nous parlons alors de "Lean Six Sigma".

Six Sigma intégre tous les aspects de la maîtrise de la variabilité en entreprise que ce soit au niveau de la production, des services, de l'organisation ou de la gestion (management). D'où son intérêt! Par ailleurs, dans Six Sigma un défaut doit être paradoxalement la bienvenue car c'est une source de progrès d'un problème initialement caché. Il faut ensuite se poser plusieurs fois la question "Pourquoi?" (traditionnellement 5 fois) afin de bien remonter à la source de celui-ci.

Nous distinguons deux types de variablité dans la pratique:

- La "variabilité inhérente" au processus (et peu modifiable) qui induit la notion de distribution des mesures (le plus souvent admise par les entreprises comme étant une loi Normale).

- La "variabilité externe" qui induite le plus souvent un biais (déviation) dans les distributions dans le temps.

Les processus de fabrication dans l'industrie de pointe ayant une forte tendance à devenir terriblement complexes, il faut noter que les composants de base utilisés pour chaque produit ne sont pas toujours de qualité ou de performance égale. Et si de surcroît, les procédures de fabrication sont difficiles à établir, la dérive sera inévitablement au rendez-vous.

Que ce soit pour l'une ou l'autre raison, au final bon nombre de produits seront en dehors de la normale et s'écarteront ainsi de la fourchette correspondant à la qualité acceptable pour le client. Cette dérive est fort coûteuse pour l'entreprise, la gestion des rebuts, des retouches ou des retours clients pour non-conformité générant des coûts conséquents amputant sérieusement les bénéfices espérés.

Comme nous allons le voir dans ce qui suit, une définition possible assez juste de Six Sigma est: la résolution de problèmes basée sur l'exploitation de données. C'est donc une méthode scientifique de gestion.

contrôle qualité

Dans le cadre des études qualité en entreprise, nous renonçons souvent à un contrôle à 100% à cause du prix que cela engendrerait. Nous procédons alors à une prise d'échantillons. Ceux-ci doivent bien évidemment être représentatifs, c'est-à-dire quelconques et d'égales chances (in extenso le mélange est bon).

Le but de la prise d'échantillons étant bien évidemment la probabilité du taux de défaillance réel du lot complet sur la base des défaillances constatées sur l'échantillonnage.

Rappelons avant d'aller plus loin que nous avons vu dans le chapitre de Statistique la loi hypergéométrique (et son interprétation) donnée pour rappel par (cf. chapitre de Statistiques) :

equation   (1)

Lors d'un échantillonnage, nous avons normalement un paquet de n éléments dont nous en tirons p. Au lieu de  prendre m (nombre entier!) comme le nombre d'éléments défectueux nous allons implicitement le définir comme étant égal à :

equation   (2)

equation est la probabilité (supposée connue ou imposée...) qu'un pièce soit défectueuse. Ainsi, nous avons pour probabilité de trouver k pièces défectueuses dans un échantillon de p pièces parmi n :

equation   (3)

La probabilité cumulée de trouver k pièces défectueuses (entre 0 et k en d'autres termes) se calcule alors avec la distribution hypergéométrique cumulative :

equation   (4)

exemple Exemple:

Dans un lot n de 100 machines, nous admettons au maximum que 3 soient défectueuses (soit que equation). Nous procédons à un échantillonnage p à chaque sortie de commande de 20 machines.

Nous voulons savoir dans un premier temps qu'elle est la probabilité que dans cet échantillonnage p trois machines soient défectueuses et dans un deuxième temps quel est le nombre de machines défectueuses maximum autorisé dans cet échantillonnage p qui nous dirait avec 90% de certitude que le lot de n machines en contienne que de 3 défectueuses.

x

H(x)

equation

0

0.508

0.508

1

0.391

0.899

2

0.094

0.993

3

0.007

1.000

Tableau: 1  - Application loi hypergéométrique

Ainsi, la probabilité de tirer en une série de tirages trois machines défectueuses dans l'échantillon de 20 est de 0.7% et le nombre de pièces défectueuses maximum autorisé dans cet échantillon de 20 qui nous permet avec au moins 90% de certitude d'avoir 3 défectueuses est de 1 pièce défectueuse trouvée (probabilité cumulée)!

Les valeurs H(x) peuvent être calculées facilement avec MS Excel. Par exemple la première valeur est obtenue grâce à la fonction LOI.HYPERGEOMETRIQUE(0;20;3;100).

DÉFAUTS/ERREURS

Intéressons-nous donc à exposer pour la culture générale un exemple pratique et particulier de ce qui n'est qu'une application simple de la théorie des statistiques et probabilités.

Imaginons une entreprise fabricant trois copies d'un même produit sortant d'une même chaîne, chaque copie étant composée de huit éléments.

Remarque: Nous pouvons tout aussi bien imaginer une société de services développant (fabricant) trois copies d'un logiciel (produit) sortant d'une même équipe de développement (chaîne), chacun composé d'un nombre égal de modules (éléments).

Supposons que le produit P1 a un défaut, le produit P2 zéro défauts et le produit P3 deux défauts.

Ici, Six Sigma suppose implicitement que les défauts sont des variables indépendantes ce qui est relativement rare dans les chaînes de fabrication machines mais plus courant dans les chaînes dans lesquelles des humains sont les intervenants. Cependant, nous pouvons considérer lors de l'application SPC sur des machines qu'un échantillonage du temps dans le processus de mesure équivaut à avoir une variable aléatoire!!

Remarques:

R1. Dans le cadre de l'exemple du logiciel pris plus haut, l'indépendance est peu probable si nous ne prenons pas un exemple dans lequel les modules sont personnalisés selon les besoins du client.

R2. L'inconstance des résultats de production de certaines machines dont les réglages bougent pendant le fonctionnement... (ce qui est courant), voir que la matière première change de qualité pendant la production (ce qui est aussi courant!) posent donc de gros problèmes d'application des méthodes SPC.

La moyenne arithmétique des défauts nommée dans le standard Six Sigma "Defects Per Unit" (D.P.U.) est alors défini par :

equation   (5)

et donne dans notre exemple :

equation   (6)

ce qui signifie en moyenne que chaque produit a un défaut de conception ou fabrication. Attention! Cette valeur n'est pas une probabilité pour les simples raisons qu'elle peut d'abord être supérieure à 1 et qu'ensuite elle a comme dimension des [défauts]/[produits].

De même, l'analyse peut être faite au niveau du nombre total d'éléments défectueux possibles qui composent le produit tel que nous sommes amenés naturellement à définir selon le standard Six Sigma le "Defects per Unit Opportunity" (D.P.O.) :

equation   (7)

ainsi, dans notre exemple, nous avons :

equation   (8)

et ceci peut être vu comme la probabilité d'avoir un défaut par élément de produit puisque c'est une valeur sans dimensions :

equation   (9)

Par extension nous pouvons argumenter que 87.5% des éléments d'une unité n'ont pas de défauts et comme Six Sigma aime bien travailler avec des exemples de l'ordre du million (c'est plus impressionnant) nous avons alors les "Defects Per Million Opportunities" (D.P.M.O.) qui devient :

equation   (10)

ce qui dans notre exemple donne :

equation   (11)

Comme la probabilité D qu'un élément d'une pièce soit non défectueux est de 87.5% (soit 12.5% de taux de rebus) alors, par l'axiome des probabilités conjointes (cf. chapitre de Probabilités), la probabilité qu'un produit dans son ensemble soit non défectueux est de :

equation   (12)

ce qui dans notre exemple donne :

equation   (13)

ce qui n'est pas excellent...

Remarque: Dans Six Sigma, les probabilités conjointes sont aussi naturellement utilisées pour calculer la probabilité conjointe de produits non défectueux dans une chaîne de processus de production P connectés en série. Cette probabilité conjointe est appelée dans Six Sigma "Rolled Troughput Yield" (R.T.Y.) ou "Rendement Global Combiné" (R.G.C.) et vaut :

equation

equation
  (14)

Ce type de calcul étant très utilisé par les logisticiens qui nomment le résultat "taux de disponibilité" ainsi que par les chefs de projets pour la durée d'une phase d'un projet lorsqu'ils considèrent la durées des tâches comme indépendantes.

Ainsi, dans une chaîne industrielle basée sur l'exemple précédent pour avoir une quantité Q bien définie de produits (supposés utiliser qu'un seul composant de chaque étape) au bout de la chaîne il faudra à l'étape A prévoir :

equation   (15)

soit 52.42% de composants A de plus que prévus. Il faudra prévoir à l'étape B:

equation   (16)

soit 37.17% de composants de plus. Et ainsi de suite...

Rappelons maintenant que la densité de probabilité d'avoir k fois l'événement p et N-k fois l'événement q dans n'importe quel arrangement (ou ordre) est donné par (cf. chapitre de Statistiques):

equation   (17)

et est appelée la loi binomiale ayant pour espérance et écart-type (cf. chapitre de Statistiques) :

equation   (18)

Ainsi, dans le standard Six Sigma, nous pouvons appliquer la loi binomiale pour connaître quelle est la probabilité d'avoir zéros éléments défectueux et 8 autres en bon état de marche sur un produit de la chaîne de fabrication de notre exemple (si tous les éléments ont la même probabilité de tomber en panne...):

equation   (19)

et nous retombons bien évidemment sur la valeur obtenue avec les probabilités conjointes avec :

equation   (20)

Ou la probabilité d'avoir un élément défectueux et sept autres en bon état sur un produit de la chaîne de fabrication :

equation   (21)

nous voyons que la loi binomiale nous donne 39.26% de probabilité d'avoir un élément défectueux sur 8 dans un produit.

Par ailleurs, dans le chapitre de statistiques, nous avons démontré que lorsque la probabilité p est très faible et tend vers zéro mais que toutefois la valeur moyenne  equation tend vers une valeur fixe si n tend vers l'infini, la loi binomiale de moyenne equation avec k épreuves était donnée alors donnée par :

equation   (22)

avec :

equation   (23)

Remarque: Dans un cadre pratique, il est fait usage de l'estimateur de maximum de vraisemblance de la loi expontentielle pour déterminer la moyenne et l'écart-type ci-dessus (cf. chapitre de Statistiques).

Ce que Six Sigma note naturellement :

equation   (24)

avec :

equation   (25)

Ainsi, dans notre exemple, il est intéressant de regarder la valeur obtenue (qui sera forcément différente étant donné que nous sommes loin d'avoir une infinité d'échantillons et que p est loin d'être petit) en appliquant une telle loi continue (la loi continue la plus proche de la loi binomiale en fait) :

equation   (26)

avec :

equation   (27)

ce qui est un résultat encore plus mauvais qu'avec la loi binomiale pour nos produits.

Cependant, si p est fixé au départ, la moyenne equation tend également vers l'infini théoriquement dans la loi de Poissons de plus l'écart-type equation tend également vers l'infini.

Si nous voulons calculer la limite de la distribution binomiale, il s'agira donc de faire un changement d'origine qui stabilise la moyenne, en 0 par exemple, et un changement d'unité qui stabilise l'écart, à 1 par exemple. Ce calcul ayant déjà été fait dans le chapitre de Statistique, nous savons que le résultat est la loi Normale :

equation   (28)

Ainsi, dans notre exemple, nous avons equation et l'écart-type est donné par l'estimateur sans biais de l'écart-type (cf. chapitre de Statistique) :

equation   (29)

ce qui dans notre exemple donne equation.

Pour calculer la probabilité nous calculons la valeur numérique de la loi de Gauss-Laplace pour equation :

equation   (30)

Ainsi, en appliquant la loi Normale nous avons 24.19% de chance de tirer au premier coup un produit défectueux. Cet écart par rapport aux autres méthodes s'expliquant simplement par les hypothèses de départ (nombre d'échantillons fini, probabilité faible, etc.)

Remarque: Ceux qui penseraient utiliser la loi triangulaire (cf. chapitres de Statistiques) doivent tout de suite l'oublier. Effectivement, comme en qualité la valeur optimiste sera le zéro par définition, la probabilité que le nombre de défauts soit égal à 0 sera immédiatement de zéro.

INDICES DE CAPABILITÉ

Six Sigma défini plusieurs indices permettant de mesurer pendant le processus de fabrication la capabilité de contrôle dans le cas d'un grand nombre de mesures de défauts répartis souvent selon une loi de Gauss-Laplace (loi Normale).

Basiquement, si nous nous imaginons dans une entreprise, responsable de la qualité d'usinage d'une nouvelle machine, d'une nouvelle série de pièces, nous allons être confrontés aux deux situations suivantes:

1. Au début de la production, il peut y avoir de gros écarts de qualité dûs à des défauts de la machine ou de réglages importants mal initialisés. Ce sont des défauts qui vont souvent être rapidement corrigés (sur le court terme). Dès lors pendant cette période de grosses corrections, nous faisons des contrôles par lot (entre chaque grosse correction) et chacun sera considéré comme une variable aléatoire indépendante et identiquement distribuée (selon une loi Normale) mais de moyenne et écart-type bien évidemment différents.

2. Une fois les gros défauts corrigés, nous n'allons avoir en théorie plus que des défauts minimes très difficilements contrôlables et ce même sur long terme. Alors l'analyse statistique ne se fait plus forcément par lot de pièces mais par pièces et l'ensemble des pièces sur le long terme est considéré comme un unique lot à chaque fois.

Ces deux scénarios mettent en évidence que nous n'effectuons alors logiquement pas les mêmes analyses en début de production et ensuite sur le long terme. Raison pour laquelle en SPC nous définissons plusieurs indices (dont les notations sont propre à ce site Internet car elles changent selon les normes) dont 2 principaux qui sont:

D1. Nous appelons "Capabilité potentielle du procédé court terme" le rapport entre l'étendue de contrôle E de la distribution des valeurs et la qualité de Six Sigma (6 sigma) lorsque le processus est centré (c'est-à-dire sous contrôle) tel que :

equation   (31)

ce qui s'écrit aussi :

equation   (32)

USL est la limite supérieure de contrôle/tolérance ou "Upper Specification Level" (USL) de la distribution et LSL la limite inférieure ou "Lower Specification Level" (LSL) que nous imposons souvent (mais pas toujours!) dans l'industrie comme à distances égales par rapport à la moyenne equation théorique souhaitée.

Ce rapport est utile dans l'industre dans le sens où l'étendue E (qui est importante car elle représente la dispersion/variation du processus) est assimilée à la "voix du client" (ses exigences) et le 6 sigma au dénominateur au comportement réel du procédé/processus et que la valeur 6 est censée inclure quasiment toutes les issues possibles. Il vaut donc mieux espérer que ce rapport soit au pire égal à l'unité!

Voici typiquement un exemple en gestion de projets où lorsque le client ne paie pas pour une modélisation du risque fine on tombe sur ce type de distribution (le client accepte que le consultant puisse garantir une variation qui ne dépassera pas les 50% de l'estimation sans modélisation du risque):

equation
  (33)

Remarque: En MSP, l'étendue E est souvent notée IT, signifiant "intervalle de tolérance".

L'écart-type au dénominateur étant donné par la relation démontrée dans le chapitre de Statistique dans le cas de k variables aléatoires indépendantes et identiquement distribuées selon une loi Normale (mais d'écart-type et moyenne non-identique):

equation   (34)

CT est l'abréviation de "court terme" (abréviation souvent non précisée dans la pratique car supposée connue dans le contexte). Cet écart-type est bien évidemment le meilleur pour le premier scénario dont nous avons fait mention plus haut. Car entre chaque grosse correction, les lots sont considérés comme indépendants et ne peuvent pas être analysés comme un seul et unique lot (ce serait une abérration!).

Attention cependant! Comme souvent dans la situation court terme (lors de la correction des grosses sources d'erreurs donc) les lots de tests sont petits, même très petits, afin de diminuer les coûts en production. Dès lors l'écart-type se trouvant sous la racine (qui est l'estimateur de maximum de vraisemblance de la loi Normale) n'a pas une valeur vraiment correcte... Il est alors bon d'utiliser soit d'autres méthodes de calcul assez empiriques comme le font de nombreux logiciels, soit de calculer un intervalle de confiance de l'indice de capabilité en calculant l'intervalle de confiance de l'écart-type court terme comme nous l'avons vu dans le chapitre de Statistique.

D2. Nous appelons "Performance globale du procédé long terme" le rapport entre l'étendue de contrôle E de la distribution des valeurs et la qualité de Six Sigma (6 sigma) lorsque le processus est centré tel que :

equation   (35)

ce qui s'écrit aussi :

equation   (36)

L'écart-type au dénominateur étant donné cette fois par le cas où nous considérons tous les gros défauts corrigés et le processus stable afin de considérer toutes les pièces fabriquées comme un seul et unique lot de contrôle:

equation   (37)

LT est l'abréviation de "long terme" (abréviation souvent non précisée dans la pratique car supposée connue dans le contexte). Cet écart-type est bien évidemment le meilleur pour le deuxième scénario dont nous avons fait mention plus haut. Car les variations étant par hypothèses maintenant toutes petites, l'ensemble de la fabrication peut être supposée comme étant un seul et unique lot de contrôle sur le long terme (bon cela n'empêche pas qu'il faut parfois nettoyer les valeurs extrêmes qui peuvent se produire).

Le tolérancement des caractéristiques est donc très important pour l'obtention de la qualité et de la fiabilité des produits assemblés. Traditionnellement, une tolérance s'exprime sous la forme d'un bipoint [Min,Max]. Une caractéristique est alors déclarée conforme si elle se situe dans les tolérances.

Le problème du tolérancement consiste à tenter de concilier la fixation des limites de variabilité acceptable les plus larges possibles pour diminuer les coûts de production et d'assurer un niveau de qualité optimal sur le produit fini.

Deux approches tentent de résoudre ce problème:

1. Le tolérancement au pire des cas garanti l'assemblage dans toutes les situations à partir du moment où les caractéristiques élémentaires sont dans les tolérances.

2. Le tolérancement statistique tient compte de la faible probabilité d'assemblages d'extrêmes entre eux et permet d'élargir de façon importante les tolérances pour diminuer les coûts et c'est donc à celui-ci que nous allons nous intéresser ici comme vous l'aurez compris.

Un processus est dit "limite capable" (soit limite stable par rapport aux exigences du client en d'autres termes) s'il le ratio donné ci-dessus (en choisissant 6 fois l'écart-type) est supérieur à 1. Mais dans l'industrie on préfère prendre en réalité la valeur de ~1.33 dans le cas d'une distribution Normale des données.

Bien évidemment, la valeur equation de l'écart-type peut-être être calculée en utilisant les estimateurs de maximum de vraisemblance avec ou sans biais vus dans le chapitre de Statistiques mais il ne s'agit en aucun cas dans la réalité pratique de l'écart-type théorique mais d'un estimateur. Par ailleurs, nous verrons plus loin qu'en fonction de l'écart-type utilisé, les notations des indicateurs changent!

Remarque: En entreprise, il faut faire attention car l'instrument de mesure rajoute son propre écart-type (erreur) sur celui de la production.

Comme nous l'avons démontré au chapitre de Statistique, l'erreur-type (écart-type de la moyenne) est :

equation   (38)

Dans la méthodologie Six Sigma nous prenons alors souvent pour les processus à long terme et sous contrôle:

equation   (39)

quand nous analysons des cartes de contrôles dont les variables aléatoires sont des échantillons de n variables aléatoires indépendantes et identiquement distribuées et que les limites n'ont pas été imposées par un client ou par une politique interne ou des contraintes techniques! Bien évidemment, il faut bien être conscient que UCL et LCL n'ont pas la même expression dans des cas plus complexes et donc pour des distributions autre que la loi Normale!

Par ailleurs l'expression précédente diffère aussi pour les processus à court terme car l'exemple donnée ci-dessus est pour un cas de mesures sur le long terme uniquement pour rappel!

Le lecteur remarquera que nous avons maintenant:

equation   (40)

Normalement, au sein des entreprise, l'étendue de contrôle est fixe (le numérateur) et donc quand la valeur de l'écart-type type est grande (plus de variations, moins de contrôles) la valeur de l'indice est faible et lorsque l'écart-type est faible (moins de variations, plus de contrôles) la valeur de l'indice est élevé.

Comme le montre les deux exemples ci-dessous :

equation
  (41)

L'indice equation impose que la moyenne (l'objectif) est centrée entre LSL et USL. Dès lors, la moyenne est confondue avec ce que nous appelons la "cible" T du processus.

Mais la moyenne equation dans la réalité peut être décalée par rapport à l'objectif T initial qui doit lui toujours (dans l'usage courant) être à distance égale entre USL et LSL comme le montre la figure ci-dessous dans le cas particulier d'une loi Normale :

equation
  (42)

Mais ce n'est pas forcément le cas dans la réalité où les ingénieurs (quelque soit leur domaine d'application) peuvent choisir des LSL et USL asymétriques par rapport à la moyenne ne serait-ce que parce que la loi n'est pas toujours Normale (typiquement le cas en gestion de projets...)! D'où la définition suivante :

D2. Nous appelons alors "Capabilité potentielle décentrée court terme du procédé" (dans le cas décentré) ou "Process Capability Index (within)" la relation :

equation   (43)

avec :

equation   (44)

equation est appelé le "dégré de biais" et T le "target" donné naturellement par:

equation   (45)

qui donne le milieu de la distribution relativement au bi-point [LSL,USL] imposé (ne pas oublier que l'écart-type au dénominateur de la relation antéprécédente est l'écart-type court terme!).

Au fait cet indicateur de capabilité de contrôle peut sembler très artificiel mais il ne l'est pas totalement.... Effectivement il y a quelques valeurs remarquables (celles qui intéressent l'ingénieur) qui permettent de se faire une bonne idée ce qu'il se passe avec celui-ci:

1. Si la moyenne et la cible sont confondues nous avons alors:

equation   (46)

nous nous retrouvons donc avec equation et donc equation et le critère de jugement de la valeur de l'indice sera basée sur l'indice de capabilité centrée court terme.

2. Si faute d'un mauvais contrôle du processus nous avons :

equation   (47)

alors la moyenne equation est soit au-dessus de USL soit en-dessous de LSL ce qui a pour conséquence d'avoir equation et donc equation.

3. Si nous avons :

equation   (48)

alors la moyenne equation est comprise entre les valeurs USL et LSL ce qui a pour conséquence d'avoir equation et donc equation.

4. Si nous avons:

equation   (49)

alors cela signifie simplement que la moyenne est confondue avec USL ou LSL et nous avons alors equation et equation.

Comme l'interprétation reste cependant délicate et difficile, nous construisons les indices "Upper Capability Index CPU" et "Lower Capability Index CPL" donnés par:

equation   (50)

Voyons d'où viennent ces deux valeurs et comment les utiliser:

Démonstration:

D'abord, nous avons besoin de deux formulations particulière du degré de biais k.

Si:

equation   (51)

alors nous pouvons nous débarrasser de la valeur absolue:

equation   (52)

Si:

equation   (53)

alors nous pouvons nous débarrasser de la valeur absolue:

equation   (54)

Nous avons alors lorsque equation:

equation   (55)

et respectivement lorsque equation:

equation   (56)

equation C.Q.F.D.

A long terme dans certaines entreprises il est intéressant de savoir qu'elles sont les plus mauvaises valeurs prises par les indices CPU et CPL (c'est le cas dans le domaine de la production mais pas forcément de la gestion de projets)

Les plus mauvaises valeurs étant trivialement les plus petites, nous prenons souvent (avec quelques une des notations différentes que l'on peut trouver dans la littérature spécialisée...):

equation   (57)

Voici par exemple un diagramme d'analyse de la capabilité produit par le logiciel Minitab (en anglais) avec les différents facteurs susmentionnés sur un échantillons de 68 données suivant une loi Normale (un test de normalité a été fait avant):

equation
  (58)

Deux lectures typiques sont possibles (nous expliquerons la partie inférieure gauche du graphique plus loin):

1. En production: Le processus est capable (valeur >1.33) mais avec une (trop) forte déviation vers le gauche par rapport à la cible définie ce qui n'est pas bon (CPL ayant la valeur la plus petite) et doit être corrigé.

2. En gestion de projets: Les tâches redondantes sont sous contrôle (valeur >1.33) mais avec une forte déviation vers le gauche ce qui peut être bon si notre objectif est de prende de l'avance par rapport au planifié (rien à corriger).

Il faut vraiment prendre garde au fait que dans la réalité il n'est pas toujours possible de prendre la loi Normale or tous les exemples donnés ci-dessus ce sont basés sur cette hypothèse simplificatrice.

Toujours le cadre de la gestion de la qualité en production, la figure ci-dessous représente bien la réalité dans le cadre d'un processus court ou long terme:

equation

  (59) Source: MSP/SPC de Maurice Pillet

Chaque petite gaussienne en gris clair, représente une analyse de lots. Effectivement, nous voyons bien que leurs moyennes ne cessent de bouger pendant la période de mesures (que cette variation soit grande ou très faible).

Or la relation définissant equationsupposait, comme nous l'avons mentionné que le processus est sous contrôle centré (donc toutes les gaussiennes sont alignées) et sur une optique court-terme.

De même, la relation définissant equation supposait, comme nous l'avons mentionné que le processus est sous contrôle, sur une optique court terme et décentré par choix (ou à cause du fait que la loi n'est pas Normale).

Par contre, si le processus n'est pas centré parce qu'il n'est pas sous contrôle alors qu'il devrait l'être, la variable aléatoire mesurée est la somme de la variation aléatoire des réglages X de la machine et des variations aléatoires non-contrôlables des contraintes des pièces Y.

L'écart-type total est alors, si les deux variables aléatoires suivent une loi normale, la racine carrée de la somme des écart-types (cf. chapitre de Statistiques):

equation   (60)

Or, si nous n'avons qu'une seule mesure, il vient en prenant l'estimateur biaisé (c'est un peu n'importe quoi de l'utiliser dans ce cas là mais bon...) :

equation   (61)

Or dans le cas d'étude qui nous intéresse Y représente la moyenne expérimentale (mesurée) du processus qu'on cherche à mettre sous contrôle. Cette moyenne est notée traditionnellement m dans le domaine.

Ensuite, equation n'étant pas connu on prend ce qu'il devrait être: c'est la cible T du processus. Ainsi, nous introduisons un nouvel indice appelé "Capabilité potentielle décentrée moyenne court terme du procédé" :

equation   (62)

où encore une fois il faut se rappeler que l'écart-type dans la racine au dénominateur est l'écart-type court terme!

Nous voyons immédiatement que plus equation est proche de equation mieux c'est (dans les domaines de production du moins).

Nous avons donc finalement les trois indices de capabilités court terme centré et non centré les plus courants (nous avons délibérément choisi d'uniformiser les notations et de mettre le maximum d'infos dans celles-ci):

equation   (63)

De même nous avons aussi les trois indices de capabilités long terme centré et non centré les plus courants (nous avons délibérément choisi d'uniformiser les notations et de mettre le maximum d'infos dans celles-ci):

equation   (64)

Enfin, indiquons que bien que ce soit pas très pertinent, il arrive parfois que certains ingénieurs fassent les deux analyses (court terme + long terme) en même temps sur la même base de données de mesures.

Cependant, pour faire de l'analyse objective sur les indices de capabilité vus jusqu'à maintenant, il faudrait d'abord que les instruments de mesure soient eux-mêmes capables... ce que nous appelons souvent les "méthodes R&R" (Répétabilité, Reproductibilité).

Le principe consiste alors à évaluer la dispersion courte terme ou respectivement long terme de l'instrument de mesure afin de calculer une "capabilité de processus de contrôle" définie par:

equation   (65)

Dans les cas classiques, nous déclarons le moyen de contrôle capable pour une suivi MSP lorsque cette capabilité est supérieure à 4 et nous allons de suite voir pourquoi. Rappelons pour cela d'abord que:

equation   (66)

Mais la variance observée est au fait la somme de la "vraie" variance et de celle de l'instrument telle que:

equation   (67)

Or nous avons:

equation et equation   (68)

En mettant le tout au carré, nous en déduisons:

equation   (69)

D'où:

equation   (70)

Ce qui nous donne:

equation   (71)

Soit:

equation   (72)

Ce qui se traduit par le graphique de la figure suivante qui montre bien l'intérêt d'un equation au moins égal à 4!

equation
  (73)

Dans la pratique, signalons que pour déterminer equation on se sert d'une pièce étalon mesurée par interférométrie LASER et s'assurer ensuite que tous les essais répétés de mesure se fassent sur les deux mêmes points de mesure.

Une fois ceci fait, on effectue plusieurs mesures de la cote étalon et on prend l'écart-type de ces mesures. Ce qui donnera le equation.

L'étendue E est elle imposée par le client ou par des ingénieurs internes à l'entreprise. Elle sera souvent prise comme étant au plus dixième de l'unité de tolérance d'une pièce.

Par exemple, si nous avons un diamètre intérieur de equation (étendue de tolérance de 2 microns ce qui est déjà du haut de gamme niveau de précision car à notre époque le standard se situe plutôt autour des 3!), notre appareil devra alors avoir selon la règle précédemment citée une étendue de 0.2 microns.... Il est alors aisé de déterminer qu'elle devra être l'écart-type maximum de l'instrument si on se fixe une capabilité de processus de contrôle de 4 (et encore... 4 c'est grossier!).

Certains ingénieurs apprécient de savoir à combien d'éléments en millions d'unités produites (parties par million: PPM) seront considérées comme défectueuses relativement.

Le calcul est alors aisé puisque l'ingénieur a à sa disposition au moins les informations suivantes:

equation   (74)

et que les données suivent une loi Normale alors il est immédiat que (cf. chapitre de Statistiques):

equation   (75)

et:

equation   (76)

valeurs très aisées à obtenir avec n'importe quel tableur comme MS Excel par exemple.

Nous avons alors

equation   (77)

il en est de même pour la capabilité long-terme (il suffit de prendre alors l'expression correspondante de l'écart-type).


page suivante : 1.4. Niveaux de qualité