[Total : 1    Moyenne : 5/5]
La loi normale est l’un des piliers de la statistique. Bien connue, elle est utilisée dans tous les domaines de la statistique : finance, psychologie, anatomie…. Elle résume de nombreuses distributions statistiques observées.

Introduction

La loi normale (du latin “norma” signifiant “équerre”. A cette époque, l’équerre servait à mesurer la droiture d’une construction. Dans le langage courant, la normalité a pris le sens “suivre la règle, les habitudes…”) est l’un des piliers de la statistique. Bien connue, elle est utilisée dans tous les domaines de la statistique : finance, psychologie, anatomie…. Elle résume de nombreuses distributions statistiques observées (plus nous avons de données, plus la plupart des lois statistiques tendent vers elle : binomiale, hypergéométrique, Student…).

Loi normale et nombre de données

Si n est très grand mais n * p < 5, alors les lois binomiales et hypergéométriques tendent vers la loi de Poisson.

Pour la loi de Student, on prendra la Loi Normale à partir de 30 données.

« Tout le monde y croit cependant car les expérimentateurs s’imaginent que c’est un théorème de mathématiques, et les mathématiciens que c’est un fait expérimental ». Phrase de G. Lippmann (Mathématicien de renom) rapportée par Henri Poincaré (Mathématicien de renom) en 1896 à propos de la loi normale

f(x) = 1σ2π×e-12(x-μσ)2
f(x) = ???
En statistique, on parle de densité de probabilité. Imaginons par exemple qu’on mesure la taille de tous les garçons d’une même tranche d’âge, et qu’on représente les résultats par un diagramme histogramme. Sur l’axe horizontal, on décompose en intervalles de tailles — par exemple un centimètre de large — et au-dessus de chaque intervalle, on place une barre verticale dont la hauteur indique le nombre d’enfants qui ont une taille dans cet intervalle.

Il se trouve que la forme de ce diagramme ressemblera beaucoup à la courbe en cloche ci-dessus. Il y a une valeur moyenne pour la taille de ces enfants — certains sont plus grands, d’autres plus petits — et une bonne proportion ont une taille qui ne s’éloigne pas trop de la moyenne.

Origine

Son origine se trouve dans le calcul des chances, aussi appelé loi du hasard, pour l’étude du jeu du pile ou face vers 1730 (on notera que, bien avant, Pascal avait déjà publié sur cette loi – 1654, et la loi binomiale avait été créée par Jacob Bernoulli dans une publication posthume de 1713). On va s’intéresser à la réalisation ou non d’un résultat. On joue cent fois pile ou face. Tout le monde sait, avec une pièce bien équilibrée, on obtient sensiblement le même nombre de piles que de faces, parfois un peu plus de face, parfois un peu plus de pile.

Mais comment peut-on démontrer cela ? Quel écart entre les piles et faces peut être considéré comme raisonnable ?

Le premier mathématicien à s’être posé la question est Pascal en 1654, et avant lui bien d’autres, par exemple le chinois Yanh Hui (vers 1261). Mais ce sera Laplace qui en 1786 découvrira cette courbe et développera la loi Normale.

Les torses des écossais

Dans les années 1820, Quételet, un mathématicien reconnu, réussit à convaincre l’administration du royaume des Pays-Bas de construire un observatoire astronomique à Bruxelles. Pour préparer ce projet, il a passé quelques mois à l’Observatoire de Paris en 1823, pour y rencontrer les astronomes Alexis Bouvard, François Arago, Pierre Simon de Laplace, Joseph Fourier et Siméon Denis Poisson. Ce séjour eut une importance décisive sur sa carrière. Il s’est alors initié à l’usage que les astronomes faisaient du calcul des probabilités dans le contrôle des erreurs de mesure en astronomie. Quételet s’est demandé si les phénomènes humains et sociaux ne présentaient pas les mêmes régularités dans leur distribution que les phénomènes naturels. En relevant les mensurations de conscrits français et en analysant celles de 5 000 soldats écossais présentées en 1817 dans la revue Edinburg Medical Journal, Quételet a constaté que les données biométriques de l’homme, comme le poids, la taille, le périmètre thoracique, se répartissaient selon une courbe normale. C’est pourquoi, il est considéré comme l’un des fondateurs de l’anthropométrie et de la biostatistique. Il a constaté que ces données oscillaient autour de valeurs moyennes et que ces valeurs moyennes tendaient à être constantes. Quételet devint ainsi l’un des premiers (car Laplace, Fourier, Poisson et Von Bortkiewicz, etc…  avaient déjà appliqué la loi normale à des données socio-économiques…) à utiliser la courbe normale autrement que pour la répartition d’erreurs en astronomie et en physique. Il a ensuite étendu ces notions à l’ensemble des caractéristiques physiques en créant la notion d’homme moyen qu’il a présentée en 1835, dans son ouvrage intitulé Sur l’homme et le développement de ses facultés ; Essai d’une physique sociale.

La loi normale centrée réduite

La loi normale centrée réduite est un cas particulier de la normale qui transforme toutes les courbes normales en une courbe unique standard, donc aux caractéristiques facilement mesurables, par un changement de variable, ce qui nous permet ensuite de faire des prédictions sur les valeurs numériques des courbes normales initiales.

Cette technique consiste à soustraire de notre valeur la moyenne des valeurs et de diviser par l’écart-type. Cela nous permet de centrer la distribution de nos données sur l’axe des ordonnées pour la rendre symétrique et plus facile à lire et à analyser. La formule est la suivante :

Ce score Z représente à combien d’écarts-type une valeur X se place par rapport à la moyenne.

Le Théorème central limite

Ce théorème fondamental de la théorie des probabilités permet de comprendre pourquoi dans de nombreuses situations concrètes, le diagramme décrivant la distribution d’un phénomène aléatoire extrêmement général converge vers une la loi normale.

Reprenons l’expérience du Pile ou Face : On jette la pièce n fois et on compte le nombre de fois où on tombe sur pile. Le théorème affirme que le diagramme représentant les probabilités de tomber sur k fois pile dans un jeu de n lancers s’approche d’une cloche lorsque le nombre n de lancers tend vers l’infini.

C’est là, un théorème central de passage à la limite en probabilités (« der zentrale Grenzwertsatz des Wahrscheinlichkeitsrechnung ») et cette expression de Pólya (1930) est devenue bizarrement en anglais « Zentral Limit Theorem » et en français, Théorème limite central, ou central limite, ou de la limite centrale. Ce théorème relatif au jeu de pile ou face peut être généralisé.

Sous sa forme la plus générale, le Théorème nous dit que sous certaines conditions, la distribution d’une somme ou d’une différence de variables aléatoires indépendantes, tend vers la loi normale (au même titre que la loi binomiale ou de Student).

Télécharger notre fichier “illustration du théorême central limite” illustrant se phénomène pour vous en convaincre.

C’est pour cette raison qu’on rencontre ces cloches un peu partout. Dès qu’un phénomène est la somme d’un grand nombre de causes aléatoires indépendantes, une cloche se présente. Et cela, indépendamment de la nature des multiples causes aléatoires, qui peuvent tout à fait suivre une autre loi de probabilité, comme par exemple une loi de pile ou face qui est Binomiale lorsque n est faible mais tend vers la loi normale quand n est grand. Il s’agit de l’un des exemples les plus frappants de phénomènes d’universalité en mathématiques : en ajoutant un grand nombre d’aléas dont on ne sait rien, la distribution de la somme suit une loi Normale.

Ce théorème est essentiel dans la théorie des erreurs et c’est d’ailleurs ce qui intéressait Gauss au premier chef. Si je mesure la longueur d’une table un grand nombre de fois avec mon décimètre, la répartition des résultats aura tendance à se faire sur une loi Normale, et 95% des résultats seront dans un intervalle de deux écarts types autour de la moyenne. Cet intervalle de confiance de deux écarts types est ce que les physiciens appellent « L’incertitude de la mesure ».

Représentation graphique

Ci-dessous nous représentons 3 loi normale centrée réduite, toutes ayant la même moyenne, mais avec des écarts types différentes :

En rouge : σ = 1

En bleu : σ = 2

En vert : 0.5

Ainsi, plus la dispersion est élevée, plus la courbe est aplatie et inversement.

La planche de Galton

Regardez cette simulation de la planche de Galton : une bille tombe et elle est soumise à des chocs aléatoires. Lorsqu’on lance un grand nombre de billes, la distribution des billes sur la base s’approche d’une cloche, qui a exactement la même forme que la précédente…

Exemple d’utilisation

Nous sommes une société pharmaceutique et nous produisons des flacons de Sirop de différentes contenances (100 ml, 200 ml…). La remplisseuse de notre ligne de conditionnement ne remplit jamais à 100, 200 ml pile. Il existe un écart-type que nous ne savons améliorer sans changer de machine, option qui n’est pas retenue pour le moment.

On souhaite, selon les normes qualité, qu’au moins 95% de nos flacons de sirop contiennent plus de 99ml pour les flacons de 100ml et plus de 198ml pour les flacons de 200ml. La question est la suivante :

Sur quel réglage de la contenance dois-je régler notre machine pour assurer cette condition ?

1. Relevé des données

Dans un premier temps, on identifie la loi statistique que suit notre équipement. Pour cela, on remplit 100 flacons de 100ml avec un réglage de 100ml, et on calculr l’écart-type. On s’aperçoit, que nos données suivent bien une loi normale avec un écart type de 1,5ml.

2. Formalisation du problème

Au regard de l’énoncé, on cherche la valeur de réglage minimale de Xbarre de notre machine nous permettant d’avoir :

  • Pour les flacons de 100ml : P(X ≥ 99ml) ≥ 0.95.
  • Pour les flacons de 200ml : P(X ≥ 198ml) ≥ 0.95

3. Résolution du problème

On identifie notre valeur de réglage en utilisant la formule de la loi normale centrée réduite. Celle-ci nous conduit à résoudre l’équation suivante : Z = (X– Xbarre) / σ

Avec :

  • Z : la valeur normalisée de notre probabilité. Dans notre cas, souhaitant une probabilité de 95% d’être au-dessus de notre valeur limite, nous obtenons la valeur -1,64485 (test unilatéral puisque nous souhaitons puisque nous avons une limite minimale à respecter).
  • X : Notre valeur minimale en question, 99 ou 198 selon le type de flacon.
  • Xbarre : la valeur du réglage que nous souhaitons identifier.
  • σ : l’écart type de notre équipement, ici 1,5

 

D’où nous obtenons les équations suivantes :

  • Pour les flacons de 100ml : Xbarre = X – Z * σ = 99 – (-1,64485*1,5) = 101,47
  • Pour les flacons de 200ml : Xbarre = X – Z * σ = 198 – (-1,64485*1,5) = 200,47

4. Conclusion

Pour nos flacons de 100ml, si nous souhaitons s’assurer à 95% que nos flacons soient remplis à plus de 99ml, il faut que nous réglions notre équipement à 101,47ml.

De même, pour nos flacons de 200ml, si nous souhaitons s’assurer à 95% que nos flacons soient à plus de 198ml, il faut que nous réglions notre équipement à 200,47ml.

Source

C. F. Gauss (1809) – Theoria motus corporum cœlestium in sectionibus conicis solem ambientium

B. Bru (2006) – La courbe de Gauss ou le théorême de de Bernouilli raconté aux enfants

E. Brian et M. Jaisson (2007) – Le sexisme de la première heure : hasard et sociologie

J. Fourier (1822) – Théorie analytique de la chaleur

W.Feller (1967) – An introduction to probability Theory and its applications

I.M. Gelfand, G.E.Šilov (1958) – Fonctions généralisées

Y Katznelson et S Mandelbrojt (1963) – Quelques classes de fonctions entières et le problème de Gelfand et Šilov

E. Lesigne (2001) – Pile ou Face, une introduction aux théorèmes limites du calcul des Probabilités

Share This