[Total : 1    Moyenne : 5/5]
Les régressions linéaires simples permettent d’identifier une corrélation ou non entre 2 variables et de quantifier cette relation.

Introduction

Les régressions linéaires simples permettent de prédire le comportement d’une variable par une autre. C’est un outil puissant pour analyser des relations de causes à effets.

On cherche à élaborer une fonction Y = f(X) sous la forme : Y = aX + b, où :

  • a est la pente = σxy / σ2x
  • b est l’ordonnée à l’origine = ybarre – a * xbarre

Valider la significativité du résultat

Pour valider la significativité du résultat, on réalise différents tests d’hypothèses. Il y a 3 cas différents que nous détaillons ci-dessous.

Effectuer le test sur le coefficient de corrélation

On effectue un test de Student sur le coefficient de corrélation obtenu pendant le calcul de la régression.

On pose les hypothèses :

  • H0 : r = 0
  • H1 : r ≠ 0

L’objectif recherché est de rejeter l’hypothèse H0, et ainsi de valider le fait qu’il y ait bien une corrélation.

On calcule la valeur pratique et la valeur théorique selon le modèle suivant :

Si Valeur pratique > Valeur critique : le résultat est significatif, donc non dû au hasard. On rejette H0 et retient H1

Effectuer un test sur la pente de la droite de régression 

Sur le même principe, on teste via un test de Student, si la pente de la corrélation identifiée est significative ou non.

On pose les hypothèses :

  • H0 : a = 0
  • H1 : a ≠ 0

L’objectif recherché est de rejeter l’hypothèse H0, et ainsi de valider la significativité de la pente.

On calcule la valeur pratique et la valeur théorique selon le modèle suivant :

Ainsi, si la valeur pratique est supérieure à la valeur critique, alors le résultat est significatif et non dû au hasard. On rejette ainsi H0 et on retient l’hypothèse H1.

Calculer l’intervalle de confiance de la pente

On calcule un intervalle de confiance pour la pente. Cette intervalle permet d’ajuster au mieux notre équation et d’élaborer des scénarios. On le calcule ainsi :

Calculer la P-Value

On calcule la p-Value pour, au risque α que nous avons choisi, nous indiquer le niveau de hasard du résultat obtenu. Il s’interprète toujours de la même manière :

  • p-Value < α : forte significativité
  • p-Value > α : peu de significativité

Calculer un coefficient de corrélation partielle

Il arrive qu’une conclusion significative peut être obtenu tout en étant fausse. D’autres paramètres, non pris en compte pendant l’étude, peuvent être présents et non détecté. Par exemple, on trouve une corrélation entre la vente de glace et la vente de ventilateur. Il n’y a pourtant aucun lien direct entre eux mais ils sont dépendants d’un troisième facteur, la chaleur.

Pour vérifier cela, on utilise un coefficient de corrélation partielle. On choisi un autre paramètre que nous pensons potentiellement impliqué, et on calcule les différents coefficients de corrélation puis le coefficient de corrélation partielle selon la formule suivante :

Il s’interprète de la manière suivante :

  • rxyz = rxy : la troisième variable n’a pas d’interaction avec les 2 premières
  • rxyz ≠ rxy : la troisième variable rentre en considération dans la corrélation

De la même manière que pour le coefficient de corrélation, on effectue un test de Student sur le coefficient de corrélation obtenu pendant le calcul de la régression.

On pose les hypothèses :

  • H0 : rxyz = 0
  • H1 : rxyz ≠ 0

L’objectif recherché est de retient l’hypothèse H0, et ainsi de valider le fait qu’il n’y ait pas une interaction avec un troisième coefficient.

On calcule la valeur pratique et la valeur critique selon le modèle suivant :

Interprétation

  • Valeur pratique < Valeur critique : On rejette H0 : on conclue qu’il y a une interaction du troisième facteur sur notre modèle.
  • Valeur pratique > Valeur critique : On retient H0 : on conclue qu’il n’y a pas d’interaction du troisième facteur sur notre modèle.

Source

D. N. Gujarati (2004) – Econométrie

R. Rakotomalala (2012) – Analyse de corrélation

J. Labarere (2012) – Corrélation et régression linéaire simple

R. Vuillet, J. J. Daudin, S. Robin (2001) – Statistique inférentielle

S. Robin (2007) – Régression linéaire simple

Share This