[Total : 0    Moyenne : 0/5]

3 – Les tests d’Homoscédaticité

Employé pour tester les différences de variances entre échantillons, ils permettent en particulier de s’assurer des conditions d’utilisations des tests d’Hypothèses.

Anova à 1 facteur

L’analyse de la variance permet d’étudier la moyenne de K échantillons.

Test de McNemar

Le test de McNemar permet de comparer 2 populations ne pouvant prendre que des valeurs 0 ou 1 : 0 étant la non présence d’un caractère, 1 étant la présence d’un caractère.

Test t de Student

Le test de Student permet d’identifier des différences sur des paramètres de moyenne ou de proportion.

Test du khideux

Le test du χ2 tester l’adéquation d’une distribution de données avec une loi attendu ou d’autres distributions de données.

Q de Cochran

Le Q de Cochran est une généralisation du test de McNemar et permet de traiter plus de 2 séries de données appariées.

Normal probability plot

Le Normal Probability Plot est sans doute le plus simple des tests de Normalité. Tout à chacun pourra l’utiliser pour déterminer la “normalité” de ses données.

Test de Kruskal et Wallis

Le test de Kruskal et Wallis est un test non paramétrique pour comparer plus de 2 échantillons sur des données qui peuvent être des moyennes, des fréquences ou encore des variances.

Test de Wilcoxon

Le test de Wilcoxon n’est pas à confondre avec le test de Wilcoxon-Mann Whitney. Même s’ils sont similaires, celui-ci est adapté pour les données appariées.

Anova en blocs

L’Anova en blocs permet d’étudier plus de 2 échantillons appariées.

Le test de Friedman

Le test de Friedman est une généralisation du test de Wilcoxon pour plus de 2 échantillons.

Le Rho de Spearman

Le Rho de Spearman permet de détecter une corrélation ou non entre variable.

Le Tau de Kendall

Appelé coefficient de corrélation des rangs de Kendall, c’est une mesure de corrélation non paramétrique. Il sert à déterminer une relation qui existe entre 2 séries de données.

Test de Durbin Watson

Le Test de Durbin Watson s’utilise dans le cadre d’une étude de régression pour savoir si les données sont indépendantes.

Les tests Post-Hoc

Très nombreux, ce sont des tests qui permettent d’identifier les échantillons qui diffèrent parmi les X que nous avons testés au préalable.

Test de Shapiro-Wilk

Le test de Shapiro Wilk est performant pour valider la normalité lorsque nous en avons moins de 50 données.

Test de Lilliefors

Le test de Lilliefors est une déclinaison du test de Kolmogorov Smirnov pour tester la normalité

Test de Brown Forsythe

Le test de Brown Forsythe est le meilleur test pour comparer la variance de 2 ou plusieurs échantillons.

Share This