Introduction a la statistique inferentielle cours complet

Introduction à la statistique inférentielle cours complet
Chapitre 1
Statistiques descriptives
L’objet de ce chapitre est de présenter brièvement la première étape de l’analyse des données : la description. L’objectif poursuivi dans une telle analyse est de 3 ordres :
tout d’abord, obtenir un contrôle des données et éliminer les données aber-rantes ensuite, résumer les données (opération de réduction) sous forme graphique ou numérique, enfin, étudier les particularités de ces données ce qui permettra éventuellement de choisir des méthodes plus complexes. Les méthodes descriptives se classent en deux catégories qui souvent sont complémentaires : la description numérique et la description graphique.
1.1 Description numérique
Avant de donner des définitions formelles de tous les indices, nous les cal-culerons sur la série de données suivante (GMQ de porcs exprimés en g):
x1 | x2 | x3 | x4 | x5 | x6 | x7 | x8 | x9 | x10 |
737 | 630 | 573 | 615 | 718 | 620 | 820 | 763 | 786 | 529 |
Nous noterons n la taille de la série de données, ici n = 10
1.1.1 Paramètres de position
Les paramètres de position, aussi appelés valeurs centrales, servent à car-actériser l’ordre de grandeur des données.
² moyenne arithmétique :
Elle est plus souvent appelée moyenne, et est en général notée x¯, elle est calculée en utilisant la formule:
1 Xn
x¯ = n i=1xi
Dans notre exemple,¯ = 679.
² moyenne géométrique
La moyenne géométrique (¯xg) est toujours inférieure (ou égale) à la moyenne arithmétique. Elle est donnée par:
"Yn#1=n
1 Xn
log(¯xg) = ni=1 log(xi) en d’autres termes, le log de la moyenne géométrique est la moyenne arithmétique du log des données. Elle est très souvent utilisée pour les données distribuées suivant une loi log normale (par exemple les comptages cellulaires du lait).
² moyenne harmonique
La moyenne harmonique (¯xh) est toujours inférieure (ou égale) à la moyenne géométrique, elle est en général utilisée pour calculer des moyennes sur des intervalles de temps qui séparent des evénements. Elle est donnée par:
x¯h=Pnn1
i=1 xi
Dans notre exemple,¯h = 666:05 On peut remarquer que
1x¯h= 1 Xn 1 :n i=1 xi
² médiane
La médiane x˜ est la valeur telle que la moitié des observations lui sont supérieures (ou égales) et la moitié inférieures (ou égales). Il est clair que la médiane existe pour toutes les distributions (ce qui n’est pas le cas de la moyenne) de plus, elle est peu sensible aux valeurs extrêmes.
Lorsque le nombre d’observations est pair, la médiane n’est pas définie de façon unique. La valeur usuellement retenue est la moyenne des observations de rang n2 et de rang n2 + 1 Dans notre exemple x˜ = 674:
² les quartiles
Les quartiles sont au nombre de trois. La médiane est le deuxième.
Le premier quartile q1 est la valeur telle que 75% des observations lui sont supérieures (ou égales) et 25% inférieures (ou égales).
Lorsqu’il n’est pas défini de façon unique, on utilise généralement la moyenne des observations qui l’encadrent pour le calculer. Dans notre exemple, q1 = 615.
Le troisième quartile q3 est la valeur telle que 25% des observations lui sont supérieures (ou égales) et 75% inférieures (ou égales).
Lorsqu’il n’est pas défini de façon unique, on utilise la moyenne des observa-tions qui l’encadrent pour le calculer. Dans notre exemple, q3 = 763.
² le mode est la (ou les) valeur(s) pour laquelle les effectifs sont maximums, il est en général assez difficile de l’évaluer (quand il existe) sur des échantillons de petite taille.
² les extrêmes
Ce sont les minimum et maximum de l’échantillon qui ici valent respective-ment 529 et 820.
La moyenne n’est pas toujours le meilleur indice pour d’écrire la position des données, tout dépend de la forme de la distribution.
En effet, pour des distributions non symétriques ou multimodales, il est souvent préférables de donner les percentiles qui sont plus facile à interpréter.
1.1.2 Paramètres de dispersion
Ces paramètres (comme leur nom l’indique) mesurent la dispersion des données.
² la variance
Elle est définie comme la moyenne des carrés des écarts à la moyenne, soit:
¾ˆn2=n1Xn(xi ¡ x¯)2
i=1
Il est aussi possible d’en donner la définition suivante:
¾ˆn2=21n2XnXn(xi ¡ xj)2
i=1 j=1
On voit donc, que la variance est proportionnelle à la somme des carrés de toutes les différences possibles entre les observations.
Cette définition de la variance n’est pas utilisée en pratique pour une raison que nous verrons au chapitre suivant. En fait, on utilise la définition suivante
La variance s’exprime dans l’unité au carré des données ; dans notre exemple, la variance vaut :ˆ¾n2¡1 = 9664:989g2
² l’écart type
est la racine carrée de la variance. il vaut ici:ˆ¾n¡1 = 93:26g Utilisez le à bon escient (cf TD)
² l’étendue ou amplitude
est définie comme la différence entre la maximum et le minimum, soit ici :820 ¡ 529 = 291g
² la distance interquartile est définie comme la différence entre q3 et q1, soit:763 ¡ 615 = 148
² le coefficient de variation est définie comme le rapport entre l’écart type et la moyenne.
rS2CV =x¯
1.1.3 Paramètres de forme
Les logiciels de statistiques fournissent généralement les paramètres Skewness et Kurtosis construits à partir des moments centrés d’ordre 2,3 et 4 qui mesurent respectivement la symétrie et l’aplatissement de la distribution dont l’échantillon est issu.
Pour une loi normale centrée réduite, ces coefficients sont nuls. Les moments centrés d’ordre 3 et 4 sont définis par:
m3=n1Xn(xi ¡ x¯)3
i=1
m4=n1Xn(xi ¡ x¯)4
i=1
A partir de ces définitions, les paramètres Skewness et Kurtosis sont respec-
tivement définis par:
°1=m3 s3
°2=ms44 ¡ 3
Dans notre exemple,°1 = ¡0:037 et °2 = ¡1:339
Le paramètre °1 est nul pour une distribution symétrique. Le graphique suivant montre un exemple de distribution avec un °1 positif et négatif. Le paramètre °2 est nul pour une loi normale. Le graphique suivant montre un exemple de distribution avec un °1 positif et négatif.
1.2 Description graphique
Les graphiques présentés dans ce paragraphe décrivent d’une part la densit´ de la distribution et d’autre part la fonction de répartition de la distribution.
1.2.1 Description de la densit´

Histogramme (cf fig 1.1)
…
Variable à étudier
Figure 1.1: Histogramme d’une variable quantitative. La variable quan-titative est découpée en classes représentées en abscisse. Le pourcentage (et/ou le nombre) de données de l’échantillon appartenant à chaque classe est représent´ en ordonnée. L’inconvénient majeur de cette représentation graphique est l’arbitraire dans le choix des classes.
Stem and leaf
3
4445
666677
88888999999
5 H 0000000000111111111
22223
4444445555555
66666677777777
5 M 8888888999
000000111111
2222333333333
6 H 444444455555
6677777777
8889999
01
2223
4
67777
9
C’est un de mes graphiques préférés. Il s’agit d’un histogramme fait avec des chiffres. Les données sont classées par ordre croissant. Le minimum de l’échantillon est 4.3 (première ligne du stem). La deuxième ligne nous indique que l’échantillon contient 3 valeurs qui après arrondi valent 4.4 et une valeur égale (après arrondi) à 4.5. Le maximum vaut 7.9. Les H nous indiquent les classes qui contiennent respectivement les premier et troisième quartiles tandis que le M nous donne la classe qui contient la médiane. On en déduit que 25% des données sont inférieures à 5.0 ou 5.1, 50 % sont inférieures à 5.8 ou 5.9 et 25% sont supérieures à 6.4 ou 6.5.
1.2.2 Description de la fonction de répartition
Qplot (Quantile plot) ou encore fonction de répartition empirique (cf fig 1.2)
…
Figure 1.2: Ce graphique est homogène au graphique des fréquences cu-mulées pour une variable qualitative. La variable etudiée est représentée sur l’axe des abscisses. L’axe des ordonnées donne le pourcentage de données de l’échantillon inférieures ou égales à l’abscisse.
Pplot (Probability plot) aussi appel´ dans le cas de la loi normale droite de Henry. (cf fig 1.3). Toutes les fonctions de répartition se ressemble, ce sont des courbes croissantes en général sigmo¨ıdale. En bref, elles ne permettent pas facilement d’identifier une loi. L’idée des Pplot est de déformer l’axe des ordonnées de telle façon que si la loi empirique est proche de la loi que l’on cherche à identifier alors les points sont à peu prés alignés. Le Pplot le plus courant est la droite de Henry qui permet de reconnaître la loi normale. Formellement voilà comment cela marche. Notons F (x) la fonction de répartition empirique construite avec notre échantillon. On pense que cette fonction de répartition est proche de la fonction de répartition de la loi
…
Figure 1.3: Ce graphique nous montre clairement que cette distribution ne peut pas être considérée comme gaussienne, il y a trop de courbure.
Chapitre 2
Le zoo des lois de probabilité
Une des notions fondamentales des statistiques est celle de variable aléatoire. On considère un ensemble d’individus qui sera appel´ Ω: Un individu de cet ensemble sera noté !: On note X(!) une caractéristique de l’individu !. Par exemple, Ω est l’ensemble des bactéries que l’on trouve dans du lait de mam-mites, ! est une bactérie particulière et X(!) est type de la bactérie !. La quantité X(:) est appelée variable aléatoire (en général on note v.a.). Les valeurs possibles que peut prendre X(!) quand !2 Ω détermine la nature de la variable aléatoire. Ainsi, si X(!) 1prend ses valeurs dans IR, on parlera de variable aléatoire continue, si X(:) prend ses valeurs dans un ensemble fini ou dénombrable, X(:) sera alors appelée v.a. discrète.
En résumé,
: Ω ¡! E
! ¡! X(!)
Quelques exemples de variables aléatoires :
- le nombre d’étudiants présents au cours de stat ;
- le nombre de vaches qui ont une mammite dans un élevage ;
- le pourcentage de réussite aux examens ;
- le temps pendant lequel un animal est porteur d’une maladie ;
1Pour simplifier les notations, on note généralement X au lieu de X(!). Par la suite, cet abus de notation sera abondamment utilisé
la température d’un chien;
- les concentrations en fer et en cuivre dans le sang d’un animal sain.
Les trois premières v.a. sont discrètes, et ne peuvent prendre que des valeurs qu’il est possible d’énumérer d’avance. En revanche, les v.a. 4), 5), 6) sont continues. La variable aléatoire 6) est une va à deux dimen-sions. Nous adopterons dorénavant la convention suivante : les lettres ma-juscules désigneront les variables aléatoires, les lettres minuscules désigneront les valeurs que peuvent prendre les variables aléatoires.
L’étude des lois de probabilité usuelles est en fait l’étude de la distribution des valeurs que peut prendre une variable aléatoire.
2.1 Lois de probabilité discrètes
Pour complètement définir une loi de probabilité d’une va discrète X, il suffit de définir la probabilité d’occurrence de chaque valeur k que peut prendre cette va. En d’autres termes, la donnée des quantités P (X = k) et ceci pour toutes les valeurs k possibles déterminent une loi de proba particulière. De façon équivalente, pour complètement caractériser une loi de proba, il suffit de définir sa fonction de répartition , définie par :X
F (n) = P (X · k):k·n
Cette fonction s’interprète comme la probabilité que la va X soit au plus égale à n. C’est évidemment une fonction positive et croissante (on ajoute des probabilités qui sont des quantités positives ou nulles). Pour illustrer ce qu’elle représente, prenons un petit exemple. Supposons que X est le nombre de clients d’un vétérinaire le mardi matin. La va X est discrète et ne peut prendre que les valeurs k = 0; 1; : : : ; 10: Supposons de plus que la distribution de X est donnée par
k | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
P (X = k) 0:01 0:03 0:09 0:14 0:17 0:17 0:15 0:11 0:07 0:04 0:02
alors la fonction de répartition est donnée par | |||||||||||
n | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | |
F (n) 0:01 0:04 0:13 0:27 0:45 0:62 0:77 0:88 0:94 0:98 1:00
Fonction de Répartition
Figure 2.1: Fonction de répartition du nombre de clients d’un vétérinaire le mardi matin
Il est bien évident que si le nombre de valeurs que peut prendre la vari-able aléatoire est très elevé, il peut être très fastidieux (voire impossible) de donner toutes ces probabilités. Or, comme nous allons le voir, les lois de proba usuelles sont en fait définies par un petit nombre de paramètres : les moments de la loi de proba. Pour définir les moments, nous avons besoin d’un opérateur appel´ espérance mathématique qui est noté IE: Cet opérateur placé devant une variable aléatoire, fournit la moyenne de cette variable, ainsi la quantité IE(X) est définie parX
IE(X) = kP (X = k)k
Dans notre exemple, le nombre de clients moyen du vétérinaire le mardi matin est donné par
IE(X) = 0 £ 0:01 + 1 £ 0:03 + 2 £ 0:09 + 3 £ 0:14 + 4 £ 0:17 + 5 £ 0:17 + 6 £ 0:15 + 7 £ 0:11 + 8 £ 0:07 + 9 £ 0:04 + 10 £ 0:02 = 4:95
Plus généralement, on peut définir l’espérance mathématique de n’importe quelle fonction Φ (ayant de bonnes propriétés) de la va X ainsi,X
IE(Φ(X)) = Φ(k)P (X = k)k
On peut maintenant définir le moment d’ordre p par :
IE(Xp) = XkpP (X = k):k
Le moment centr´ d’ordre p est défini parX
mp= IE((X ¡ IE(X))p) = (k¡ IE(X))pP (X = k):k
Vous connaissez déjà le moment centr´ d’ordre 2 qui est aussi appel´ vari-ance. Nous reviendrons un peu plus loin sur l’interprétation pratique de cet indice ainsi que sur celle des moments centrés d’ordre 3 et 4. Dans l’exemple précédent, la variance du nombre de clients du mardi matin est donnée par
IE((X¡ IE(X))2) = (0 ¡ 4:95)2£ 0:01 + (1 ¡ 4:95)2£ 0:03 + (2 ¡ 4:95)2£ 0:09 + (3 ¡ 4:95)2£ 0:14 + (4 ¡ 4:95)2£ 0:17 + (5 ¡ 4:95)2£ 0:17 + (6 ¡ 4:95)2£ 0:15 + (7 ¡ 4:95)2£ 0:11 + (8 ¡ 4:95)2£ 0:07 +
(9 ¡ 4:95)2£ 0:04 + (10 ¡ 4:95)2£ 0:02 = 4:6275
Nous pouvons maintenant passer à l’inventaire des lois de probabilités les plus courantes.
2.1.1 Loi de Bernoulli
C’est la loi de probabilité la plus simple: l’individu ! peut se trouver dans deux états (en général notés 0 et 1).
Exemple : Ω est l’ensemble des bactéries dans du lait de mammite, ! est une bactérie particulière, X(!) = 0 si la bactérie ! est gram (-) et, X(!) = 1 si la bactérie ! est gram (+). La loi de probabilité de X est entièrement déterminée par la seule donnée du nombre P (X(!) = 0) = p qui permet de déduire que P (X(w) = 1) = 1 ¡p: On dit alors que la v.a. X suit une loi de BERNOULLI de paramètre p. On peut interpréter p dans notre exemple comme la probabilité qu’une bactérie donnée soit gram (-). La loi de BERNOULLI nous sera essentiellement utile pour définir d’autres lois de probabilité.
2.1.2 Loi binomiale
Une v.a. qui suit une loi binomiale ne peut prendre qu’un nombre fini de valeurs que nous noterons N. Pour illustrer l’utilisation de la loi binomiale, prenons l’ exemple suivant : supposons que la prévalence de la dysplasie de la hanche chez le CN est de p (la proportion de CN non porteur de cette anomalie est donc de 1 ¡p). A l’école vétérinaire, il passe par an N CN, on note X le nombre de CN porteurs de la dysplasie de la hanche parmi les N traités à l’école. On suppose que l’école a une chance égale d’être choisiecomme centre de traitement par les propriétaires de CN à dysplasie de la hanche. Alors,

P (X = k) = CNk pk(1 ¡ p)N¡ket ceci pour k = 0; 1:::N:
N”.
Une propriét´ elémentaire de CNk est
CNk= CNN¡k:
Le nombre moyen de CN porteur de la dysplasie que l’on peut trouver au cours d’une année à l’école véto est donné par IE(X) = N p: En d’autres termes si la prévalence de la dysplasie de la hanche est de p = 0:1, et s’il passe dans les cliniques de l’école N = 500 CN par an, on trouvera en moyenne N p = 500 0:1 = 50 CN porteurs de cette anomalie. Il est bien évident quele nombre de CN porteurs trouvés sur les 500 examinés par an ne sera pas toujours égal à 50. Il y a donc des variations de CN porteurs qui seront observés à l’école. Un indice mesure ces variations c’est la variance. La variance d’une loi binomiale est donnée par
V ar(X) = N p(1 ¡ p):
Très souvent la quantité 1¡p est notée q ; ceci explique le fait que V ar(X) = N pq:Quand X suit une loi binomiale de paramètre N et p on note
X » B(N; p):
Le graphique 2.2 montre les formes caractéristiques d’une loi binomiale en fonction des valeurs du paramètre p.
Remarque Il existe une autre façon de construire la loi binomiale. Voyons sur l’exemple des bactéries comment procéder.
On considère N bactéries. Chaque bactérie a une probabilité p d’être gram (-), à chaque bactérie on fait correspondre une v.a. de Bernoulli de paramètre p qui prend la valeur 0 si elle est gram (-) et 1 si elle est gram (+). Onappelle Xi la variable aléatoire attachée à la iieme` bactérie. En supposant que les bactéries sont indépendantes on a:
Xn
X = Xi » B(n; p):
i=1
X représente ici le nombre total de bactéries gram (+) parmi les N con-sidérées.
…
Figure 2.2: Forme de la loi binomiale pour différentes valeurs du paramètre p.
2.1.3 Loi hypergéométrique
Pour bien faire comprendre la loi hypergéométrique prenons un petit exemple. Supposons que vous ayez à évaluer la prévalence des mammites de la vache en Midi-Pyrénées. On sait que dans cette région il y a N vaches. Parmi ces vaches N1 sont atteintes et N2 sont saines (on a évidemment N1 + N2 = N:) Vous ne pouvez pas contrôler toutes les vaches de Midi-Pyrénées, vous êtes donc obligé de prendre un échantillon de taille n < N: On appelle X le nombre de vaches à mammite que vous avez trouvé dans votre échantillon. X2 est une quantité aléatoire, en effet, si vous faites plusieurs fois des échantillons de taille n, vous ne retrouvez pas à chaque fois le même nombre de vaches atteintes. On s’interesse aux probabilités suivantes P (X = k) k varie entre 0 et N1^n. Il y a CNn façons de tirer un échantillon de taille n parmi les N vaches de M.P.
Sommaire
1 Statistiques descriptives 7
1.1 Description numérique . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Paramètres de position . . . . . . . . . . . . . . . . . . 8
1.1.2 Paramètres de dispersion . . . . . . . . . . . . . . . . . 10
1.1.3 Paramètres de forme . . . . . . . . . . . . . . . . . . . 11
1.2 Description graphique . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 Description de la densité . . . . . . . . . . . . . . . . . 12
1.2.2 Description de la fonction de répartition . . . . . . . . 13
2 Le zoo des lois de probabilité 17
2.1 Lois de probabilité discrètes . . . . . . . . . . . . . . . . . . . 18
2.1.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . 21
2.1.2 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.3 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . 23
2.1.4 Loi de Poisson ou loi des événements rares . . . . . . . 24
2.1.5 Loi binomiale négative . . . . . . . . . . . . . . . . . . 26
2.1.6 Loi de Pascal . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Quelques lois de probabilité continues . . . . . . . . . . . . . . 28
2.2.1 Quelques définitions préliminaires . . . . . . . . . . . . 28
2.2.2 Loi normale ou de Laplace Gauss . . . . . . . . . . . . 30
2.2.3 Loi du χ. . . . . . . . . . . . 33
2.2.4 Loi de Student . . . . . . . . . . . . . . . . . . . . . . 34
2.2.5 Loi de Fisher . . . . . . . . . . . . . . . . . . . . . . . 34
2.3 Quelques remarques sur l’opérateur IE . . . . . . . . . . . . . 35
2.4 Lois à deux dimensions . . . . . . . . . . . . . . . . . . . . . . 36
2.4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.2 Loi normale a deux dimensions . . . . . . . . . . . . . 40
3 Estimation 43
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Estimateur convergent . . . . . . . . . . . . . . . . . . . . . . 44
3.3 Estimateur sans biais . . . . . . . . . . . . . . . . . . . . . . . 46
3.4 Estimateur de variance minimum . . . . . . . . . . . . . . . . 48
3.5 Une méthode générale d’estimation : le maximum de vraisemblance . . . . . . . . . . . . . . . . . . 50
3.6 Une bricole sur le théorème central limit . . . . . . . . . . . . 52
3.7 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.7.1 Estimation des paramètres d’une loi normale . . . . . . 53
3.7.2 Estimation d’un pourcentage . . . . . . . . . . . . . . . 57
4 Tests d’hypotheses 61
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 Hypothèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3 Définition des risques . . . . . . . . . . . . . . . . . . . . . . . 64
4.4 Ce qu’il ne faudrait pas croire . . . . . . . . . . . . . . . . . . 67
4.5 Tests paramétriques et non paramétriques . . . . . . . . . . . 68
4.6 Quelques remarques . . . . . . . . . . . . . . . . . . . . . . . . 68
5 Tests classiques 71
5.1 Comparaisons portant sur les variances . . . . . . . . . . . . . 71
5.1.1 Comparaison d’une variance à une valeur déterministe 71
5.1.2 Comparaison de deux variances . . . . . . . . . . . . . 72
5.1.3 Comparaison de plusieurs variances . . . . . . . . . . . 72
5.2 Comparaisons portant sur les moyennes . . . . . . . . . . . . . 74
5.2.1 Comparaison d’une moyenne à une valeur donnée m0 . 75
5.2.2 Comparaison de deux moyennes . . . . . . . . . . . . . 76
5.3 Comparaisons portant sur les proportions . . . . . . . . . . . . 79
5.3.1 Comparaison d’une proportion à une valeur donnée . . 79
5.4 Comparaison de deux proportions . . . . . . . . . . . . . . . . 80
5.5 Test de conformité a une loi de proba . . . . . . . . . . . . . . 83
5.5.1 Test de Kolmogorov-Smirnov (KS) . . . . . . . . . . . 83
5.5.2 Test du χ
2 pour une loi normale . . . . . . . . . . . . . 84
5.6 Comparaisons multiples . . . . . . . . . . . . . . . . . . . . . 85
5.6.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.6.2 Analyse de la variance . . . . . . . . . . . . . . . . . . 87
5.6.3 Estimation des paramètres . . . . . . . . . . . . . . . . 88
5.7 Tests d’hypothèses (paramétriques) . . . . . . . . . . . . . . . 91
5.7.1 Méthode des contrastes . . . . . . . . . . . . . . . . . . 92
5.7.2 Orthogonalité et indépendance . . . . . . . . . . . . . . 93
5.7.3 Plus petite différence significative (PPDS) . . . . . . . 94
5.7.4 Méthode de Bonferroni . . . . . . . . . . . . . . . . . . 96
5.7.5 Méthode de Newman-Keuls . . . . . . . . . . . . . . . 97
5.7.6 Méthode de Duncan . . . . . . . . . . . . . . . . . . . 99
5.7.7 Méthode de Tuckey . . . . . . . . . . . . . . . . . . . . 99
5.7.8 Méthode de Dunnett . . . . . . . . . . . . . . . . . . . 99
5.8 Quelques tests non parametriques . . . . . . . . . . . . . . . . 100
5.8.1 Tests sur échantillons appariés . . . . . . . . . . . . . . 101
5.8.2 Tests sur échantillons indépendants . . . . . . . . . . . 102