Les bases de la statistique pour débutant
Chapitre 1 Introduction
1.1 Définition et domaines d’application de la statistique
La statistique est la science dont l’objet est de recueillir, de traiter et d’analyser des données issues de l’observation de phénomènes aléatoires, c’est-à-dire dans lesquels le hasard intervient. L’analyse des données est utilisée pour décrire les phénomènes étudiés, faire des prévisions et prendre des décisions à leur sujet. En cela, la statistique est un outil essentiel pour la compréhension et la gestion des phénomènes complexes. Les données étudiées peuvent être de toute nature, ce qui rend la statistique utile dans tous les champs disciplinaires et explique pourquoi elle est enseignée dans toutes les filières universitaires, de l’économie à la biologie en passant par la psychologie, et bien sûr les sciences de l’ingénieur.
Donnons quelques exemples d’utilisation de la statistique dans divers domaines.
• économie, assurance, finance : prévisions économétriques, analyse de la consommation des ménages, fixation des primes d’assurance et franchises, études quantitatives de marchés, gestion de portefeuille, évaluation d’actifs financiers, ...
• biologie, médecine : essais thérapeutiques, épidémiologie, dynamique des populations, analyse du génôme, ...
• sciences de la terre : prévisions météorologiques, exploration pétrolière, ...
• sciences humaines : enquêtes d’opinion, sondages, études de populations, ...
• sciences de l’ingénieur : contrôle de qualité, maîtrise statistique des procédés (méthode “six-sigma”), sûreté de fonctionnement (fiabilité, disponibilité, sécurité,...), maî- trise des risques industriels, évaluation des performances des systèmes complexes, ...
• sciences de l’information et de la communication : traitement des images et des signaux, reconnaissance des formes et de la parole, analyse exploratoire des grandes bases de données, analyse des réseaux de communication, ...
• physique : mécanique statistique, théorie cinétique des gaz, ...
• etc...
Le point fondamental est que les données sont entâchées d’incertitudes et présentent des variations pour plusieurs raisons :
• le déroulement des phénomènes observés n’est pas prévisible à l’avance avec certitude (par exemple on ne sait pas prévoir avec certitude les cours de la bourse ou les pannes des voitures)
• toute mesure est entâchée d’erreur
• seuls quelques individus sont observés et on doit extrapoler les conclusions de l’étude à toute une population (contexte des sondages)
• etc...
Il y a donc intervention du hasard et des probabilités. L’objectif essentiel de la statistique est de maîtriser au mieux cette incertitude pour extraire des informations utiles des données, par l’intermédiaire de l’analyse des variations dans les observations.
Nous ne nous intéresserons pas à la collecte des données, qui est une tâche importante et difficile, mais qui ne relève pas des mathématiques. Si on omet la collecte des données, les méthodes statistiques se répartissent en deux classes :
• La statistique descriptive, statistique exploratoire ou analyse des données, a pour but de résumer l’information contenue dans les données de fa¸con synthétique et efficace. Elle utilise pour cela des représentations de données sous forme de graphiques, de tableaux et d’indicateurs numériques (par exemple des moyennes). Elle permet de dégager les caractéristiques essentielles du phénomène étudié et de suggérer des hypothèses pour une étude ultérieure plus sophistiquée. Les probabilités n’ont ici qu’un rôle mineur.
• La statistique inférentielle va au delà de la simple description des données. Elle a pour but de faire des prévisions et de prendre des décisions au vu des observations. En général, il faut pour cela proposer des modèles probabilistes du phénomène aléatoire étudié et savoir gérer les risques d’erreurs. Les probabilités jouent ici un rôle fondamental.
Pour le grand public, les statistiques désignent les résumés de données fournis par la statistique descriptive. Par exemple, on parle des “statistiques du chômage” ou des “statistiques de l’économie américaine”. Mais on oublie en général les aspects les plus importants liés aux prévisions et à l’aide à la décision apportés par la statistique inférentielle. L’informatique et la statistique sont deux éléments du traitement de l’information : l’informatique acquiert et traite l’information tandis que la statistique l’analyse. Les deux disciplines sont donc étroitement liées. En particulier, l’augmentation considérable de la puissance des ordinateurs et la facilité de transmission des données par internet ont rendu possible l’analyse de très grandes masses de données, ce qui nécessite l’utilisation de méthodes de plus en plus sophistiquées, connues sous le nom de data mining ou fouille de données. Enfin, l’informatique décisionnelle ou business intelligence regroupe les outils d’aide à la décision devenus essentiels dans la gestion des entreprises. Ces outils nécessitent un recours important aux méthodes statistiques. Plus généralement, tout ingénieur est amené à prendre des décisions au vu de certaines informations, dans des contextes o`u de nombreuses incertitudes demeurent. Il importe donc qu’un ingénieur soit formé aux techniques de gestion du risque et de traitement de données expérimentales.
1.2 La démarche statistique
La statistique et les probabilités sont les deux aspects complémentaires de l’étude des phénomènes aléatoires. Ils sont cependant de natures bien différentes. Les probabilités peuvent être envisagées comme une branche des mathématiques pures, basée sur la théorie de la mesure, abstraite et complètement déconnectée de la réalité. Les probabilités appliquées proposent des modèles probabilistes du déroulement de phénomènes aléatoires concrets. On peut alors, préalablement à toute expérience, faire des prévisions sur ce qui va se produire.
Par exemple, il est usuel de modéliser la durée de bon fonctionnement ou durée de vie d’un système, mettons une ampoule électrique, par une variable aléatoire X de loi exponentielle de paramètre λ. Ayant adopté ce modèle probabiliste, on peut effectuer tous les calculs que l’on veut. Par exemple :
• la probabilité que l’ampoule ne soit pas encore tombée en panne à la date t est P(X > t) = e −λt .
• la durée de vie moyenne est E(X) = 1/λ.
• Si n ampoules identiques sont mises en fonctionnement en même temps, et qu’elles fonctionnent indépendamment les unes des autres, le nombre Nt d’ampoules qui tomberont en panne avant un instant t est une variable aléatoire de loi binomiale B (n, P(X ≤ t)) = B n, 1 − e −λt . Donc on s’attend à ce que, en moyenne, E(Nt) = n 1 − e −λt ampoules tombent en panne entre 0 et t.
Dans la pratique, l’utilisateur de ces ampoules est très intéressé par ces résultats. Il souhaite évidemment avoir une évaluation de leur durée de vie, de la probabilité qu’elles fonctionnent correctement pendant plus d’un mois, un an, etc... Mais si l’on veut utiliser les résultats théoriques énoncés plus haut, il faut d’une part pouvoir s’assurer qu’on a choisi un bon modèle, c’est-à-dire que la durée de vie de ces ampoules est bien une variable aléatoire de loi exponentielle, et, d’autre part, pouvoir calculer d’une manière ou d’une autre la valeur du paramètre λ. C’est la statistique qui va permettre de résoudre ces problèmes. Pour cela, il faut faire une expérimentation, recueillir des données et les analyser.
On met donc en place ce qu’on appelle un essai ou une expérience. On fait fonctionner en parallèle et indépendamment les unes des autres n = 10 ampoules identiques, dans les mêmes conditions expérimentales, et on relève leurs durées de vie. Admettons que l’on obtienne les durées de vie suivantes, exprimées en heures :
91.6 35.7 251.3 24.3 5.4 67.3 170.9 9.5 118.4 57.1
Notons x1, . . . , xn ces observations. Il est bien évident que la durée de vie des ampoules n’est pas prévisible avec certitude à l’avance. On va donc considérer que x1, . . . , xn sont les réalisations de variables aléatoires X1, . . . , Xn. Cela signifie qu’avant l’expérience, la durée de vie de la i ème ampoule est inconnue et que l’on traduit cette incertitude en modélisant cette durée par une variable aléatoire Xi . Mais après l’expérience, la durée de vie a été observée. Il n’y a donc plus d’incertitude, cette durée est égale au réel xi . On dit que xi est la réalisation de Xi sur l’essai effectué.
Puisque les ampoules sont identiques, il est naturel de supposer que les Xi sont de même loi. Cela signifie qu’on observe plusieurs fois le même phénomène aléatoire. Mais le hasard fait que les réalisations de ces variables aléatoires de même loi sont différentes, d’o`u la variabilité dans les données. Puisque les ampoules ont fonctionné indépendamment les unes des autres, on pourra également supposer que les Xi sont des variables aléatoires indépendantes. On peut alors se poser les questions suivantes :
1. Au vu de ces observations, est-il raisonnable de supposer que la durée de vie d’une ampoule est une variable aléatoire de loi exponentielle ? Si non, quelle autre loi serait plus appropriée ? C’est un problème de choix de modèle ou de test d’adéquation.
2. Si le modèle de loi exponentielle a été retenu, comment proposer une valeur (ou un ensemble de valeurs) vraisemblable pour le paramètre λ ? C’est un problème d’estimation paramétrique.
3. Dans ce cas, peut-on garantir que λ est inférieur à une valeur fixée λ0 ? Cela garantira alors que E(X) = 1/λ ≥ 1/λ0, autrement dit que les ampoules seront suffisamment fiables. C’est un problème de test d’hypothèses paramétriques.
4. Sur un parc de 100 ampoules, à combien de pannes peut-on s’attendre en moins de 50 h ? C’est un problème de prévision.
Le premier problème central est celui de l’estimation : comment proposer, au vu des observations, une approximation des grandeurs inconnues du problème qui soit la plus proche possible de la réalité ? La première question peut se traiter en estimant la fonction de répartition ou la densité de la loi de probabilité sous-jacente, la seconde revient à estimer un paramètre de cette loi, la quatrième à estimer un nombre moyen de pannes sur une période donnée. Le second problème central est celui des tests d’hypothèses : il s’agit de se prononcer sur la validité d’une hypothèse liée au problème : la loi est-elle exponentielle ? λ est-il inférieur à λ0 ? un objectif de fiabilité est-il atteint ? En répondant oui ou non à ces questions, il est possible que l’on se trompe. Donc, à toute réponse statistique, il faudra associer le degré de confiance que l’on peut accorder à cette réponse. C’est une caractéristique importante de la statistique par rapport aux mathématiques classiques, pour lesquelles un résultat est soit juste, soit faux.
Pour résumer, la démarche probabiliste suppose que la nature du hasard est connue. Cela signifie que l’on adopte un modèle probabiliste particulier (ici la loi exponentielle), qui permettra d’effectuer des prévisions sur les observations futures. Dans la pratique, la nature du hasard est inconnue. La statistique va, au vu des observations, formuler des hypothèses sur la nature du phénomène aléatoire étudié. Maîtriser au mieux cette incertitude permettra de traiter les données disponibles. Probabilités et statistiques agissent donc en aller-retour dans le traitement mathématique des phénomènes aléatoires.
L’exemple des ampoules est une illustration du cas le plus fréquent o`u les données se présentent sous la forme d’une suite de nombres. C’est ce cas que nous traiterons dans ce cours, mais il faut savoir que les données peuvent être beaucoup plus complexes : des fonctions, des images, etc... Les principes et méthodes généraux que nous traiterons dans ce cours seront adaptables à tous les types de données.
1.3 Objectifs et plan du cours
Ce cours a pour but de présenter les principes de base d’une analyse statistique de données (description, estimation, tests), ainsi que les méthodes statistiques les plus usuelles. Ces méthodes seront toujours illustrées par des problèmes concrets, issus de l’informatique, la médecine, le contrôle de qualité, la physique, etc... Il ne s’agit pas de donner un catalogue de recettes. Les méthodes statistiques seront la plupart du temps justifiées mathématiquement, ce qui permettra d’éviter un certain nombre d’erreurs d’interprétation des résultats, fréquentes dans la pratique. Néanmoins, le cours privilégie l’application à la théorie. Les approfondissements théoriques seront étudiés dans les cours du 2ème semestre de Statistique Inférentielle Avancée et Analyse Statistique Multidimensionnelle. Les méthodes présentées seront mises en œuvre à l’aide du logiciel R. La plupart du temps, on associera à chaque méthode la syntaxe et les sorties (tableaux, graphiques) correspondantes de R. Le chapitre 2 présente les techniques de base en statistique descriptive, représentations graphiques et indicateurs statistiques. Le chapitre 3 est consacré aux problèmes d’estimation paramétrique ponctuelle, le chapitre 4 aux intervalles de confiance et le chapitre 5 aux tests d’hypothèses. Le dernier chapitre est consacré à une des méthodes statistiques les plus utilisées, la régression linéaire. Enfin, des annexes donnent quelques rappels de probabilités utiles en statistique, des tables des lois de probabilité usuelles et une courte introduction à R.
Table des matières
1 Introduction 7
1.1 Définition et domaines d’application de la statistique . . . . . . . . . . . . 7
1.2 La démarche statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Objectifs et plan du cours . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Statistique descriptive 13
2.1 Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Représentations graphiques . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Variables discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1.1. Variables qualitatives . . . . . . . . . . . . . . . . . . . . . 14
2.2.1.2. Variables quantitatives . . . . . . . . . . . . . . . . . . . . . 16
2.2.1.3. Choix d’un modèle probabiliste discret . . . . . . . . . . . . 16
2.2.2 Variables continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2.1. Histogramme et polygone des fréquences . . . . . . . . . . . 18
2.2.2.2. Fonction de répartition empirique . . . . . . . . . . . . . . 23
2.2.2.3. Les graphes de probabilités . . . . . . . . . . . . . . . . . . 23
2.3 Indicateurs statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.1 Indicateurs de localisation ou de tendance centrale . . . . . . . . . . 27
2.3.1.1. La moyenne empirique . . . . . . . . . . . . . . . . . . . . . 27
2.3.1.2. Les valeurs extrêmes . . . . . . . . . . . . . . . . . . . . . . 28
2.3.1.3. La médiane empirique . . . . . . . . . . . . . . . . . . . . . 28
2.3.1.4. Caractérisation des indicateurs de localisation . . . . . . . . 29
2.3.2 Indicateurs de dispersion ou de variabilité . . . . . . . . . . . . . . 30
2.3.2.1. Variance et écart-type empiriques . . . . . . . . . . . . . . . 30
2.3.2.2. L’étendue . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.2.3. Les quantiles empiriques . . . . . . . . . . . . . . . . . . . . 31
3 Estimation ponctuelle 35
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Méthodes d’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2.1 Définition d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.2 La méthode des moments . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.2.1. L’estimateur des moments (EMM) . . . . . . . . . . . . . . 36
3.2.2.2. Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.3 La méthode du maximum de vraisemblance . . . . . . . . . . . . . 38
3.2.3.1. La fonction de vraisemblance . . . . . . . . . . . . . . . . . 38
3.2.3.2. Exemple introductif . . . . . . . . . . . . . . . . . . . . . . 38
3.2.3.3. L’estimateur de maximum de vraisemblance (EMV) . . . . 39
3.2.3.4. Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3 Qualité d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 Estimateur sans biais et de variance minimale (ESBVM) . . . . . . 42
3.3.2 Quantité d’information, efficacité d’un estimateur . . . . . . . . . . 44
3.4 Propriétés des EMM et des EMV . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.1 Propriétés des estimateurs des moments . . . . . . . . . . . . . . . 46
3.4.2 Propriétés des estimateurs de maximum de vraisemblance . . . . . . 47
3.4.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4 Intervalles de confiance 51
4.1 Problématique et définition . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2 Intervalles de confiance pour les paramètres de la loi normale . . . . . . . . 52
4.2.1 Intervalle de confiance pour la moyenne . . . . . . . . . . . . . . . . 52
4.2.2 Intervalle de confiance pour la variance . . . . . . . . . . . . . . . . 55
4.3 Intervalle de confiance pour une proportion . . . . . . . . . . . . . . . . . . 56
5 Tests d’hypothèses 61
5.1 Introduction : le problème de décision . . . . . . . . . . . . . . . . . . . . . 61
5.2 Formalisation du problème de test paramétrique sur un échantillon . . . . 64
5.2.1 Tests d’hypothèses simples . . . . . . . . . . . . . . . . . . . . . . . 64
5.2.2 Tests d’hypothèses composites . . . . . . . . . . . . . . . . . . . . . 64
5.3 Tests sur la moyenne d’une loi normale . . . . . . . . . . . . . . . . . . . . 65
5.3.1 Exemple introductif : essais thérapeutiques . . . . . . . . . . . . . . 65
5.3.2 Première idée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.3.3 Deuxième idée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.3.4 Troisième idée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.3.5 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.3.6 La p-valeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.3.7 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.3.8 Les tests de Student . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.4 Lien entre tests d’hypothèses et intervalles de confiance . . . . . . . . . . . 71
5.5 Procédure pour construire un test d’hypothèses . . . . . . . . . . . . . . . 72
5.6 Tests sur la variance d’une loi normale . . . . . . . . . . . . . . . . . . . . 73
5.7 Tests sur une proportion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.8 Test de comparaison de deux échantillons . . . . . . . . . . . . . . . . . . . 75
5.8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.8.2 Comparaison de deux échantillons gaussiens indépendants . . . . . 76
5.8.2.1. Test de Fisher de comparaison des variances . . . . . . . . . 77
5.8.2.2. Test de Student de comparaison des moyennes . . . . . . . 79
5.8.3 Comparaison de deux proportions . . . . . . . . . . . . . . . . . . . 82
5.8.4 Comparaison d’échantillons gaussiens appariés . . . . . . . . . . . . 84
TABLE DES MATIERES 5 `
5.9 Le test du χ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.9.1 Le test du χ sur les probabilités d’évènements . . . . . . . . . . . . 85
5.9.2 Test d’adéquation du χ
2 à une loi entièrement spécifiée . . . . . . . 87
5.9.3 Test d’adéquation du χ
2 à une famille de lois . . . . . . . . . . . . . 88
6 La régression linéaire 91
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.2 Le modèle de régression linéaire simple . . . . . . . . . . . . . . . . . . . . 92
6.3 Estimation par la méthode des moindres carrés . . . . . . . . . . . . . . . 93
6.4 Le modèle linéaire simple gaussien . . . . . . . . . . . . . . . . . . . . . . . 100
6.4.1 Définition du modèle et estimation des paramètres . . . . . . . . . . 100
6.4.2 Maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . 100
6.4.3 Intervalles de confiance et tests d’hypothèses . . . . . . . . . . . . . 101
6.5 Etude complète de l’exemple en R . . . . . . . . . . . . . . . . . . . . . . . 104
7 Annexe A : Rappels de probabilités pour la statistique 109
7.1 Variables aléatoires réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.1.1 Loi de probabilité d’une variable aléatoire . . . . . . . . . . . . . . 109
7.1.2 Variables aléatoires discrètes et continues . . . . . . . . . . . . . . . 110
7.1.3 Moments et quantiles d’une variable aléatoire réelle . . . . . . . . . 111
7.2 Vecteurs aléatoires réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.2.1 Loi de probabilité d’un vecteur aléatoire . . . . . . . . . . . . . . . 112
7.2.2 Espérance et matrice de covariance d’un vecteur aléatoire . . . . . . 113
7.3 Convergences et applications . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.4 Quelques résultats sur quelques lois de probabilité usuelles . . . . . . . . . 115
7.4.1 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.4.2 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.4.3 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.4.4 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.4.5 Loi gamma et loi du chi-2 . . . . . . . . . . . . . . . . . . . . . . . 117
7.4.6 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.4.7 Lois de Student et de Fisher-Snedecor . . . . . . . . . . . . . . . . . 118
8 Annexe B : Lois de probabilité usuelles 119
8.1 Caractéristiques des lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . 119
8.1.1 Variables aléatoires réelles discrètes . . . . . . . . . . . . . . . . . . 119
8.1.2 Variables aléatoires réelles continues . . . . . . . . . . . . . . . . . . 120
8.1.3 Vecteurs aléatoires dans INd et dans IRd . . . . . . . . . . . . . . . . 121
8.2 Tables de lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.2.1 Table 1 de la loi normale centrée réduite . . . . . . . . . . . . . . . 122
8.2.2 Table 2 de la loi normale centrée réduite . . . . . . . . . . . . . . . 123
8.2.3 Table de la loi du χ. . . . . . . . . . . . . . . . . . . . . . . . . . 124
8.2.4 Table de la loi de Student . . . . . . . . . . . . . . . . . . . . . . . 125
8.2.5 Tables de la loi de Fisher-Snedecor . . . . . . . . . . . . . . . . . . 126
8.3 Exemples de représentations de probabilités et de densités . . . . . . . . . 128
6 TABLE DES MATIERES `
8.3.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8.3.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
9 Annexe C : Introduction à R 137
9.1 Les bases de R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.2 Commandes pour les deux premiers TD en R . . . . . . . . . . . . . . . . . 138
9.3 Quelques commandes utiles de R . . . . . . . . . . . . . . . . . . . . . . . . 139
9.4 Les lois de probabilité usuelles en R . . . . . . . . . . . . . . . . . . . . . . 140
9.5 Les principaux tests d’hypothèses en R . . . . . . . . . . . . . . . . . . . . 142
9.6 Les graphiques dans R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
9.6.1 Graphique simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
9.6.2 Autres fonctions graphiques . . . . . . . . . . . . . . . . . . . . . . 143
9.6.3 Paramétrage de la commande plot . . . . . . . . . . . . . . . . . . . 144
Bibliographie 145