Support de cours en statistique inductive

Support de cours en statistique inductive
Section 1. Le hasard comme une forme de déterminisme
On a coutume de penser qu'il existe un continuum allant du simple au complexe. Les phénomènes simples sont ceux qui sont parfaitement prévisibles, comme le levé du soleil, la réflexion de la lumière sur un miroir et les arcs réflexes. On appelle ces phénomènes des systèmes déterministes car les relations de causes à effets sont parfaitement bien identifiées et qu'aucun aléa n'entre en ligne de compte. À l'autre extrême, les phénomènes complexes regroupent les événements très difficiles, voir impossibles à prévoir. De bons exemples sont: la météo à moyen terme: pleuvra-t-il dans 14 jours? La turbulence dans l'écoulement d'un cours d'eau: la goutte de colorant rouge ira-t-elle à droite ou à gauche du rocher? Ces systèmes sont aussi appelés des systèmes chaotiques ou dynamiques.
Le summum d'un système complexe serait un système où il est impossible de prévoir le résultat. Par exemple, le lancer à pile ou face: il est impossible de prévoir le côté si le lancé est bien fait. Cependant, un paradoxe apparaît: les systèmes les plus imprévisibles sont aussi les plus prévisibles à longue échéance: Sur 10 000 lancés à pile ou face, vous aurez for probablement une proportion très proche de 5000 piles, ± 1 %. La précision est presque aussi grande que pour un système déterministe. Les distributions comme la binomiale B, la normal N ou la Weibull W sont en fait les lois du hasard.
Les systèmes les plus complexes ne sont pas les systèmes aléatoires. Ils se trouvent en fait à mi-chemin entre les systèmes déterministes et les systèmes chaotiques. La turbulence de l'eau n'est pas chaotique parce qu'on ne connaît pas les équations de l'écoulement de l'eau, au contraire, mais à cause du trop grand nombre de degré de liberté impliquée (chaque molécule). Le cerveau est l'exemple ultime d'un système dynamique: bien que le comportement des neurones soit relativement bien compris, nous sommes loin d'une théorie de l'esprit.
Section 2. Objectifs et méthodes de l’inférence statistique
2.1.L'objectif général de la méthode statistique
L'objectif de base de l'inférence statistique est de tester une idée que nous avons sur le monde. Que nous pensions que la terre tourne, que la matière est composée de Quark ou que l'esprit humain ne résulte que des neurones de nos cerveaux, il faut pour en avoir le cœur net procéder à toute une démarche formelle qui vérifiera ou invalidera notre intuition. Cette démarche formelle, qu'on appelle la démarche scientifique, est nécessaire parce que le monde est complexe, et par simple observation, il n'est pas possible de voir directement si nos intuitions sont vraies. Par exemple, Foucault a déterminé que si la terre tourne belle et bien, un gigantesque pendule devrait avoir des oscillations qui varient selon la latitude. Cette idée constitue une hypothèse formelle indiscutable. Par ailleurs, nous ne connaissons toujours pas comment démontrer si la matière est constituée de Quark. Cette idée scientifique ne conduit pas à des hypothèses qui puissent être confrontées avec la réalité.
À la base de la démarche, il faut premièrement mettre de l'ordre dans nos intuitions pour en arriver à des hypothèses formelles. Ces hypothèses formelles sont importantes pour enlever la part de subjectivité, la part d'interprétation libre. Par ailleurs, il faut aussi simplifier la complexité du monde en déterminant dans quel sous-ensemble de situations nous allons procéder à l'observation. Il s'agit de décider des conditions expérimentales dans lesquelles nous allons prélever un échantillon d'observation. Alors que la méthode statistique indique comment procéder à l'énoncé d'hypothèses formelles, la méthode scientifique aide à décider des conditions expérimentales. La Figure 1 montre la dichotomie entre les deux mondes.
…
La dernière étape est de confronter l'hypothèse de recherche avec l'échantillon. Seulement à cette dernière étape a-t-on une rencontre entre l'intuition et la réalité. Il faut alors décider: le monde observé est compatible avec notre intuition ou il ne l'est pas. La décision est toute ou rien, oui ou non.
2.2.Les objectifs spécifiques de la méthode statistique
Jusqu’à présent, nous avons vu en probabilité les lois qui indiquent comment se distribuent les valeurs dans une large population. Ces populations sont généralement spécifiées par un ou quelques paramètres, que ce soit µ et σ pour une population normalement distribuée, ou encore α, β, et γ pour les extrêmes d'une population (suivant la distribution de Weibull). Cependant, dans les faits, on peut avoir une idée de la forme de la distribution d’une population, mais certainement pas la valeur exacte de ses paramètres. Le travail du scientifique étant d’arriver à des assertions vraies et générales (portant sur la population entière) et non pas de faire des assertions vraies sur l’échantillon qu’il a obtenu, il doit pouvoir inférer à partir de son échantillon des vérités sur la population. La statistique inductive se charge de ce passage de l’échantillon à la population entière.
Le but de l’inférence statistique est d’inférer, à partir d’un échantillon, les valeurs probables des paramètres d’une population.
Les statistiques descriptives nous permettent de connaître les caractéristiques de notre échantillon. Il peut parfois être intéressant d’obtenir des informations sur un échantillon, mais la plupart du temps, on s’intéresse à un ensemble beaucoup plus large, la population entière. Puisque les populations sont souvent trop vastes pour qu’on puisse en mesurer directement les paramètres, on doit les estimer à partir des seules informations disponibles, celles qui proviennent d’échantillons.
L’échantillon tente de nous donner des informations sur la population (tel la moyenne et la variance), les vrais paramètres d’une population étant souvent inconnus. Peut-on conclure
par exemple que la moyenne µ = X la moyenne de notre échantillon? Jusqu’à quel point peut-on être confiant de cette inférence? Si quelqu’un d’autre affirme qu’en réalité, µ est un millième plus petit, est-t-il possible qu’il ait raison lui aussi? Si un autre encore affirme que µ devrait être de tant, peut-on le discréditer? La Figure 2 montre un échantillon provenant d’une population.
Population
µσ inconnus
Échantillon
X t n−1X
Figure 2 : Relation entre population et échantillon
Par exemple, en période électorale, les politiciens aimeraient bien connaître l’intention de vote de toute la population. Ils doivent pourtant se contenter des mesures prises par les maisons de sondage sur des échantillons limités.
Un autre exemple de statistiques inductives concerne les manipulations du chercheur (que ce soit un traitement ou autre). Pour savoir si un traitement a vraiment le potentiel d’aider les gens, on veut savoir si µT diffère de µR, toutes choses étant égales par ailleurs. Encore une fois, la seule source d’évidence que nous aillons est notre échantillon avec ses
statistiques descriptives, tel X et Y . Comme il est somme toute impossible que X soit exactement égal à Y , quelle différence sommes nous prêt à accepter pour que les deux populations soient considérées comme différentes? À l'opposée, quelles différences sont jugées insignifiantes? Voir la Figure 3.
…
2.3.Méthodes des statistiques inductives
Pour bien faire les choses, il faut passer par quatre étapes.
Poser les hypothèses de travail
Les tests statistiques sont des tests d’hypothèses parce que leur application peut conduire au rejet de l’hypothèse nulle (H0). L’hypothèse nulle stipule toujours qu’il n’existe pas de différence à part les différences produites par le hasard de l’échantillonnage.
Des exemples d’hypothèses sont données par :
H0 : µ = µ0, où µ0est une valeur précisée préalablement par une théorie.
H0 :µ1 = µ2 , où les µ réfèrent à des populations d’où sont extraits des échantillons différents.
H0 : F = F0, où F fait référence à la distribution (cumulative) d’une population, et F0 est une distribution précisée préalablement par le chercheur.
Les hypothèses peuvent être très variables, mais H0 postule toujours une absence de différence.
Choisir le seuil de confiance dans notre décision
Pour déterminer si la différence est significative (probablement pas due au hasard), il faut d’abord choisir un seuil qui définit le risque d’erreur qu’on est prêt à accepter. Ce seuil de signification définit la région de rejet de l’hypothèse nulle. Par convention, on utilise en général un seuil de 10%, 5% ou 1%. L’hypothèse nulle sera rejetée si la différence observée a une probabilité très faible de se produire par pur hasard (inférieur au seuil). Si l’hypothèse nulle est rejetée, l’hypothèse alternative (H1) est acceptée, ce qui veut dire qu’il est permis de penser que les deux échantillons proviennent de populations différentes. Les deux populations sont alors significativement différentes pour au moins un de leur paramètre. Comme il est impossible d’être toujours parfaitement confiant dans notre décision, nous choisissons à priori un seuil α de confiance (ex. 5%) tel que notre conclusion serait correcte 95% du temps, si seulement le hasard contamine notre échantillon. Nous verrons plus loin qu’il existe toujours un risque d’erreur dont il est important de tenir compte.
Chercher le test adéquat en fonction des hypothèses et du seuil
Il est nécessaire de connaître suffisamment la population pour pouvoir émettre des postulats. Est-elle une suite d’essai de Bernoulli? Est-elle distribuée normalement? Par souci de généralité, on va préférer des postulats très généraux, comme c’est le cas pour la plus haute marée annuelle, où le seul postulat nécessaire est que notre mesure est la plus grande marée observée dans toute l’année (auquel cas, la population des plus hautes marées se distribue comme une Weibull). Un autre exemple a lieu lorsque nous affirmons que notre variable est aléatoire à cause d’un grand nombre d’effets sous-jacents non observables individuellement. Nous postulons donc, grâce à l’approximation normale de la distribution binomiale, que les mesures sont normalement distribuées. Parfois, des approximations sont nécessaires comme lorsque l’on souhaite comparer des notes. Le professeur va postuler une distribution normale alors qu’il n’est pas claire pour un examen avec peu de questions que l’approximation normale de la binomiale est valide. Finalement, comme nous le verrons au cours 5, il y a des cas où des postulats sur la statistique plutôt que sur la population d’où est
tirée cette statistique soit suffisants (par exemple, sur la distribution des moyennes X ), peu importe la population d’origine.
Bien identifier les postulats peut parfois être difficile, mais si on utilise un test alors que le postulat sous-jacent à ce test n’est pas satisfait, on se trouve à tirer des conclusions qui ne sont pas fondées.
Un test statistique n'est rien de plus qu'une recette qu’on applique. Il se formule toujours suivant une règle du genre : « Rejeter H0 si k > s(α) ». Dans cette formulation, k est une
statistique (spécifiée par le test) qui peut être une statistique simple (comme X ) ou plus complexe (comme G2 ou F). La façon d’obtenir la valeur critique est aussi spécifiée par le test, et dépend uniquement de notre seuil α choisi à priori (et non pas de l’échantillon) et du type de test. Un test bien fait garanti que la probabilité de rejeter H0 alors que H0 est vrai (dû à des fluctuations de l’échantillon) n’excède pas α ( Pr{ rejet H0 | H0 } ≤ α ). Bien entendu, ceci suppose que l’échantillon est représentatif, choisi sans biais, et que des contrôles sont en place. Ces derniers facteurs (facteurs externes à la méthode statistiques) ne peuvent pas être quantifiés par le test statistique et sont donc la responsabilité du chercheur (ce sont des facteurs liés à la méthode expérimentale).
Autrement dit, nous voulons un test qui quantifie la probabilité d’obtenir une certaine différence par pur hasard. Si cette probabilité est faible, c’est à dire si cet événement est improbable, nous concluons que la différence est significative.
Une autre façon de voir la chose est d’imaginer la statistique k (par exemple, la moyenne) si nous pouvions répéter l’expérience un grand nombre de fois. Il est certain que d’un échantillon à l’autre, la statistique variera légèrement. En fait, nous pourrions faire la distribution de notre statistique. Sur la figure ci-contre, nous illustrons une distribution (quelconque) censée représenter la répartition des k après une infinité de réplication. Il arrivera bien quelques fois que k soit anormalement grand par pur hasard. En fait, si l’on fait effectivement ces nombreuses réplications, on pourrait trouver une valeur z tel que k ne l’excède pas dans 95% des situations. Dans ces cas, étant peu probable que k excède cette valeur par pur hasard, on est plus enclin à penser que k l’excède à cause de notre manipulation expérimentale. L’endroit où on coupe est la valeur critique, appelé ci-haut s
( α ).
Dans les faits, on ne répète pas une expérience un grand nombre de fois pour savoir où placer la valeur critique mais on se fie plutôt sur les postulats qui permettent d’établir la distribution théorique de k.
Les tests statistiques sont parfois distribués en deux catégories. Ce sont les tests paramétriques et les tests non-paramétriques. De façon superficielle, un test paramétrique permet de prendre une décision sur la valeur d’un paramètre d’une population. Par exemple, si notre population est une distribution normale (avec donc les paramètres µ et σ ), poser un diagnostic sur la valeur probable de µ exige un test paramétrique. Par contre, si l’on souhaite faire un test sur la médiane, puisque la médiane n’est pas un paramètre définissant une population normale, on pose alors un diagnostic non paramétrique à l’aide d’un test non paramétrique.
Appliquer le test et conclure
En suivant la recette identifiée lors du choix du test, le chercheur calcule à partir de son échantillon la bonne statistique k. Il trouve aussi (souvent à partir de tables) la valeur critique s(α). La conclusion découle de la comparaison entre la statistique empirique et la valeurcritique.
2.4.Les risques d’erreurs
Lorsque nous portons un jugement sur l’hypothèse H0, il est facile de voir que cela comporte un risque. En fait, deux types d’erreurs sont possibles : L’erreur α (ou erreur de type I) et l’erreur β (ou l’erreur de type II).
L’erreur α est commise lorsque l’on rejette H0 alors qu’en réalité cette hypothèse est vraie. Elle est donc commise lorsqu’on croit que la différence observée découle d’une différence significative alors qu’elle est due au hasard. Cette erreur est heureusement quantifiable en terme de probabilité (grâce à nos postulats), puisqu’il s’agit du seuil de signification utilisé. Le chercheur décide donc lui-même du risque à prendre de commettre l’erreur α.
De même, il peut arriver de ne pas rejeter l’hypothèse nulle alors que cette hypothèse est fausse. Cette erreur est commise lorsqu’on croit que la différence observée (étant faible) est due au hasard alors qu’en fait elle résulte de différences dans les populations. Il s’agit alors d’une erreur β.
…
Les erreurs α et β sont étroitement liées. Ainsi, moins le seuil de signification α est sévère (i.e. un seuil à 10% plutôt qu’à 5%) plus il est risqué de commettre l’erreur α. Inversement, plus le seuil est sévère (i.e. un seuil à 1% plutôt que 5%), plus on risque de commettre l’erreur β.
On illustre sur la Figure 5 cet espèce de trade-off entre l’erreur α et β. La distribution de gauche donne la distribution de notre statistique si l’hypothèse H0 est vraie. La distribution de droite donne la distribution de k si H0 n’est pas vraie. La ligne verticale représente la position de notre valeur critique. La zone hachurée indique le fait que notre statistique k peut parfois être petite (par pur hasard) quand H0 est faux, si petite en fait qu’elle sera inférieure à notre valeur critique. Dans ce cas, on croira que k est probablement le résultat d’une population où H0 est vrai, de façon erronée (erreur β). De même, il peut arriver que sous H0, k soit particulièrement élevé, laissant croire qu’il résulte probablement d’une différence réelle, et non pas du simple hasard (erreur α). Si l’on choisit un seuil α plus sévère (par exemple 1% au lieu de 5%), on se trouve à déplacer la valeur critique s ( α ) vers la droite (et la zone grise aura une surface de 1%). On risque alors de faire moins d’erreur α (car il est encore moins probable que k excède la valeur critique par pur hasard) mais la probabilité de faire une erreur β s’accroît (quand H1 est vrai, k n’a pas besoin d’être aussi petit pour excéder s ( α ) si on le déplace vers la droite). Tout l’argument s’inverse si l’on choisit un α moins sévère (10% au lieu de 5% par exemple).
…
Alors que l’on connaît la probabilité de faire l’erreur α, il est difficile de quantifier la probabilité de faire l’erreur β. En effet, on peut préciser la distribution théorique de k sous H0 car l’hypothèse nulle spécifie une situation précise. Par contre, l’hypothèse alternative est vague, d’où l’impossibilité d’établir avec précision la distribution des valeurs de k quand H1 est vrai. Nous verrons à la fin du cours des heuristiques pour quantifier la probabilité d’une erreur β et en réduire le risque.
Lors de la planification d’un test statistique (étape b), le seuil de signification est établi en fonction des conséquences possible de l’une ou l’autre de ces deux erreurs. Si le rejet de l’hypothèse nulle, lorsqu’elle est vraie, cause un résultat catastrophique, la valeur α doit être relativement petite (plutôt 0.01). D’autre part, si le non-rejet de l’hypothèse nulle, alors qu’elle est vraie, entraîne une plus grande catastrophe, il faut choisir un seuil de signification moins sévère (disons 0.10).
Il arrive qu’il soit plus grave de commettre une de ces deux erreurs que l’autre, mais en général, l’impact de l’une ou l’autre de ces erreurs est tout aussi important. Il s’agit d’essayer de concilier les deux risques. C’est généralement le cas en psychologie où les seuils choisis varient entre 0.05 et 0.01. Voici un exemple où l’on doit concilier les deux sources d’erreurs.
Une compagnie pharmaceutique produit un médicament destiné à guérir un certain type de cancer. Ce médicament semble efficace mais comporte certains effets secondaires. La compagnie veut donc vérifier statistiquement si ce médicament permet vraiment d’arrêter la maladie (H0 : le médicament n’a pas d’effet). Dans ce cas, si le seuil est trop élevé (disons 0.10), il existe un risque de commettre l’erreur α en rejetant H0 alors qu’elle est vraie. Une telle erreur amènera inutilement des malaises aux patients qui utiliseront ce médicament alors qu’il est inefficace. Par ailleurs, si le seuil de signification est trop sévère (0.001), il y a risque de ne pas rejeter H0 alors qu’elle est fausse et de commettre l’erreur β. On croira à tort que le médicament est inefficace alors que des personnes auraient pu être soignées.
Encadré \ : Tests unidirectionel vs. unicaudal
Deux autres façons de caractériser un test statistique est de dire (a) s'il est unidirectionnel ou bidirectionnel et (b) s'il est unicaudal ou bicaudal. Ces distinctions ne sont pas très importantes mais peuvent parfois aider à la compréhension. D'emblée, il faut dire que (a) n'est pas synonyme de (b).
(a) unidirectionnel vs. bidirectionnel
Cette distinction repose sur l'hypothèse alternative que nous opposons à H0. Souvent, nous voulons seulement savoir s'il existe une différence (et nous notons H1 en utilisant le signe ≠). Parfois, nous avons une hypothèse alternative plus précise qui spécifie que si différence il y a, elle ne peut être que positive (ou négative) et alors H1 utilise le signe > (ou <). Dans le premier cas, on appelle le test un test bidirectionnel et dans le premier, un test unidirectionnel (soit plus petit, soit plus grand).
(b) unicaudal vs. bicaudal
Ces termes indiquent quelle(s) extrémité(s) de la distribution est utilisée pour rejeter H0. En effet, pour certains tests, la distribution est symétrique et des valeurs très petites et très grandes sont toutes deux jugées suspectes. Pour d'autres distributions, seul des grandes valeurs sont suspectes et mènent au rejet de H0. C'est le cas de la distribution χ2 et F: puisque l'on met les termes au carré, il n'existe plus de différences négatives et une valeur basse (proche de zéro) signifie que H0 n'est pas rejetée. Dans ces deux cas, le test ne peut qu'être bidirectionnel quoique utilisant uniquement l'extrémité de droite de la distribution (unicaudal). De façon générale, un test bicaudal est forcément bidirectionnel mais un test unicaudal peut être aussi bien unidirectionnel que bidirectionnel.
Dans un test bicaudal, il faut deux seuils, un à droite et un à gauche de la distribution théorique, comme on le voit à la Figure 6. La probabilité de rejeter H0 doit être également répartie de chaque côté dans le cas d'un test bicaudal, d'où la valeur critique doit être choisie en fonction de α / 2.

…
Section 3. Tests utilisant la distribution binomiale
Nous présentons dans cette section trois tests, tous reliés à la distribution binomiale. Le premier permet de décider si une proportion observée est différente ou non d'une valeur pré-spécifiée. Les deux tests suivants sont des extensions du test binomial à la médiane et à des mesures du genre avant-après.
3.1.Test sur une proportion
Soit un chercheur souhaitant tester la proportion de personnes souffrant du syndrome de Bezières, un syndrome anodin, n’affichant aucun symptôme (et fictif) et pour lequel les gens vont rarement consulter. Suite aux recherches sur le génome humain, ce chercheur note que si le modèle standard de transmission des gènes est vrai, ce syndrome devrait être présent chez un quart de la population. Il procède donc à une première expérience, un test de dépistage génétique préliminaire sur un échantillon de 20 humains. Il observe 3 cas de syndrome de Bezières. Est-ce un résultat en faveur du modèle standard?
Ce qu’il faut ici, c’est un test de proportion, un test qui pourra nous dire si 3 sur 20 (15%) est significativement plus petit que 25%.
idée générale du test
Dans cette première expérience, le chercheur note le nombre de personnes qui souffrent du syndrome de Bezières en terme de« Succès » ou d'« Échec », c'est à dire, ayant ou n'ayant pas le syndrome. Le nombre total d'observations est noté n et le nombre de succès m.
Puisqu'il s'agit d'essais de Bernoulli, l'hypothèse que la proportion est de ¼ permet de tracer le graphe des histogrammes du nombre de succès attendu, dans ce cas-ci, une B(20, ¼):
Comme on le voit à la Figure 7, il est toujours possible, sur 20 essais de Bernoulli, d'obtenir 0 succès, mais la probabilité est petite (un coup d'œil à la Table 1 donne une probabilité d'environ 3 chances sur 1 000, moins de 1%). De la même façon, la probabilité d'avoir 14, 15, etc. succès est totalement négligeable (les probabilités sont de moins de 1 pour 10 000). Ces valeurs extrêmes sont excessivement non plausibles. Si on observe un nombre de succès dans ces zones, comme c'est trop improbable pour être le simple résultat du hasard (erreur d'échantillonnage), on conclue que la proportion de ¼ ne doit pas être vraie dans la population entière.
Valeur attendue: n p
…
Figure 8 : Zone de rejet, i. e. zone où la probabilité d’obtenir un certain résultat est inférieur à α.
On peut donc établir deux frontières (dans le cas d'un test bicaudal) pour lesquelles, si la valeur observée en fait partie, on jugera l'hypothèse non plausible. Voir Figure 8.. Ces deux frontières délimitent ce qu'on appelle la zone de rejet; la position des frontières est données par s– et s+. Il est important de répartir de chaque côté la moitié de notre seuil α. En utilisant la Table 1, on calcule pour quels histogrammes la probabilité d'obtenir une valeur au delà vaut α / 2 (ou est le plus proche de α / 2 sans l'excéder).
- Structure du test
b.1.Postulat
Ce test est basé sur le postulat que chaque essai est un essai de Bernoulli, c'est à dire qu'il ne peut y avoir que deux résultats: succès ou échec pour chaque mesure. On note par n le nombre total d'observations et par m le nombre de succès.
b.2.Hypothèses et seuil
L’hypothèse nulle est que la population montre une proportion p0 de gens souffrant de ce syndrome, cette valeur étant déduite des travaux du chercheur. L’hypothèse alternative est soit (unidirectionnel) (a) la proportion réelle dans la population est plus grande, (b) la proportion réelle est plus faible, ou (bidirectionnel) (c) la proportion est différente, plus grande ou plus basse. Dans le cas (c), le test est dit bicaudal puisqu’il teste la possibilité de différences à un ou l’autre bout de la distribution. Autrement dit, on rejette H0 si la statistique observée m est supérieure, inférieur ou supérieure ou inférieur à une valeur critique. On note, selon le cas H0 : p = p0, et (a) H1: p > p0 , (b) H1: p < p0 ou (c) H1: p ≠ p0.
La valeur p0 est une constante précisée par le chercheur selon des considérations théoriques seulement. Le choix de l’hypothèse alternative (unidirectionnel ou bidirectionnel) dépend aussi de considérations à priori. Dans notre exemple sur le syndrome de Bezières, si le modèle standard est faux, n'importe quelle proportion est possible, le chercheur opte donc pour un test bidirectionnel:
H0 : p = ¼ H1: p ≠ ¼
Concernant le seuil, puisqu’il n’y a pas de vies en jeu, et que l’expérience met en jeu des techniques de manipulation génétique assez routinière, il n’y a pas lieu de choisir un seuil très élevé ou très bas. Il choisi le seuil standard α = 0.05.
b.3.Chercher le test
Le test est de la forme :
m ≥s+(α/ 2) Rejet de H0 si oum ≤s−(α/ 2)
pour lequel la valeur m ~ B(n, p0 ). Notez qu'ici, le test utilise ≤ et ≥ plutôt que < et > car la frontière est incluse dans la zone de rejet. Après un examen dans une table B(20, ¼ ), le chercheur trouve d'un côté que la probabilité d’obtenir 0 ou 1 succès est de 2.43% alors que la probabilité de 0, 1 ou 2 succès excède α / 2. De l'autre côté, la probabilité d'obtenir 10 succès ou plus est de 1.39% (0.0099 + 0.0030 + 0.0008 + 0.0002 + 0.0000) alors que la probabilité de 9
PSY 1004 Techniques d’analyses en psychologie succès ou plus excède α / 2. La zone de rejet est donc à droite [0..1] et à gauche, [10..20]. Les frontières sont s-(α / 2) = 1 et s+(α / 2) = 10.
b.4.Appliquer le test et conclure
Le test est facile, puisque la seule statistique nécessaire est le nombre de succès m. Nous avons vu que m = 3, qui n'est pas dans une ou l'autre zone de rejet. Le chercheur conclu que les résultats obtenus ne remettent pas en cause le modèle standard (non rejet de H0).
3.2.Test non paramétrique sur la médiane
La plupart des tests du cours 5 et suivants sont des tests sur la moyenne. Cependant, il arrive des situations où la population d’où provient l’échantillon a une distribution très asymétrique. Dans ce cas, les postulats à la base de ces tests sont invalidés. Une alternative est d’utiliser le test sur la médiane qui suit. Ce test n’est pas aussi puissant, mais il est valable peu importe la population de base. Un exemple de population problématique pour un test de moyenne est le revenu annuel. En effet, dans la population nord-américaine, le revenu est en général assez faible (de l’ordre de 20 à 40 K$). Cependant, il existe une petite quantité de millionnaire, et aussi des milliardaires. Pour un milliardaire et mille personnes avec un revenu de 10 K$, le revenu moyen est supérieur à 1 000 000 $! Dans ce contexte, la moyenne comme estimateur de la tendance centrale est loin de représenter la tendance centrale telle que je la vois…
Table des matières
Section 1. Le hasard comme une forme de déterminisme............................ 3
Section 2. Objectifs et méthodes de l’inférence statistique.......... 3
2.1. L'objectif général de la méthode statistique................. 3
2.2. Les objectifs spécifiques de la méthode statistique ..................... 4
2.3. Méthodes des statistiques inductives .......... 6
a. Poser les hypothèses de travail................. 6
b. Choisir le seuil de confiance dans notre décision................. 6
c. Chercher le test adéquat en fonction des hypothèses et du seuil ........... 7
d. Appliquer le test et conclure.................. 8
2.4. Les risques d’erreurs ..................... 8
Encadré \ : Tests unidirectionel vs. unicaudal........... 10
Section 3. Tests utilisant la distribution binomiale..................... 11
3.1. Test sur une proportion .............. 11
a. idée générale du test................ 11
b. Structure du test ................... 13
3.2. Test non paramétrique sur la médiane....................... 14
a. idée générale du test................ 15
b. Structure du test ................... 15
3.3. Test non paramétrique sur observations couplées .................... 17
a. Idée du test............... 17
b. Structure du test ................... 18
] Le travail de l'analyse statistique ............. 20
Section 4. Tests utilisant l'approximation normale de la binomiale ......... 21
4.1. Test sur une proportion .............. 21
a. idée générale du test................ 21
b. Structure du test ................... 22
4.2. Test sur deux proportions .......... 24
PSY 1004 Techniques d’analyses en psychologie
Cours 4. Statistiques inductives 2
a. idée générale du test................ 24
b. Structure du test ................... 25
4.3. Test sur la médiane utilisant l'approximation normale et test sur observations couplées utilisant l'approximation normale........ 26
Section 5. Conclusion ................... 26
Exercices ................ 27
ing: 0px; -webkit-text-stroke-width: 0px;">Le test est facile, puisque la seule statistique nécessaire est le nombre de succès m. Nous avons vu que m = 3, qui n'est pas dans une ou l'autre zone de rejet. Le chercheur conclu que les résultats obtenus ne remettent pas en cause le modèle standard (non rejet de H0).
3.2.Test non paramétrique sur la médiane
La plupart des tests du cours 5 et suivants sont des tests sur la moyenne. Cependant, il arrive des situations où la population d’où provient l’échantillon a une distribution très asymétrique. Dans ce cas, les postulats à la base de ces tests sont invalidés. Une alternative est d’utiliser le test sur la médiane qui suit. Ce test n’est pas aussi puissant, mais il est valable peu importe la population de base. Un exemple de population problématique pour un test de moyenne est le revenu annuel. En effet, dans la population nord-américaine, le revenu est en général assez faible (de l’ordre de 20 à 40 K$). Cependant, il existe une petite quantité de millionnaire, et aussi des milliardaires. Pour un milliardaire et mille personnes avec un revenu de 10 K$, le revenu moyen est supérieur à 1 000 000 $! Dans ce contexte, la moyenne comme estimateur de la tendance centrale est loin de représenter la tendance centrale telle que je la vois…