Cours des elements et fondemen en economie du comportement


Télécharger Cours des elements et fondemen en economie du comportement

★★★★★★★★★★3.5 étoiles sur 5 basé sur 1 votes.
Votez ce document:

Télécharger aussi :


Cours des elements et fondemen en economie du comportement |

...

CHAPITRE 1 - REVUE DE LA LITTÉRATURE

1.1 – FONDEMENTS DE L’ÉCONOMIE COMPORTEMENTALE

« Since my world picture approximates reality only crudely, I cannot aspire to optimize anything; at most, I can aim at satisficing. Searching for the best can only dissipate scarce cognitive resources; the best is the enemy of the good. » - Herbert A. Simon

Bien que le domaine d’étude qu’est l’économie comportementale soit relativement nouveau, ses fondations remontent tout de même aux années 50 au moment où Herbert A. Simon (1957), scientifique social de renom, soumet l’idée de bounded rationality (rationalité limitée) dans son recueil « Models of man; social and rational » composé de ses précédentes recherches en la matière. Il y explique qu’il est quasi, sinon totalement, impossible que l’agent économique typique puisse être en parfaite connaissance de toute l’information pertinente, capable de calculs complexes et ayant un système de préférences clair et stable.2 Bien qu’il n’ait pas parlé spécifiquement de l’économie comportementale dans cette recherche, il est possible de comprendre que son apport a servi de fondement à cette discipline. En effet, l’économie comportementale utilise des évidences psychologiques et biologiques pour comprendre les décisions économiques des agents lorsque celles-ci ne reflètent pas la théorie économique traditionnelle, où les choix de ces derniers sont issus de maximisations et optimisations rationnelles, par des explications biologiquement et psychologiquement plausibles.3

1.2 – FONDEMENTS DE L’EFFET D’ANCRAGE

L’une des voies empruntées par l’économie comportementale pour expliquer certaines décisions a priori irrationnelles consiste à comprendre comment l’information passée peut influencer les décisions présentes et futures des agents. Slovic (1967), un des pionniers en la matière, a introduit le concept d’ancrage pour comprendre l’aversion au risque d’un individu en situation de loterie en réalisant une expérience où des individus devaient tourner deux roulettes. L’une d’elles avait une probabilité de gagner et un certain montant à gagner, l’autre avait une probabilité de perte et un certain montant, différent, à perdre et où pour les deux roulettes, si l’évènement de gagner ou perdre n’arrivait pas, la probabilité restante indiquait que l’individu ne recevait ou ne déboursait rien.4 Dans cette étude, il démontre que le déterminant le plus important d’un individu pour évaluer le risque d’une loterie est la probabilité de perte, celle-ci étant considérablement plus décisive que le montant à perdre, et que la probabilité de gagner ainsi que le montant à gagner sont relativement davantage négligés que la probabilité de perte. Par conséquent, il a été observé que l’échantillon de cette expérimentation était soumis à un effet d’ancrage et, donc, biaisé vers la probabilité de perte. Il faut toutefois noter que ce n’est pas Slovic qui a formellement introduit la notion spécifique d’ « effet d’ancrage »; son travail a plutôt offert l’un des premiers résultats empiriques évidents que représente ce type de biais.

1.3 – ANCRAGE ET AJUSTEMENT

En effet, c’est Kahneman et Tversky (1974) qui, tel que présenté dans l’introduction de ce mémoire, introduisent non seulement l’effet d’ancrage comme tel mais aussi les mécanismes de son fonctionnement psychologique. Ils étendent ainsi l’empreinte de leur travaux jusqu’à comprendre comment l’effet d’ancrage biaise un individu vers une valeur donnée en introduisant la théorie « Anchoring and adjustment » (« ancrage et ajustement »). L’idée est qu’à partir d’un ancrage soumis, l’individu sera incapable de se distancier suffisamment de celui-ci lors de son estimation d’une valeur, et c’est à cet écart que réfère la notion de biais. Plus précisément, lorsqu’il lui est demandé de proposer une estimation à la suite de la soumission d’un ancrage, l’agent va graduellement s’éloigner de cette valeur initiale et ce même si elle n’a aucun lien avec la question posée telle que présenté en exemple dans l’introduction de ce travail. Ainsi, en s’éloignant de plus en plus de la valeur de départ, l’individu finira par atteindre une zone où il se retrouvera dans l’incertitude à savoir s’il doit encore, ou non, diverger davantage de l’ancrage. C’est à cet instant, dès qu’il atteint cette zone, que l’individu soumettra son approximation. Par conséquent, le biais réside dans ce phénomène où l’agent typique demandé d’estimer une donnée, sous l’influence d’un ancrage, ne donnera pas sa meilleure estimation mais plutôt la valeur la plus éloignée de l’ancrage sans atteindre la zone d’incertitude.5 La raison pour laquelle une personne ne cherche pas à aller plus loin dans sa déviation de l’ancre initiale a été soumise par Kanheman et Tversky (1972) antérieurement à ces recherches sur l’effet d’ancrage et les autres types de biais psychologiques. L’idée proposée est que les mécanismes psychologiques derrières chaque action et réflexion peuvent se diviser en deux systèmes, numérotés 1 et 2. Le premier est le mode automatique, non réfléchi, intuitif, rapide ainsi que moins ardu psychologiquement et énergétiquement, derrière les actions communes et répétitives. Le deuxième, à l’inverse, est celui en charge de la réflexion avancée, des calculs exigeants, de l’analyse détaillée et il est aussi plus lent en plus de demander un effort plus grand. Pour ces raisons, un individu va toujours, autant que possible, essayer d’opter pour agir en fonction du Système 1 afin de minimiser son effort, celui-ci offrant souvent de bonnes estimations, et ne va ainsi pas se questionner davantage à savoir s’il devrait se distancer encore plus de l’ancre initial lorsqu’une estimation lui est requise.6 Cette façon de voir le biais d’ancrage est la plus répandue en la matière, et est à la base des recherches effectuées subséquemment.

1.4 – ACCESSIBILITÉ SÉLECTIVE

En 1999, Chapman et Johnson ont soumis une autre façon d’aborder l’effet d’ancrage. Celle-ci, dénommée « Selective accessibility » (« Accessibilité sélective »), consiste pour un individu à confirmer si l’ancrage est valide. Le biais provient ici du fait que l’agent va tendre à sélectionner des caractéristiques validant l’ancre initial au moment de faire un choix ou d’estimer une valeur quelconque. Un exemple populaire cité, dans leur travail, décrit un agent immobilier qui va afficher un prix très élevé pour une maison afin d’influencer les acheteurs potentiels à accepter de payer plus cher pour la propriété, ou un prix très bas et tenter de

5 Kahneman, D. (2011). Thinking, fast and slow. Macmillan.

6 Kahneman, D. (2011). Thinking, fast and slow. Macmillan.

 recevoir une évaluation foncière plus basse.7 Il est possible de constater que cette approche est substantiellement différente de celle de Kahneman et Tversky, entre autres sur le fait que, contrairement à ces derniers, Chapman et Johnson posent la possibilité de contrer l’effet d’ancrage. En effet, ils proposent que, dans certains cas, ce type de biais peut être évité en questionnant l’estimation sur la base d’information intrinsèque. Par exemple, l’acheteur potentiel d’une maison pourrait se demander comment vaut une maison semblable à celle surévaluée par l’agent immobilier sur la base du nombre de pièces, du quartier, de son âge, etc., et en arriver à un prix juste en fonction de ces caractéristiques.

1.5 – CHANGEMENT D’ATTITUDE

Une autre approche à l’effet d’ancrage, « Attitude change » (« Changement d’attitude »), a été proposée par Wegener et al. en 2001 et 2010, puis élaborée davantage par Blankenship et al. en 2008. Tout d’abord, Blankenship démontre que, selon le niveau d’effort mental disponible pour la tâche, l’ancrage initial envoie plutôt un signal vers la vraie valeur à estimer ou dirige la collecte d’information de l’agent vers l’ancrage lui-même.8 Par exemple : un individu, cherchant à acheter une télévision dans un magasin, se voit offrir trois modèles, 1, 2 et 3, de deux compagnies différentes, A et B. La compagnie A produit les modèles 1 et 2, tandis que la compagnie B produit le modèle 3. Le modèle 2 est la version « de luxe » du modèle 1, possédant de meilleures spécifications techniques. Ainsi, selon la théorie du changement d’attitude, l’individu sera biaisé vers le modèle 2, sans considération budgétaire, car il sait que cette télévision est meilleure que le modèle 1, mais surtout qu’il n’a aucune raison de croire en une meilleure offre de la part de la compagnie B. Dans cet exemple, les modèles 1 et 3 servent d’ancrages, déviant la collecte d’information de l’agent afin qu’il choisisse le modèle 2, d’une part parce que le modèle 1 est connu pour être moins bon et, d’autre part, le modèle 3 n’est pas connu pour être meilleur. Aussi, si l’individu a déjà une préférence pour la compagnie A, même si cette dernière n’offrait qu’un modèle, il pourrait tout de même sélectionner celle-ci s’il a des raisons de croire que celle de l’entreprise B ne peut pas être meilleure. Ensuite, Wegener s’est quant à lui davantage intéressé aux limites de l’ancrage comme tel pour en venir à proposer l’idée du changement d’attitude. Dans son travail, il démontre que si un individu n’a pas de raison pour croire en l’ancre - étant trop extrême, absurde ou parce que l’individu a une connaissance lui permettant de la juger impertinente, par exemple - celle-ci ne soumettra peu voire aucun biais à l’individu en question. Par conséquent, arrivant à des résultats contradictoires avec les recherches précédentes de Kahneman et Chapman, Wegener arrive à cette théorie de sélection adverse de l’information où l’agent va plutôt essayer de trouver des raisons pour invalider l’ancre initiale, en opposition à tenter de le valider. Toutefois, si cette valeur initiale est proposée par une source fiable, réputée ou pour quelconques raisons difficilement réfutables, cette recherche d’informations adverses sera d’autant plus ardue et, conséquemment, l’ancrage sera plus fort.9



1.6 – FACTEURS AFFECTANT L’EFFET D’ANCRAGE

Bien entendu, plusieurs facteurs peuvent jouer un rôle quant à l’importance, voire la présence ou non, de l’effet d’ancrage. L’humeur (Bodenhausen, G. V., Gabriel, S., & Lineberger, M. 2000)10, l’expérience, le niveau de connaissance et d’expertise (Wilson, T. D., Houston, C. E., Etling, K. M., & Brekke, N. 1996)11, la motivation, les incitations et les avertissements (Epley, N., & Gilovich, T. 2005)12, la personnalité (McElroy, T., & Dowd, K. 2007)13 et les habilités cognitives (Bergman, O., Ellingsen, T., Johannesson, M., & Svensson, C. 2010)14 ont été explorés par différents chercheurs pour montrer que ceux-ci peuvent faire varier le niveau du biais chez un individu. Par contre, si certaines recherches ont démontré des résultats significatifs, d’autres n’y sont pas parvenues. Il n’est donc pas totalement évident si ces variables sont pertinentes quant à la magnitude de l’effet d’ancrage.

1.7 – PERTINENCE POUR CETTE RECHERCHE

Malgré les multiples recherches et travaux effectués dans ce domaine, il reste que la définition la plus largement acceptée de l’effet d’ancrage reste celle de Kahneman et Tversky, posant celle-ci comme un processus d’ancrage et d’ajustement. De ce fait, Thaler (2008) résume le phénomène comme étant un agent qui part d’une valeur initiale, puis l’ajuste dans la direction qui lui semble la plus appropriée. De cette façon, l’effet d’ancrage résulte de cet ajustement généralement insuffisant.15 De plus, il faut comprendre qu’il est empiriquement impossible de distinguer, entre elles, les différentes définitions de l’effet d’ancrage. En effet, chacune offre une compréhension des mécanismes engendrant le biais et non une définition distincte pour ce dernier. Pour ces raisons, c’est à partir de cette définition de ce type de biais que ce mémoire s’est construit. Il s’agit d’une démonstration empirique de l’effet d’ancrage auquel pourraient être soumis les directeurs généraux des équipes de la Ligue Nationale de Hockey (NHL) lorsqu’ils attribuent des salaires, par l’entremise de contrats, aux joueurs occupant le poste d’attaquant entre 2007 et 2016 sur la base de leurs performances passées et de leurs caractéristiques.

CHAPITRE 2 - DESCRIPTION DES DONNÉES

Les données utilisées dans ce travail16,17,18 regroupent l’ensemble des statistiques des attaquants de la NHL actifs tout au long de la période s’écoulant de la saison 2007-2008 à la saison 2015-2016, à l’exception de la saison 2012-2013, car celle-ci ne contient que 48 parties en raison d’une grève des joueurs pour les négociations de leur nouvelle convention collective.19 La raison derrière le choix de cette période de temps était d’obtenir un échantillon d’environ 150 joueurs, le nombre formel d’observations obtenues est 151, ayant joué à chacune de ces saisons pour permettre une comparaison statistique entre eux. Un élément important à relever est qu’un joueur fait partie de l’échantillon uniquement s’il a joué à toutes les saisons retenues, incluant celle réduite par les événements entourant la négociation de la convention collective à la saison 2012-2013, ainsi que la saison 2015-2016.

Les salaires utilisés pour établir des relations avec les performances passées sont ceux de 2016 seulement afin d’isoler les effets qui ne devraient pas être significatifs à long terme, tel que le rang au repêchage, et pour s’assurer de ne pas considérer des contrats pour recrues ou transitoires. De plus, ceux-ci sont représentés sous la forme de leur logarithme naturel (ln), afin d’éviter l’obtention de salaires négatifs et de se concentrer sur les variations des salaires entraînées par les variables indépendantes.

Pour les performances, il a semblé préférable de garder les données en niveau, plutôt que de les transformer en données par partie ou par minute, afin de capturer le plus possible les effets des différentes variables. En particulier, dans l’absence de variables sur le nombre de parties manquées par un joueur en raison de blessures ou de suspensions, il semble normal d’éviter un tel remaniement par match. De la même façon, la transformation des données par minute empêche aussi la capture d’une telle information en plus d’être influencée par le temps passé en pénalité et sur la glace. En plus, cela peut aussi biaiser les données, par exemple dans le cas d’un joueur de quatrième trio qui passe peu de temps sur la glace mais qui réussit à faire quelques buts et assistances. Ce joueur pourrait paraitre avoir des statistiques d’un joueur de premier trio, à l’extrême, mais sans un tel salaire, car en pratique il lui est impossible de performer autant et avoir le même nombre de points dans une saison avec un temps de jeu semblable.

Aussi, il faut comprendre que dans la NHL, un point est inscrit par un joueur s’il marque un but ou obtient une assistance. Cette dernière est obtenue par le ou les dernier(s) joueur(s), excluant celui qui a marqué le but, ayant touché la rondelle, pour un maximum de deux joueurs.20

À noter, les performances sont divisées en deux grandes catégories : les performances chronologiques et les performances ordonnées selon le nombre de points pour chaque saison, de la meilleure à la pire. L’idée est d’en arriver à un comparatif en ces deux séries de données pour en dégager de possibles biais si un coefficient, dans la régression linéaire, ne réagit pas conformément aux attentes de la théorie économique. Ainsi, il y a l’ensemble des statistique, à l’exception des salaires tel que mentionné précédemment, pour chaque saison de 2007-2008 à 2015-2016, sauf celle de 2012-2013, pour chaque attaquant actif durant cette période. Ensuite, il y a ces mêmes données pour chaque joueur, mais celles-ci ont toutes été ordonnées par ordre de meilleure saison en termes de points, et par conséquent, bien qu’il s’agisse des mêmes données, cela résulte en un réarrangement complet pour chaque joueur de leurs performances obtenues.

Enfin, la base de données contient aussi d’autres informations, plus générales, sur chaque joueur, telles que l’équipe pour laquelle il joue présentement, à la saison 2015-2016, si celle-ci est canadienne ou américaine, sa position à l’attaque, son âge et son rang au repêchage. Cette dernière variable est d’autant plus importante, car une partie considérable de ce mémoire consistera à analyser son effet sur le présent impact sur le cap salarial pour une équipe des joueurs de la NHL. D’ailleurs, il faut aussi noter que le rang 288 a été attribué aux joueurs qui n’ont pas été repêchés, mais qui ont tout de même évolué dans la NHL au courant des saisons observées.

...

CHAPITRE 4 - RÉSULTATS

4.1 – MODÈLE DE BASE

Tout d’abord, il faut noter que les régressions ont été réalisées à l’aide du logiciel Stata. Par conséquent, la notation utilisée au sein des tableaux présentant les résultats sera celle du logiciel, et la description de celle-ci se retrouve à l’Annexe B. Chaque tableau des résultats des régressions sera accompagné par un sommaire des statistiques générales de la régression, qui comprendra le nombre d’observations, la statistique de Fisher, la p-value de la statistique de Fisher, le coefficient de corrélation (R2) et la racine carrée de la MSE (moyenne des écarts au carré).

De plus, il est important de mentionner que toutes les régressions ont été réalisées avec des écart-types robustes, plus précisément ceux de Huber-White, afin de corriger partiellement pour la colinéarité entre les variables et d’inclure l’hétéroscédasticité de celles-ci, en plus de considérer une certaine non-normalité des données. En effet, certaines variables peuvent avoir un influence directe sur d’autres, tel que le rang auquel un joueur a été repêché et son nombre de points inscrits. En effet, il est très probable qu’un joueur repêché tôt marque plus de points qu’un joueur repêché tard, voire jamais, car la raison même pour laquelle il a été sélectionné plus haut est que les recruteurs dans la ligue voyaient en lui et ses performances antérieures un plus grand potentiel de production en points.

Ainsi, la première paire de régressions représente le modèle de base, c’est-à-dire sans l’ajout de variables au sein des régressions chronologique et par performance. Elle vise à tester comment les directeurs généraux de la Ligue se comportent vis-à-vis les performances uniquement, afin de voir d’entrée de jeu s’il y a une anomalie dans cette série. Elle se traduit en les deux régressions suivantes, qui réfèrent au modèle fondamental de ce travail :



  1. a)            lnSCH16 = β15 PTS15 + β14 PTS14 + β12 PTS12 + β11 PTS11 + β10 PTS10 + β09 PTS09 + β08 PTS08 + a0 + E0
  2. b)           lnSCH16 = β1 BS_PTS1 + β2 BS_PTS2 + β3 BS_PTS3 + β4 BS_PTS4 + β5 BS_PTS5 + β6 BS_PTS6 + β7 BS_PTS7 + a1 + E1

L’idée est d’évaluer l’effet de la réorganisation de la série chronologique en celle par ordre de la meilleure à la pire performance pour chaque joueur. Entre autres, la théorie sur l’effet d’ancrage pourrait soumettre l’hypothèse que le coefficient de la meilleure saison, dans la deuxième régression, soit significatif et plus élevé que les autres, suggérant que les directeurs généraux des équipes surpaient les joueurs selon leur meilleure saison. Il se pourrait aussi que les responsables des équipes accordent une importance anormalement grande aux récentes saisons, suggérant un biais causé par la proximité temporelle de l’information. De plus, tout au long de cette section, il est mention de la raison et de la sensibilité des directeurs généraux. Ce sujet est traité en détail à la section « Robustesse des résultats », où il y est expliqué empiriquement par un test de rationalité. Ainsi, le Tableau III montre les résultats obtenus par la régression de la série chronologique, et le Tableau IV ceux de la série par meilleures performances, tous les deux accompagnés par leur sommaire statistique respectif.

...

À partir de la première régression (Tableau 3.1a), les trois dernières saisons semblent être les plus importantes aux yeux des directeurs généraux. Ceci porte à croire que ces derniers sont raisonnables, car il semble juste d’affirmer que cet échantillon temporel permet de cerner de manière sensée le niveau de performance d’un joueur ainsi que son potentiel à court terme. En effet, si le nombre de points marqués diminue pour chaque saison jusqu’à la plus récente, il semble correct de croire que ce joueur est sur la pente descendante et que sa production va continuer de décroître, et l’inverse est aussi vrai. Aussi, il est possible que les années 2007 à 2010 correspondaient aux saisons recrues d’un joueur, et que celui-ci bénéficiait alors d’un temps de jeu réduit étant donné son manque d’expérience chez les professionnels, ce qui pouvait avoir un impact sur ses performances car moins de temps sur la glace entraîne probablement moins de possibilités de marquer un points. Il est à noter, aussi, que le coefficient de la constante est négatif et relativement élevé. Ceci suggère qu’un certain nombre de points minimal est nécessaire pour un joueur afin d’éviter une réduction de son salaire.

Puis, en regardant la seconde régression, la quatrième saison la plus productive de même que la pire saison sont les deux seules dont les directeurs semblent se préoccuper, avec une emphase marquée sur la quatrième. Ceci semble aussi normal et raisonnable puisque cette dernière correspond aussi à la médiane de la série, soit un estimateur dont il est possible de défendre la justesse étant donné qu’elle peut être perçue comme la production espérée d’un joueur pour la prochaine saison. Aussi, la considération de la pire saison semble être justifiable, car s’il s’agit de la saison recrue où un joueur ayant marqué plus de points peut être identifié à un grand potentiel; sinon cela peut être perçu comme une production minimale. Néanmoins, l’utilisation de cette dernière variable semble plus appropriée à titre de complément d’information, d’où son importance moindre au niveau de son coefficient.

 4.2 – PREMIÈRE VERSION DU MODÈLE

À la suite de ces résultats, il semble impossible d’exclure un manque de variables dans le modèle. Ainsi, d’après les conclusions de la deuxième régression, il parait approprié d’inclure la variable Draft, référant à la position auquel un joueur a été repêché, d’autant plus qu’il s’agit d’un point d’intérêt important pour ce mémoire. En effet, cette variable peut être perçue comme un indicateur du potentiel d’un joueur pouvant aider à la compréhension de ces saisons recrues où celui-ci devrait typiquement moins bien performer.

De plus, l’une des hypothèses principales de cette recherche est qu’un joueur repêché tôt, principalement en première ronde, est plus susceptible de recevoir une prime pour sa position au repêchage en comparaison à un joueur avec des performances similaires repêché plus tard, sur la simple base que ce premier à un potentiel plus grand. La confirmation de cette hypothèse laisserait croire à la présence d’un effet d’ancrage au sein des directeurs généraux lorsque leur vient le temps d’octroyer un contrat à un attaquant de la Ligue Nationale de Hockey. Advenant la concrétisation de ce cas, il faudrait s’attendre à un coefficient négatif pour cette variable, car un joueur repêché plus tard devrait recevoir un moins grand salaire dû à son potentiel relativement moindre.

Les deux régressions en lien avec l’ajout de cette variable sont :

  1. a)            lnSCH16 = Draft + β15 PTS15 + β14 PTS14 + β12 PTS12 + β11 PTS11 + β10 PTS10 + β09 PTS09 + β08 PTS08 + α0 + E0
  2. b)           lnSCH16 = Draft + β1 BS_PTS1 + β2 BS_PTS2 + β3 BS_PTS3 + β4 BS_PTS4 + β5 BS_PTS5 + β6 BS_PTS6 + β7 BS_PTS7 + α1 + E1

En théorie, la variable Draft ne devrait pas être significative, car après huit ans les joueurs ont pu faire leurs preuves et les directeurs généraux possèdent donc un bon échantillon de performances pour mesurer la contribution possible d’un joueur à leur équipe. De cette façon, les résultats sont présentés dans les tableaux V et VI, accompagnés de leur sommaire statistique.



132