Cours d’introduction a l’economie comportementale


Télécharger Cours d’introduction a l’economie comportementale

★★★★★★★★★★3.5 étoiles sur 5 basé sur 1 votes.
Votez ce document:

Télécharger aussi :


Cours d’introduction à l’économie comportementale

1 Introduction

Vous prenez des décisions tous les jours, certaines d’entre elles pouvant être des décisions économiques. Les chercheurs ont crée diverses théories pour expliquer comment les humains prennent des décisions, en se basant sur des intuitions ou sur des données expérimentales. Ce cours se propose de faire une revue des théories de la prise de décision les plus influentes.

2 Théories normatives

Dans ce qui va suivre, nous allons étudier des situations à l’issue incertaine, qui comportent un “risque” : la situation peut évoluer de plusieurs manières, qui peuvent avoir des conséquences variées. Prenons l’exemple ultra-simplifié d’un investisseur qui souhaite investir 1000 euros dans une entreprise fondée récemment. Il peut faire deux choix : soit investir 1000 euros, soit ne pas investir. Chaque choix peut avoir deux conséquences différentes suivant que l’entreprise puisse verser les intérêts, ou qu’elle dépose le bilan. Par exemple, l’investisseur recevra 1100 euros (investissement plus intérêts) si l’entreprise survit, mais ne recevra rien en cas de faillite. Dans de telles situations, les sujets font une évaluation subjective des probabilités de chaque conséquence. Par exemple, un investisseur n’investira pas si l’entreprise a de fortes chances de couler avant de verser ses premiers intérêts, sauf si celle-ci promet un taux d’intérêt élevé.

2.1 Théorie de la valeur espérée

La théorie de la valeur espérée postule que les sujets calculent l’espérance statistique (moyenne pondérée par les probabilités) de l’argent reçu pour chaque choix, et choisissent celui qui a l’espérance la plus grande. L’argent reçu est considéré comme étant une variable aléatoire, qui prend une valeur différente pour chaque conséquence, chaque conséquence ayant une probabilité d’occurrence non-nulle.

2.1.1 Formule de calcul

En clair, soit une action A, qui donne naissance à n “conséquences” suivant l’évolution de la situation. Ces conséquences seront notées Ci . Chaque conséquence Ci va avoir une probabilité d’occurrence pi , et donnera un gain (financier ou subjectif) gi . La valeur espérée est égale à ∑ i pi × gi . Par exemple, prenons le cas d’un parieur qui a le choix entre deux options :

— on jette un dé à 80 faces : le parieur gagne 320 euros si le dé tombe sur une face bien précise, et il ne reçoit rien sinon ;

— il reçoit un euro et repart avec sans avoir à jouer à un quelconque jeu de hasard. La théorie de la valeur espérée dit que le parieur choisira la première option : le second choix a une espérance de 1 euro, alors que le choix du jet de dé a une espérance de 4 euros. En effet, le joueur qui choisit la première option a une chance sur 80 de gagner 320 euros et 79 chances sur 80 de ne rien gagner. Les calculs donnent une espérance de 320 × 1 80 = 4 : l’espérance est supérieure.

2.1.2 Paradoxe de Saint-Pétersbourg

Mais cette théorie autorise des options avec une espérance infinie : c’est le paradoxe de SaintPétersbourg. Imaginez le pari suivant, qui fait intervenir une banque, un parieur et un tiers qui tire une pièce à pile ou face. Le parieur parie une somme d’argent initiale de son choix. Si la pièce tombe sur pile, le parieur et la banque ne gagnent et ne perdent rien et on relance la pièce. Si la pièce tombe sur face le jeu s’arrête et la banque donne une certaine somme d’argent au parieur : elle donne un euro au premier tour, deux euros au second lancer, quatre au troisième, etc. Ainsi, les gains espérés suivant l’historique de la partie sont les suivants :

— Face : 1 euro ;

— Pile, Face : 2 euros ;

— Pile, Pile, Face : 4 euros ;

— Pile, Pile, Pile, Face : 8 euros ;

 — Pile, Pile, Pile, Pile, Face : 16 euros ;

— etc.

Si on fait le calcul, on obtient une espérance infinie.

Maintenant, prenons quelques sujets et demandons leur de choisir parmi les deux options suivantes :

— soit le sujet joue au jeu proposé ci-dessus ;

— soit il reçoit 20 euros sans parier.

Les sujets préféreront la seconde option, alors que son espérance est inférieure…

2.2 Théorie de l’utilité espérée

Pour résoudre ce paradoxe, les mathématiciens ont créé la théorie de l’utilité espérée. Pour résumer, cette théorie suppose simplement que les sujets ont des préférences stables, qui ne changent pas avec le temps ou les conditions du choix.

2.2.1 Fonction d’utilité

Cette théorie quantifie la préférence du sujet pour un choix bien précis. Pour cela, elle attribue une utilité ui à une conséquence Ci en fonction du gain qu’elle permet d’obtenir (la fonction d’utilité n’est pas fixée, et beaucoup de fonctions mathématiques peuvent servir de fonction d’utilité). L’utilité d’un choix est la somme des utilités de chaque conséquence d’un choix : ∑i ui(gi) × pi . Face à plusieurs options, les sujets choisissent celle dont l’utilité est maximale. Si jamais deux options sont une utilité identique, les sujets sont indifférents et choisissent les deux options au hasard.

Mais pour résoudre le paradoxe de Saint-Pétersbourg tout en conservant une possibilité de choix rationnel (gain maximal), une fonction d’utilité doit respecter plusieurs contraintes :

— les utilités peuvent être comparées entre deux choix ;

— les préférences sont transitives ;

— l’ajout d’options alternatives ne change pas les préférences déjà établies avant l’ajout : si jamais le sujet préfère l’option A à l’option B, le fait de rajouter une option C n’y change rien ;

— si deux choix partagent des conséquences (même probabilité et mêmes gains), leurs différences d’utilités espérées ne proviennent pas de ces conséquences.

Avec ces contraintes, le théorème de Von Neumann–Morgenstern dit qu’on peut déterminer une utilité finie pour chaque choix et les ordonner suivant un ordre total.



2.2.2 Aversion au risque

Cette théorie permet de modéliser l’attitude des sujets face au risque :

— soit le sujet a une aversion au risque : il a tendance à éviter les choix risqués ;

— soit il prend des risques et est alors dit “preneur de risque” ;

— soit il est relativement neutre face au risque.

Prenons l’exemple suivant, où le sujet a le choix entre deux situations :

— soit il tire une pièce à pile ou face, gagne 100 euros avec pile et repart sans rien avec face

 — soit il reçoit 50 euros sans parier.

Une personne avec une aversion au risque préférera recevoir les 50 euros au lieu de parier.

 Un sujet preneur de risque préférera parier que recevoir les 50 euros. Et une personne neutre vis-à-vis du risque choisira au hasard.

Ces trois situations correspondent à des fonctions d’utilité différentes :

— l’aversion au risque est le signe d’une fonction d’utilité concave ;

— les preneurs de risque ont une fonction d’utilité convexe ;

— les autres ont une fonction d’utilité linéaire.

3 Economie comportementale

De nos jours, la théorie de l’utilité espérée a été remplacée par des théories psychologiquement réalistes, donnant naissance au courant de l’économie comportementale. La théorie de l’utilité espérée est peut-être une référence pour les économistes néo-classiques, mais la quasi-totalité des études réalisées à ce jour montre des violations systématiques de grande ampleur des axiomes de l’utilité espérée. En clair : la théorie de l’utilité espérée n’est pas une approximation valide de la prise de décision par des sujets humains.

3.1 Rationalité limitée

Le domaine de la Behavioral economics prend ainsi ses racines dans les travaux d’Herbert Simon, qui lui ont valu le prix Nobel d’économie. Herbet Simon travaillait sur la résolution de problème à une époque où l’analogie ordinateur/esprit était très bien implantée : on voyait le cerveau comme un système de traitement d’information, et les chercheurs voyaient l’esprit comme une sorte d’algorithme au sens de Turing. En conséquence, les travaux de l’époque étaient avant tout des travaux d’IA appliquée à l’esprit humain si on peut dire : on créait des simulateurs informatiques, des sortes d’IA en essayant de simuler certains résultats d’expériences (ce qui est toujours fait, mais avec une autre approche).

Mais à la différence d’un ordinateur, un humain a une puissance de calcul limitée, ce qui ne permet pas de faire des choix optimaux du point de vue de l’utilité espérée. Ainsi, les sujets utilisent à la place des heuristiques, des méthodes qui donnent des résultats corrects, mais pas optimaux. L’idée était que au lieu d’obtenir le meilleur résultat en utilisant une fonction d’utilité espérée, les sujets préféraient trouver un résultat qui soit le plus proche possible de l’optimalité. Dans cette théorie, la fonction d’utilité espérée est conservée telle quelle : les humains sont toujours rationnels (la raison étant un mot-valise des économistes qui signifie : comportement compatible avec une fonction d’utilité), mais d’une manière assez limitée.

Ce courant dit de la rationalité limitée, est aujourd’hui tombé en désuétude. Si les chercheurs continuent d’identifier des biais cognitifs, et tentent toujours de les étudier comme s’il s’agissait d’heuristiques, le poids mort de l’intelligence artificielle et l’analogie cerveau/algorithme a depuis longtemps disparu de ces travaux. De nos jours, on ne considère plus que l’humain cherche à optimiser une fonction d’utilité espérée : les théories de l’économie comportementale généralisent la théorie de l’utilité espérée en ajoutant des termes et biais divers dans sa formulation. Et la transformation est souvent radicale, au point qu’on ne peut plus parler d’utilité espérée.

3.2 Violations des axiomes de la théorie de l’utilité espérée

Expérimentalement, on peut observer que les contraintes de la théorie de l’utilité espérée sont systématiquement violés quelque soit la situation.

3.2.1 Intransitivité

Les psychologues ont depuis longtemps observé que les choix des sujets ne sont pas transitifs. On peut citer comme exemple l’étude de Tversky, datée de 1969. Dans cette étude, les sujets recevaient des informations pour choisir cinq candidats à un poste d’université. Ces candidats A, B, C, D, et E étaient classés suivant leur réussite à des tests d’intelligence et de stabilité émotionnelle :

— pour l’intelligence, A < B < C < D < E ;

— niveau stabilité émotionnelle, A > B > C > D > E.

Quand on demandait aux sujets de comparer les candidats dans l’ordre A, B, C, D, E, la transitivité était respectée : on avait A < B, B < C, etc. Mais quand on demandait aux sujets de comparer directement A avec E, c’était A qui était choisit, violant la transitivité.

3.2.2 Inversions de préférences

Il arrive que les préférences entre deux options s’inversent si on ajoute une troisième option. Voici un exemple tiré du livre Predictably Irrational de Dan Ariely, économiste comportemental. Celui-ci proposa à des étudiants d’une école de management/économie de s’abonner à un journal d’économie durant un an. À un premier groupe d’étudiants, il proposa trois choix :

— recevoir le journal en version papier pour 125 euros par an ;

— recevoir le journal par internet pour 59 euros par an ;

— recevoir le journal papier et la version internet pour 125 euros par an.

Le bilan du premier groupe était simple :

— 0 étudiant pour le premier choix ;

— 16 étudiants pour le second ;

— 84 pour le troisième.

Au second groupe, il ne proposa que les deux dernières versions, et les résultats furent les suivants :



— 68 étudiants pour le second choix ;

 — 32 pour le troisième.

Les préférences sont inversées : là où le second choix est prioritaire sur le troisième pour le second groupe, c’est exactement l’inverse pour le premier groupe.

3.2.3 Paradoxe d’Allais

Le paradoxe d’Allais (un économiste français) montre des violations systématiques de la dernière contrainte. Ainsi, les sujets préfèrent la première solution entre :

— choix A : gagner 10.000 euros avec certitude (probabilité de 100%) ;

— choix B : gagner 15.000 euros avec 90% de chances.

Par contre, dans le choix suivant, ils préfèrent la seconde solution :

— choix C : gagner 10.000 euros avec 10% de chances ;

— choix D : gagner 15.000 euros avec 9% de chances.

Pourtant, on peut remarquer que le choix C et D partagent des conséquences communes. Si on note Z les conséquences où le sujet ne touche pas d’argent, on a :

— choix C = 10% de chances de tomber sur le gain du choix A, et 90% de tomber sur Z ;

— choix D = 9% de chances de tomber sur le gain du choix B, et 91% de tomber sur Z.

Vu que A est préféré à B, l’axiome de la chose certaine impose que C est préféré à D, ce qui n’est pas le cas.

3.3 Mauvaise estimation des probabilités

Si on en croit d’autres expériences, les sujets ont énormément de mal à calculer des probabilités de manière fiable : ils ne tiennent pas compte de la taille de l’échantillon, de la fréquence de base des évènements, gèrent mal les conjonctions et disjonctions d’évènements, etc.

3.3.1 Biais de représentativité et d’accessibilité

 Généralement, les sujets surestiment la fréquence des évènements dont ils se rappellent facilement : c’est ce qu’on appelle d’heuristique d’accessibilité. Cette heuristique d’accessibilité a souvent une conséquence assez intuitive : les sujets considèrent comme plus probables les évè- nements similaires à des évènements familiers, ce qui donne naissance à l’heuristique de repré- sentativité. Ces deux heuristiques sont la cause de plusieurs biais de raisonnement assez intéressants.

Premièrement, les sujets ne prennent pas en compte la fréquence ou la probabilité de base d’un phénomène quand celle-ci est pertinente. Par exemple, c’est ce qui fait que certaines personnes ont tendance à avoir plus peur des accidents d’avion que des accidents de voiture, alors que la probabilité de mourir dans un accident de voiture est supérieure à celle d’un accident d’avion. En effet, les sujets se rappellent plus facilement de certains exemples d’accidents d’avion, qui font souvent beaucoup de morts et sont souvent plus spectaculaires.

Deuxièmement, ils ne prennent pas en compte la taille de l’échantillon quand ils calculent des probabilités. L’exemple suivant est tiré d’une étude de Tversky et Kanhnemann. On dit à des sujets qu’une ville comprend deux hôpitaux, un très grand hôpital et un petit. Dans le grand, 45 bébés naissent chaque jour, contre 15 dans le second. En théorie, le taux de naissance moyen est de 50 garçons pour 50 filles. Mais certains jours, il arrive que plus de 60% de garçons naissent durant une journée. Si on demande aux sujets dans quel hôpital ce genre de chose a le plus de chances d’avoir lieu :

— 56% pensent que les deux hôpitaux sont à égalité de ce point de vue ;

— 22% pensent que cela arrive plus souvent dans le premier hôpital ;

— et 22% dans le second.

Table des matières

1 Introduction 5

2 Théories normatives 7

2.1 Théorie de la valeur espérée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.1.1 Formule de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.1.2 Paradoxe de Saint-Pétersbourg . . . . . . . . . . . . . . . . . . . . . . . . 7

2.2 Théorie de l’utilité espérée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2.1 Fonction d’utilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2.2 Aversion au risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 Economie comportementale 11

3.1 Rationalité limitée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3.2 Violations des axiomes de la théorie de l’utilité espérée . . . . . . . . . . . . . . . 12

3.2.1 Intransitivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3.2.2 Inversions de préférences . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3.2.3 Paradoxe d’Allais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3.3 Mauvaise estimation des probabilités . . . . . . . . . . . . . . . . . . . . . . . . 13

3.3.1 Biais de représentativité et d’accessibilité . . . . . . . . . . . . . . . . . . 13

3.3.2 Biais d’ambigüité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

3.3.3 Surestimation des faibles probabilités . . . . . . . . . . . . . . . . . . . . 14

3.4 Théorie des perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3.4.1 Aversion à la perte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3.4.2 Ancrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3.4.3 Théorie des perspectives cumulées . . . . . . . . . . . . . . . . . . . . . . 16

3.5 Choix intertemporel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3.5.1 Inconsistance temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3.5.2 Illusion monétaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4 Conclusion 21



400