Cours de Neuromarketing

Introduction complet sur le neuromarketing et la neuroscience du consommateur


Télécharger Introduction complet sur le neuromarketing et la neuroscience du consommateur

★★★★★★★★★★3.5 étoiles sur 5 basé sur 1 votes.
Votez ce document:

Télécharger aussi :


...
1. INTRODUCTION

La création, en 2006, d’une nouvelle revue académique : « Social Neuroscience »,  montre à quel point les neurosciences diffusent à présent dans toutes les sphères des sciences sociales et humaines (Roullet, 2005). On constatera ainsi que des études recourant aux paradigmes, méthodologies ou techniques neuroscientifiques sont menées en sciences politiques (Knutson et alii, 2006), en sociologie (Freese, Li, & Wade, 2003), en sciences de l’éducation (Goswami, 2006), en économie (Camerer, Loewenstein & Prelec, 2005), en finances (Peterson, 2005), en ergonomie (Parasuraman, 2003), en stratégie (Barraclough, Conroy & Lee, 2004), en philosophie (Northoff, 2004), en éthique (Farah, 2005) et bien sûr en marketing. Pour cette dernière discipline (si l’on considère la taxonomie académique française), on recense des études en publicité (Plassmann et alii, 2007), en recherche sur le prix (Berns, 2005) et en recherche en comportement du consommateur (RCC), que l’on devrait d’ailleurs qualifier de recherche en cognitions et comportement du consommateur (Ambler et alii, 2004 par exemple). Pour une approche du champ disciplinaire émergent qu’est le neuromarketing, le lecteur pourra utilement consulter Lee, Broderick & Chamberlain (2007), Senior et alii (2007) ou Droulers & Roullet (2007).

De manière plus générale, le recours massif aux techniques d’imagerie cérébrale a profondément modifié le champ des études cognitives (individuelles ou sociales) et a bouleversé la façon dont le chercheur ou le praticien aborde désormais la littérature spécialisée et établit l’état de l’art. Si l’on cherche à recenser le nombre d’études publiées, relatant des expérimentations réalisées avec des techniques telles que IRMf, TEP ou MEG (cf. définitions infra), les bases de données renvoient désormais des dizaines de milliers de références publiées. Si l’on s’en tient aux deux principales techniques employées (IRMf et MEG) depuis 1990, on constate que près de 1.500 études en IRM sont désormais publiées chaque année, contre 230 pour la MEG. Une méthode beaucoup plus ancienne et polyvalente (l’EEG) produit un nombre stable d’études, soit environ 1.600 publications annuelles (cf. Figure 1). 

*** Insérer ici la Figure 1 ***

Si l’on raisonne en terme de nombre cumulé de publications depuis 1990 (apparition des premières expérimentations d’imagerie cérébrale fonctionnelle), plus de 8.500 études IRM fonctionnelles ont été publiées (en langue anglaise), contre environ 1.500 pour la MEG (cf. Figure 2). Il est certain que les parcs correspondants de scanners expliquent le différentiel et son accélération. On comptait aux USA en 2004 plus de quatre-vingts scanners IRM strictement à visée commerciale3, tandis qu’un recensement mené par les auteurs montre que 6 des 10 premières universités mondiales se sont équipées d’instrumentations d’imagerie cérébrale, non seulement au sein bien sûr de leur collège de médecine, mais au sein de départements de neuroéconomie ou de neuromarketing.

*** Insérer ici la Figure 2 ***

Le marketing n’a pas échappé à cette révolution paradigmatique et des problématiques propres à la discipline ont fait l’objet d’expérimentations en neuro-imagerie (cf. infra). A ce jour, on recense plus d’une vingtaine d’études en neuromarketing publiées dans des revues neuroscientifiques ou marketing, qui utilise effectivement ces techniques. Il convient cependant de rappeler que toutes les études qui s’inspirent des théories et des paradigmes neuroscientifiques ne recourent pas toutes systématiquement à la neuro-imagerie. Depuis les années 1990 en effet, des chercheurs en marketing et en RCC s’inspirent largement des théories neuroscientifiques (cognitives ou affectives) pour appréhender les phénomènes psychologiques tels que des processus d’attention, de mémorisation, de préférence ou de choix, tout en conservant des protocoles expérimentaux classiques (mesures verbales, comportementales, voire psychophysiques). Ces études se comptent déjà par centaines. Ce constat nous incite à proposer une définition élargie du neuromarketing, qui pose de surcroît un cadre de référence théorique.

2. APPROCHE TAXONOMIQUE DU NEUROMARKETING

2.1. Définition

Le terme "neuromarketing" dans son sens étroit suppose habituellement l'utilisation systématique de techniques de neuro-imagerie pour identifier les substrats neuraux, associés à divers phénomènes psychologiques (pensées, cognitions, émotions et sentiments) que l’on

3

pose dans ce paradigme comme exclusivement biologiques4. Nous pensons que le paradigme neuroscientifique peut être également une grille de lecture permettant d’étudier et de comprendre des comportements directement observables et/ou interprétables (comportements, tant langagiers que moteurs). Une définition du neuromarketing reposant uniquement sur l'idée d'une utilisation de ces techniques nous paraît trop réductrice. Nous proposons donc la définition suivante :

« Le neuromarketing (ou neuroscience du consommateur5) est l’étude des processus mentaux (explicites et implicites) et des comportements du consommateur – dans divers contextes marketing concernant aussi bien des activités d’évaluation, de prise de décision, de mémorisation ou de consommation – qui se fonde sur les paradigmes et les connaissances des neurosciences ». (Droulers & Roullet (2007)

Dans ce contexte élargi, d’autres techniques – psychophysiques ou comportementales – sont applicables dès lors qu’un corpus neuroscientifique sous-tend les hypothèses théoriques. Ainsi, les instruments permettant de mesurer les principales fonctions physiologiques (respiration, conductance électrodermale, pouls ou pression artérielle), la dilatation des pupilles, les déplacements du point de fixation oculaire (eye-tracking), ou les variations de micro-expressions faciales, pourraient prétendre à « l’arsenal » neuromarketing. Une revue des techniques neuroscientifiques applicables en marketing est synthétisée dans l’Annexe 1.

Cette focalisation du marketing (et de la RCC) sur l’individu consommateur dans toutes ses composantes cognitives et affectives est consubstantielle à la discipline : depuis le début du vingtième siècle, le marketing s’est toujours approprié les cadres théoriques de la psychologie (successivement behaviorisme, analyse motivationnelle et psychanalyse, gestalt, cognitivisme etc.). Il apparaît ainsi logique, voire légitime de voir aujourd’hui notre discipline faire sienne les paradigmes des neurosciences. 

Cette prise en compte de la psyché du consommateur dans les processus de décision et d’achat s’est manifestée plus tardivement en économie. L’économie comportementale (behavioral economics) s’attache désormais autant à la psychologie individuelle (incluant l’affect) qu’aux agrégats ou aux agents rationnels. Certains économistes ont même entrepris « d’ouvrir la boite noire », en recourant à ces mêmes techniques de neuro-imagerie (McCabe,

Une conséquence indirecte et méconnue du paradigme neuroscientifique est la posture moniste en matière (si l’on peut dire) de conscience ou d’esprit. Ce rejet implicite du dualisme entraîne des revirements théologiques ou téléologiques, parfois peu évoqués par la recherche en Sciences Humaines et Sociales. 

2003). On évoque ainsi le champ émergent de « neuroéconomie » qui, de concert avec le neuromarketing, participe à l’élaboration des nouvelles (neuro)sciences de la décision (Shiv et alii, 2005). On peut cependant s’interroger sur le fait de savoir si les deux termes sont synonymes – ou s’il existe à la fois des différences et des zones de recouvrement entre ces deux disciplines « cousines ».

2.2. Neuromarketing et neuroéconomie

Devançant les gestionnaires de quelques années, les économistes ont été les premiers à avancer le terme de « neuroéconomie », dont la raison d’être était de mieux comprendre, à la suite des travaux de Kahneman et Tversky, les processus de décision des agents économiques à l’aide des approches de la psychologie cognitive et des neurosciences. D’emblée, les économistes se sont appropriés les approches neuroscientifiques portant sur des comportements individuels de préférence ou d’achat, peut-être parce qu’ils avaient ignoré la psychologie générale ou cognitive durant un siècle, contrairement au marketing qui s’en est toujours explicitement inspiré (Bartels, 1976). Avec le zèle des disciples fraîchement convertis, les économistes comportementaux exhortent désormais les mercaticiens à s’inspirer des modèles de l’économie comportementale qui intègrent des dimensions psychologiques non rationnelles (Johnson, 20066 ; Ho, Lim & Camerer, 2006). La pratique académique de la neuroéconomie ou du neuromarketing est encore clairsemée et sporadique : « dans le monde entier, à peine une cinquantaine de groupes de recherche revendique explicitement le terme de neuroéconomie » (Kenning & Plassman, 2005). Si l’on s’efforçait à vouloir trouver des différences entre les deux disciplines émergentes qui partagent de larges zones de recouvrement, on pourrait dire que la neuroéconomie s’attache davantage à la base théorique des comportements économiques et sociaux et à leurs substrats neuronaux (concept d’utilité attendue par exemple ; Berns, Capra & Noussair, 2007), pouvant expliquer des choix et des prises de décision sous contrainte (Hüsing, Jäncke & Tag, 2006 ; 152), tandis que le neuromarketing aborde des problématiques plus réalistes dans des contextes se voulant plus écologiquement valides.

Pour des raisons de lisibilité et d’acceptabilité auprès du grand public, le terme de « neuromarketing » pourrait être avantageusement remplacé par celui de « neuroscience du consommateur ».

Le titre de l’article de Johnson est explicite : « How Behavioral Economics could invigorate Marketing »…

3.       CONDITIONS           PREALABLES           A          LA       REALISATION          D’UNE ETUDE NEUROMARKETING

Il est évident qu’après avoir envisagé le bien-fondé d’une étude de neuro-imagerie dans un contexte marketing (d’autres techniques plus accessibles sont parfois plus pertinentes au préalable), des contraintes matérielles, financières, juridiques et éthiques passent au premier rang et doivent être considérées. Afin d’illustrer nos propos et de les ancrer dans des problématiques pertinentes pour le marketing, nous nous appuierons sur quelques études neuromarketing récentes parmi la vingtaine recensée (Lee, Broderick & Chamberlain, 2007).

3.1. Accès aux matériels d’imagerie en France

En avril 2004, le quotidien Les Echos déplorait le retard considérable de la France en matière d’équipement en scanners IRM et TEP. Des statistiques publiées par l’OCDE en 2007 et reprises par la Direction Générale « Santé et Protection des Consommateurs » de l’Union Européenne, indiquaient que la France disposait en 2005 de 4,7 IRM par million d’habitants contre 7,1 en Allemagne, 11 en Hollande, 15 en Italie, 27 aux USA et 40,1 au Japon. Une étude d’évaluation indique en outre que seul un quart des scanners IRM en Europe sont configurés pour de l’imagerie fonctionnelle (Hüsing, Jäncke & Tag, 2006). Naturellement, la totalité des appareils français est située en milieu hospitalier et leur fonctionnement est prioritairement affecté aux explorations cliniques ou à la recherche médicale stricte. Il n’existe pas de scanner « privé » dédié à la recherche appliquée, comme il en existe aux USA. Si l’on répartit par pays les 23 études de neuromarketing publiées à ce jour, on constate qu’aucune n’est française mais que 8 sont américaines, 7  allemandes et 5 britanniques. Ce sont les pays qui disposent le plus d’équipements d’IRM qui sont à même de produire le plus de travaux en neuroscience du consommateur. Sans évoquer d’emblée les interrogations éthiques éventuelles qui s’y rattachent, on peut déplorer le retard considérable que la recherche française est susceptible de prendre rapidement. Il convient d’espérer, qu’à l’instar de nos voisins allemands, britanniques ou hollandais, des partenariats puissent se nouer entre chercheurs neuroscientifiques et mercaticiens.

3.2. Coûts associés aux techniques d’imagerie

Il n’est pas surprenant de rappeler que l’accès à des technologies de pointe est onéreux et que le chercheur en neuroscience du consommateur doit budgéter de manière significative sa phase terrain. Les coûts associés à l’utilisation de ces techniques sont variables car liés à l’utilisation de matériels plus ou moins sophistiqués et de personnels compétents plus ou moins nombreux. Par exemple, une étude d’EEG ne nécessite qu’un biotechnicien pour la pose des électrodes, la présentation des stimuli et l’enregistrement des données pouvant être gérés par l’expérimentateur. En revanche, une expérimentation d’IRM fonctionnelle implique la présence à chaque session d’imagerie, d’un médecin, d’un préparateur, voire d’un physicien en charge des réglages de l’aimant. Des grandeurs de coûts sont indiquées dans le Tableau 1. Il convient d’y ajouter les frais de personnel, dans l’hypothèse d’une expérimentation dont la finalité n’est pas la recherche pure mais une démarche à visée commerciale ou publicitaire. Ainsi, dans un contexte purement commercial, le coût par sujet avoisinerait 800 €, sachant qu’une étude type requiert la participation de 15 à 25 personnes pour une durée moyenne de 45 à 60 minutes au total (Yoon et alii, 2006).

*** Insérer ici le Tableau 1 ***

Naturellement, les honoraires facturés par les cabinets spécialisés sont plus élevés. Selon le témoignage de l’un de ces cabinets, une étude portant sur 30 sujets peut atteindre 250.000 dollars US (Wells, 2003 ; 66). Dans un contexte plus hexagonal, le chercheur en neuroscience du consommateur devra soit rechercher une association avec une équipe de recherche médicale, soit rechercher un financement auprès d’investisseurs privés, afin d’opérer de manière autonome.

3.3. Conditions juridiques et éthiques liées à l’utilisation des techniques

Selon l'avis du Comité Consultatif National d'Ethique pour les sciences de la vie et de la santé (CCNE), la recherche biomédicale sur des sujets humains fut pratiquée de façon furtive, le plus souvent même, à l'insu des personnes concernées lorsqu'il s'agissait de malades, jusqu'à la loi Huriet-Sérusclat de 1988 qui « fit sortir la recherche de la clandestinité ». Cette loi du 20 décembre 1988, abondée par la loi n° 2004-800 du 6 août 2004 relative à la bioéthique, impose certaines procédures, dès lors qu’un sujet volontaire est soumis à des instrumentations biomédicales. Par exemple, les promoteurs d’une expérimentation financée par un établissement public doivent s’assurer au préalable de l’aval d’un comité d’éthique (un comité de protection des personnes [CPP]7 délivre une autorisation explicite d’expérimentation), du

Depuis le 28 août 2006, les Comités de protection des personnes (CPP) remplacent les Comités consultatifs de protection des personnes dans la recherche biomédicale (CCPPRB). Le décret 2006-477 du 26 avril 2006 précise les modalités d’application de la loi et décrit les modalités de fonctionnement du CPP (généralement à l’échelle

consentement libre et éclairé de chaque sujet et de la supervision des procédures par un

médecin.

Le point le plus délicat de la loi – et qui est le plus susceptible de donner lieu à des contestations juridiques – concerne la notion de consentement libre et éclairé. Le consentement éclairé consiste à recueillir l'acceptation du sujet à participer à l'expérimentation après qu’il en ait été informé et qu’il ait compris la procédure expérimentale, incluant les avantages et les inconvénients d'un tel type d'examen. L'information donnée aux volontaires doit être « loyale, claire et appropriée » (code de déontologie médicale, Art. 35), ainsi que « simple, accessible intelligible et loyale » (Charte du patient hospitalisé). L'investigateur leur fait connaître (1) l'objectif de la recherche, sa méthodologie et sa durée, (2) les bénéfices attendus, les contraintes et les risques prévisibles, (3) l'avis du Comité de protection des personnes (CPP). Cette démarche doit être actée par une formulation écrite et signée par le sujet volontaire (par exemple dans Plassman et alii, 2007 ou Deppe et alii, 2007).

En plus des contraintes purement légales ou réglementaires, le chercheur doit généralement obtenir au sein de son établissement de tutelle un agrément émanant du comité éthique local (Deppe et alii, 2007 ; Schaeffer & Rotte, 2006 ; Yoon et alii, 2006). Il est également souhaitable d’indiquer si les sujets volontaires ont été rémunérés. Knutson et alii (2007) citent une rémunération de 20 dollars de l’heure tandis que Yoon et alii (2006) indiquent un forfait global de 50 dollars par session.



4. LES OUTILS A DISPOSITION DU CHERCHEUR MARKETING

L'objectif de cette partie n'est pas de présenter de façon détaillée les techniques utilisées en neuro-imagerie, ce qui a déjà été fait de façon approfondie dans divers ouvrages (par exemple Cabeza & Kingstone, 2006) ou condensée dans des revues récentes (Amaro & Barker, 2006). Une présentation synthétique est cependant utile afin de bien comprendre l'intérêt croissant, mais aussi appréhender les nombreuses questions voire les peurs, suscités par l'utilisation des ces techniques.

4.1. Présentation des techniques d’imagerie chez l’Homme

régionale), composé de 14 membres qui votent l’autorisation de mener l’expérimentation proposée par un laboratoire.

Deux groupes de méthodes co-existent. Les premières reposent sur une mesure directe de l'activité cérébrale, les secondes sur une mesure indirecte de cette activité. 

Les mesures indirectes de l'activité cérébrale

Nous ne ferons que citer pour mémoire la tomographie par émission de positons (TEP) qui requiert l’injection de traceurs radioactifs au sujet testé. L’imagerie fonctionnelle par résonance magnétique (IRMf) qui ne nécessite pas l’utilisation de tels traceurs, permet la répétition des observations chez un même individu. Elle repose sur une différence de signature magnétique de l'hémoglobine selon que cette dernière est saturée ou non d'oxygène. La méthode la plus employée vise à détecter les variations de concentration locale en désoxyhémoglobine (méthode BOLD ; Blood Oxygen-Level Dependant) afin d'observer et d’enregistrer les variations de consommation d'oxygène et donc les variations de débit sanguin cérébral dans les diverses zones cérébrales. La résolution temporelle de cette méthode est faible (environ 4 à 6 secondes) mais la résolution spatiale est relativement satisfaisante (quelques millimètres) pour les scanners courants (1,5 teslas), voire exceptionnelle (100 microns) pour les scanners à champ intense (7 teslas et plus). Cependant, certaines régions cérébrales sont plus difficilement visualisées, en particulier le cortex orbitofrontal et le cortex temporal inférieur, du fait de la présence de cavités (sinus nasal, conduit auditif).

Nous pouvons également citer la technique récente (Hoshi, Chen & Tamura, 2001), plus frustre mais plus accessible, de l’imagerie en proche infrarouge (NIR imaging). Elle consiste à émettre des rayonnements infrarouges dans un casque au travers de la voûte crânienne. Le rayonnement électromagnétique, peu énergétique, ne pénètre le cerveau que sur quelques millimètres ; les photons incidents sont différentiellement réfléchis par l’oxyhémoglobine et la désoxyhémoglobine du sang et permettent donc de localiser des régions cérébrales activées. Une société japonaise propose désormais une version portable de son système comportant un bandeau de 400g et un boîtier enregistreur à la ceinture de 630g (Tabuchi, 2007). Le logiciel associé peut gérer simultanément jusqu’à 24 sujets porteurs (application potentielle en focus groupes). Ses principaux défauts sont la faible résolution spatiale (2 cm, soit plus de 10 fois la limite actuelle des IRMf) et l’impossibilité de scruter les zones subcorticales profondes. Néanmoins, pour des études d’activation dans des régions d’intérêt préétablies (pariétal et familiarité, préfrontal et décisions, par exemple), la technique peut s’avérer très efficace et

d’un bon rapport efficacité / prix. 

Les mesures directes de l'activité cérébrale

La plus ancienne méthode d'étude de l'activité cérébrale : l'électroencéphalographie (EEG) (Berger, 1929), vise à mesurer les variations de champ électrique présentes au niveau du scalp. Le développement de l'informatique a conduit à une amélioration de cette méthode en permettant de traiter les données issues d'un nombre beaucoup plus grand de capteurs (124 voire 264 capteurs sur un seul scalp). On parle alors de cartographie EEG et de potentiels évoqués. Cette méthode possède une excellente résolution temporelle (0,5 à 1 milliseconde) mais une très mauvaise précision spatiale (quelques millimètres à plusieurs centimètres). Par ailleurs, les régions les plus profondes du cerveau (noyaux gris centraux, amygdales, thalamus) ainsi que le cervelet, ne peuvent être étudiés pleinement avec les techniques électromagnétiques. Une seconde méthode, la magnétoencéphalographie (MEG) détecte les minuscules champs magnétiques générés par l’activité électrique des neurones synchronisés. Cette technique permet de suivre des processus cérébraux milliseconde par milliseconde, mais avec une résolution spatiale moyenne, de l’ordre de plusieurs millimètres. Ces techniques ne sont pas mutuellement exclusives et leur conjugaison permet de gagner des points de résolution appréciables (EEG + IRMf ou MEG + EEG, par exemple). Une synthèse des avantages et inconvénients de ces méthodes est portée dans le Tableau 2.

*** Insérer ici le Tableau 2 ***

Limites et réserves quant aux techniques de neuro-imagerie

L’utilisation de ces techniques impose en outre quelques contraintes au sujet testé. Lors de l’utilisation de la l'IRMf et de la MEG, le sujet ne doit absolument pas bouger la tête qui est souvent bloquée à l’aide de divers dispositifs. Par exemple, Knutson et alii (2007), dans leur étude relative aux décisions d’achat liées au niveau de prix, ont été contraints d’écarter 8 sujets de l’échantillon final « du fait de mouvements excessifs de la tête » (plus de 2 mm de variation). Plus encore, lors de l’utilisation de l’IRMf, le patient est étendu dans un tunnel très étroit et doit porter des bouchons acoustiques afin de diminuer le bruit généré par l’appareil en action. Ces désagréments sont néanmoins à nuancer au vu de certaines analyses qualitatives menées auprès de sujets volontaires (Senior et alii, 2007). Au regard de ces précédentes techniques, l’EEG paraît être une technique particulièrement souple, totalement indolore, non stressante, permettant au sujet de bouger. Des constructeurs ont ainsi récemment proposé des appareils permettant au sujet une grande liberté de mouvements ; il peut par exemple déambuler dans une grande surface commerciale (Mucha, 2005 ; Neuroco, 20079). Enfin, les techniques de neuro-imagerie exigent pour des raisons de non perturbation du champ magnétique, l’utilisation des matériels périphériques (présentation de stimuli visuels ou acoustiques, enregistrement de réponses comportementales etc.) à fibre optique qui ne génèrent pas de champ magnétique parasite.

D’ores et déjà, certaines améliorations voire innovations sont susceptibles de lever plusieurs limites abordées ici. Pour illustration, qu’il suffise de citer l’imagerie en infrarouge proche évoquée supra, la tractographie (IRM de diffusion; Le Bihan, 2007) qui permet d’observer les connexions structurales et fonctionnelles entre modules cérébraux, ou encore la stimulation magnétique transcranienne (TMS) qui permet une neuropsychologie clinique (étude de lésions et de déficits associés) ponctuelle et réversible. Le progrès neuroscientifique passe également par l’emploi de nouvelles techniques de traitement de l’information recueillie par l’imagerie : l’analyse en composantes indépendantes (ICA), les analyses discriminantes multiples (MDA) et l’analyse des schémas multivoxels (MVPA) viennent renforcer les analyses de variances et les modèles de régression linéaire, plus classiques. 

4.2. Interrogations soulevées par ces techniques

4.2.1. La sécurité matérielle liée aux champs magnétiques intenses

La sécurité des individus participant aux expérimentations est cruciale. Alors que dans un contexte médical un risque peut parfois être accepté au regard du bénéfice apporté par l'obtention d'images dans un cadre diagnostique, l'utilisation de telles techniques dans le cadre marchand (marketing, économie) doit évidemment tendre vers une absence totale de risque.

         Risques liés au champ magnétique statique 

Réputée relativement sans danger, l'IRM a parfois provoqué des accidents graves voire des décès (Kulynych, 2002). En fait, il s'agit de la seule technique d'imagerie médicale qui ait conduit au décès subit de plusieurs patients. Trois types d'accidents sont recensés : (1) « l'effet missile » (objets ferromagnétiques brutalement attirés jusqu'à l'aimant où se tient le sujet), (2) les mouvements des objets métalliques intracorporels (stimulateur cardiaque, clip anévrysmal)

Quantified Electroencephalography [] accédé le 27 août 2007.

et (3) les effets de couple (torsion d’un objet conducteur). Les articles neuromarketing les plus récents (Yoon et alii, 2006) citent nommément les facteurs d’exclusion principaux lors du recrutement des sujets (objets métalliques, grossesse, claustrophobie, dépendance aux drogues, certains médicaments etc.).

         Risques liés à la radiofréquence

La concentration du champ électromagnétique au voisinage des électrodes et autres dispositifs utilisés pour le monitorage des patients peut entraîner une production de chaleur localisée susceptible de provoquer des brûlures cutanées. D'autre part, l'examen IRM provoque un échauffement des tissus - le doublement du champ magnétique quadruple la puissance calorique dissipée – et l'importance de cet échauffement dépend de plusieurs facteurs (par exemple le poids du patient). Les normes de sécurité doivent éviter qu'un tissu ne subisse une élévation de température supérieure à 1°C.

         Risques biophysiologiques

Plusieurs effets ont été constatés comme des modifications de la fréquence cardiaque ou de l'électrocardiogramme sans cependant d'altération de la fonction cardiaque. Des vertiges, des phosphènes (vision de points lumineux), un goût métallique dans la bouche ont également été rapportés. Selon la plupart des auteurs, les données actuelles de la littérature permettent de conclure qu'il n'existe pas de risque de cancer ou de leucémie induit par des expositions, mêmes répétées, aux champs magnétiques.

Une remarque finale, en forme de réserve, doit cependant être ajoutée. Les données recueillies jusqu'à ce jour sur les risques liés à l'examen IRM concernent des examens réalisés avec des machines générant des champs magnétiques variant de 0,5 à 1,5 Tesla10. Or, les machines récentes sont conçues pour générer des champs pouvant aller jusqu'à 7 Teslas voire au-delà. A titre d'exemple, le centre de recherche pluridisciplinaire d’Orsay dédié à l'étude du cerveau (NeuroSpin) est aujourd'hui équipé de deux aimants de 3 et 7 Teslas permettant d'obtenir une résolution 4 fois supérieure à celle des appareils équipant la quasi totalité des hôpitaux. D’ici 2011, les équipes de NeuroSpin prévoient le fonctionnement d’un aimant de 11,7 Teslas,

La classification la plus courante affecte la dénomination de «champ « faible » si le champ généré par la machine est inférieur à 0,5 Tesla (T), de champ « moyen » pour un champ compris entre 0,5 et 1 T, de champ « fort » pour un champ de 1,5 T et de champ « très fort » pour un champ de 3T.

puissance inégalée à ce jour dans le monde et destinée aux études sur l’homme. Des travaux d’évaluation sanitaire récents semblent néanmoins indiquer une innocuité jusqu’à au moins 10 Teslas (Seiyama et alii, 2005).

4.2.2. Les incidences éthiques et les découvertes inopinées

L'utilisation de techniques d'imagerie qui sont conçues à l'origine pour poser des diagnostics médicaux, peut conduire à la découverte d'anomalies ou plus exactement au repérage d'une « image » qui n'est pas dans les normes. Cette situation est presque banale puisque Illes et alii (2002) rapportent des découvertes d'anomalies dans environ 30% des cas et que 82% des chercheurs qui utilisent les techniques d'imagerie disent avoir été confrontés à cette situation. Se pose alors la question de la nécessité de révéler au sujet cette anomalie anatomique. A la suite de cette annonce (si elle est faite), l'attitude du sujet face à la vie peut être fortement modifiée. Une découverte fortuite peut également avoir pour conséquence, une difficulté voire une impossibilité pour le sujet à contracter des assurances (cité par Hüsing, Jäncke & Tag, 2006). Aux USA en particulier, la responsabilité des chercheurs est évoquée quant aux conséquences d'un diagnostic médical qui serait totalement sans rapport avec l'objectif des recherches entreprises. Dans les études neuromarketing récentes, les chercheurs demandent explicitement aux sujets volontaires de décider par écrit s’ils souhaitent ou non être informés de toute anomalie détectée en cours de scan (par exemple Deppe et alii, 2007 ; 1120).

4.2.3. L’interprétation des images d’activation

Concernant l’IRMf, la méthode la plus employée vise à détecter les variations de concentration locale en désoxyhémoglobine (méthode BOLD ; cf. supra). Des débats existent dans la communauté scientifique sur ce que signifie exactement la réponse BOLD. La plupart des chercheurs reconnaissent cependant que le signal BOLD est bien corrélé à l’activité neuronale : une augmentation du signal correspond à une activité neuronale plus élevée. Néanmoins, une carte statistique avec une échelle de probabilité en couleurs n’est pas une fin en soi et il convient de se garder d’une fascination iconique. De même que la carte n’est pas le territoire, la carte statistique n’est pas l’activation d’un réseau neuronal ni le processus cognitif sous-jacent : ce serait même la photocopie de la reproduction de la carte du territoire… Un autre point litigieux concerne la différence entre la connaissance des fonctions exercées de certaines structures cérébrales – par exemple l’hippocampe, le cortex préfrontal et le cortex médiotemporal pour la mémorisation – et le contenu purement phénoménologique, « abrité » par ces fonctions. La détection de l’activité de la zone hippocampique ou temporale ne nous renseigne que grossièrement sur « ce que le sujet mémorise », a fortiori sur ce que ressent le sujet en se souvenant de quelque chose. La « lecture fine des pensées » n’est pas encore d’actualité.

5. CONCEPTION DES PROTOCOLES EXPERIMENTAUX EN IMAGERIE CEREBRALE 

Nous n’aborderons ici, pour des raisons de concision, que l’IRM fonctionnelle, technique majoritairement utilisée en neuroéconomie et en neuromarketing. En outre, si les travaux publiés en neuromarketing entre 2000 et 2004 mobilisaient une variété de techniques d’imagerie (EEG, MEG et IRMf), en revanche la totalité des expérimentations à partir de 2005 ne recourt qu’à l’IRM fonctionnelle.

De manière très schématique, il s’agit de mettre le cerveau d’un sujet dans un champ magnétique interne (B0), de transmettre sporadiquement des ondes radiofréquences vers le patient (période de 3 millisecondes environ) et de recevoir ensuite les ondes radio réémises par le sujet (réception sur 10 à 100 ms : ce n’est donc pas un « instantané ») que l’on enregistre sous forme de séries chronologiques. Les traitements des données brutes permettent de reconstruire des images en 2 (des tranches) puis en 3 dimensions (volume cérébral entier). L’intérêt est ici d’évaluer les variations d’intensité du signal RM en fonction des stimuli présentés ou des tâches effectuées par le sujet. Le sang qui contient moins d’oxygène (désoxyhémoglobine) renvoie un signal RM plus faible que le sang oxygéné

(oxyhémoglobine). On visualise ainsi les zones cérébrales les plus activées. Il s’agit toujours in fine de comparer des réponses suscitées (par un stimulus ou une tâche) à celles correspondant à un état de repos ou à un état qui ne comprend pas la fonction perceptive ou cognitive étudiée. En termes épistémologiques, on peut envisager de telles expérimentations en amont selon une approche hypothético-déductive (hypothèses théoriques validées ou non par l’imagerie ; Henson, 2006) ou selon une approche dite d’inférence inverse, plus courante désormais du fait du corpus publié, qui consiste à observer des activations cérébrales résultantes et inférer ensuite des processus cognitifs selon leur localisation et leur mode d’apparition, avec le risque potentiel d’une « néophrénologie » mal maîtrisée.

Il convient alors pour le chercheur concevant une expérimentation, selon Amaro & Barker (2006) de déterminer (a) les formes de comparaison entre états cérébraux, (b) les modalités de présentation de stimuli et (c) d’opter pour les modalités d’acquisition du signal RM, qui dicteront les traitements statistiques ultérieurs. Nous passerons rapidement en revue ces points (avec leurs éléments les plus courants) qui doivent être impérativement abordés ex ante par le chercheur.

5.1. Configurations comparatives

5.1.1. Méthode soustractive (design catégorique) 

Le chercheur fait ici une hypothèse dite de « pure insertion », c’est-à-dire qu’il s’efforce de concevoir deux tâches ou deux catégories de stimuli qui vont ne différer que sur un seul processus cognitif P à étudier. Le contraste consistera à faire la différence entre les activations consécutives à une tâche avec P et celles consécutives à une tâche sans P (condition de contrôle ou de repos).



5.1.2. Approche factorielle

Les designs factoriels – familiers à la recherche marketing – consistent à combiner deux facteurs (un stimulus et une tâche par exemple) et à étudier leurs effets principaux (effet du stimulus et effet de la tâche) ainsi que les effets de leur interaction (stimulus x tâche). 

5.1.3. Approche paramétrique (neurométrique)

Ce type de design expérimental vise à réduire le problème de la condition de contrôle ou de repos, en variant sur un continuum les divers degrés d’expression du processus P à étudier. Par exemple, le niveau de saturation d’une teinte donnée sera progressivement augmenté (d’un facteur n>2) de même que la fréquence d’apparition de mots à classifier sera croissante. On suppose alors que l’activation de la zone sous-tendant la fonction P suivra une fonction de réponse (linéaire, quadratique etc.).

Bien que l’essentiel des données recueillies soient les mesures du signal RM, il est cependant conseillé d’adjoindre à ces dernières des mesures comportementales (choix de préférence, reconnaissance d’un logo, décision d’achat etc.) par le biais de boutons-poussoirs (Yoon et alii, 2006). Il est envisageable de compléter ces mesures par des évaluations plus conventionnelles sous forme de questionnaires (par exemple : échelles d’attitude) administrés avant ou après imagerie (Deppe et alii, 2007). Nous avons vu supra que 15 à 25 sujets étaient recrutés pour de telles études. Ce nombre peut sembler faible, voire insuffisant à l’aune des approches quantitatives du marketing, mais il est représentatif des études d’imagerie (Plassman et alii, 2007). En effet, les unités statistiques traitées ici sont les voxels (signal RM) et non les individus. Ce sont donc des dizaines ou des centaines de stimuli successifs qui

génèrent des dizaines de milliers de réponses BOLD.

5.2. Types de présentation des stimuli

Dans ce cadre, le sujet peut être purement passif ou sollicité pour agir après exposition. Les stimuli peuvent être visuels (Zeki, 2001), auditifs (Zatorre, Belin & Penhune, 2002), gustatifs (Kringelbach, de Araujo & Rolls, 2004), tactiles (Reed, Klatzky & Halgren, 2005) ou olfactifs (Doty, 2001). Le traitement neuronal de l’information qui sera mesuré via le signal RM peut être conscient ou implicite, central ou périphérique. On distingue généralement (Culham, 2006) des présentations par blocs, par potentiels évoqués ou mixtes.

5.2.1. Présentation par blocs (boxcar)

La méthode consiste à présenter successivement durant plusieurs secondes (le temps laissé à la réponse hémodynamique) plusieurs stimuli d’une même condition ou d’une même catégorie, en alternance avec des stimuli d’une autre condition, voire des stimuli « neutres » de contrôle. On aura ainsi la succession AAAAABBBBBAAAAA ou AAA___BBB___AAA pour étudier les différences d’activation entre la condition A et la condition B. Par exemple, pour localiser le module cérébral du traitement des couleurs, on alternera des séquences d’images en couleurs et des mêmes images en noir et blanc. L’avantage de ce type de présentation est la détection facilitée d’une activation et la localisation d’une zone bien spécifique.

5.2.2. Potentiels évoqués

Il s’agit ici d’alterner les conditions expérimentales de façon randomisée afin de limiter les effets d’atténuation. Les traitements post-hoc permettent de « démêler » les réponses cérébrales successives. Le paradigme est adapté pour estimer les effets d’objets nouveaux ou surprenants, s’inscrivant dans un décours temporel réduit. Le séquençage des stimuli sera modulé par itération de permutations des blocs initiaux. On aura ainsi par exemple la succession A_BB_BAA_BBB_BBAA_AAA.

5.2.3. Formules mixtes ou rapides

Dans certains paradigmes expérimentaux, l’intervalle inter stimulus est plus court que la fonction de réponse hémodynamique générée par les stimuli précédents (Amaro & Barker, 2006). Ceci améliore la puissance statistique des données collectées, tout en réduisant la capacité de discrimination des réponses BOLD. Les auteurs suggèrent un intervalle inter-

stimulus variable avec un minimum de 4 secondes entre les stimuli.

5.3. Modalités d’acquisition des images et de traitement

5.3.1. Acquisition des images

Dans la mesure où la technologie actuelle ne permet pas d’obtenir instantanément un nombre important de tranches qui permettent de reconstituer un volume cérébral entier, des choix initiaux en matière d’imagerie doivent être effectués par le chercheur. En particulier, l’expérimentateur doit préciser le nombre de tranches, ainsi que leur orientation, leur épaisseur et leur résolution. Ces choix induiront la durée nécessaire pour prendre un volume cérébral entier, ainsi que le nombre de blocs envisageables dans une session individuelle. On comprendra que plus on souhaitera de tranches (de plus en plus fines), plus le temps d’acquisition sera long, de même que meilleure sera la résolution (par exemple 124x124 pixels contre 64x64 pixels dans une tranche donnée), plus réduit sera le nombre de tranches (pour une durée donnée).

5.3.2. Prétraitement et analyse des images

Avant l’application des algorithmes de traitement statistique, les images brutes collectées doivent être traitées et affinées. Naturellement, les choix initiaux évoqués supra sont cruciaux. On peut résumer succinctement les étapes de prétraitement en citant les séquences suivantes (lors de scans en mode séquentiel) : on supprime les premières mesures non stabilisées, on corrige les artéfacts éventuels dus aux mouvements, on aligne toutes les « tranches » d’un même individu, que l’on positionne sur un cliché structurel précis. Ensuite, on corrige le décalage temporel d’acquisition, avant superposer tous les individus sur un même cerveau « moyen ». Enfin, un lissage spatial est réalisé pour améliorer le rapport signal/bruit et les zones neuronales et axonales sont présentées sur des cartes différentes.

5.3.3. Traitements statistiques

Pour l’essentiel, la méthode conventionnelle en matière de traitements statistiques consiste à effectuer des analyses de variances et des tests t. Il s’agit de connaître, pour chacun des pixels (d’une tranche) ou voxels (d’un volume) le degré de confiance, c’est à dire évaluer les chances que leur activation à un moment donné soit due au seul hasard. Un seuil de p<0,05 est généralement choisi mais une correction pour comparaisons multiples doit être effectuée : en effet, un seuil de 5% pourrait indiquer plus de 2.000 voxels « actifs » d’un volume, qui le seraient par pur hasard. Les seuils de significativité exigés en imagerie sont sensiblement plus conservateurs qu’en marketing : des valeurs de z supérieures à 3 sont courantes avec des valeurs de p inférieures à 0,0001. La significativité de ces activations dépend du signal RM lui-même, du bruit présent et de la taille de l’échantillon (nombre de points de mesure). Le modèle linéaire général (GLM) est également employé couramment. Des programmes informatiques variés, commerciaux ou partagés, sont utilisés par les chercheurs. Pour le traitement des signaux IRM, des logiciels tels que AFNI (Analysis of Functional NeuroImages), SPM 5 (Statistical Parametric Mapping), ou Brain VoyagerTM  sont utilisés pour obtenir in fine des cartes statistiques interprétables. Depuis quelques années, de nouvelles approches statistiques sont également déployées pour affiner l’analyse des activations. Citons pour mémoire l’analyse en composantes indépendantes, l’analyse de corrélations inverses, l’analyse discriminante multiple (MDA) et l’analyse de schémas multivoxels (MVPA). Ces deux dernières catégories permettent également de révéler des groupes discrets de neurones qui déchargent de manière synchrone et qui codent pour le même événement ou la même catégorie d’évènements et qui auraient été omis dans un paradigme soustractif simple.

Dans le cadre des traitements statistiques et des cartographies fonctionnelles, on s’intéressera soit à la totalité du cerveau (whole brain) en matière de zones activées si l’on ne dispose pas d’hypothèses théoriques précises a priori sur des processus cognitifs étudiés et leurs localisations, soit seulement à des régions d’intérêt (ROI, region of interest) si l’on se fonde sur des bases théoriques solidement étayées par des études antérieures. Si l’on étudie des réponses cérébrales à des stimuli chromatiques par exemple, on s’intéressera au gyrus fusiforme qui comprend l’aire visuelle 4 et 4 alpha, de même qu’on observera attentivement les clichés des noyaux amygdaliens si l’on travaille sur des processus de traitement affectif. 

6. PERSPECTIVES ET VOIES DE RECHERCHE  

La plupart des méthodes classiques d’étude de l’individu (et du consommateur) sont basées sur des réponses comportementales que ce soit en terme de verbatim (« j’aime parce que ») ou en terme d’actions corporelles, déployées ou inhibées. Elles peuvent parfois intégrer la chronométrie des temps de réponse par rapport à un temps de base. L’émergence de nouvelles techniques d’imagerie permet pour la première fois d’appréhender des processus jusqu’alors jugés inexpugnables, parce qu’indicibles ou inconscients. Il est désormais possible d’étudier quasiment en temps réel la chronologie d’un processus cognitif et/ou affectif, consécutif à des stimuli émis ou des tâches volontaires, indépendamment des divers biais exprimables verbalement par le sujet. Le recours à l’imagerie par la « neuroscience du consommateur » permet donc de découvrir des informations inédites, d’évaluer objectivement des réponses, voire de trancher entre des hypothèses théoriques antagonistes, en place depuis des décennies (par exemple le débat de la primauté affectif / cognitif ou bien la réalité d’une perception périphérique ou subliminale).

L’examen des productions neuroscientifiques cognitives ou affectives (articles publiés) est également riche d’enseignements pour le chercheur en marketing. En effet, nombre d’expérimentations qui n’ont pas explicitement de problématique marketing ou commerciale, contiennent néanmoins des éléments qui éclairent de manière bénéfique certains phénomènes perceptuels, décisionnels ou comportementaux observés et/ou supposés chez le consommateur. A titre d’illustration, on peut citer trois exemples de neuro-imagerie (parmi de nombreux autres) qui pourraient inciter les mercaticiens à mener et poursuivre une « veille » neuroscientifique efficace.

Exemple 1 : l’attractivité de la beauté faciale (Johnston, 2006). Une étude recourant au morphing pour varier des traits distinctifs du visage montre des appréciations différentielles d’un même visage masculin pour les femmes et les hommes évaluateurs : les femmes préfèrent une version plus virile du visage que celle des hommes, qui le préfèrent plus féminin ou juvénile. Les auteurs ont qualifié ces préférences de profils « amant » ou « copain ». Les visages les plus appréciés activent le circuit de récompense (noyau accumbens en particulier). On peut alors imaginer qu’une publicité presse (pour un produit ou d’un service unisexe) mettant en scène un mannequin, soit adaptée et « morphée » selon le support concerné et le genre majoritaire de son lectorat.

Exemple 2 : les neurones miroirs (Iacoboni & Dapretto, 2006). Un corpus considérable s’est accumulé depuis quelques années sur l’empathie et la théorie de l’esprit, à savoir la capacité humaine de ressentir les émotions d’autrui ou de deviner ses intentions, au travers de ses comportements moteurs, posturaux et langagiers (Kaplan & Iacoboni, 2006). Des « neurones miroirs » ont été mis en évidence dans le cortex pariétal antérieur, qui s’activent lorsqu’on fait un geste particulier, lorsqu’on imagine le faire ou encore lorsqu’on le voit s’accomplir chez autrui (même de façon statique sur une photo). Ces neurones miroirs seraient le substrat neuronal de l’empathie mais aussi de l’apprentissage vicariant (par imitation, simulée ou effectuée). Il apparaît dès lors que toute « présentation produit » doit se faire en situation avec un utilisateur actif, pour que les neurones miroirs du regardant soient activés « comme si » le geste était réalisé. Cette « empathie » motrice serait plus persuasive que la vision simple du produit.

Exemple 3 : le sens du nombre (Dehaene, 1997). Des expérimentations désormais nombreuses, portent sur les facultés arithmétiques de l’individu, sur son sens du nombre (numérosité), sujets d’étude en partie initiés par la recherche française. Nous utilisons deux modules cérébraux distincts selon que nous souhaitons dans un calcul mental obtenir un résultat juste ou bien une simple approximation (Piazza et Dehaene, 2004). Nous disposerions même d’une représentation mentale spatiale de cette numérosité, nous donnant des perceptions intuitives de grandeur ou de comparaison. Ces éléments apportent assurément une lumière complémentaire sur la perception des mantisses de prix (Bizer & Schindler, 2006) ou sur l’intégration cognitive d’une nouvelle devise monétaire (Marques & Dehaene, 2004).

Les sciences humaines et sociales ne peuvent plus ignorer ou écarter les progrès importants enregistrés par les neurosciences depuis près de deux décennies. Ils laissent entrevoir à terme une élucidation de nombreux processus cognitifs, tout comme une compréhension grandissante des interactions affect/cognition, primordiales dans les contextes marketing. L’imagerie cérébrale, par une meilleure lecture des évènements psychiques individuels, autorise des percées théoriques et des expérimentations inédites jusqu’alors et peut donc agir en juge de paix pour le marketing, en tranchant entre différents modèles (psychologiques) explicatifs. Ainsi selon nous, pour maîtriser durablement son domaine de prédilection, le chercheur en marketing (et RCC) doit résolument évoluer en un chercheur en « neuroscience du consommateur ». Mais il ne doit pas cependant céder au « syndrome de l’arbre de Noël » (focalisation sur les zones d’activation des clichés d’imagerie) et, au delà de la fascination légitime, il doit s’attacher aux incidences théoriques des activations constatées, pour amender ses cadres théoriques et abonder les corpus.

Stanislas Dehaene (Professeur au Collège de France) se demandait en 1997 dans son ouvrage « Le cerveau en action », « s’il sera possible à un grand laboratoire, dans 10 ou 20 ans, de pratiquer la psychologie sans avoir accès aux méthodes d’imagerie cérébrale fonctionnelle ». Dix ans plus tard, les chercheurs en marketing et RCC sont désormais confrontés à une question similaire : pourra-t-on étudier le consommateur sans avoir accès aux méthodes d’imagerie ? Les récentes publications dans les revues ou congrès internationaux esquissent le contour d’une réponse négative. Les auteurs de cet article espèrent que ce travail favorisera une meilleure appropriation du paradigme neuroscientifique et de ses techniques émergentes, qui ne pourront être ignorés par la recherche marketing future.

RÉFÉRENCES  

Amaro Jr. E. et Barker G.J. (2006), Study design in fMRI: Basic principles, Brain and Cognition, 60, 3, 220-232.

Ambler T., Braeutigam, Stins J., Rose S.P., Swithenby S. (2004), Salience and choice: neural correlates of shopping decisions, Psychology & Marketing, 21, 4, 247-266. 

Averill J.R. (1969). Autonomic response patterns during sadness and mirth. Psychophysiology, 5, 399-414.

Barraclough D.J., Conroy M.L. et Lee D. (2004), Prefrontal cortex and decision making in a mixed-strategy game, Nature Neuroscience, 7, 404-410.

Bartels, R. (1976), The history of marketing Thought,” 2 ed., 1-33.

Berger H. (1929), Ueber das Elektroenkephalogramm des Menschen, Archiv für Psychiatrie und Nervenkrankheiten, Berlin, 87, 527-570.

Berman M. G., Jonides J., et D. E. Nee (2006) , Studying mind and brain with fMRI, Studies in Cognitive and Affective Neuroscience, 1, 158-161.

Berns G.S. (2005), Price, placebo, and the brain, Journal of Marketing Research, 42, 399–400. Berns G.S. et alii (2007), Receptor theory and biological constraints on value, Annuals N.Y. Academy of Science, 1104, 301–309.

Bizer G.Y. et R.M. Schindler (2005), Direct evidence of ending-digit drop-off in price information processing, Psychology & Marketing, 22, 10, 771–783.

Cabeza R. et Kingstone A. (2006), Handbook of functionnal neuroimaging of cognition, MIT Press.

Camerer C., Loewenstein G et D. Prelec (2005), Neuroeconomics: How neuroscience can inform economics, Journal of Economic Literature, 43, 9–64.

Culham J.C. (2006), Functional neuroimaging: Experimental design and analysis, in Cabeza Roberto et Alan Kingstone (Eds.), Handbook of functional neuroimaging of cognition, 53-82.

Decety J. et Keenan J.P. (2006), Social Neuroscience: A new journal, 1 (1), 1-4.

Dehaene S. (1997), Le cerveau en action, Paris: Presses Universitaires de France.

Dehaene S. (1997), The Number Sense: How the mind creates mathematics, New-York: Oxford University Press.

Dehaene S, Piazza M., Pinel P., Cohen L. (2003), Three parietal circuits for the number processing, Cognitive Neuropsychology, 20, 487-506.



Deppe M., Schwindt W., Pieper A., Kugel H., Plassman H., Kenning P., Deppe K., Ringelstein E.B. (2007), Anterior cingulate reflects susceptibility to framing during attractiveness evaluation, Neuroreport, 18, 11, 1119-1123.

Doty R.L. (2001), Olfaction, Annual Review of Psychology, 52, 423-452.

Droulers O. & Roullet B. (2007), Emergence du Neuromarketing : Apports et Perspectives pour les Praticiens et les Chercheurs, Décisions Marketing, 46, avril-juin, 1-14.

Farah Martha J., Neuroethics: the practical and the philosophical, Trends in Cognitive Sciences, 9, 1, 34-40.

Freese J., Allen Li J.C., Wade L.D. (2003), The potential relevances of biology to social inquiry, Annual Review of Sociology, 29, 233–256.

Goswami U. (2006), Neuroscience and education: from research to practice ?, Nature Reviews Neuroscience, 7, 406-413.

Henson R. (2006), Forward inference using functional neuroimaging: dissociations versus associations, Trends in Cognitive Sciences, 10, 2, 64-69.

Ho T.H., Lim N., Camerer C.F. (2006), Modeling the psychology of consumer and firm behavior with behavioral economics, Journal of Marketing Research, 43, 307–331.

Hoshi Y. et alii (2001), Spatiotemporal imaging of human brain activity by functional nearinfrared spectroscopy, American Laboratory, October, 35-39.

Hüsing B., Jäncke L., Tag B. (2006), Impact assessment of neuroimaging, Vdf, Zürick, Suisse. 

Iacoboni Marco et Dapretto M. (2006), The mirror neuron system and the consequences of its dysfunction, Nature Reviews Neuroscience, 7, 942-951.

Illes J., Desmond J.E., Huang L.F., Raffin T.A., Atlas S.W. (2002), Ethical and practical consideration in managing incidental findings in functional magnetic resonance imaging, Brain and Cognition, 50, 3, 358-365. 

Johnson E.J. (2006), Things that go bump in the mind: How behavioral economics could invigorate marketing, Journal of Marketing Research, 43, 337–340.

Kaplan J.T. et Iacoboni M. (2006), Getting a grip on other minds: Mirror neurons, intention understanding, and cognitive empathy, Studies in Cognitive and Affective Neuroscience, 1, 1-2, 175-183.

Kenning P. et Plassman H. (2005), NeuroEconomics : an overview from an economic perspective, Brain Research Bulletin, 67, 343-354.

Klebba Joanne M. (1985). Physiological measures of research: A review of brain activity, Electrodermal Response, Pupil Dilation, and Voice Analysis Methods and Studies. Current Issues and Research in Advertising, 8, 1, 53- 76.

Knutson K.M. et alii (2006), Politics on the brain: An fMRI investigation, Social Neuroscience, 2006, 1, 1, 25-40.

Knutson B. et alii (2007), Neural predictors of purchases, Neuron, 53, 147–156.

Kringelbach M.L., de Araujo I.E.T., Rolls E.T. (2004), Taste-related activity in the human dorsolateral prefrontal cortex, NeuroImage, 21, 781-788.

Kulynych J. (2002), Legal and ethical issues in neuroimaging research, Brain and Cognition, 50, 3, 345-357.

Lee, Broderick Lee N., Broderick A.J. et Chamberlain L. (2007), What is ‘neuromarketing’? A discussion and agenda for future research, International Journal of Psychophysiology, 63, 2, 199-204.

McCabe K. (2003), Neuroeconomics, Encyclopedia of Cognitive Science, Lynn Nadel ed., Nature Publishing Group, Macmillan Publishers Ltd., 3, 294-298.

Marques J.F. et Dehaene S. (2004), Developing intuition for prices in euros: rescaling or relearning prices ?, Journal of Experimental Psychology: Applied, 10, 3, 148–155.

Mucha T. (2005), This is your brain on advertising, Business 2.0, August, 35-37.

Northoff G. (2004), What is neurophilosophy? A methodological account, Journal for General Philosophy of Science, 35, 1, 91-127.

Parasuraman R. (2003), Neuroergonomics: research and practice, Theoretical Issues in Ergonomics Science, 4, 1–2, 5–20.

Peterson, R.L. (2005), The Neuroscience of Investing: FMRI of the reward system, Brain Research Bulletin, 67, 5, 391-397.

Piazza M. et Dehaene S. (2004), From number neurons To mental arithmetic: The Cognitive Neuroscience Of Number Sense, in Gazzaniga “The Cognitive Neuroscience, 3rd ed., 865–876.

Plassman et alii (2007), What can advertisers learn from neuroscience?, International Journal of Advertising, 26, 2, 151–175.

Reed C.L., Klatzky R.L., Halgren E. (2005), What vs. where in touch: an fMRI study, NeuroImage, 25, 718-726. 

Rosbergen E., Pieters R., Wedel M. (1997), Visual attention to advertising: A segment-level analysis, The Journal of Consumer Research, 24, 3, 305-314.

Roullet B. (2005), Naturalisation des concepts en marketing, l’apport des neurosciences, in L’importation et la transplantation de concepts en Sciences Humaines et Sociales, Editions Apogée, Rennes, Chapitre 8, p 225-248.

Schaeffer M. et Rotte M. (2006), Favorite brands as cultural objects modulate reward circuit, NeuroReport, 18, 2, 141-145. 

Seiyama S. et alii (2005), Paramagnetic artifact and safety criteria for human brain mapping, Dynamic Medicine, 4, 5, doi:10.1186/1476-5918-4-5.

Senior C., Smyth H., Cooke R., Shaw R.L., Peel E. (2007), Mapping the mind for the modern market researcher, Qualitative Market Research, 10, 2, 153-167.

Tabuchi H. (2007), Hitachi: Move the train with your brain, 22nd June, Associated Press/AP Online.

Wells M. (2003), In Search of the Buy Button, Forbes, September 1st, 62-70.

Yoon C., Gutchess A.H., Feinberg F. et Polk T. A. (2006), A functional magnetic resonance imaging study of neural dissociations between brand and person judgments, Journal of Consumer Research, 33, 31–40.

Zatorre R.J, Belin P., Penhune V.B. (2002), Structure and function of auditory cortex: music and speech, Trends in Cognitive Sciences, 6, 37-46.

Zeki S. (2001), Localization and globalization in conscious vision, Annual Review in Neuroscience, 24, 57–86.

Figure 1: Nombre d'articles annuels publiés par technique

Nombre d'études publiées depuis 1990

1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007

 Cumul fMRI à 2007

Cumul MEG à 2007

Figure 2: Nombre d'études IRM et MEG publiées depuis 1990

Tableau 1 : Les coûts indicatifs des différentes techniques d’imagerie (2006)

Imagerie                  Source                    Coût                        Coûts                 Coûts horaires

investissement maintenance (hors RH) matériel annuelle (euros)

                                                                                  (k euros)                  (k euros)

TEP*                     métabolique          1.200-2.500                 120-180                    320-650

IRMf                     métabolique          1.000-2.000                 100-130                    260-400

EEG/PE électrique 80-100 1-2 40-50 MEG magnétique 1.000-1.600 90-110 200-300

* Les coûts varient selon l’affectation comptable des investissements et des coûts de fonctionnement propres au cyclotron qui, en plus de l’imagerie, sert également à la médecine radioactive (traitements des cancers etc.).

Tableau 2 : Les principales caractéristiques des méthodes d’imagerie cérébrale

Accessibilité

Coût

Résolution spatiale

Résolution temporelle

Innocuité

TEP

+

- -

- -

-

IRMf

- -

-

+ +

-

+

EEG/PE

++

++

- -

+ +

+ +

MEG

- -

- -

+ +

+

Annexe 1 : Variété des techniques de mesure objective susceptibles d’être employées en marketing et RCC

Technique Envisageable

Thématique Marketing

Recensions et études 

(exemples) a

EEG / PE

impact pub

Hansen (1981) ; Rothschild & Hyun (1990)

Poursuite oculaire b

saillance pub

Rosbergen, Pieters & Wedel (1997 ; 2007)

Réponse électrodermale (RED)

activation 

Vanden Abeele & MacLachlan (1994)

Electromyographie faciale (EMG)

valence

Cacioppo & Petty (1982) ; Pincus (1992), Hazlett & Hazlett (1999)

Pouls / Pression artérielle

activation

Hunt (1988)

Rythme respiratoire (plethysmographie)

impact pub

Averill (1969)

Dilatation pupillaire

impact pub

Krugman (1964) ; Arch (1979) ; Klebba (1985)

Thermographie

-

NC

Spectroscopie NIRS

-

NC

Stimulation magnétique TMS

-

NC

Fréquences vocales

valence émotionnelle

Brickman (1976 ; 1980) ; Klebba (1985)

PET

-

NC

MEG

décision achat

Braeutigam et alii (2001) ; Ioannides et alii (2000)

fMRI

marque & récompense

Yoon et alii (2006) ; Schaefer et alii (2007)

a Les références indiquées ici n’ont pas la prétention d’être exhaustives. Selon les cas, elles citent des études princeps ou représentatives de la technique employée. Les mesures objectives de réponses affectives ont fait l’objet de recensions spécifiques (Wiles & Cornwell, 1990 ; Derbaix & Poncin, 1998, par exemple).b « Eye-tracking » ; 

27



[1] Le rédacteur en chef (Jean Decety) est non seulement français mais aussi un éminent neuroscientifique recherchant les corrélats neuronaux de l’empathie et des traitements cognitifs égocentrés. Il est professeur au Département de Psychologie à l’Université de Chicago. Sur les thèmes du soi et de l’empathie, voir par exemple Decety & Jackson (2006) ou Decety & Grèzes (2006).

En mars 2007, la revue « Mind, Brain, and Education » a été fondée pour ancrer les sciences de l’éducation dans le paradigme neuroscientifique.

Des designs expérimentaux particuliers en IRMf (potentiels évoqués rapides, jittering et imagerie parallèle) permettent de réduire ces latences et d’accroître la résolution (Amaro & Barker, 2006).

[4] Le bruit statistique, c’est-à-dire la variance inexpliquée des données, peut être dû aux fluctuations magnétiques de l’aimant, aux mouvements involontaires et aux vrais bruits physiologiques du sujet (respiration, rythme cardiaque, bruit thermique), ainsi qu’aux perturbations extérieures (circulation, appareillages électriques, rayonnement micro-onde etc.).

Méthode d'animation en image de synthèse, qui consiste à passer progressivement d'une image à une autre, de la façon la plus continue possible, et créant ainsi des images qu'on ne peut voir autrement (). / Désigne un procédé par lequel une image synthétique se fond et devient une autre image.

[6] Voire trois circuits pariétaux, si l’on prend en compte un premier module, aspécifique, qui s’active quelles que soient les représentations apparentes d’une quantité (Dehaene et alii, 2003).


0