Cours gratuits » Cours finance » Cours Forex » Dcument de cours complet sur le trading pdf

Dcument de cours complet sur le trading pdf

Problème à signaler:

Télécharger



★★★★★★★★★★3.5 étoiles sur 5 basé sur 1 votes.
Votez ce document:


 

2 SOMMAIRE JANVIER-FÉVRIER-MARS 2018

ÉDITO La différence avec Jaurès Amar Bellal . 3

Contre la privatisation de l’hydro ! Jérémie Giono 4

Hommage à Jean-Pierre Kahane .. 7

DOSSIER OÙ VA LA FINANCE ?

ÉDITO Une logique folle Peppino Terpolilli ..15

Les marchés financiers et leurs risques Nicole El Karoui .10

Les mathématiques responsables de la crise ? Jean-Pierre Kahane 14

Le coût des marchés financiers Alain Tournebise .15

Une crise financière désormais ch

ronique François Leclerc .18 Principes et applications de la blockchain Anna Scius-Bertrand 22

Derrière le bitcoin, quel avenir pour la technologie blockchain ? Éric Bevillard ..23

Le bitcoin, un cheval de Troie de la finance Frédéric Rauch 26

Cryptomonnaies : usages et pratiques Laurence Allard ..28

La finance… Que faire ? Denis Durand 30

BRÈVES 34-35

SCIENCE ET TECHNOLOGIE

HISTOIRE DES SCIENCES Jules, Michel, Albert, Gustave et l’origine de E = mc2 Jacques Crovisier 36

ÉDITION La publication scientifique : une mauvaise affaire pour la science Geoffrey Bodenhausen, Evariste Sanchez-Palencia 38

TRAVAIL, ENTREPRISE & INDUSTRIE

SERVICES L’aide à domicile, entre services à la personne et action sociale François-Xavier Devetter . 40

FORMATION Travail prescrit-travail réel : du prédictible à l’imprévisible Sylvain Leduc .. 42

ÉCONOMIE Entreprises, péréquation et socialisation des richesses Benoît Borrits . 44

ENVIRONNEMENT & SOCIÉTÉ

ÉCOLOGIE Enjeux scientifiques ou publicité et démagogie? Luc Foulquier .. 46 AGRICULTURE OGM-PGM, agriculture et progrès Claude Seureau . 49

AMÉNAGEMENT DES TERRITOIRES Les métropoles, entre polarisation économique

et fragmentation sociale André Donzel . 52 DU CÔTÉ DU PCF ET DES PROGRESSISTES .. 58-59

Martha Desrumaux, pour une ouvrière au Panthéon . 59

LES SCIENCES ET LES TECHNIQUES AU FÉMININ Susan Kare .. 60

Progressistes(Trimestriel du PCF) • Tél. 01 40 40 11 59 • Directeur honoraire: †Jean-Pierre Kahane • Directeur de la publication : Jean-François Bolzinger Directeur de la rédaction: Ivan Lavallée • Directeur de la diffusion: Alain Tournebise • Rédacteur en chef : Amar Bellal • Rédacteurs en chef adjoints : Aurélie Biancarelli-Lopes, Sébastien Elka • Coordinatrice de rédaction : Fanny Chartier • Responsable des rubriques : Ivan Lavallée, Jean-Claude Cheinet, Malou Jacob,

Brèves: Emmanuel Berland • Vidéos et documentaires: Celia Sanchez • Livres: Delphine Miquel • Politique: Shirley Wirden • Jeux et stratégies: Taylan Coskun Comptabilité et abonnements: Françoise Varouchas • Rédacteur-réviseur : Jaime Prat-Corona • Comité de rédaction : Jean-Noël Aqua, Geoffrey Bodenhausen, Léa Bruido, Jean-Claude Cauvin, Bruno Chaudret, Marie-Françoise Courel, Simon Descargues, Marion Fontaine, Michel Limousin, George Matti, Simone Mazauric, Hervé Radureau, Evariste Sanchez-Palencia, Pierre Serra, Françoise Varouchas • Conception graphique et maquette : Frédo Coyère • Expert associé : Luc Foulquier Édité par : l’association Paul-Langevin (6, avenue Mathurin-Moreau 75167 Paris Cedex 19) • No CPPAP : 0922 G 93175 • No ISSN : 2606-5479 • Imprimeur : Public imprim (12, rue Pierre-Timbaud, BP 553, 69637 Vénissieux Cedex).

Conseil de rédaction : Président : Ivan Lavallée • Membres : Hervé Bramy, Marc Brynhole, Bruno Chaudret, Xavier Compain, Yves Dimicoli, Jean-Luc Gibelin, Valérie Goncalves, Jacky Hénin, Marie-José Kotlicki, Yann Le Pollotec, Nicolas Marchand, Anne Mesliand, Alain Obadia, Marine Roussillon, Francis Wurtz, Igor Zamichiei.

NOUVEAU ! PLUS SIMPLE, PLUS RAPIDE paiement en ligne sur Abonnement 4 numéros par an!

Progressistes JANVIER-FÉVRIER-MARS 2018

La différence avec Jaurès


C’ronge la gauche française aujourd’hui : est peut-être le mal le plus profond qui

le décrochage avec le monde du travail. Pour preuve les scores historiquement bas dans les milieux populaires aux dernières élections, mais aussi le rôle mineur que ces partis ont pu jouer dans le déclenchement des mouvements sociaux actuels contre la privatisation de la SNCF et la défense des services publics, pour ne citer que les plus récents. Ces forces politiques soutiennent  bien sûr, à différents degrés, ces mouvements: tracts distribués par des milliers de militants à travers tout le pays, organisation de réunions publiques, caisses de grève, relais politique au Parlement par leurs élus. Ce qui est loin d’être négligeable et qui montre d’ailleurs l’importance de disposer d’organisations structurées comme les partis politiques. Mais reconnaissons-le : on prend souvent le train alors qu’il est déjà lancé…

Alors pourquoi ce mal profond? Pourquoi, lorsque nous lisons les programmes de ces partis politiques, les réflexions de leurs clubs de pensée, on est frappé du décalage avec ce qui se vit dans le monde du travail, de l’écart avec l’expertise de nombreux syndicalistes sur un certain nombre de sujets?

Une explication facile, mais qui reste insatisfaisante, est de relever que la plupart des dirigeants politiques, du local au national, ne sont pas issus du monde du travail et que, par conséquent, ils arrivent difficilement à en être des représentants politiques crédibles, et ce même avec la meilleure volonté du monde. Des universitaires comme Julian Mischi se sont d’ailleurs fait une spécialité de ce genre d’arguments, qui ne sont pas vraiment convaincants à y regarder de plus près. En effet, ce qui explique que nombre de militants actifs sont, il est vrai, dans la fonction publique (avec un certain niveau de protection donc) ou exercent un emploi de permanent dans un parti, ou de collaborateurs d’élus (qui est une des situations les plus précaire qui soient d’ailleurs), ce n’est pas vraiment un choix mais bien l’insécurité sociale qui s’est construite au fil des décennies au gré de lois fragilisant le monde du travail et renforçant le patronat. La chasse aux militants dans les entreprises, le fait qu’afficher un engagement bien à gauche soit devenu une entrave pour une embauche dans le secteur privé, ou simplement pour conserver son emploi, voilà les raisons principales d’un phénomène qui ne touche pas seulement le PCF.

Un rapport de forces global en défaveur de la gauche, l’éclatement des collectifs de travail et, dans de petites entreprises, l’isolement des salariés sans commune mesure avec ce qu’on a connu dans les années 1960-1970… bref, un paysage du salariat complètement bouleversé constitue la toile de fond du défi auquel doivent relever de grandes organisations comme la CGT. Cette dimension est souvent occultée alors qu’elle revêt une dimension centrale, bien au-delà du seul cas du PCF d’ailleurs.

Mais, insistons bien, la composition sociologique de ce qu’on nomme exagérément « l’appareil » des partis politiques à gauche n’est pas une explication satisfaisante si on considère que par le passé nombre de grandes figures politiques de la gauche n’étaient pas vraiment issues du monde qu’elles défendaient, et cela n’empêchait pourtant pas la gauche d’être autrement plus forte et crédible. Prenons l’exemple de Jean Jaurès: il n’était pas ouvrier, et pourtant il a grandement contribué à défendre les intérêts des travailleurs de l’époque, de façon efficace et au plus haut niveau, en utilisant tous les outils des institutions républicaines pour faire vivre concrètement la lutte des classes et arracher des victoires concrètes pour le progrès social. La différence, c’est que Jaurès s’intéressait sincèrement au monde des salariés, écoutait attentivement les représentants syndicaux, accordait beaucoup de crédit à leurs travaux et à leurs expertises, et leur donnait une réelle perspective politique. Ce n’est plus vraiment le cas de l’ensemble de la gauche aujourd’hui, et c’est son plus grand défaut, et non pas l’origine socioprofessionnelle de ses dirigeants.

Au contraire, aujourd’hui, il faudrait retrouver le chemin d’une étroite collaboration avec le monde du travail pour pouvoir le représenter politiquement de façon crédible. Un premier pas serait que dirigeants et élus de gauche, tous ensemble, prennent au sérieux ces expériences et travaux d’expertise..

C’est le travail que nous continuerons à faire dans notre revue : contribuer à faire connaître le plus largement possible la réflexion de ces acteurs du monde du travail, leur ouvrir les pages de la revue. n AMAR BELLAL

JANVIER-FÉVRIER-MARS 2018 Progressistes


CONTRE LA PRIVATISATION DE L’HYDRO!

Le dimanche 8 avril, à l’occasion de l’anniversaire de la loi du 8 avril 1946 de nationalisation du gaz et de l’électricité, portée par Marcel Paul, ministre communiste, pas loin de 500 personnes se sont rassemblées à l’initiative du PCF sur le barrage du Sautet (commune de Corps, Isère) pour dire non à l’ouverture à la concurrence des concessions hydrauliques.

PAR JÉRÉMIE GIONO*,

sion Écologie du PCF, l’initiative est entrée en résonance avec les

intérêts privés…Au-delà du mot d’ordre, un argument revient en

C’est donc un bras de fer qui s’engage – un de plus – entre

D

es syndicalistes électri- préoccupations des habitants du boucle parmi les manifestants : les défenseurs de l’intérêt généciens-gaziers et de mili- massif alpin, dont les grands- dans ce cas précis, l’Union euro- ral et ce gouvernement. L’enjeu tants politiques, mais parents ont parfois accepté de péenne n’impose rien. En effet, n’est rien de moins que la maî-

aussi de nombreux citoyens du lourds sacrifices pour la construc- c’est bien le gouvernement qui trise d’un des joyaux du pa territoire, accompagnés d’élus tion des ouvrages en question. annonce début 2018 un échéan- trimoine français, le « lac de tous bords (un conseiller Aujourd’hui, ceux-ci constituent cier d’ouverture à la concurrence, France »*. Le Parti commugénéral LR, une députée PS, une une fierté pour ces riverains – le échéancier auquel la Commission niste s’engage pour élargir et conseillère générale FI et de partage de l’événement, pour- n’a toujours pas répondu à l’heure amplifier ce combat. n nombreux maires et adjoints tant siglé PCF, sur les réseaux où ces lignes sont écrites.

PCF-Front de gauche de la « ban- sociaux par des offices du tou- L’annonce intervient alors même JÉRÉMIE GIONO est membre lieue rouge » grenobloise) ont risme locaux l’atteste –, fierté qu’il existe un moyen conforme de l’exécutif du PCF Isère formé une chaîne humaine. d’autant plus forte qu’il s’agit de au droit européen de conserver et de la commission Partie d’une idée de la commis- servir l’intérêt général. Ce sera la maîtrise unifiée de l’outil de Écologie du PCF. autre chose si demain ce bien production par l’opérateur hiscommun est approprié par des torique : déclarer l’hydraulique

« service d’intérêt général », l’eau étant un bien public stratégique. De nombreux pays européens ne se sont d’ailleurs pas privés de cet outil législatif.

L’hydroélectricité, c’est 70 TWh par an, soit 12 % de la production électrique française. C’est aussi la seule source d’énergie renouvelable pilotable à souhait, qui joue donc un rôle important lors des pics de consommation.

(Pour plus de précisions, se rapporter à l’article de Jacques Masson dans Progressistes, no 18.)

BULLETINS D’ABONNEMENTS À

RÈGLEMENT PAR CHÈQUE BANCAIRE OU POSTAL (À L’ORDRE DE ASSOCIATION PAUL LANGEVIN. REMPLIR BULLETIN CI-DESSOUS).

Durée 1 an / 4 numéros BULLETIN D’ABONNEMENT ANNUEL o Je règle par chèque bancaire ou postal (France uniquement) à l’ordre de «association Paul Langevin»

o Standard : 25 €o Chômeurs/étudiants : 20 €o Souscription : 35 €o Étranger : 36

Bulletin à retourner à : SERVICE ABONNEMENT - ABOSIRIS - 11, rue Gustave-Madiot - 91070 BONDOUFLE Tél. : 01 84 18 10 50 • Fax : 01 55 04 94 01 • Mail :

[ À ENVOYER À L’ADRESSE CI-DESSUS ]

Nom & prénom

Adresse ..

Code postal ..Ville . Adresse électronique Mobile(*)

   (*) informations utilisées uniquement dans le cadre de l’abonnement                                                   Date : .. Signature :

RÈGLEMENT PAR PRÉLÈVEMENT AUTOMATIQUE (REMPLIR FORMULAIRE CI-DESSOUS).

BULLETIN D’ABONNEMENT PAR PRÉLÈVEMENT AUTOMATIQUE (2 fois/an) JOINDRE UN RIB

o Standard : 25 €o Chômeurs/étudiants : 20 €o Souscription : 35 €o Étranger : 36

MANDAT DE PRÉLÈVEMENT SEPARéférence unique du mandat (réservé à l’administration) ASSOCIATION PAUL-LANGEVIN

demande de remboursement doit être présentée dans les 8 semaines suivant la date de débit de votre compte pour un prélèvementdu droit d´être remboursé par votre banque selon les conditions décrites dans la convention que vous avez passée avec ecompte, et votre banque à débiter votre compte conformément aux instructions de l’aSSOciaTiOn PaUL LanGeVin. Vous bénéficiezen signant ce formulaire vous autorisez l’aSSOciaTiOn PaUL LanGeVin à envoyer des instructions à votre banque pour débiter votrele. Une

NOM, PRÉNOM ET ADRESSE DU DÉBITEUR nom?: Prénom?: .. adresse?: cP?: .. Vi le?: ..Pays?: ..

DÉSIGNATION DU COMPTE À DÉBITER

                   iBan-numéro d´identification international du compte bancaire            d´identification de votre banqueBic-code international

TYPE DE PAIEMENT récurrent/répétitif  Vous pouvez à tout moment vous désabonner en appelant au 01 84 18 10 50. créancier : aSSOciaTiOn PaUL-LanGeVin - icS?: Fr23ZZZ530622 - 6, avenue Mathurin-Moreau, 75167 Paris cedex 19

   Fait à?: Le?: .         Signature?:

Bulletin à retourner à : SERVICE ABONNEMENT - ABOSIRIS - 11, rue Gustave-Madiot - 91070 BONDOUFLE

relation avec son client. earticles 38 et suivants de la loi n° 78-17 du 6 janvier 1978 relative à l´informatique, aux fichiers et aux libertés.Les informations contenues dans le présent mandat, qui doit être complété, sont destinées à n´être utilisées par le créancier que pour la gestion de sales pourront donner lieu à léxercice, par ce dernier, de ses droits d´oppositions, d´accès et de rectification tels que prévus aux


COMMANDEZ LES ANCIENS NUMÉROS DE PROGRESSISTES

CONTACTEZ-NOUS AU 07 88 17 63 93 ou

15 € les 3 numéros (+ frais de port) • 40 € les 10 numéros (+frais de port)


N°18 SCIENCES ET TECHNIQUES, DES RÉPONSES PROGRESSISTES

Les réponses du PCF sur les grands sujets scientifiques et techniques : santé, énergie, écologie, recherche, OGM, climat, numérique… Nous abordons aussi la précarité énergétique avec une contribution de Minh Ha-Duong, membre du GIEC. À noter un article de Serge Abiteboul sur la soustraitance par la DGSE de nos données à une entreprise états-unienne, un texte sur la souffrance des femmes au travail de Karen Messing ainsi qu’une contribution de Gérard Le Puil sur le glyphosate.

N°17 BIODIVERSITÉ

La biodiversité est aujourd'hui appropriée et mise en péril au nom de logiques économiques et financières. Quelles politiques mener pour la préserver ? C’est le thème du dossier. Nous faisons aussi le point sur l'économie du pétrole avec les contributions de Pierre-René Bauquis et Denis Babusiaux. À lire aussi, les rapports entre humains et animaux au travail par Jocelyne Porcher, Sylvestre Huet sur les énergies renouvelables, et un texte de Gilles CohenTanoudji sur le CERN.

N°16 HOMMAGE À JEAN-PIERRE KAHANE

Un numéro dédié à notre camarade Jean-Pierre Kahane, mathématicien de renommée mondiale, cofondateur de Progressistes. Une sélection de ses derniers textes, mais aussi les hommages qui lui ont été rendus par diverses personnalités. À lire aussi, «La Chine en transition énergétique » par Dominique Bari, «Failles et fragilité du monde numérique » par Francis Velain ou encore « Droit du travail : dernière étape du démantèlement?» par Léa Bruido et Jérôme Guardiola.

N°15 PÉTROLE, JUSQU’À QUAND?

Grand oublié des débats sur l’énergie. Ce numéro revient sur les enjeux économiques, écologiques et géopolitiques actuels et à venir autour de l’extraction du pétrole. À lire aussi, « La science économique est-elle expérimentale? » par Alain Tournebise, « D’autres choix politiques pour retrouver un haut niveau de sécurité ferroviaire » par Daniel Sanchis, ou encore «Loi “travail” : quand le Web rencontre la rue» par Sophie Binet.

N°14 INDUSTRIE, PEURS ET PRÉCAUTION

Face aux peurs et à la désindustrialisation, comment lier sûreté et développement industriels? Ce numéro montre que des convergences existent pour repenser la gestion de l’industrie afin qu’elle soit propre, sûre et utile. On lira aussi : « Scénarios 100% renouvelable, que valent-ils ? », «Jumelage entre syndicats français et cubains », et encore « L’intérim, un essor spectaculairement contradictoire ».

N°13 JEUNESSE, REGARD SUR LE PROGRÈS

Donner la parole à des étudiants communistes de toute la France sur des sujets aussi divers et fondamentaux que l’écologie, les transports, l’énergie, l’industrie, l’agroalimentaire ou encore la révolution numérique. Dans ce numéro, on lira également « Linky, mythes et réalités sur un compteur électrique » de Valérie Goncalves, « Faut-il débattre des terroristes ou du terrorisme? » par Nicolas Martin ou encore un article sur les jeux d’échecs par Taylan Coskun.

No12 LE TRAVAIL À L’HEURE DU NUMÉRIQUE

Après un éloge de la simplicitédû à JeanPierre Kahane, ce numéro complète le no 5 et prolonge la réflexion sur la révolution numérique dans la société, et plus particulièrement dans l’organisation du travail. Il donne la parole à des experts et syndicalistes confrontés aux remises en cause des conquêtes sociales. Vous y trouverez les rubriques habituelles, un article sur ce qui nous lie aux vers de terre, un texte d’Édouard Brézin sur les ondes gravitationnelles…

No11 LE PROGRÈS AU FÉMININ

Les femmes dans le monde du travail et dans les métiers de la science, sous l’angle des combats féministes qui contribuent au projet d’émancipation humaine. Vous y trouverez des textes d’Hélène Langevin, de Catherine Vidal, Maryse Dumas, Laurence Cohen, Caroline Bardot… Dans ce numéro, une rubrique spéciale « Après la COP21 » et le point de vue de Sébastien Balibar, membre de l’Académie des sciences, ainsi qu’une contribution de Nicolas Gauvrit sur les biais en psychologie.


Tous les numéros sont téléchargeables gratuitement sur Le blog ! : et sur                revueprogressistes

6 et 7 avril 2018

HOMMAGE À JEAN-PIERRE KAHANE


Ces vendredi soir et samedi matin, on aurait pu se croire sous la coupole de l’Académie des sciences.

Nous      étions sous celle de l’espace Niemeyer, siège du Parti communiste français, où 200 invités, scientifiques de renom ou simples militants communistes, venaient rendre, en présence de ses filles et son frère, un hommage posthume au grand mathématicien communiste, académicien et admirateur des Lumières. Le PCF et sa revue Progressistes1, dont Jean-Pierre Kahane était directeur, ont organisé deux séances, l’une vendredi consacrée aux témoignages de proches sur son combat politique, comme Jean-François Bolzinger et Amar Bellal, respectivement directeur et rédacteur en chef de notre revue, la mathématicienne Michèle Audin, ainsi que Françoise Varouchas, qui fut sans doute la dernière personne à lui parler au téléphone alors qu’il était hospitalisé à la suite de la chute qui allait lui être fatale, François Périnet, à qui on doit l’exposition qui orne les murs du hall de Colonel-Fabien. Ivan Lavallée, mathématicien et directeur de rédaction de Progressistes, a lu le texte que Jean-Pierre Kahane avait prononcé lors d’un débat à Sciences Po en 2016, texte considéré comme son testament politique. Les étudiants communistes avaient tenu à participer à cet hommage ; ils furent représentés par Lucas Puygrenier, qui a porté témoignage de l’attachement de l’académicien à la jeunesse. La soirée s’est terminée par une présentation didactique de Stéphane Jaffard sur la découverte des ondes gravitationnelles.

Le samedi matin fut consacré à l’illustration du combat de notre camarade pour l’assimilation par le PCF et la société de la culture scientifique. Deux tables rondes, l’une dont le propos et la discussion tournaient autour du relativisme en science, porté par Yves Bréchet, membre de l’Académie des sciences et haut-commissaire à l’énergie atomique, et par Édouard Brézin, ancien président de l’Académie des sciences. Evariste Sanchez-Palencia, également académicien, évoquait la lutte contre le créationnisme et le « dessein intelligent ». Et Karine Chemla nous mettait en garde contre l’offensive de sectes dotées d’énormes moyens financiers qui essayent de subvertir le milieu scientifique. Cette table ronde fut animée par Ivan Lavallée.

La seconde table ronde, animée par Michel Laurent, traita de l’enseignement des mathématiques et de l’appropriation sociale des connaissances scientifiques. Y ont participé Cedric Villani, médaille Fields2 2010, Jean-Michel Bony, mathématicien membre de l‘Académie, Michel Henry, administrateur de l’Union rationaliste et ancien directeur scientifique des IREM3, et Olivier Gebuhrer, mathématicien. Yves Meyer, prix Abel4 2017, élève de Jean-Pierre Kahane, en déplacement, avait envoyé un témoignage qui fut affiché sur un panneau de l’exposition. La coupole de l’espace Niemeyer a ainsi témoigné, à travers cet hommage, de l’attention et l’intérêt portés par le PCF aux sciences et techniques considérés comme vecteur essentiel de l’émancipation humaine. n

UNE EXPOSITION

JEAN-PIERRE KAHANE

Dix-sept panneaux donnent à voir beaucoup des engagements de ce mathématicien, militant pour la science et le communisme.

Espace Oscar-Niemeyer, 2, place du Colonel-Fabien, Paris 19e. Du 10 avril au 15 mai. L’exposition est visible du lundi au vendredi de 10 à 18 heures, jours fériés exclus.

Renseignements : 0140401212.

1. 

2.  Plus haute distinction mathématiquedécernée à un mathématicien de moins de quarante ans.

3.  Instituts de recherche surl’enseignement des mathématiques.

4.  Ce prix est l’équivalent du Nobel, qui n’existe pas en mathématiques.


 


UNE LOGIQUE FOLLE

PAR PEPPINO TERPOLILLI*,

L

a dominance des marchés financiers vient de l’impor- La conscience des limites de cette logique apparaît de plus en tance des volumes de transactions qui y sont négociées plus aux acteurs de la vie sociale ainsi qu’à de nombreux intel-

[…] tout le monde a intérêt à tenir compte de leur lectuels critiques : l’enjeu est de faire grandir cette prise de prix […] pour tous les actifs cotés puisque vendeurs et acheteurs conscience pour construire une alternative. peuvent y faire leurs transactions s’ils le

veulent. » Cette citation, extraite du livre récent de Nicolas Bouleau, donne la mesure du pouvoir exorbitant octroyé à la finance par l’ouverture et la dérégulation des marchés.

Mais le poids de la logique financière s’exerce aussi dans l’économie réelle, l’ensemble des entreprises sont en effet tenues de « répondre » aux attentes des principaux actionnaires : fonds de pensions, fonds d’investissement, etc. Leur unique objectif est la rentabilité de leurs investissements; ce sont les 15 % de croissance pour les capitaux investis mais aussi, pour des raisons de « transparence », le recen-

«Le poids de la logique financière s’exerce aussi dans l’économie réelle, l’ensemble des entreprises sont en effet tenues de « répondre » aux attentes des principaux actionnaires : fonds de pensions, fonds d’investissement, etc. Leur unique objectif est la rentabilité de leurs investissements.»

Nous sommes de plus en plus nombreux à vouloir imposer un autre agenda politique pour réellement affronter les urgences planétaires. La variété des analyses des marchés financiers doit être mieux partagée, comme l’approche systémique issue de l’écologie, préconisée par Dominique Dron, ou encore l’approche « transition de phase » de Didier Sornette. Sans négliger les travaux qui visent à répondre aux «difficultés» des marchés financiers dans le cadre néoclassique, ne serait-ce que pour les critiquer.

Le débat libre de tous préjugés est certainement nécessaire pour mieux cerner les

trage des activités (vente de filiales), les fusions, la sous-traitance problèmes et éventuellement esquisser des solutions. Notre revue et sa pyramide de domination (1er rang, 2e rang, etc.), et l’austé- ambitionne de jouer, dans ce domaine aussi, son rôle de forum rité salariale généralisée qui épargne uniquement le haut mana- démocratique. n

gement. C’est surtout le court-termisme qui conduit souvent aux catastrophes sociales : chantage à l’investissement, prise de contrôle de concurrents pour mieux s’en défaire… Les maux

s’abattent comme les plaies d’Égypte. Cette folle logique perturbe *PEPPINO TERPOLILLI est mathématicien et chercheur à Total. aussi les entreprises de l’économie solidaire.

LES MARCHÉS FINANCIERS ET LEURS RISQUES

RÉFLEXIONS D’UNE PROBABILISTE

Les années 1970 ont vu l’émergence d’une prédominance des marchés financiers sur l’activité économique ainsi que l’apparition d’une grande incertitude sur tous les paramètres qui la conditionnent : taux de change des monnaies, taux d’intérêt, etc. Si une telle situation à conduit à un développement extraordinaire des mathématiques financières, les crises de ces dernières décennies montrent à l’évidence que la politique a de


nouveau son mot à dire.

PAR NICOLE EL KAROUI*, tude de risques, il convient de retenir que des éléments structurants

V

oilà presque trente ans que sont leur temporalité et leur granuje fréquente les marchés finan- larité, locale ou globale. Mais reveciers. J’y ai puisé un certain nons un peu aux sources.

nombre de mes thèmes de recherche

mathématique, créé une formation                                               LE TEMPS HISTORIQUE

Le 15 août 1971, le président Nixon annonce la fin de l’indexation du dollar sur l’or, mise en place en 1944 par les accords de Bretton Woods. Cette décision marque le début de la financiarisation des économies développées, dont la monnaie de transaction est maintenant essentiellement le dollar ; c’est le début de l’ère des dettes sans cesse croissantes des États.

en « probabilité et finance » à Paris- Le 15 août 1971, le président Nixon VI et à l’École polytechnique. Très annonce la fin de l’indexation du naïve au début, avec une connais- dollar sur l’or, mise en place en 1944 vers, où le risque de marché est devenu “ sance quasi inexistante de la finance par les accords de Bretton Woods. mais importante des mathématiques Cette décision marque le début de des processus stochastiques, j’ai été la financiarisation des économies interpellée par les problèmes très développées, dont la monnaie de complexes posés par le risque de transaction est maintenant essenmarché auxquels les marchés à terme tiellement le dollar; c’est le début de nouvellement créés (MATIF [1986] l’ère des dettes sans cesse croissantes et MONEP [1987]) essayaient de des États, qui peuvent émettre de la répondre. Depuis, je n’ai pas vrai- « monnaie papier » sans contrepar-

ment réussi à m’extraire de cet uni-

une entité en soi, aux multiples facettes qu’un inventaire à la Prévert ne saurait décrire complètement : risque de taux, risque de couverture, risque de dépendance et de corrélation, risque de long terme, risque de modèle, risque de défaut, risque d’inflation, risque actuariel, risque d’aller tous dans le même sens, de liquidité, de retournement, de spéculation; à un niveau plus agrégé, risque de prises de position incontrôlables, de manipulation des cours, risque systé-

mique, risque opérationnel, infor- tie, et de la variabilité sans précématique, risque de la haute fréquence, dent des principaux paramètres de risque micro, risque macro, et j’en l’économie : taux, changes, actions, oublie…                crédit, inflation. Ces phénomènes

Certes, désormais je sais un peu plus s’accentueront avec les politiques de finance et suis sans doute un peu de dérégulation impulsées par moins naïve. Parmi tous ces risques, Margaret Thatcher et Ronald Reagan. je me suis plus particulièrement Cela ne se fera pas sans de nombreux consacrée à la modélisation du risque soubresauts et crises financières de marché à l’utilisation des modèles majeures : premier choc pétrolier, en pratique. J’ai aussi suivi avec atten- nombreuses faillites (des caisses tion les développements de la régu- d’épargne aux États-Unis dans les lation depuis la crise de 2008 en années 1970-1980), crises de change particulier. en Europe (Soros, 1993), puis faillite

Pour s’y retrouver dans cette multi-                                                  de la Russie (1998) et crise asiatique

 

(1999), crise des valeurs internet (1999-2000), et surtout la crise des subprimes (2007) suivies de la faillite de Lehman Brothers (2008), et plus récemment crise européenne (2012). Pour faire face à ce nouvel environnement complètement dérégulé,suivant en cela des principes affirmés en théorie par les économistes Friedrich Hayek ainsi que Kenneth Arrow et Gérard Debreu, des marchés contingents sont créés afin de pallier les incertitudes des marchés. Il s’agit plus particulièrement des marchés à terme organisés sur produits financiers (il existait depuis longtemps, dès l’Antiquité sans doute, des marchés à terme sur le blé et autres produits agricoles). En 1973, moins de deux ans après l’annonce de Nixon, le Chicago Board of Options Trade (CBOT) ouvre ainsi une section de contrats à terme et d’options sur produits sensibles aux risques financiers : change, taux d’intérêt, indices. Sous l’impulsion des politiques de libéralisation de Reagan, Thatcher et autres,d’autres marchés similaires s’ouvrent aux États-Unis (New York, 1979), Londres (1982), Francfort (1989), sans parler des marchés asiatiques.

En France, alors que l’on avait jusqu’alorsune économie très régulée, le premier marché à terme (MATIF)


ouvre en 1986 pour faciliter la gestion de la dette de l’État, et en 1987 le premier marché d’options sur ac tions le MONEP. Ces marchés vont se développer très rapidement, en adaptant les règles de fonctionnement des marchés états-uniens tout en profitant des nouvelles technologies. La Société générale confie ainsi le développement de la nouvelle activité « produits dérivés » à un ingénieur qui mise résolument sur le « quantitatif », persuadé que la grande révolution informatique liée au développement des PC qui débute va jouer un rôle décisif en finance.

Un marché « organisé » est une réponse institutionnelle aux difficultés rencontrées sur les marchés de gré. Les caractéristiques des contrats à terme et des contrats d’options sont standardisées, et seul le prix est discuté par les opérateurs. Cette standardisation permet de dénouer une position avant terme et améliore le fonctionnement et la liquidité des marchés. La sécurité des transactions est garantie par une chambre de compensation, contrepartie unique de l’ensemble des acheteurs et des vendeurs agréés.

LE TEMPS « RISQUÉ » DES CONTRATS À TERME

ET DES OPTIONS Lorsque l’on parle de marché à terme, on se projette dans le futur. Le temps apparaît alorscomme une source de risque qu’il faut maîtriser, et le futur peut être lointain (dans le monde des taux, les contrats peuvent aller jusqu’à trente ans et plus). Ces marchés offrent des produits à terme et dérivés, qui sont des outils pour « geler » le prix, minimal ou maximal, d’une opération qui se réalisera à une date future (fixée dans le contrat) proche ou lointaine; cette opération peut porter sur tout type de sous-jacents échangeables sur les marchés, notamment devises, taux d’intérêt, indices, actions, obligations, spreads1de crédit, matières premières… Les instruments dérivés les plus liquides sont les contrats à terme (ou promesses de vente) et les produits optionnels (contrats d’assurance) comme les options d’achat (prix maximal garanti) ou de vente (prix minimal garanti).

Le 15 août 1971, le président Nixon annonce la fin de l’indexation du dollar sur l’or Dès lors le dollar s’installe comme monnaie hégémonique des transactions.

La création des marchés à terme et des produits dérivés a nécessité l’introduction de nouveaux outils conceptuels et quantitatifs dans le monde financier, notamment dans la gestion de l’incertain, les notions classiques en statistique de moyenne et de variance se révélant insuffisantes. Les deux principes de base dégagés par Black-Scholes et Merton en 1973 sont:

1.Il est possible de réduire les risques de ce type de produits par une stratégie dynamique de couverture. 2. La mise en œuvre de la stratégie est assurée produit par produit par le trader (vendeur) qui prend les risques à la place de son client. L’originalité de la finance des dérivés tient dans ces deux propositions, qui sont bien sûr mises en défaut en périodes de crise, pendant lesquelles la liquidité est toujours déficiente, et pendant lesquelles risques et couvertures doivent être appréhendés autrement. Si ces principes s’appliquent aisément dans les marchés très liquides, ils sont beaucoup moins robustes pour les dérivés de crédit, pour lesquels ils ont été utilisés de manière abusive.

La couverture d’un produit dérivé Supposons que le contrat promette de payer dans six mois exactement l’écart entre la valeur du taux de change et le cours d’aujourd’hui si le cours est plus élevé, rien sinon. Ce contrat protège contre la hausse du dollar (option d’achat). Le problème est que les fluctuations du taux de change sont très fréquentes, et erratiques : en six mois, le taux de change peut avoir une valeur très éloignée de sa valeur d’aujourd’hui. Imaginez le tradercomme un pilote (de sous-marin par exemple) qui doit arriver sur une cible qui se déplace tout le temps au gré des courants. Ses instruments lui permettent de la détecter, mais pas de prévoir son comportement. Il doit donc calculer d’où il doit partir, puis modifier constamment sa route pour être sûr de ne pas rater la cible à la fin. Dans le marché, le point de départ est le prix du contrat et la « route » est pilotée par la quantité de dollars à acheter ou à vendre au jour le jour pour atteindre la cible, c’est-à-dire réduire à « coup sûr » le montant à payer.

Supposons qu’un un client (une entreprise, un individu…) souhaite pouvoir acheter dans six mois 1 million de dollars en payant 900000 €(taux de change actuel). Un trader s’engage à lui fournir cette somme à la date prévue quel que soit le change à cette date, même si le prix de marché est de 1100000 €, par exemple. La stratégie pour le trader consistera à fixer le prix du contrat puis à gérer un portefeuille de valeurs avec des44


44dollars et à acheter et vendre des dollars tous les jours en suivant les variations de change. Les modèles mathématiques donnent les outils pour définir une stratégie gagnante, au sens où elle couvre le montant à payer. Bien entendu cette pratique n’est possible que grâce aux coûts de transactions négligeables. Le prix du contrat est le montant qu’on doit investir pour atteindre la cible à coup sûr. Il s’interprète aussi comme une certaine mesure du risque de contrat.

Modèles et éléments quantitatifs dans la gestion au cas par cas des produits Vous remarquerez que jusqu’à maintenant le mot « probabilité » n’a pas été prononcé, surprenant de la part d’une probabiliste! Nous raisonnons juste en termes de titres de marché. La couverture dynamique – l’utilisation du temps et des possibilités offertes par le marché d’investir fréquemment – pour réduire le risque d’une exposition à un an, cinq ans ou dix ans est une nouvelle ma nière d’aborder les risques dans cet environnement. Cechangement de paradigme n’est pas venu de l’industrie financièreelle-même mais a été introduit de « l’extérieur » pas trois académiques Black, Scholes et Merton, en 1973. A priori, on ne cherche pas à estimer le risque encouru par la vente d’une option mais à réduire le montant terminal exposé au risque. Cela fonctionne plutôt bien, à condition de réajuster la stratégie de portefeuille très fréquemment, avec peu de coûts de transactions. Pour mener à bien ce projet, l’intuition ne suffit pas, il faut savoir calculer. Les modèles servent alors à décrire les hypothèses à faire sur les fluctuations (volatilité) du sous-jacent en vue de quantifier le poids d’un portefeuille de couverture. Ils font usage de développements récents de la théorie probabiliste des processus stochastiques et des nouvelles méthodes numériques par simulation, dites méthodes de Monte-Carlo. Les paramètres sont calibrés de manière à évaluer correctement les actifs ou dérivés liquides qui serviront comme instruments de couverture. La durée d’utilisation d’un modèle avec ses paramètres est donc très courte, puisqu’elle est celle qui Les équations décrivant le modèle de Black, Scholes et Merton.

sépare deux dates de réajustement du portefeuille de couverture, un jour au maximum. L’existence de formules analytiques est évidemment d’un grand intérêt pratique, en diminuant pratiquement les temps de calculs. Un exemple emblématique est la formule de Black et Scholes, qui est utilisée comme outil de comparaison des volatilités entre elles.

L’effet spéculatif

des marchés à terme

L’autre aspect dont il faut tenir compte est que les marchés à terme indui-

la maturité du contrat. Dans les marchés d’options, il y a aussi un effet de levier très important qui peut permettre de gagner (mais aussi de perdre) beaucoup: dans un marché liquide et bien arbitré, on ne peut faire du rendement sans prendre de vrais risques.

LES ÉVOLUTIONS HISTORIQUES De 1995 à 2007, nous sommes dans l’âge d’or de la formation en finance quantitative avec l’arrivée en masse de scientifiques, d’ingénieurs et de mathématiciens. Aux États-Unis, si les business schools s’intéressaient

Dans les marchés

d’options, il y a aussi un effet de levier très important qui peut permettre de gagner (mais aussi de perdre) beaucoup : dans un marché liquide et bien arbitré, on ne peut faire du rendement sans prendre de vrais risques.

depuis longtemps à ce sujet, il n’y avait en revanche que peu de formations dans les facultés de sciences. En créant un master en 1989, nous sommes parmi les premiers à avoir ouvert la voie.

Entre2002 et2007, après la crise des valeurs internet, on observe une vraie bulle sur les produits dérivés, le taux de croissance du volume de cette activité étant de 30 %. Il a donc fallu être capable de traiter 30 % en plus d’activité dans le même temps, ce qui a permis d’augmenter l’effica-

sent un effet spéculatif très impor- cité des méthodologies de calcul (un tant. Prenons l’exemple du contrat prix en moins d’une seconde! : c’est à terme. Son prix est calculé à par- le grand apport de la finance de tir d’une règle d’absence d’arbitrage, manière générale à d’autres domaines c’est-à-dire de cohérence des mar- des sciences) et contribué à standarchés, ce qui entraîne que les prix des diser les produits et, indirectement, contrats à terme standards ne dépen- à rendre de moins en moins vigilant dent d’aucun modèle, à partir des sur ce qui pouvait se passer.

                                   prix d’aujourd’hui. Mais les gens pou-           C’est le rôle des « quants », des ingé-

vant eux aussi avoir une vue sur ce qui va se passer – c’est cela spéculer – sur telle portion du marché, il est tentant de « jouer » avec les marchés à terme, d’autant qu’on ne paye qu’à

nieurs financiers, de proposer des solutions cohérentes avec l’information de marché, implémentables numériquement (ce qui reste un défi malgré les progrès des


méthodes et de la puissance de calcul) et acceptables par le trader qui va gérer la couverture du produit dérivé. Comme une couverture parfaite n’existe que rarement, le trader et le risk-manager ont à définir un compromis « acceptable » en termes de risque résiduel, agrégeable avec celui des autres produits dérivés pour une analyse finale globale du risque, en ligne avec les exigences réglementaires. Au niveau des produits, les principaux risques résiduels sont associés à la liquidité du marché des instruments de couverture, à la qualité des prix de marchés utilisés pour la calibration (prix de transaction contre prix contribués) ou au risque de modèle induit sur les produits complexes. Ces effets sont de plus en plus complexes depuis la crise, du fait des nouvelles contraintes de gestion, collatérisation, compensation… Par contrepartie, les limites d’exposition rendent les problèmes d’évaluation et de couverture très interdépendants et hautement non linéaires, ce qui rend délicate leur intégration dans les systèmes informatiques existants. Le rôle des mathématiques et de la simulation est d’aider à déterminer en simulant quelles sont les approximations acceptables.

CRISE MAJEURE DE L’INDUSTRIE

 

sur le crédit, avait atteint une complexité sans précédent. Les agences chargées de la notation des entreprises pour le système bancaire se sont retrouvées en charge de la validation de dérivés très complexes, avec l’agrément du régulateur, encourageant la dissémination de produits très risqués jusque dans les trésoreries des banques. C’est un exemple de « capture » technique par les entreprises contrôlées, phénomène bien

1999

marque la fin

de la séparation

de la banque de dépôts

et de la banque d’investissement.

connu dans tous les domaines de la réglementation.

Le problème était moins de savoir s’il y aurait une crise mais de savoir quand. Ce n’est pas de l’intérieur du système qu’on peut arrêter les crises, pour de raisons variées. Cela ne peut venir que du superviseur. Les bilans des banques peuvent donner beaucoup d’information si les bonnes questions sont posé faiton pour amortir la prochaine?

La crise a conduit à une forte crise de liquidité dans le marché interbancaire, parce que les banques ne se prêtent plus entre elles, d’où un surcoût de liquidité dans les transactions. Par ailleurs, les transactions

FINANCIÈRE EN 2008 Que s’est-il passé au cours de cette accélération de la bulle? C’est une période où beaucoup d’argent circule et où le marché interbancaire se concentre énormément. Un certain nombre de changements structurels interviennent aux États-Unis avec l’abrogation en 1999 du GlassSteagall Act marquant la fin de la séparation de la banque de dépôts et de la banque d’investissement. Or il est courant de voir surgir des problèmes dès lors que des changements sont opérés dans l’organisation du marché. La titrisation de prêts aux particuliers, même très peu solvables, les fameux subprime, devenait possible en toute légalité: ils étaient vendus packagés dans des produits structurés diffusés dans le monde entier. La crise démarre officiellement en 2007 avec le constat de l’excès d’endettement immobilier. L’innovation financière, notamment classiques sont collatéralisées, ou compensées, afin de réduire le risque de défaut. La gestion de la crise

Ce n’est pas de l’intérieur du système qu’on peut arrêter les crises, pour de raisons variées. Cela ne peut venir que du superviseur. Les bilans des banques peuvent donner beaucoup d’information si les bonnes questions sont posées.

a conduit à baisser très fortement le niveau des taux d’intérêt pour toutes les maturités, notamment les maturités de long terme. Le financement de long terme est donc fort peu attractif, alors que la politique de taux bas pèse lourd sur l’assu rance et les fonds de pension, ce qui n’est pas sans risque dans une pé riode de vieillissement de la population et d’augmentation du coût en matière de santé et de retraites. Comment les marchés financiers pourront-ils jouer leur rôle dans la gestion de ces questions fondamentales? Mais il ne faut pas oublier que réduire les risques dans un secteur contribue souvent à les condenser

au deuxième degré dans un autre secteur dont la régulation doit être mise en place simultanément.

CONCLUSION

Mesurer, couvrir, quantifier, réguler une finance à la microseconde, à la journée, au mois, à l’année ou pour cinquante ans et, de plus, socialement responsable implique un regard neuf sur l’existant, des idées nouvelles, qui dans l’histoire de la finance de ces cinquante dernières années ont souvent été apportées de l’ex térieur. À quand une révolution conceptuelle sur les risques et la mesure des risques, de l’ampleur de celle introduite par Black et Scholes? Les mathématiques comme outil stratégique de l’économie libérale posent évidemment une question majeure, qui interpelle tous les scientifiques travaillant pour les applications, mais évidemment de manière plus visible dans le cas de la finance. Ce débat éthique est évidemment d’une grande importance, et nous essayons de l’aborder avec nos étudiants.

L’éclairage de l’équilibre des écosystèmes, proposé par Dominique Dron, environnementaliste et haut fonctionnaire, ouvre de nouvelles pistes de réflexion. Les éléments essentiels à l’équilibre sont la rétroaction (tendance au retour vers la moyenne), une substituabilité limitée, la diversité et la prise en compte de la vulnérabilité. Aucune de ces caracté ristiques n’est présente dans une économie très financiarisée: la croissance exponentielle de la monnaie (et de la dette qui va avec) freine les possibilités de rétroaction; la monétarisation de toute chose donne l’illusion d’une substituabilité généralisée ; la diversité se réduit après chaque crise par suite des effets de concentration, et les flux monétaires ne se retrouvent pas au niveau de l’économie réelle.

Dans l’économie actuelle, on se retrouve bien loin de l’équilibre. Mobilisons-nous contre cet état de fait…n

*NICOLE EL KAROUI est professeur

émérite à l’université Pierre-et-Marie-Curie.

1. Ce terme anglais désigne l’écart de cours entre le prix auquel on peut acheter une parité et celui auquel on peut la vendre.


LES MATHÉMATIQUES RESPONSABLES DE LA CRISE?

Ce texte constitue une réponse aux propos de Michel Rocard dans les colonnes du journal leMonde du

3 novembre 2008. À la fin du même mois, il fut envoyé à ce quotidien, qui n’a pas jugé bon de le publier. Il parut dans la Gazette des mathématiciens en janvier; Progressistesle reprend aujourd’hui car, en dépit de sa date de rédaction, il reste parfaitement d’actualité dans le contexte d’une crise devenue chronique.

PAR JEAN-PIERRE KAHANE*,

L

a crise financière de 2008 n’a pas fini de déployer ses effets, mais une cause serait déjà identifiée : ce serait l’enseignement que donnent les mathématiciens aux étudiants qui se destinent à la finance et qui vont opérer les coups bour-

siers. Sans qu’ils s’en rendent compte, a écrit un homme politique connu, ce qu’ils font relève du crime contre l’humanité.

La formule mériterait des commentaires juridiques (le crime contre l’humanité est une notion juridique), politiques (les règles du jeu de la finance sont fixées par des traités politiques), économiques (la finance mène l’économie et elle en découle),

Pour m’en tenir à l’économie, les mathématiques sont assez souples pour en modéliser des choix variés, et il serait prudent que soit mis à l’étude, entre économistes et avec des mathématiciens, d’autres choix que celui de la prétendue concurrence sans entrave qui est la règle aujourd’hui.

moraux (la science est-elle un dan-                                                                                           “marquante er                                                                           des

ger pour l’humanité, la boîte demathématiques de Pandore, ou le bouc émissaire?).la finance, et une Son outrance peut amener les mathé-autorité morale en la maticiens à ignorer cette agression,matière. Marc Yor et les non-spécialistes des mathé-aurait désiré sa parmatiques financières (dont je suis)ticipation au colloque à se laver les mains des attaques dontorganisé à l’Institut elles sont l’objet, comme de son exal-le 1 avril 2008 par tation naguère. Ce serait un éphane Jaffard, Les mathématiques financières sontDenis Talay, lui et moi des mathématiques, et les mathé- niens avec changement de temps sur les enjeux actuels, mais il était matiques, comme science, se tien- comme une clé de leur étude. Depuis indisponible à cette époque. nent solidement. Pour en avoir une trente ans, les problèmes issus des Cependant nous nous sommes retrouidée, on peut consulter la collection pratiques financières ont provoqué vés, Föllmer, Yor et moi, à la fin du d’articles réunis par Marc Yor à la des travaux dont ces livres rendent mois de mai, pour parler de ce sujet, suite d’un colloque qu’il avait orga- il en a fait un exposé public au nisé en 2005 à l’Académie des sciences; Le premier article, suite à l’introduc- séminaire du vendredi de l’univerle livre français, édité en 2006 par la tion par Marc Yor, donne le cadre sité Paris-V le 30 mai.

Librairie Lavoisier, s’appelle Aspects général. Il est dû à Hans Föllmer, de Voici ce que j’ai retenu de la posides mathématiques financièreset sa l’université Humboldt de Berlin, et tion de Föllmer. Les mathématiciens version anglaise, publiée par Springer- je vais m’écarter de l’article pour par- projettent des spots lumineux sur

Verlag en 2008, est Aspects of Mathematical Finance. Quoique initiées par Louis Bachelier en 1900, les mathématiques financières ne se sont développées qu’à partir des années 1970, quand on a reconnu des martingales dans les évolutions des cours de la Bourse, et leur représentation comme mouvements brow-

ler un peu de Föllmer. Au congrès international des mathématiciens de Zürich en 1984, il avait donné une conférence qui m’avait impressionné sur les méthodes probabilistes en finance, et j’avais été très déçu qu’il n’en ait pas donné le texte pour l’édition des Proceedings. Il était dès ce moment reconnu comme une figure

certains aspects de la réalité, et ils peuvent se féliciter d’éclairer ainsi certains domaines, d’y trouver de bonnes mathématiques à faire, et de dégager des voies pour les utilisateurs. Autour de ces spots lumineux il y a des zones d’ombre. Les mathématiciens peuvent dire, si c’est le cas, que ce n’est pas dans leur domaine


de compétence, et ne pas se sentir responsables de ce sur quoi ils n’ont pas travaillé. Mais, dit Föllmer, c’est une erreur. La zone d’ombre n’est pas seulement ce qui n’a pas été éclairé. Elle est pour une bonne part créée par le spot lumineux lui-même. C’est d’ailleurs une observation générale: en découvrant du nouveau, on élargit la frontière de l’inconnu, et c’est ainsi que la science progresse. Dans les domaines « sensibles » où les mathématiques ont un impact social direct, d’immenses intérêts grouillent dans l’ombre, et les mathématiciens, s’ils s’enorgueillissent à juste titre de l’efficacité de leurs recherches et de leur enseignement, doivent se préoccuper de tout ce qu’entraîne cette efficacité, à qui elle profite, et ce que la société en fait.

Au surplus, l’autonomie dont jouissent les mathématiques et le fait avéré que leurs concepts et leurs méthodes ont une efficacité à très long terme ne doit pas dissimuler qu’une bonne partie des recherches mathématiques, depuis toujours, correspond à une « demande sociale ». La demande sociale s’est traduite en particulier dans le domaine militaire, Roger Godement l’a brillamment illustré tout au cours de sa longue carrière, et elle se traduit actuellement dans le domaine financier. Les mathématiciens n’ont pas le pouvoir de créer la demande sociale dans les domaines où elle répondrait aux besoins réels de l’humanité présente et à venir, mais ils peuvent aider à la faire s’exprimer.

Pour m’en tenir à l’économie, les mathématiques sont assez souples pour en modéliser des choix variés, et il serait prudent que soient mis à l’étude, entre économistes et avec des mathématiciens, d’autres choix que celui de la prétendue concurrence sans entrave qui est la règle aujourd’hui.

Les mathématiciens ont des positions différentes sur ces sujets, mais il serait bon qu’ils en discutent et établissent entre eux, s’il se peut, des

éléments de morale commune. n

*JEAN-PIERRE KAHANE était mathématicien, membre de l’Académie des sciences.


 

LE COÛT DES MARCHÉS FINANCIERS

« L’information est une donnée essentielle de la théorie de l’efficience des marchés. […] Un marché est d’autant plus efficient que l’accès à l’information est libre pour tous et peu onéreux »(Verminnem).

Mais dans l’économie réelle, l’information est loin d’être peu onéreuse. L’information, nécessaire à l’efficience


des marchés, a un coût. Considérable.

Les câbles sous-marins de télécommunication en exploitation dans le monde.

PAR ALAIN TOURNEBISE*,

DES INVESTISSEMENTS MASSIFS

POUR AUTOMATISER

LES TRANSACTIONS BOURSIÈRES

Les places financières mondiales ont consenti des investissements massifs pour automatiser les transactions boursières. C’est au début des

années 1980 que l’informatisation des Bourses mondiales se met en place. Les systèmes de cotation électronique arrivent tout d’abord au Nasdaq puis dans les différentes Bourses mondiales.

En France, c’est le 23 juin 1986 que les agents de change ont commencé à négocier certaines valeurs du mar-

 


ché à règlement mensuel sur un système électronique en continu, baptisé CAC et élaboré à partir d’un logiciel acheté à la Bourse de Toronto (CATS). Au départ, cinq valeurs seulement ont quitté la criée pour l’électronique. Cette innovation a pour but de permettre aux places financières de mieux absorber l’important volume de transactions et d’améliorer la liquidité des titres. Dix ans après les premiers pas de l’électronique, la Bourse de Paris a changé de dimension : le nombre quotidien des négociations est passé de 60000à 200000, et les séances où il se traite plus de 5 milliards de francs, exceptionnelles auparavant, ne sont plus désormais chose rare.

DEPUIS, LES INNOVATIONS

N’ONT PAS CESSÉ Thomas Peterffy, le fondateur d’Interactive Brokers, a été un précurseur: pour ses traders, il a inventé les tablettes au début des années 1980, bien avant Apple. Il a été le premier à relier les terminaux du Nasdaq à un ordinateur, puis le premier à


44faire passer des ordres à son ordinateur; l’ancêtre du trading« haute fréquence » ou trading algorithmique. Aujourd’hui, ces algorithmes réalisent 70 % des transactions sur les marchés américains et 30 % en Europe. Ultimes avatars du capitalisme financier, ils répondent aux doux noms de Guerrilla, Shark, Blast, Sumo… Inventées par les plus grandes banques du monde, ces lignes de code achètent et vendent des titres en quelques millisecondes, moins de temps qu’il n’en faut pour cligner de l’œil, afin de tirer parti de minuscules écarts

de décimales. Si sur un produit vous n’avez qu’une décimale, le spread minimal sera donc de 0,1 unité. En augmentant le nombre de décimales, on peut offrir toujours plus de “ spreads,

même s’ils sont toujours plus faibles. Cette recherche effrénée des spreads nées dans les Bourses des valeurs s’est très vite généralisée à l’ensemble des marchés: matières premières, marchés des changes, etc. Ainsi, le vendredi 30 décembre 2016 a marqué la fin d’une époque: le New York

Mercantile Exchange (NYMEX), prin-

Aujourd’hui, le « cyberespace », ça se passe sous les mers et les océans:

des milliers de kilomètres de câbles sous-marins assurent environ 99 % des communications intercontinentales, qu’il s’agisse d’Internet ou de téléphonie.

de prix, les spreads. Mais, dès lors, les spreadsvont sérieusement décroître, le marché devient de plus en plus liquide. Il va donc falloir repousser les limites techniques pour continuer à offrir une compétitivité croissante. Ça commence par la décimalisation, l’augmentation du nombre cipale Bourse pétrolière mondiale, a définitivement basculé vers le toutélectronique en fermant la criée (trading floor) pour ses transactions pétrolières (contrats financiers et options). Le marché mondial des devises, morcelé en une myriade de places, est de plus en plus intégré. D’après une étude1, entre1995 et2013 la part des transactions sur les devises traitées hors de leur pays d’origine, le trading offshore des monnaies, a augmenté de 21 %.

Mais profiter de ces spreads nécessite de multiplier les accès simultanés à différentes places de marchés. Parallèlement, donc, se sont développées de gigantesques infrastructures de communication qui, si elles ne sont pas entièrement dédiées aux activités financières, ont été largement motivées par les besoins des opérateurs financiers.

Il est significatif que le premier câble destiné à échanger des transactions boursières ait été mis en place dès le 1er décembre 1852, soit à peine plus de deux ans après celui des premiers – et désintéressés – pionniers. Il reliait les Bourses de Londres et de Paris en moins d’une heure, contre trois jours auparavant avec des moyens traditionnels comme le courrier postal. C’est le début d’un grand courant d’affaires. De plus en plus de câbles sous-marins sont posés. Le 5 août 1858, un câble transatlantique est posé entre Valentia (Irlande) et Trinity Bay (Terre-Neuve) par les navires Niagara et Agamemnon. Le premier message transmis est entre la reine Victoria et le président des États-Unis James Buchanan. La transmission du message de 100 mots dura 1h 7min. Malheureusement, la ligne ne fonctionna que vingt jours, jusqu’au 1erseptembre 1858. En 1955, le TAT1 (Trans-Atlantic Telephonic Cable), le premier câble transatlantique téléphonique à technologie coaxiale et à modulation de courant et de fréquences est mis en service. Les coaxiaux connaissent un important développement jusqu’en 1985. Le réseau posé fait alors près de 317000 km.

L’avènement de la fibre optique a lieu en 1988 avec la pose des câbles TAT8 et TPC3 dans l’Atlantique et le Pacifique. Ce sont les premiers câbles munis de fibres optiques. Commence


ÉVOLUTION DE LA CAPACITÉ DES CÂBLES DE TÉLÉCOMMUNICATION

 


alors la course à la vitesse et à la bande passante, course largement motivée par la mondialisation financière et le trading haute fréquence. L’exemple du câble Hibernia est significatif. Entré en service en septembre2015, pour un investissement de 300 millions de dollars, il relie deux points cardinaux de l’univers de la finance : les Bourses de Londres et de New York. Son exceptionnelle vitesse de transmission a séduit quelques clients très particuliers. Il va permettre d’envoyer des données numériques entre les deux rives de l’Atlantique en un temps record :

59,5 millisecondes (un clin d’œil prend entre 100 et 150 millisecondes!);“

c’est 6 millisecondes de moins que la meilleure performance réalisée auparavant. Économiser 5 millisecondes sur le trajet entre Londres et New York coûte la modique somme de 333 333 dollars par mois, soit 20 millions de dollars pour cinq ans d’utilisation, d’après l’agence Bloomberg.

Edward Snowden affirme que si la NSA (Agence de sécurité nationale états-unienne) parvenait à espionner la quasi-totalité de nos communications, c’était en contrôlant le réseau de câbles et les stations terrestres auxquelles ils aboutissent.

Aujourd’hui, le « cyberespace », ça se passe sous les mers et les océans: des milliers de kilomètres de câbles sous-marins assurent environ 99 % des communications intercontinentales, qu’il s’agisse d’Internet ou de  59,5 téléphonie.c’est en

Selon le centre de recherche spé-                     millisecondes

ce qui sépare cialisé Telegeography, dans le monde la Bourse de

il y aurait environ 430 câbles sous- Londres de celle marins en service, étendus sur plus de New York.

de 1,1 million de kilomètres. Depuis 1989 ont été investis 40 milliards de dollars, soit une moyenne annuelle de 1,5 milliard pour la pose de 43 000 km par an. On le voit, l’information nécessaire à l’efficience des marchés a un coût loin d’être négligeable.

PRIVATISATION DES FONDS… MARINS

Depuis quelques années, les opérateurs télécoms ne sont plus les seuls à investir dans les câbles sous-marins. Grands utilisateurs de ces infrastructures, certains géants américains du Net veulent désormais disposer de leurs propres tuyaux sous les mers. Philippe Piron, président d’Alcatel Submarine Networks (ASN, basé en France), un des leaders mondiaux de la construction, de la pose, de la modernisation et de la réparation des câbles sous-marins,  est formel: « Les géants américains du Net représentent aujourd’hui 40 % des commandes du marché, contre à peine 10 % en 2013. » D’ici peu, Facebook et Microsoft vont mettre en service Marea, un câble de 6600 km entre les États-Unis et l’Europe. L’ouvrage offrira une capacité absolument monstrueuse de 160 térabits par seconde.

Google n’est pas en reste. Grand dévoreur de bande passante, le géant de Mountain View a notamment investi dans Faster, qui relie la côte ouest des États-Unis au Japon. Long de près de 12000 km, ce câble présente également une capacité impressionnante de 60 térabits par seconde. Le nouveau câble ultrarapide, long de presque 13000 km, aura une bande passante de 120 téraoctets par seconde. Il devrait entrer en service à l’été 2018.

Actuellement, la plupart des câbles du Pacifique vont des États-Unis au Japon. Afin de créer une liaison plus directe avec l’Asie, Google et Facebook vont investir en commun dans le déploiement d’un câble transpacifique de 128 00 km de long, qui reliera Hong Kong à Los Angeles. Le montant financier de l’opération n’a pas été dévoilé.

Cette privatisation des grandes artères de l’Internet pose évidemment un problème politique majeur à la communauté internationale. On est loin de l’Internet bien commun de l’humanité. Elle génère également des tensions stratégiques nouvelles.

Depuis les années 1980, les États cherchent à avoir la main sur ces tuyaux où transitent des monceaux d’informations sensibles, et qui sont à la fois dans le collimateur des militaires et des espions.

Lancé au milieu du XIXesiècle, le système planétaire de câbles sous-marins est un pilier fondamental de notre société moderne, puisqu’il permet la circulation d’énergie et de données informatiques. Mais la configuration du réseau est telle qu’elle est sous le « contrôle » du RoyaumeUni et des États-Unis. Edward Snowden a révélé en 2013 une collecte massive de données réalisée par le gouvernement états-unien à partir de câbles sous-marins via, notamment, les programmes d’espionnage Upstream et Tempora. L’ancien employé de la CIA et de la NSA, affirme que si la NSA (Agence de sécurité nationale états-unienne) parvenait à espionner la quasi-totalité de nos communications, c’était en contrôlant la colonne vertébrale d’Internet, à savoir le réseau de câbles et les stations terrestres auxquelles ils aboutissent.

Les BRICS (Brésil, Russie, Inde, China et Afrique du Sud) ont donc réagi et 44sont depuis quelques années à la tête d’un nouveau réseau de câbles sousmarins, échappant au contrôle anglosaxon. Les BRICS veulent mettre un terme au monopole de Londres et Wall Street sur le réseau de câbles sous-marins. Les 34000 km de câbles des BRICS, d’une capacité de 12,8 térabits par seconde, sont reliés aux câbles WACS (West Africa Cable System), EASSy (Eastern Africa Submarin System) et SEACOM. Ainsi, les cinq pays du bloc ont un accès direct à vingt et un pays africains, qui à leur tour ont un accès immédiat à Internet et aux BRICS. La course de vitesse est-elle finie? On peut en douter. D’autres technologies, quelquefois plus anciennes, sont aujourd’hui à l’essai, telles que les micro-ondes, qui s’avèrent plus rapides encore que la fibre pour les communications terrestres. La vitesse de propagation des ondes est en effet plus rapide dans l’air que dans des matériaux tels que les matières plastiques. En outre, elles se propagent en ligne droite, contrairement à la fibre, qui doit très souvent contourner des obstacles.

Une société financière veut construire une tour dans la campagne du Kent afin de réduire le temps de communication entre la City et le continent européen, a rapporté la presse britannique an 2017. La tour et ses 320 m, encore au stade de projet, dépasserait The Shard, le plus haut gratteciel de Londres. La tour projetée utilisera des micro-ondes, qui, pour plus d’efficacité, exigent un horizon dégagé. Une technologie permettant une transmission des ordres plus rapide que par câble permettrait aux ordinateurs présents dans les bourses de gagner quelques précieuses millisecondes.

Enfin, les transactions financières génèrent d’autres coûts, plus difficiles encore à évaluer. Il s’agit notamment de ceux afférents au stockage des données dans des data centers, qui se développent et qui exigent des investissements importants et génèrent des coûts d’exploitation considérables. L’UFE comptabilise en France plus de 180 data centers de ce type, pour un tiers d’entre eux situés en Île-de-France. La facture énergétique de ces sites (électricité pour le traitement des données, mais aussi pour la climatisation) constitue en moyenne 40 % de leurs coûts de fonctionnement. En France, la consommation électrique des data centers aurait atteint près de 3 TWh en 2015, selon RTE, soit davantage que la consommation électrique annuelle de la ville de Lyon. Et cela ne va pas en s’améliorant. À lui tout seul, le bitcoin requiert une quantité annuelle d’énergie de l’ordre de 53 TWh, légèrement supérieure à celle consommée par un pays comme la Roumanie. On le voit, les marchés financiers, efficients ou pas, sont coûteux et pour le moins peu soutenables. n

*ALAIN TOURNEBISE est ingénieur.

1. Barry Eichengreen, Romain Lafarguette et Arnaud Mehl, Cables, « Sharks and Servers:

Technology and the Geography of the Foreign Exchange Market », NBER Working Paper, no 21884, janvier 2016.


 

UNE CRISE FINANCIÈRE DÉSORMAIS CHRONIQUE


Dix ans après sa brutale apparition, la crise a disparu du paysage, et son anniversaire s’est déroulé en catimini. Faut-il y rechercher le besoin de tourner la page, comme lorsque, à son tout début, les autorités politiques du moment prétendaient apercevoir les petites pousses vertes de la croissance? L’incapacité collective à formuler les causes de cette crise, à expliquer a posteriori ce que nul n’avait vu a priori venir, en est plus certainement à l’origine. Seul a été retenu le choc initial des subprimes du marché hypothécaire immobilier, son détonateur, la suite de ses enchaînements baignant dans la confusion.

PAR FRANÇOIS LECLERC*,

PROCHAINE CRISE INÉVITABLE? Les financiers reconnaissent qu’un prochain épisode de crise est inévitable, mais ils ajoutent ne pas savoir quand il interviendra ni ce qui le déclenchera. Pour les mêmes raisons, les banques centrales veulent revoir à la baisse leurs programmes d’assouplissement quantitatif afin de disposer à nouveau de moyens d’intervention pour quand le moment surviendra. Or, tour à tour écono-

mique, sociale et politique, la crise financière est devenue chronique, et ses manifestations propres ont été reléguées au second rang en attendant de ressurgir.

Aux premières loges des événements, les banquiers centraux, pragmatiques par nécessité, constatent perplexes que « les mécanismes de la transmission de la politique monétaire » ne fonctionnent plus, leurs commandes ne répondant plus comme avant. En prononçant cette petite phrase, ils remettent en cause la conception du

rôle des banques centrales et de la marche de l’économie qui les a guidées durant des décennies. On ne compte plus les milliers de milliards de dollars, d’euros, de yuans, de yens et de livres sterling injectées par les banques centrales dans le système financier; on ne s’étonne plus non plus de leurs taux directeurs, proches de zéro ou même négatifs pour les facilités de dépôts accordées aux banques. Avec, pour tout résultat, une stabilisation de la situation qui n’a pas été vraiment éprouvée par un coup de tabac. Le retour à la normale n’ayant par ailleurs pas été au rendez-vous: les salaires stagnent, et l’inflation et la croissance restent faibles. Et la mesure du chômage effectif via l’indicateur plus pointu qu’est le taux d’emploi1 est franchement défavorable. Plus question de retour à l’avant-crise, une nouvelle période pleine d’incertitude est engagée.


LE RÔLE JOUÉ “

PAR LES BANQUES CENTRALES En évitant l’implosion du système financier, les banques centrales ont joué un rôle déterminant. Auparavant

Les salaires stagnent, et l’inflation et la croissance restent faibles. Et la mesure du chômage effectif vial’indicateur plus pointu qu’est le taux d’emploii est franchement défavorable. Plus question de retour à l’avant-crise, une nouvelle période pleine d’incertitude est engagée.

chargées de lutter contre l’inflation, elles se sont trouvées investies d’une mission d’assistance tous azimuts, avec un succès mitigé. Sous leur

férule, le capitalisme est devenutaux directeurs leur imposent d’agir LA STABILISATION assisté après avoir été sauvé par l’in-avec grande prudence, en raison des DU SYSTÈME FINANCIER jection massive de capitaux publicsconséquences de la hausse des taux La stabilisation du système finanempruntés aux investisseurs privés…d’intérêt sur la dette publique et pri- cier est potentiellement menacée Et cela n’est pas près de cesser.vée, qui ne cesse déjà de s’accroître, par la raréfaction du collatéral. Ces Mais leurs opérations ont considé-et du risque que les investisseurs titres estimés « sûrs » – des obliga-

rablement accru le volume mondial des actifs financiers, sans rapport avec la croissance effective de l’économie, créant par là même un facteur majeur d’instabilité pour l’avenir, car l’édifice financier repose en dernière instance sur cette croissance. On a l’image d’une pyramide

2900

c’est en

milliards

de dollars

le volume des

ETF (exchange trade funds).

ayant emprunté se retrouvent coincés dans leurs spéculations. D’ailleurs, les banques centrales retrouverontelles jamais leur configuration d’avant? La faiblesse de l’inflation est un mystère sur lequel les analystes s’interrogent, vu les masses de liquidité injectées, car elles auraient théori-

tions souveraines le plus souvent – sont apportés en garantie des transactions ou utilisés pour renforcer les fonds propres des établissements financiers. Mais la demande en collatéral s’est considérablement accrue, et l’offre y répond difficilement. C’est le résul-

La faiblesse de l’inflation est un mystère sur lequel les analystes s’interrogent, vu les masses de liquidité injectées, car elles auraient théoriquement dû déclencher son irruption incontrôlée.

vements massifs de capitaux qui par- “lui-même du volume accru des renversée dont la pointe représente quement dû déclencher son irrup- tat conjugué du renforcement réglel’économie, et la base les actifs finan- tion incontrôlée. « L’inflation n’est mentaire des fonds propres des ciers. Cette hypertrophie qui rend pas où elle devrait être », a reconnu banques, de l’accroissement des plus dévastateurs les brusques mou-transactions financières, qui résulte

courent la planète est le prix à payerliquidités mondiales disponibles, dé du démarrage des chambres de

S’engageant avec beaucoup de pré-compensation des produits dérivés. cautions dans la réduction de la tailleAfin de remédier à la raréfaction du de leur bilan – elles détiennent uncollatéral, des stratégies hasardeuses, quart de la dette publique – ainsiexpression de la créativité finanqu’en augmentant leurs taux direc-cière, sont déployées. La réhypoteurs, les banques centrales sontthécation permet de garantir pluaujourd’hui placées devant une Mario Draghi, le président de la sieurs transactions avec un même contradiction : d’un côté, elles sont Banque centrale européenne (BCE). collatéral, au prétexte qu’il est improincitées à poursuivre leur politique Ces capitaux n’ont en effet pas atteint bable que des défauts interviennent accommodante, en raison d’une l’économie, ils ont été détournés de manière simultanée!

inflation anémique et afin de soute- pour répondre aux besoins d’une On se trouve là au cœur d’un sérieux nir l’économie ; de l’autre, elles activité financière aux bien meilleurs paradoxe : c’est à la dette que le sysdevraient réduire leurs programmes, rendements. Autre mystère, la courbe tème financier doit son renforcecar ils suscitent des distorsions sur de Phillips, qui illustre de manière ment. Ce qui explique l’interdit qui les marchés et une inflation préoc- empirique la relation entre le taux pèse désormais sur sa restructuracupante des actifs boursiers. En tout de chômage et l’inflation, a totale- tion, alors qu’elle n’a cessé durant

état de cause, la réduction progressive de la taille du bilan des banques centrales et l’augmentation de leurs

ment changé de physionomie : à la faiblesse de l’inflation correspond désormais la baisse du chômage.

sa longue histoire de connaître des défauts de remboursement, jouant le rôle de soupape.


44Que n’a-t-il pas été dit à propos de la régulation financière! En fait, celleci s’est focalisée sur les banques et a laissé encore en jachère des pans entiers de l’activité financière, regroupés dans leur grande diversité sous le terme de shadow banking (la

« banque de l’ombre ») et qui restent dans l’angle mort de la surveillance. Les circuits de financement du shadow banking n’ont cessé de grossir ces dernières années, approfondissant l’interconnexion entre les secteurs régulés et non régulés. Selon le Conseil de stabilité financière (FSB), son volume a atteint 92000 milliards de dollars fin 2015, dépassant ainsi son niveau d’avant crise en proportion du PIB mondial.

En fait partie le marché des repos2, qui pèse 12000 milliards de dollars et fonctionne de gré à gré. Il est vital pour les institutions financières :“

c’est le ressort essentiel des banques, qui y empruntent des liquidités à court terme en échange de titres afin de financer leurs activités spéculatives et de crédit. Fin 2016, il a toutefois connu une crise de volatilité qui l’a très fortement secoué en raison de l’explosion d’une demande d’emprunts d’obligations souve-

raines « sûres » destinées à couvrir des positions de ventes à découvert et à réaliser des arbitrages de changes contre le dollar. L’opacité dans laquelle il baigne a conduit la Banque des règlements internationaux (BRI) à lancer une étude, prévue pour durer deux ans, pour y voir plus clair… Un autre marché, celui des exchange trade funds (ETF), des fonds indiciels, a suscité des appels à la vigilance des régulateurs, et incité la Securities and Exchange Commission (SEC) états-unienne à enquêter. Les ETF répliquent le plus souvent le comportement d’indices boursiers, mais également de paniers de titres des marchés des matières premières et obligataires, sans les posséder. La progression de leur encours est ful-

 

92000

c’est en milliards d’euros ce que

pesait la «banque de l’ombre»

gurante, de plus de 20 % annuels, et leur taille est désormais équivalente à celle des hedge funds, soit 2900 milliards d’euros d’actifs sous gestion. Fort de ce succès et du courant

Également de gré à gré, ce marché va devoir progressivement utiliser les services de chambres de compensations destinées à sécuriser les transactions. Des garanties devront

Un autre gigantesque marché, celui des produits structurés, est tout aussi largement méconnu. Son volume en pleine expansion s’exprime en notionnel en centaines de milliers de milliards de dollars. 

Quel sens cela a-t-il de surveiller de près une composante du système financier, même importante, si ses autres composantes avec laquelle elle est étroitement interconnectée ne le sont pas? Le monde financier est un enchevêtrement d’engagements réciproques.

fin 2015. constant d’innovation qui parcourt être fournies, leur montant étant l’activité financière, des ETF à effet défini par des appels de marge de de levier et synthétiques sont mas- ces nouvelles institutions. Ceux-ci sivement apparus, rappelant le scé- seront calculés en fonction du risque nario du développement des pro- que représente une transaction donduits structurés sophistiqués. Un née, la value at risk. Mais ces champremier signal d’alarme a retenti à bres de compensation vont concenNew York en 2016, avec des arrêts de trer le risque au lieu de le maîtriser, cotation en série et des décrochages en raison de la difficulté – pour ne impressionnants de la valeur des ETF pas dire l’impossibilité reconnue par intervenants, qui demeurent large- Andrew Hadlane, économiste en chef ment inexpliqués. La chute de la de la Banque d’Angleterre – de calvaleur de certains ETF a en effet été culer le risque des produits structutrès supérieure à celle de l’indice rés complexes.

répliqué. Un choc majeur de liquidité est désormais craint. LE CALCUL DU RISQUE

Un autre gigantesque marché, celui D’une manière générale, le calcul du des produits structurés, est tout aussi risque, cet exercice décisif destiné à s’en prémunir au mieux, suscite de nombreuses interrogations.

Il repose sur le principe laplacien4 des anticipations rationnelles, selon lequel une parfaite connaissance du présent permet de déduire l’avenir. Une étude de la BCE portant sur les bilans bancaires a ainsi mis en évidence que les banques européennes utilisent leurs modèles propriétaires de calcul de valorisation de leurs largement méconnu. Son volume en actifs afin de minorer leurs obligapleine expansion s’exprime en notion- tions correspondantes en termes de nel3 en centaines de milliers de mil- fonds propres. Une telle optimisaliards de ne serait pas un comportement


isolé selon l’Institut McKinsey. La régulation financière s’est donnée comme objectif de contenir le risque systémique – l’effet domino par lequel une crise financière se

propage – en imposant aux banques 325%

des contraintes de fonds propres et du PIB mondial : de liquidités afin de circonscrire les le montant défaillances. Mais quel sens cela a- de la dette.

t-il de surveiller de près une composante du système financier, même importante, si ses autres composantes avec laquelle elle est étroitement interconnectée ne le sont pas? Le monde financier est un enchevêtrement d’engagements réciproques.

La dette mondiale continue de croî-« L’inégalité des revenus est inédite et met en danger la cohésion sociale», a relevé cette dernière dans l’un de

Il est inutile de distinguer dettesses rapports, avant de déplorer « l’inpubliques et privées pour observer capacité des politiques publiques que ces anticipations de la richesse future existantes à promouvoir une croisprogressent plus vite que l’économie. sance inclusive » (qui bénéficie à tous). L’exclusion sociale et les inégalités ont été au centre du sommet tre. En 2014, elle pesait 286 % du PIBde Davos de janvier 2018, dont les mondial, selon McKinsey, qui l’avait “ organisateurs ont le nez fin. Une

sept ans auparavant chiffrée à 269 %.prise de conscience progressiste tarSelon l’Institute of Internationaldive en serait-elle à l’origine? Il faut Finance (IIF), le lobby des grandesplutôt y trouver l’expression d’une banques internationales, elle repré-profonde inquiétude : la distribusente désormais 325 % de ce mêmetion inégale des revenus pèse sur la PIB. La sphère financière s’est large-consommation des ménages, dont ment désendettée en faisant sup-le rôle est déterminant pour assuporter aux États un transfert géné-rer la croissance. Et parier sur l’enrateur de déficits publics d’une dettement comme substitut aux reveampleur inégalée. Mais il est inutile de distinguer dettes publiques et pri-

Parier sur l’endettement comme substitut

vées pour observer que ces antici-

pations de la richesse future progres- aux revenus a ses limites: on voit déjà le sent plus vite que l’économie. Il y a crédit reprendre des proportions inquiétantes là un indéniable vice de construc- aux États-Unis.

tion, car cela implique que la dette souveraine n’est pas remboursable

à terme, qu’elle n’est pas restructu- nus a ses limites: on voit déjà le crédit rable non plus en raison du boule- reprendre des proportions inquiéversement que cela susciterait au tantes aux États-Unis. Or la croissein du monde financier : le sujet en sance apporte une contribution est devenu tabou. L’endettement essentielle au remboursement de la mondial est l’exemple même d’une dette – ainsi que l’inflation, qui en fuite en avant qui ne peut que tour- rogne la valeur; et si croissance et ner mal.            inflation font défaut, on est renvoyé

au problème précédent.

LES INÉGALITÉS

Les inégalités de répartition de la richesse ne font que s’accroître, estil constaté dans les cercles financiers. Les principales organisations internationales, y compris l’OCDE, que l’on attendait le moins sur ce sujet, en viennent à le souligner.

LA MONÉTISATION FAIT TOURNER

LA TÊTE DANS CE MONDE

Devant les impasses constatées, des propositions iconoclastes n’ont pas manqué d’apparaître aux cours de ces années de crise. Provenant no tamment d’Adair Turner, un ex-

président du régulateur financier britannique, qui se doit d’être cité pour avoir osé déclarer que les produits financiers structurés n’avaient pas de justification sociale, ainsi que pour avoir formulé une solution originale à la résorption de la dette publique. À cet effet, il a proposé que les banques centrales échangent les titres souverains qu’elles possèdent – ou qu’elles achèteraient – contre de nouveaux titres perpétuels et sans intérêt… Afin de relancer l’économie, Ben Bernanke, le prédécesseur de Janet Yellen à la tête de la Federal Reserve (États-Unis), n’a pas rejeté quand il était encore en fonction le principe de la distribution d’une somme d’argent à chaque contribuable, opération massive que la banque centrale pourrait financer en achetant des bons du Trésor. Sous le nom de helicopter money, le dispositif avait été initialement imaginé par Milton Friedman et a eu son heure de gloire. Il faut des circonstances très exceptionnelles et de profondes impasses conceptuelles pour que la magie de la monétisation fasse tourner à ce point la tête dans ce monde si conformiste et si près de ses dogmes. n

*FRANÇOIS LECLERC est journaliste.

1.  Le taux d’emploi est la proportion de personnes disposant d’un emploi parmi celles en âge de travailler.

2.  Repo(pour re-purchase agreement [« pension livrée », en français]) : vente d’un actif avant de le racheter à des conditions agrées à l’avance, afin d’utiliser entre-temps le produit de la vente.

3.  La valeur notionnelle sert de support au calcul de contrats de natures très diverses, véritables objets des transactions.

4.  De Pierre-Simon Laplace (1749-1827).


PRINCIPES ET APPLICATIONS DE LA BLOCKCHAIN


dans un grand nombre de nœuds informatiques (unité de calcul, par exemple un ordinateur, un smartphone…). Ce réseau pair-à-pair est tel que chaque unité de calcul est reliée à toutes les autres. Plus le registre sera répliqué‚ plus il sera difficile à modifier.

1000

milliards

envoie la solution aux autres mineurs. L’énigme cryptographique est difficile à résoudre mais la solution est simple à vérifier. Le mineur qui a gagné est rétribué.

Si la solution est approuvée, le bloc est ajouté aux blocs précédents, créant ainsi une chaîne de blocs.

La solution est intégrée au bloc. Elle contient des informations relatives

Un sujet qui fait la une des magazines depuis de nombreuses semaines: tout ce que vous voulez savoir sur la blockchain… ou presque.


tition entre mineurs: le premier qui résout une énigme cryptographique


PAR ANNA SCIUS-BERTRAND*,

À

la suite de la crise financière de 2008, sous le pseudonyme Satoshi Nakamoto, est créé un système de transfert d’argent à distance sans avoir recours à un tiers de confiance tel que les institutions financières, c’est le bitcoin. L’une des difficultés majeures à surmonter est de prévenir les doubles dépenses : s’assurer qu’une somme ne peut être dépensée deux fois simultanément, et donc qu’une transaction soit non réversible. Jusqu’alors les institutions financières assuraient cette fonction en centralisant les comptes de leurs clients et en vérifiant la validité de chaque transaction. Le besoin existe de se passer d’une institution centrale, d’un tiers de confiance.

L’idée nouvelle est de conserver l’historique de l’ensemble des transactions effectuées. Dans la blockchain, les transactions sont conservées dans un registre. Comment garantir son intégrité? La solution est un assemblage, élégant et très astucieux, de technologies existantes reposant sur trois concepts clés : un réseau pairà-pair, la cryptographie asymétrique et le consensus distribué. La première étape est de garantir l’identification unique des participants. Chaque utilisateur est identifié par un couple de clés uniques, lequel constitue un portefeuille virtuel.

La clé privée, comme son nom l’indique, doit rester secrète, et la clé publique peut être communiquée au monde entier sans risque de piratage. Dans le cas du bitcoin, il existe 2160 adresses différentes: avec 1 milliard d’essais par seconde, il faudrait mille milliards d’années pour trouver une clé privée à partir d’une clé publique.

UN REGISTRE GÉRÉ

DANS UN RÉSEAU PAIR-À-PAIR Le registre contenant l’historique des transactions est répliqué dans un réseau pair-à-pair, c’est-à-dire d’années seraient à chacune des transactions du bloc: UNE VERSION UNIQUE nécessaires pour la date, l’heure de création du bloc

DU REGISTRE                                               trouver une clé                    et la solution du bloc précédent

privée à partir

Enfin, il est nécessaire que tous les                                                         contenant également ces mêmes

d’une clé publique.

participants au réseau s’accordent                                                 informations.

sur une version unique du registre, Dans l’hypothèse où un individu qui évolue au cours du temps, ce quevoudrait modifier une transaction, réalise le consensus distribué.il devrait changer le résultat de la Lorsqu’une transaction est effectuée,solution en réalisant à nouveau un une empreinte unique est générée,long calcul pour la trouver. Il devrait aussi recalculer les solutions des blocs suivants, et ce pour la majo-

L’une des difficultés majeures rité des chaînes contenues dans chaà surmonter est de prévenir les doublescun des nœuds du réseau. Pour s’asdépenses: s’assurer qu’une somme ne peut surer que le calcul de la solution ne être dépensée deux fois simultanément, et donc soit pas trop rapide, la puissance utiqu’une transaction soit non réée pour résoudre l’énigme dans le réseau est évaluée régulièrement.

Avec ce mécanisme, il est impossi-

puis stockée dans un bloc. Lesble de modifier le contenu des blocs, « mineurs » sont des nœuds du réseausauf si 51 % des mineurs forment qui en « travaillant » produisent desune coalition. Plus le réseau sera preuves de travail. Preuves qui lesgrand, plus cette coalition sera difautorisent à ajouter une transactionficile à obtenir.

dans la chaîne (un bloc est créé toutesIl existe deux mécanismes d’incitales dix minutes).tions pour encourager les mineurs

à ajouter à la chaîne des blocs précédents. Pour obtenir le droit d’ajouter ce bloc, il doit effectuer une opération appelée « hachage », qui consiste à calculer une empreinte du bloc qui

nombre de bitcoins, 50 lors de la première année de bitcoin. La rétribution est divisée par quatre tous les ans, ayant pour conséquence la création d’un nombre fini de bitcoins.

En fait, chaque mineur du réseauà utiliser de la puissance de calcul… choisit des transactions en attente “ et de l’électricité. Le premier mineurer

pour composer un bloc, qu’il cherchequi résout l’énigme reçoit un certain

prend en compte l’empreinte desAu 1 février 2018 ont été minés blocs précédents et qui vérifie une16,8 millions de bitcoins sur les 21 milcertaine propriété.lions programmés.

LA VALIDATION

Pour garantir l’intégrité de la blockchain,

Lorsque le bloc est plein, il est envoyé

à un ensemble de mineurs. Les la solution est un assemblage, élégant et très mineurs commencent par vérifier la astucieux, de technologies existantes reposant validité des transactions à l’intérieur sur trois concepts clés : un réseau pair-à-pair, du bloc. Dans le cas du bitcoin, la la cryptographie asymétrique et le consensus validation d’un bloc s’opère avec la distribué.

preuve de travail. Il y a alors compé-


“ Le code de bitcoin a été publié

en open source, donc il est accessible à tous. Depuis 2008, des milliers d’implémentations analogues et différentes ont été réalisées. On compte deux ou trois grandes catégories de blockchainssuivant la façon dont on les voit : publiques, de consortium et privées, ces deux dernieres étant de même nature.

Pour pallier la diminution croissante de la rétribution, les participants ont la possibilité d’ajouter un montant à l’attention du mineur qui validera le bloc.

Ainsi, la blockchaingarantit la sécu-

risation de transactions sans tiers deconfiance et en toute transparence.           16,8

Utilisée initialement pour des paie- millions

ments en ligne, la blockchain tend à c’est le nombre se propager dans de nombreux de bitcoins minés domaines, assurances, immobilier, au 1er février 2018. énergie ou encore santé, éducation, art. Par exemple, dans le domaine de l’énergie, la blockchain peut servir à certifier les échanges d’énergie entre particuliers.

Toutefois, la blockchainn’en est qu’à ses balbutiements. De nombreuses questions restent ouvertes, notamment celle de la consommation énergétique due à la validation du registre. La complexité évacuée par la porte revient ainsi par la fenêtre. Le code de bitcoin a été publié en open source, donc il est accessible à tous. Depuis 2008, des milliers d’implémentations analogues et différentes ont été réalisées. On compte deux ou trois grandes catégories de blockchainssuivant la façon dont on les voit : publiques, de consortium et privées, ces deux dernières étant de même nature. Bitcoin est un exemple de blockchain publique : tout internaute peut lire les contenus des blocs, créer un portefeuille et devenir mineurs; dans les blockchainsde consortium seul un groupe de participants a le contrôle du registre, et ils peuvent décider qui peut ou non accéder au registre ou le certifier; dans les blockchainsprivées, un seul individu détient le processus de validation. On est bien loin du principe originel de décentralisation de la gouvernance.

La blockchainpublique n’appartient à personne, et même son créateur ne peut plus changer les règles de fonctionnement une fois qu’elle est exécutée. n

 

DERRIÈRE LE BITCOIN, QUEL AVENIR POUR LA TECHNOLOGIE BLOCKCHAIN?

Au-delà du véritable emballement médiatique qu’a déclenché le bitcoin, du fait notamment de l’envolée vertigineuse du cours, se cachent les technologies blockchains, auxquelles l’on promet un potentiel de disruption important et qui pourraient changer notre rapport à la confiance.

*ANNA SCIUS-BERTRAND est doctorante contractuelle à l’École pratique des hautes études.


PAR ÉRIC BEVILLARD*,

E

n 2008 paraît un document de huit pages dans lequel un certain Satoshi Nakamoto décrit le fonctionnement d’une monnaie qu’il vient d’inventer, le bitcoin. 2008 n’est pas une date anodine: le monde bancaire est en pleine crise. C’est dans ce contexte que cette personne (ou groupe de personnes, car on ignore son identité réelle) issue de la mouvance crypto anarchiste pose les bases de ce qui se veut une révolution : la création d’une monnaie qui ne soit pas contrôlée par une institution mais par un algorithme.

En simplifiant à l’extrême, la blockchain n’est rien d’autre qu’un immense livre de comptes dans lequel on liste toutes les transactions qui ont eu lieu.

LE TIERS DE CONFIANCE REMPLACÉ PAR DE LA DÉPENSE

ÉNERGETIQUE De nombreux experts affirment que Nakamoto mériterait le prix Nobel d’économie alors qu’il n’a pas inventé grand-chose. En effet, la blockchain, qui est le protocole sur lequel s’appuie le bitcoin, n’est que l’agrégation de technologies connues qui viennent de la cryptographie et des réseaux pair-à-pair. Mais son génie a été de les combiner de façon extrêmement astucieuse.

En simplifiant à l’extrême, la blockchain n’est rien d’autre qu’un immense livre de comptes dans lequel on liste toutes les transactions qui ont eu lieu. Lorsque Toto veut acheter à Titi un objet, la blockchain vérifie que Toto a bien l’argent sur son compte, et la transaction est ajoutée dans le livre de comptes. Lors de l’ajout, on créé un nouveau livre – un bloc –, dans lequel on a l’historique du bloc précédent plus les nouvelles transactions validées. On a ainsi une chaîne de blocs, qui n’est autre qu’une chaîne de log, au sens informatique, répartie sur tous les ordinateurs, appelés « nœuds du réseau ». Il serait possible pour un pirate informatique de modifier ce livre de comptes, mais pour cela il faudrait qu’il arrive à le faire sur 51 % des nœuds du réseau. C’est théoriquement possible, mais sur la blockchain bitcoin cela demanderait une puissance de calcul faramineuse. Dans un système monétaire habituel, c’est un tiers de confiance (la banque, la chambre de compensation…) qui assure la validation de cette transaction. Pas pour le bitcoin. Afin de valider le nouveau bloc (qui contient un ensemble de transactions), la blockchainva lancer envi-


ron toutes les dix minutes un concours mondial, auquel n’importe qui peut participer, qui consiste à trouver la réponse à un défi algorithmique. Les entités qui essayent de résoudre ce défi s’appellent les « mineurs ». Le premier qui trouve la solution crée le nouveau bloc en ajoutant les transactions qu’il a validées et reçoit une récompense, actuellement 12,5 bitcoins. Au moment où cet article est écrit, 1 bitcoin vaut environ 10000 dollars, c’est donc une récompense de 125000 dollars que reçoit le mineur pour un travail consistant à faire mouliner des ordinateurs.

Face à cette nouvelle ruée vers l’or, les mineurs sont passés de simples citoyens lambda à des fermes de calcul dédiées à cette tâche, pratiquement toutes en Chine, car l’énergie y est moins chère, surtout dans certaines provinces, comme celle de Sichuan. Car là est un des problèmes majeurs du bitcoin : le coût énergétique. Pour résoudre ce défi algorithmique, donc valider un groupe de transactions, il faut une grosse puissance de calcul, donc beaucoup d’énergie pour faire tourner les serveurs. D’autant plus que la blockchain complexifie la difficulté à mesure que la puissance de calcul disponible sur le réseau augmente. Récemment, la consommation énergétique de la blockchain bitcoin a été estimée au même niveau que la consommation électrique d’un pays comme l’Irlande.

On peut s’offusquer de cette consommation gigantesque, mais c’est sur cette dépense énergétique que se crée la confiance dans la blockchain bitcoin. C’est parce que les mineurs ont quelque chose à perdre (l’argent investi dans le matériel et l’énergie consommée) que les utilisateurs peuvent avoir confiance dans la validation des transactions. Autrement dit, confiance = dépense énergétique. Avec d’autres mots on pourrait se poser la question ainsi: est-ce que pour l’humanité le service rendu par la blockchainbitcoin (s’affranchir de tiers de confiance dans un système monétaire) est tel qu’il justifie une telle dépense énergétique? Certains le pensent.

Le monde bancaire, celui-là même qui est censé être menacé par le bitcoin, s’est rendu compte, à partir

de 2013, qu’utilisée d’une autre façon la blockchain pourrait lui être très utile. La blockchain bitcoin s’appuie sur des briques technolo-

1 bitcoin vaut environ 10000

dollars en mars 2018.

deux catégories:

– les blockchainspubliques, où n’importe qui peut participer et qui sont sécurisées par la crypto-économie

giques de crypto et de réseau pair-(c’est-à-dire par les mineurs qui ont à-pair. En modifiant certaines deun intérêt financier à valider les ses règles, on peut créer d’autrestransactions) à travers un jeton

Un des problèmes majeurs du bitcoin :

le coût énergétique. Pour résoudre ce défi algorithmique, donc valider un groupe de transactions, il faut une grosse puissance de calcul, donc beaucoup d’énergie pour faire tourner les serveurs.

(token) qui s’apparente à une crypto monnaie;

– les blockchains où le processus d’approbation est contrôlé par un nombre restreint et choisi de nœuds (blockchain de consortium) ou par un unique acteur (blockchain privée).

Pour les institutions financières, les blockchains privées et de consorblockchains fonctionnant suivanttium ont de nombreux avantages : des règles différentes. À partir desimplification de validation de trans2015, on a vu l’apparition en nom-actions, partage de la vérification bre de nouvelles blockchains.des données clients, coûts réduits Certaines d’ailleurs se lancent avec “ des processus de vérification, rapi-

la volonté de trouver une solutiondité, confidentialité. Le tout sans la à la dépense énergétique.perte de contrôle qu’impliquait la Si beaucoup d’institutions, finan-version publique issue du bitcoin. cières ou non, sont intéressées parLe fort intérêt des banques pour les le potentiel révolutionnaire de lablockchains s’explique par la nécesblockchain, certains aspects de cettesité qu’elles ont de se digitaliser. Elles technologie ne leur conviennent pas: sont un des derniers domaines à la dimension décentralisée, le fait n’avoir été que peu touchés par la que l’historique des transactions soit vague du numérique. La blockchain à la vue de tout le monde, le nondroit à l’oubli…

Certains États, comme le Honduras

UNE ARME CONTRE LES BANQUES   et le Ghana, ont même basculé la gestion OU UN OUTIL POUR ELLES?            de leur cadastre sur blockchain, afin de lutter

Ainsi a émergé l’idée de blockchain                contre la corruption.

privée. Avec ce concept, il devient possible de créer un système pour

lequel les permissions d’accès, de arrive avec la promesse de pouvoir lecture et de vérification du registre ainsi simplifier de nombreuses applide la blockchain sont contrôlées de cations qui nécessitent aujourd’hui manière plus stricte, tout en conser- un gros back-office : des employés vant la plupart des avantages de la qui valident des identités, des transtechnologie, dont la garantie d’au- actions en recevant des courriels, des thenticité, le partage d’information. fax… Les économies que pourrait On peut diviser les blockchains en faire le monde bancaire sont estimées de 80 à 100 milliards de dollars “ par an, d’après McKinsey, qui se tra- La technologie n’est pas mature. duiraient par une forte diminution Elle a encore de nombreuses barrières à lever. du personnel de back-office. Prenons Il faut vraiment comprendre que la maturité l’exemple du KYC (know your custo- des blockchainsest encore faible. mer), un processus réglementaire

Et rien ne dit qu’elles arriveront à lever

permettant de vérifier l’identité des ces difficultés.

clients que, aujourd’hui, chaque institution financière doit appliquer. S’il

était stocké sur une blockchain de offices, et donc à des économies, consortium, cette tâche ne devrait d’après PWC, de 5 à 10 milliards par être faite qu’une seule fois par insti- an pour le secteur de l’assurance. tution : une économie énorme. Autre Demain, on pourra ainsi s’assurer exemple, lors d’une transaction finan- en quelques clics et pour un coût cière, la transaction est aujourd’hui très faible contre une entorse lors du en moyenne enregistrée dans dix Marathon de Paris.

bases de données différentes. Et d’autres secteurs pourraient bénéEn 2015, une blockchain 2.0 appe- ficier d’économies non moins imporlée Ethereum est apparue. Elle ajou- tantes grâce à la blockchain: la logis-

tait une fonctionnalité simple mais redoutable : l’exécution automatique d’un script appelé smart contract. Ces contrats « intelligents » sont déclenchés par des données externes qui leur permettent de modifier d’autres données. En septembre 2017, un exemple concret de cette application a vu le jour : Axa a lancé une plate-forme d’assurance, Fizzy, qui utilise un contrat « intelligent » pour assurer les billets d’avion. Grâce à un outil de suivi de vols, Fizzy déclenche un remboursement dès que le retard de l’avion est constaté, sans que l’assuré ait à produire de justificatif. Pour les assureurs, cette technologie pourrait faire baisser le coût de gestion d’un contrat de 4 € à 0,40 €. Ouvrant ainsi la voie à la microassurance, à moins de back-

tique, les groupes pharmaceutiques (traçabilité des médicaments), le domaine de l’énergie pour la gestion des contrats, les objets connectés. Et certains États, comme le Honduras et le Ghana, ont même basculé la gestion de leur cadastre sur blockchain, afin de lutter contre la corruption : une parcelle pouvait changer de propriétaires contre un pot-de-vin. Certains essayent de monter des blockchainspour le vote également.

LE NOUVEAU PARADIGME

N’EST PAS POUR DEMAIN

En 2017, blockchain a été un des buzzwords, mots à la mode de l’année. Les grandes entreprises se sont ruées sur le sujet et ont voulu tester cette technologie pour mieux com-

Certains États, comme le Honduras et le Ghana, ont même basculé la gestion de leur cadastre sur blockchain.

 

prendre comment en tirer profit. On a ainsi vu des centaines de preuves de concept utilisant la blockchain qui ont permis deux constats.

Le premier est que la technologie n’est pas mature. Elle a encore de nombreuses barrières à lever, comme, par exemple, le passage à l’échelle industrielle. IBM, qui est l’acteur le plus à la pointe sur cette technologie, a ainsi reconnu que sur trois cents preuves de concept réalisées en 2017, une seule est passée en production. Il faut vraiment comprendre que la maturité des blockchains est encore faible. Et rien ne dit qu’elles arriveront à lever ces difficultés. Le second est que la majorité des entreprises n’ont pas compris de quoi il s’agissait. Certaines sociétés de service spécialisées ont admis devoir créer des arbres décisionnels pour vérifier d’abord si la blockchain est bien la bonne solution à la problématique de leur client avant d’engager des travaux sur le sujet, car elles recevaient des demandes farfelues. Ainsi, certaines voudraient utiliser cette technologie comme une simple base de données, or ce n’est pas la technologie de base de données la plus performante. Un exemple parmi bien d’autres : le Crédit mutuel Arkéa utilise la blockchain pour partager des informations avec ses filiales. Or la blockchain est utile lorsque l’on a un déficit de confiance. Si le Crédit mutuel en est à manquer de confiance dans ses propres filiales… La confiance. C’est pourtant justement ce qui rend cette technologie fascinante, avec peut-être un potentiel révolutionnaire malgré tout. Car elle permet de réaliser des transactions en se passant d’un tiers de confiance. De nombreuses entreprises établies sont elles-mêmes des tiers de confiance, et utiliser la blockchain reviendrait à les retirer de l’équation. Que devient un notaire si toutes les ventes de biens sont enregistrées, certifiées et infalsifiables sans qu’il ait à intervenir? Que devient Western Union si la diaspora africaine peut envoyer de façon sûre son argent vers l’Afrique? Que devient la monnaie d’un pays si l’on utilise dans notre quotidien des centaines de cryptomonnaies différentes? Que devient un fournisseur d’énergie si demain je peux vendre en toute


confiance l’énergie de mes panneaux solaires à mon voisin, même si ma relation avec lui est difficile ? Que devient même Uber si on remplace son service par une blockchain qui garantit le transfert d’argent entre l’utilisateur du service et le chauffeur? Oui, même Uber pourrait être ubérisé par blokchain! Les cryptoanarchistes voient dans cette destruction des tiers de confiance une avancée pour la société, surtout quand ce tiers de confiance a montré sa faiblesse, comme on a pu le constater en 2008 avec la crise monétaire. La première vague d’utilisation des blockchains en améliorant les processus des banques, des assurances et des industriels se traduira par une disparition des emplois de ces back-offices. Mais la deuxième vague, si elle a lieu, remplacera les tiers de confiance, ou du moins les forcera à apporter un vrai service. On peut également imaginer des blockchains qui apporteraient un vrai progrès, par exemple pour le vote ou pour les dons d’organes, en garantissant que personne ne nous double dans la file d’attente. Il existe déjà une blockchain qui permet de garantir que tel diamant n’est pas un diamant de sang.

Les spécialistes semblent unanimes sur une chose : rien de sérieux ne sortira avant cinq à dix ans. Après le buzz et la spéculation, on va sans doute d’abord passer par une période de désintérêt vis-à-vis des blockchains car les promesses de cette technologie ne sont pas encore là. On peut déplorer la bulle qu’il y a aujourd’hui autour des blockchains. Le nombre de start-up qui se lancent en 2018 sur la vague blockchain et cryptomonnaies est impressionnant. Il y a beaucoup d’idées farfelues, mais, comme pour la bulle internet, qui a explosé, on pourra sûrement voir émerger des applications

Les spécialistes semblent unanimes sur une chose: rien de sérieux ne sortira avant cinq à dix ans. Après le buzz et la spéculation, on va sans doute d’abord passer par une période de désintérêt vis-à-vis des blockchains.

intéressantes. Alors si, et seulement si, les verrous technologiques sont levés, la blockchain deviendra une invention qui apportera un changement de paradigme, emportant avec elle de nombreux tiers de confiance. n

LE BITCOIN, UN CHEVAL DE TROIE DE LA FINANCE

Les « monnaies virtuelles » ont suscité l’engouement du public, qui y voit une alternative à la pression financière qui s’exerce sur l’activité humaine. Le bitcoinest la plus connue d’entre elles.

*ÉRIC BEVILLARD est informaticien et membre de l’Observatoire Zététique.


PAR FRÉDÉRIC RAUCH*,

L

e bitcoin est l’unité de rémunération des propriétaires d’ordinateurs qui mettent de pair à pair leur puissance de calcul à disposition d’un système de chaînage d’informations. Ces bitcoins peuvent alors être échangés contre des biens et des services ou de la monnaie légale, mais seulement dans les réseaux de participants qui reconnaissent la valeur de cette unité. L’histoire récente des échanges de bitcoins a mis en évidence l’extrême volatilité de leur cours. Après avoir frôlé les 20000 dollars, le bitcoin a vu son cours s’écrouler par suite de

L’histoire récente des échanges de bitcoins a mis en évidence l’extrême volatilité de leur cours. Après avoir frôlé les 20000 dollars, le bitcoin a vu son cours s’écrouler.

la faillite d’une importante plateforme sud-coréenne et de la suspension d’une autre états-unienne, le tout sur fond de manipulation. Nombreux sont ceux désormais qui appellent à l’encadrement réglementaire de son usage.

Or le principe même du bitcoin, et des monnaies virtuelles qui lui ressemblent, réside dans la dérégulation et la désintermédiation bancaire qu’elles sont supposées construire par des relations de pair à pair dans les échanges. Le bitcoin est revendiqué par ses créateurs comme une « monnaie » alternative aux monnaies nationales. Dans sa version ultralibérale, il s’agit de rendre au marché de la monnaie sa « vertu » concurrentielle de bien comme les autres, et ce en mettant en concurrence les monnaies légales et les autres moyens de paiement. Dans sa version utopiste, il s’agit de s’émanciper dans les échanges de la domination des banques, du crédit et de la création monétaire par cette relation directe de pair à pair, décentralisée et open source (publique au sens d’accessible à tous).

QU’EST-CE QU’UNE MONNAIE? Cette approche repose sur une double hypothèse. La première est que, parce qu’il permet d’acquérir des biens, le bitcoin, à l’instar de toutes les autres « crypto-monnaies », serait une monnaie. Et la seconde, parce qu’il permet des transactions, le bitcoin serait un instrument de paiement. C’est une double erreur.

Le bitcoin n’est pas une monnaie La définition économique de la monnaie généralement admise stipule qu’une monnaie doit remplir trois fonctions : elle doit être unité de compte, instrument d’échange et réserve de valeur. Or le bitcoin et ses avatars physiques ou numériques ne répondent pas ou que très imparfaitement à cette définition. S’il peut


être une unité de compte, le bitcoin n’a une fonction d’échange opérationnelle que pour les utilisateurs du réseau de commerçants ou usagers qui ont pris l’engagement de l’utiliser. Pour les mêmes raisons, et en plus parce qu’elle n’est assise sur aucune base matérielle, leur fonction de réserve de valeur est incertaine (son extrême volatilité l’a démontré). La conversion du bitcoin en monnaie légale n’est pas acceptée partout ni par tous. Et rien n’assure la conservation dans le temps de la valeur de l’actif.

Le bitcoin n’est pas un moyen de paiement

La qualification de l’émission de bitcoin ne répond à aucune réglementation du Code monétaire et

Dans sa version ultralibérale, il s’agit de rendre au marché de la monnaie sa « vertu » concurrentielle de bien comme les autres, et ce en mettant en concurrence les monnaies légales et les autres moyens de paiement.

financier définissant les moyens de troniques de bitcoins constituent paiement. Il n’est pas un instrument des facteurs de risques substantiels de paiement dans la mesure où il pour leurs usagers, qu’ils soient invesn’est pas utilisé par les parties de la tisseurs, commerçants ou simples transaction pour donner un ordre consommateurs. Ils s’ajoutent aux de paiement. Il n’est pas une mon- risques liés aussi à l’extrême volatinaie électronique dans la mesure lité des cours du bitcoin consécutifs où il n’est pas une créance sur l’émet- à l’absence d’assise matérielle liée à teur émise contre la remise de fonds. sa construction, dont on a vu récemEt il n’est pas non plus un titre finan- ment les effets.

cier. Il ne bénéficie de fait d’aucune

garantie de remboursement dans UN DÉBAT POLITIQUE MAJEUR la monnaie qui a cours légal, en SUR L’ARGENT

France l’euro de l’Eurosystème ou Comme pour beaucoup de novadans les monnaies des banques qui tions en période de crise systémique, lui sont lié n’est pas inutile de revenir sur leur

origine idéologique pour mieux en saisir la portée.

On trouve en effet dans le courant de l’école autrichienne ultralibérale et antiétatique de Friedrich Hayeck (source des économistes libertariens comme Milton Friedman) un fondement idéologique de la justification de ces monnaies alternatives.

Émancipée de toute autorité cenEn revanche, les plates-formes trale et non assise sur une base matéd’échanges de bitcoins avec des mon- rielle, répondant aux seules demandes naies ayant cours légal, alimentées et offres de ceux qui les utilisent, tous par un faible coût de transaction, les moyens d’échange non public pouvant servir d’outil de transaction répondent alors potentiellement aux sur Internet notamment, pourraient règles du marché concurrentiel et à constituer un risque pour le système l’optimum social qui est censé en de paiement légal et les utilisateurs résulter : a contrario des monnaies des bitcoins. La non-garantie de légales qui servent principalement convertibilité en monnaie ayant cours la défense des intérêts de l’État. Selon légal, l’utilisation de ces « monnaies ces libéraux qui voient dans la coorvirtuelles » pour des opérations de dination par le marché la meilleure blanchiment d’argent sale, l’insécu- façon d’allouer les ressources écorité potentielle des coffres-forts élec- nomiques, la monnaie ne doit pas échapper à la règle, et ses différentes expressions doivent être mises en concurrence. Le bitcoin constitue alors un moyen de concurrencer les monnaies centrales.

Peut-être plus grave encore que cette référence idéologique, c’est l’illusion que la construction de moyens de transaction de pair à pair puisse servir à lutter contre la domination des banques. On retrouve dans cette conception politique du bitcoin le même renoncement politique qu’avec le revenu d’existence. Avec le revenu d’existence, il s’agit sur une base humaniste de proposer un revenu inconditionnel aux personnes parce que la lutte pour l’emploi est perdue face aux innovations technologiques et aux logiques capitalistes mondialisées. Avec le bitcoin et les cryptomonnaies, il s’agit de construire un actif d’échange qui prétend échapper à la domination des banques et des marchés financiers, à la création monétaire et au crédit bancaire, parce que le pouvoir de la finance serait trop puissant. La récente actualité du bitcoin a clairement démontré l’illusion d’une telle prétention, la finance s’en est emparé pour en faire un actif très spéculatif. Elle laisse voir les dégâts d’un renoncement politique majeur qu’elle implique pour la maîtrise sociale et démo cratique de l’argent.

N’en déplaise aux thuriféraires du bitcoin, on n’échappe pas au pouvoir monétaire. En revanche, rien n’oblige de le subir. On peut le maî-


triser, ne pas le laisser aux mains du capital et le conquérir pour qu’il serve non à faire de l’argent avec de l’argent mais à financer le développement de l’emploi et des salaires, des services publics aux populations et aux territoires.

PRENDRE LE POUVOIR

SUR L’ARGENT Cette nécessaire prise du pouvoir mène à une bataille qui n’est ni simple ni facile, mais qui est incontournable. Elle implique, en premier lieu, de mesurer le rôle économique et social essentiel de la création monétaire par les banques, via le crédit, pour le développement des capacités humaines et de ne pas réitérer l’erreur politique commise au sujet de la dette. Car de la même manière qu’il y a une bonne dette (celle qui développe l’efficacité sociale et les capacités humaines) et une mauvaise dette (celle qui rémunère les

Il n’est pas possible d’échapper à la bataille politique pour une autre maîtrise de l’argent dans les conditions du réel d’aujourd’hui.

capitalistes), il y a une bonne créa-“

tion monétaire et/ou un bon crédit (les emprunts qui développent les capacités humaines dans l’entreprise ou les territoires) et une mauvaise création monétaire et/ou un mauvais crédit (la BCE qui refinance les banques sans critères d’investissements pour l’emploi, la recherche,

les services publics; les banques qui financent les investissements destructeurs d’emplois ou de services publics). Et elle implique, en second lieu, de construire dans les luttes un rapport de force solide dans la société pour s’opposer au diktat de la finance et lui imposer une autre utilisation de l’argent. Une ambition qui pourrait d’ailleurs devenir un axe partagé pour une reconstruction de la gauche dans le pays et en Europe.

En guise de conclusion – très provisoire –, s’il y a une chose positive à retenir des défenseurs progressistes du bitcoin, c’est qu’ils s’appuient sur une volonté d’échapper à la domination de la finance et des banques sur leur vie. Mais l’illusion est de croire qu’une technologie, fût-elle poussée, puisse y parvenir. Il n’est pas possible d’échapper à la bataille politique pour une autre maîtrise de l’argent dans les conditions du réel d’aujourd’hui. Ne pas l’admettre et ne pas se donner les moyens de la mener, c’est accepter de jouer la partie dans un bac à sable et avec les règles imposées par la finance. n

CRYPTOMONNAIES : USAGES ET PRATIQUES

Les usages des cryptomonnaies ont originellement une dimension d’utopie technique de l’Internet des premiers temps dans sa politique de développement. Regard sociologique de ces pratiques.

*FRÉDÉRIC RAUCH est rédacteur en chef d’Économie et politique.


PAR LAURENCE ALLARD*,

DU MANIFESTE CYPHERPUNK À UNE UTOPIE TECHNIQUE CONCRÈTE

Sous les blockchains et les cryptomonnaies associées, ce sont des valeurs sociales, politiques et économiques portées par des protocoles techniques ouverts qui régulent les échanges au sein des communautés d’utilisateurs. Parmi elles, la valeur d’une certaine vision politique

Dans les entretiens que nous avons menés depuis deux ans maintenant, ce sont les figures d’Edward Snowden et, surtout, de Julian Assange qui sont citées en relation avec l’épisode de blocage des avoirs de WikiLeaks, qui a conduit le collectif à accepter les bitcoins à partir du 15 juin 2011.

d’Internet fait plus l’unanimité que d’autres valeurs dites « libertariennes » prêtées aux bitcoiners de façon quelque peu caricaturale. Dans les entretiens que nous avons menés depuis deux ans maintenant, ce sont les figures d’Edward Snowden et, surtout, de Julian Assange qui sont citées en relation avec l’épisode de blocage des avoirs de WikiLeaks, qui a conduit le collectif à accepter les bitcoins à partir du 15 juin 2011 (Block #130977)1. Ces figures illustrent l’idéal de la communauté des bitcoiners de recréer un « Internet résistant à la censure » en écho au manifeste cryptoanarchiste fondateur de Timothy C. May, posté en 1992, dans lequel il invoque la possibilité informatique « de fournir la capacité aux individus et aux groupes de communiquer et interagir entre eux d’une façon totalement anonyme»2. Dès cette période, bien avant les révélations de Snowden, dans un contexte de débats autour de la vie privée et de la surveillance, Eric Hughes, Timothy C. May et John Gilmore vont créer une liste de diffusion mail pour la communauté dite cypherpunk (de l’anglais chipher, « chiffre », « code », et punk, sur le modèle de cyberpunk) sur des discussions mathématiques et de cryptographie. La branche cypherpunk des utopies d’Internet est moins connue que les pionniers littéraires du cyberpunk, mais elle représente, quant à la problématique de chiffrement, des interactions et de l’anonymisation des communications, la lignée originelle du développement technique du protocole bitcoin, dont le code source est publié en 2009. Ce protocole, en plus d’architecturer des transactions de pair à pair d’une monnaie virtuelle, constitue la pro-


messe à nouveau frais d’un Internet décentralisé, sécurisé, mais aussi redistributif à la fois côté production du chiffrement des transactions (proof of work) par des « mineurs » et dans les usages de tradingau quotidien qui confère à la monnaie bitcoin sa valeur d’échange. Ainsi, c’est un nouvel état d’Internet qui se met en place, un Internet de la transaction transparente et anonymisée, distribuée et a-centralisée, en contrepoint de l’Internet de l’expression (blog), de la sociation (réseaux socionumériques) et de l’émission de données (Internet of things) désormais monopolisé par le capitalisme informationnel.

LA VIE BITCOIN, MODE D’EMPLOI:

TRADINGAU QUOTIDIEN

ET INCLUSION FINANCIÈRE L’enquête empirique montre que cet actif hypercirculant que représente

On peut citer ainsi l’exemple de cet achat d’un bateau pour exercer son droit parental d’accueil de son jeune fils par ce père cryptoanarchiste revendiqué vivant en partie de son trading et ne disposant pas de compte en banque.

en définitive l’entité bitcoin ouvre On peut citer ainsi l’exemple de cet de nouvelles frontières dans la créa- achat d’un bateau pour exercer son tion monétaire et donne des moyens droit parental d’accueil de son jeune système bancaire en crise ou encore “

d’existence à des individus exclus fils par ce père cryptoanarchiste par conviction ou de facto des insti- revendiqué vivant en partie de son tutions bancaires. Lorsque l’on ques- tradinget ne disposant pas de compte tionne les motifs d’entrée au sein de en banque.

cette communauté, certains évo- Des commerçants commencent égaquent soit le fait d’avoir découvert lement à accepter des paiements en la possibilité de gagner de l’argent bitcoin. Il existe aussi des cartes de avec un ordinateur en l’associant au crédit spécifiques rechargeables en réseau de chiffrement des trans - bitcoin notamment, qui permettent actions (mining), soit la nécessité de de réaliser des achats, ce qui nécesplacer des gains d’argent hors d’un

la nécessité de trouver des moyens de subsistance.

J’ai pu observer qu’une autre économie de vie est ainsi rendue possible par des actions de tradingsur les différentes plates-formes d’échange qui s’inscrivent dans la routine quotidienne des utilisateurs et qui en reprennent un lexique caractéris-

tique (pump, short…). Ceux et celles site d’attendre qu’un bloc soit « miné », (elles de façon plus minoritaire) qui c’est-à-dire que le calcul de chiffres’adonnent à ce trading du quoti- ment ait été effectué dans le réseau dien réalisent ce qu’on pourrait appe- des ordinateurs participants. Des ler un « travail » proche de la notion échanges en présentiel sont égalede digital labor (Trebor Scholz) qui ment fréquents dans la communauté comprend des activités de recherche bitcoin, avec des formulations parad’information, de lecture de graphes, doxales du type « tu payes, je t’inde prise de décision de vente et vite » signifiant que l’un paye en euros d’achat…; bref, l’ordinaire de Wall et que l’autre le rembourse, de façon Street mais pour leur propre profit, avantageuse, en bitcoins. La solidaà des fins de création de leurs pro- rité existe ainsi dans ces commupres moyens financiers d’existence. nautés que les dernières hausses historiques de la cryptomonnaie canal historique n’ont pas transformées radicalement en un réseau d’acteurs uniformément spéculateurs; en effet, et une partie d’entre eux s’exercent à une forme de finance purement vivrière.

LA ?1 ET LES PROMESSES

DU REVENU DE BASE Bien que le bitcoin focalise encore une grande partie des attentions médiatiques, avec les altcoin ce sont des centaines de cryptomonnaies suivant chacune son propre cours du marché et ayant chacune ses propres règles techniques qui nourrissent l’univers des blockchains. C’est le cas notamment de la monnaie? libre 1 (prononcer june), qui outrepasse les banques dans la création monétaire et se trouve développée et usitée dans des communautés alliées à des expérimentations autour des communs, du revenu de base ou de l’économie solidaire.?

Ces derniers exemples nous interrogent sur une possible privatisation des monnaies menées par les soi-disant philanthropes de la Silicon Valley sur le terrain africain et à laquelle il faut veiller parmi tous les usages possibles de ces monnaies virtuelles chiffrées.

La 1, lancée le 8 mars 2017, compte 835 membres au 20 mars 2018. Elle est basée sur le protocole libre Duniter. Elle se différencie du bitcoin par la régulation de la création de la masse monétaire et sa répartition au sein d’une « toile de confiance » non pas par des actions de trading mais par l’application d’une théorie mathématique dite « théorie relative de la monnaie » qui suppose que chaque membre perçoit quotidiennement de Toulouse, de façon pionnière, mais la même part de monnaie que les également autour de la ville de Lille autres. Elle est de ce fait associée aux et de Brest ainsi qu’en Belgique. Des expérimentations autour du revenu échanges des produits de l’agriculd’existence décliné en ce cas précis ture biologique mais aussi de petit à travers la problématique du « divi- artisanat prennent place à la fois en dende universel »3. Second élément présentiel lors de réunions mais égaqui la différencie du bitcoin: la néces- lement en ligne à travers notamment sité d’être un membre certifié par des groupes sur les plates-formes socio-numériques.

AFRIQUE, TECH-PHILANTHROPIE ET CRYPTOMONNAIE

On peut conclure en évoquant certaines expérimentations ayant lieu en Afrique, terre des monnaies virtuelles mobiles en raison du faible taux de bancarisation des populations, faute de revenus. L’exemple de M-Pesa, lancée au Kenya en 2009 par une alliance relevant typique-

cinq autres membres de la toile de ment du tech-philanthropisme4, confiance, notion issue de la crypto - entre les fondations Vodafone et culture supposant d’associer des clés Rockfeller et Western Union, est hisde chiffrements publiques à des iden- torique et se trouve souvent cité tités numériques par le biais d’une comme support d’actions d’inclucertification humaine séparée de sion financière. Une opération de cinq degrés relationnels dans le cas versement d’un revenu de base sur de cette monnaie libre. Sur cette base la base de cette monnaie a été annonà la fois humaine et technique, un cée en 2016 et menée par l’ONG réseau d’utilisateurs de monnaie GiveDirectly, financée notamment libre s’est mis en place dans la région par Google5. Ce n’est donc pas sans

LA FINANCE… QUE FAIRE?

surprise qu’une version chiffrée de M-Pesa appelée BitPesa existe depuis 2014. Mojaloop constitue une autre proposition, datant de fin 2017, de cryptomonnaie en Afrique. Elle émane de la fondation de Bill et Melinda Gates6. Ces derniers exemples nous interrogent sur une possible privatisation des monnaies menée par les soi-disant philanthropes de la Silicon Valley sur le terrain africain et à laquelle il faut veiller parmi tous les usages possibles de ces monnaies virtuelles chiffrées. n

*LAURENCE ALLARD est sociologue des usages numériques, maître de conférences à Lille-III et à l’IRCAV Paris-III, auteure notamment de Mythologie du portable, Le Cavalier bleu, 2010.

1. 

2fbbe33fb3c92d209f1f10a3afe18b042372 5fd6af93cfc809e8

2.  , 3.

4.        Cf.Laurence Allard, Mythologie du portable, Le Cavalier bleu, 2010.

5.        4/experimentation-kenya-revenu-base-mobile/

6.       

-fondation-bill-melinda-gates/


Les marchés financiers pèsent sur la vie économique de nos sociétés et entraînent une régression sociale et une polarisation des richesses. Comment s’émanciper des marchés financiers pour construire le progrès?

PAR DENIS DURAND*,

tous ses concurrents de la défaite de Napoléon à Waterloo, put pren-

LES CRYPTOMONNAIES

Par exemple, la blockchain consti-

D

epuis 2010, le principal ser- dre la Bourse de Londres à revers et, tue une réelle innovation dans l’usage veur informatique de la en un jour, doubler sa fortune. Au des énormes capacités de stockage,

Bourse de Paris est déloca-   fond, des lettres de change figurant      de traitement et de partage des inforlisé à Londres. Le motif? Le millième sur les tablettes d’argile babylo-            mations acquises par les ordinateurs,

de seconde nécessaire pour traverser la Manche à la vitesse de la lumière faisait prendre un retard insupportable à l’exécution des ordres passés depuis la City. Les algorithmes n’attendent pas! L’anecdote prend toutefois un sens un peu différent si on la rapproche d’un précédent célèbre : en 1815 déjà, c’est, dit-on, grâce à ses pigeons voyageurs que

Nathan Rothschild, informé avant

niennes à la blockchain, c’est depuis les origines de la civilisation que la finance entretient des liens étroits avec les techniques les plus avancées dans le traitement de l’information. De ce point de vue, les innovations techniques les plus récentes ne modifient pas radicalement les fonctions que la banque, l’assurance et les marchés de capitaux remplissent dans la vie économique.

mais la première application que les financiers se sont empressés d’en faire, le bitcoin, pose problème. Séduits par la possibilité technique de gérer des informations qui soient à la fois universellement partagées et totalement privées, ils ont prétendu créer une monnaie. Or le bitcoin ne remplit vraiment aucune des fonctions de la monnaie1. Son utilisation comme intermédiaire des


monnaie (la dépense de moyens informatiques demandée à des participants appelés « mineurs » pour le produire, le montant limité des

Le siège de la Banque centrale européenne, à Francfort.

échanges, loin d’être universel, est en réalité fort limité et sujet à toutes sortes de suspicions (blanchiment, fraude fiscale, trafics illicites). Il ne peut servir d’étalon de valeur, puisque son cours connaît de brutales fluctuations au gré des spéculations dont il est l’objet. Il ne représente aucune richesse marchande réelle, ce qui en fait une très mauvaise réserve de valeur. Ces caractéristiques sont celles non d’une monnaie mais d’un titre financier, rentable dans les espérances de ses détenteurs mais fort risqué dans ses perspectives de rendement, et même de remboursement. Les efforts de ses inventeurs pour lui donner l’apparence d’une émissions) témoignent d’une concep-“ tion naïve et réactionnaire de la monnaie, qui prétend nous ramener 2600 ans en arrière, avant l’époque où Crésus, roi de Lydie, frappa les premières pièces dans l’or du fleuve Pactole.

Au fond, des lettres de change figurant sur les tablettes d’argile babyloniennes à la blockchain, c’est depuis les origines de la civilisation que la finance entretient des liens étroits avec les techniques les plus avancées.

Est-ce à dire qu’il n’y a rien de nouveau sous le soleil, et que les nouvelles techniques de traitement de l’information n’ont joué aucun rôle dans la financiarisation de l’économie capitaliste que l’on observe depuis trente-cinq ans? Ce serait évidemment faux.

D’abord, évidemment, parce qu’ordinateurs, logiciels et réseaux permettent de réaliser à toute vitesse, en très grand nombre et à l’échelle de la planète des opérations faisant appel à des calculs plus ou moins compliqués et reposant sur des outils juridiques très élaborés. Assurément, l’expansion extraordinaire des produits financiers dérivés – contrats à terme, options, swaps (contrats d’échange de produits financiers), et toutes les combinaisons imaginables de ces instruments – n’aurait pas eu lieu sans ces techniques.

LES MARCHÉS FINANCIERS Mais l’expansion des marchés financiers depuis la fin du siècle dernier renvoie à des transformations encore plus fondamentales de l’économie contemporaine.

L’une de ces transformations est précisément ce que l’on peut appeler la « révolution technologique informationnelle ». Au-delà des manifestations visibles de la numérisation des symboles, des textes, des images, des sons, c’est l’ensemble des activités productives qui intègrent le traitement des informations comme composante prédominante. Les investissements nécessaires à la conception et à la production d’un logiciel tout aussi bien que d’un médicament, d’un système d’armements ou d’une infrastructure de transports ferroviaires intègrent une part prédominante de recherche et de gestion de l’information.

La blockchain constitue une réelle innovation dans l’usage des énormes capacités de stockage, de traitement et de partage

des informations acquises par les ordinateurs.

Ces investissements qu’on qualifie d’« immatériels » posent un problème de financement. Leur rentabilité est en général difficile à prévoir. Dans le vocabulaire des financiers, elle constitue une « incertitude », impossible à modéliser, plutôt qu’un « risque » justiciable du calcul des probabilités. Les banques répugnent à s’y engager faute de pouvoir prendre en garantie des biens tangibles (machines, bâtiments, propriétés foncières…). Les marchés de titres financiers offrent, au contraire, une multitude d’instruments conçus pour satisfaire les degrés de « préférence pour le risque » les plus aventureux. C’est une des raisons fondamentales qui ont conduit les grandes entreprises à rendre l’économie mondiale plus instable et plus dangereuse en recourant à des émissions de titres plutôt qu’à des crédits bancaires traditionnels pour financer certains de leurs investissements – avec la complicité des banques elles-mêmes, qui fournissent l’infrastructure tech-“

nique et la liquidité nécessaires. C’est ainsi que la logique des marchés financiers – faire de l’argent avec de l’argent, c’est-à-dire la quintessence des critères de gestion capitalistes – s’est emparée de la révolution informationnelle. C’est en levant des fonds sur le marché des actions que les géants du Net ont arrondi

leurs empires. Pour tous les grands groupes multinationaux, la course sans fin aux prises de contrôle et aux fusions est le moyen de former, à travers l’extension de leurs liens financiers, les réseaux de circulation des innovations et de partage des informations stratégiques par lesquels ils s’efforcent de tirer profit de la révolution informationnelle. Ces opéra-


tions alourdissent le coût du capital, qui pèse sur l’économie : réussir une OPA suppose de payer les primes et autres goodwills (survaleurs) qu’exige le marché… et de réduire d’autant la part due aux salaires, à l’emploi, la formation, la recherche. Pour ne prendre que des exemples récents, c’est la triste histoire vécue par les salariés d’Alcatel, aujourd’hui digérés par Nokia, ou ceux de Morpho, acheté puis vendu par Safran.

LA RÉVOLUTION INFORMATIONNELLE

Une autre façon d’organiser le partage des coûts informationnels existe pourtant. Comme l’explique Paul Boccara, « une machine-outil est ici ou là : c’est une des bases de sa propriété privée, de son échange et de la concurrence. Une information, comme le résultat d’une recherche, peut, par contre, être partagée indéfiniment,

jusqu’à l’échelle mondiale. À l’opposé ments, ordinateurs, etc. », pour citer de l’échange sur le marché entre équi- à nouveau Paul Boccara3.

valents, dans le cas de l’information, Le développement de services publics nous avons un partage des coûts pos- nationaux coopérant entre eux serait sibles. On peut considérer que la mon- un des moyens concrets de déployer tée de la prédominance des partages ces potentialités de la révolution des résultats et des coûts informa- informationnelle. tionnels entraîne, désormais, la pos-

Ordinateurs, logiciels et réseaux permettent de réaliser à toute vitesse, en très grand nombre et à l’échelle de la planète des opérations faisant appel à des calculs plus ou moins compliqués et reposant sur des outils juridiques très élaborés.

sibilité d’autres règles que celles du RÉVOLUTION VIRTUELLE marché et du capitalisme »2. On dis- Il ne s’agit là, en effet, que de potencerne l’esquisse de ce type d’orga- tialités, étroitement liées aux contranisation sociale et économique dans dictions qui travaillent les relations les logiciels libres ou dans les insti- que les êtres humains nouent entre tutions publiques de recherche qui eux et avec leur environnement natupeuvent se déployer à l’échelle mon- rel pour produire leurs moyens d’exisconstruction d’une civilisation supé- “

diale – ce n’est pas un hasard si tence (et donc de communication), le World Wide Web a été inventé et qui travaillent aussi les relations au CERN.                qu’ils entretiennent entre eux dans

Le plein déploiement de cette logique la famille, le travail, la politique, la de partage des informations, des culture. Ces contradictions font émercoûts et, corrélativement, des pou- ger à la fois ces potentialités et les voirs serait une des bases techniques, obstacles qui s’opposent à leur réaéconomiques, sociales et politiques lisation. C’est ce qui rend si profonde de ce qu’on peut appeler le commu- la crise économique, sociale, finannisme : un dépassement du capita- cière, politique, morale. Les liens

lisme jusqu’à son abolition et à la

rieure. Il entrerait en cohérence avec une autre potentialité de la révolution informationnelle : « une progression formidable des pouvoirs de maîtrise de l’organisation du travail en liaison d’ailleurs avec sa sécurisation et la formation, y compris les liaisons intimes avec les activités hors travail où il y a les mêmes instruétroits entre la révolution informationnelle et la financiarisation de l’économie en sont un facteur et une manifestation.

Il en résulte que le double processus de dépassement du marché des biens et services – mis à l’ordre du jour par le partage des informations – et du marché du travail – par la sécurisation de l’emploi et de la formation – ne peut réussir que s’il s’accompagne d’un effort de même nature pour dépasser le troisième marché constitutif de l’économie capitaliste et de sa crise actuelle : le marché de l’argent.

L’ARGENT D’autant que les données de ce dépassement sont en train de changer sous l’effet d’une autre transformation profonde de notre civilisation : la révolution monétaire. L’abandon de la convertibilité du dollar en or, le 15 août 1971, a définitivement rompu tout lien entre toute marchandise concrète et les signes monétaires mis en circulation par les banques et les banques centrales (billets et avoirs en comptes). Celles-ci ont dès lors l’entière faculté de décider combien de monnaie créer, et pour quel usage, à une condition : que cet usage ne vienne pas mettre en péril la confiance du public et des marchés. Ce nouveau régime monétaire a pu repo-


Il s’agit en résumé de favoriser la convergence des mobilisations sociales et politiques pour que la monnaie créée par les banques et les banques centrales cesse d’alimenter la croissance des marchés financiers.

ser, comme le précédent, sur le dol- “

lar et sa place centrale dans le système monétaire international parce que la création monétaire a orienté en priorité les capitaux vers Wall Street et favorisé l’hégémonie financière des États-Unis sur le reste du monde. Si les marchés financiers ont pris le pouvoir exorbitant qu’ils exercent au service de la rentabilité du capital, c’est d’abord parce qu’ils ont été alimentés massivement par cette source de liquidité apportée par les banques et les banques centrales.

FINANCER LE PROGRÈS

Tarir cette source est ainsi une voie stratégique pour ouvrir une issue à la crise du capitalisme financiarisé et mondialisé. Il s’agit en résumé de favoriser la convergence des mobilisations sociales et politiques pour que la monnaie créée par les banques et les banques centrales cesse d’alimenter la croissance des marchés financiers, les spéculations et les pratiques immorales qui les accompagnent (évasion fiscale, rémunérations indécentes des traders et des patrons de multinationales…), et pour qu’elle finance les investissements instaurant un mode de croissance de la productivité fondé sur le développement des capacités humaines, en favorisant le partage des informations, des résultats et des coûts. Le mouvement social peut réussir à s’emparer de divers leviers pour orienter les crédits bancaires dans ce sens4:

–      un renforcement des pouvoirs dessalariés pour intervenir dans la gestion et le financement des entreprises. Ainsi la proposition de loi de sécurisation de l’emploi et de la formation déposée par les députés du Front de gauche en janvier2017 prévoit-elle un droit d’initiative et de contre-proposition des comités d’entreprise face aux choix inspirés par la rentabilité financière;

–      un accès des citoyens à une infor-mation détaillée sur l’activité des banques dans les territoires, à l’image de ce qu’a instauré le Community Reinvestment Act aux États-Unis; – des fonds pour l’emploi et la formation utilisant les moyens d’intervention économique publique disponibles, au niveau national, régional

ou local, pour peser sur l’orientation des crédits bancaires par des techniques telles que les bonifications d’intérêts et les garanties d’emprunts; – un pôle financier public mettant en réseau BPI France, la CDC, la Banque Postale, la Caisse nationale de prévoyance et d’autres institutions financières nationalisées (Société générale, BNP-Paribas) autour d’un objectif commun : la réorientation du crédit en faveur de l’emploi, de la formation, de la création de valeur ajoutée dans les territoires, de la préservation des ressources naturelles; – une nouvelle sélectivité de la politique monétaire pour encourager ce type de crédits et décourager le financement des opérations financières par les banques;

–      un fonds de développement éco-nomique, social et écologique européen ayant pour objet le financement par la BCE de projets concrets, démocratiquement élaborés, contribuant au développement des services publics dans les pays de l’UE5; – une alliance avec les pays émergents et en développement pour mettre en cause l’hégémonie du dollar et de Wall Street par la création d’une monnaie commune mondiale qui pourrait, techniquement, être développée à partir des droits de tirage spéciaux du FMI, et qui servirait à financer des crédits à long terme pour le développement des capacités humaines et les services publics sur toute la planète.

Cet ensemble de propositions s’inscrit dans une cohérence d’ensemble visant à tirer tout le parti possible des nouvelles techniques de traitement et de partage des informations, en dépassant les limites des financements bancaires traditionnels : la sélection des crédits distribués par le système bancaire ne reposerait plus sur la rentabilité attendue des projets financés mais sur leur contribution à développer la créativité et les capacités d’initiative de chacun.

Ainsi la liaison étroite entre financement de l’économie et techniques de traitement de l’information, au lieu de servir d’instrument de pouvoir à une infime minorité de détenteurs du capital, deviendrait au contraire un moyen d’émancipation, entre les mains de tous les habitants de la planète, pour construire une nouvelle civilisation, dépassant le capitalisme et le libéralisme mondialisés 6. n

*DENIS DURAND est économiste, ancien directeur adjoint à la Banque de France.

1.  Banque de France, « L’émergence dubitcoin et autres crypto-actifs: enjeux, risques et perspectives », Focus, no 16, 5 mars 2018.

2.  Paul Boccara, Transformations et crise du capitalisme mondialisé, quelle alternative?Le Temps des cerises, Paris, 2008.

3.  Paul Boccara, op. cit.

4.  Denis Durand, Sept leviers pour prendre le pouvoir sur l’argent, Éditions du croquant, Paris, 2017.

5.  Financer l’expansion des services publics en Europe, note de la Fondation Gabriel Péri, mars 2017

( tml).

6.  Paul Boccara (avec la coopération deCatherine Mills), Pour une nouvelle civilisation, Éditions du croquant, 2016, Paris.


BRÈVES

n LES GRANDS SACRIFIÉS DE L’AMÉNAGEMENT DU TERRITOIRE

De la refonte de la carte judiciaire aux zonages des niveaux hospitaliers, en passant par l’épée de Damoclès sur les liaisons TER de nombreuses « petites » lignes, les espaces ruraux français voient en quelques mois leurs offres de services remis en cause. Et la liste s’allonge : diminution et regroupements continus des services de l’État sur les territoires ou encore l’annonce de la fermeture de 300 classes en zones rurales en mars dernier.

Selon les chiffres officiels du dernier recensement INSEE de la population, 54 % de ces communes comptent moins de 500 habitants au 1er janvier 2013. C’est 4,5 millions de Français. Pour ordre de grandeur, c’est autant d’habitants que le total de la population des cinq plus grandes villes de France réunies: Paris, Marseille, Lyon, Toulouse et Nice. Dans l’organigramme tout comme dans les intitulés officiels du ministère de la Cohésion des territoires, la ruralité est absente. n n L’EXTRÊME DROITE

DÉCONNECTÉE

DU MONDE DU TRAVAIL

Le 27 février 2018, Marine Le Pen, la dirigeante d’extrême droite, a affirmé que « la prime charbon pour les cheminots est obsolète». Cette prime n’existe plus depuis plus de quarante ans, la dernière locomotive à vapeur ayant fini de circuler en 1974. Autant au fait des fiches de paie des travailleurs qu’à leur conscience de classe – c’està- dire très peu –, le parti de Marine Le Pen a décidément du mal avec les organisations de travailleurs. En mars dernier, le député d’extrême droite Sébastien Chenu s’était vigoureusement fait jeter d’une manifestation des grévistes de la tuberie de Valourec, aux cris de « Dehors les fachos!».n

L’exploration spatiale: des images inédites de Jupiter

 

SpaceX, développé par l’entreprise du milliardaire Elon Musk, avait pour but de faire la publicité d’une voiture électrique en orbite terrestre, dont la société éponyme fabrique opportunément les batteries. n

 

Fake news!

 

Trois chercheurs du Massachussets Institute of Technology ont étudié 126000 histoires différentes propagées de 2004 à 2017 sur Twitter anglophone. Leur corpus concerne des histoires (re)tweetées par un minimum de trois millions de personnes, au moins 4,5 millions de fois.

Vérifiées une à une par six organisations spécialisées dans le fact-checking(« vérification des faits ») et par des étudiants, le constat est clair : sur Twitter, l’information fausse est plus virale que la vraie. Ce travail de recherche qui fait écho au scandale

qui éclabousse le géant Facebook, empêtré dans l’affaire Cambridge Analytica. Cette entreprise, détenue majoritairement par le plus gros donateur du candidat Ted Cruz aux primaires républicaines, a collecté à travers des quiz d’affinités politiques les données de dizaines de millions d’utilisateurs de Facebook, et les a exploitées.

Fondée notamment par le sulfureux Steeve Bannon, ancien conseiller de Donald Trump, Cambridge Analytica a pour slogan « Data drives all we do », soit « Les données déterminent tout ce que nous faisons »…

L’équipe de campagne de Donald Trump a versé 6 millions de dollars à Cambridge Analytica.

Pour lire en détail, et en anglais, l’étude: , numéro de mars2018. Pour comprendre et lire une analyse de ce travail: n


 

 

Pour l’expérimentation animale

 

Ils sont Médaille d’or du CNRS, Prix Nobel, membres de l’Académie des sciences ou « simples » chercheurs, et signent, à plus de quatre cents, une tribune pour lutter contre la caricature de l’expérimentation animale.

« Comment en sommes-nous arrivés là? », s’interrogent-ils. Le mea culpa est posé: « La communauté scientifique porte sa part de responsabilité. En refusant pendant longtemps de communiquer, elle a laissé le champ libre à [des] affabulations. » En effet, les sondages sur cette thématique de l’expérimentation animale révèlent que les fantasmes ont la vie dure. Presque 1 Français sur 3 pense qu’il n’y a aucune réglementation. Or c’est le secteur le plus contrôlé dans le droit, et la directive européenne 2010/63, transposée en droit français le 1erfévrier 2013, fixe pour objectif final le remplacement total des procédures appliquées aux animaux. Pour les quatre cents signataires, « l’expérimentation animale n’est pas une discipline en soi, elle est un maillon encore indispensable d’une longue chaîne de méthodes expérimentales permettant de comprendre, soigner et guérir ». Il est vrai que les progrès dans la médecine dus au travail sur des animaux sont nombreux : pas moins de soixante-dix-neuf prix Nobel de médecine. Le souci de la cause animale et l’interrogation sur l’utilisation d’animaux dans la recherche sont légitimes. Il en va de même pour la volonté des signataires de « privilégier les échanges entre communauté scientifique, associations de malades et grand public ». Leur but : encourager la transparence sur les pratiques réelles, et non celles fantasmées. n

 

Réforme SNCF : les transports ont besoin de la dette

 

Comme elle l’a déjà fait en 2014 lors de la dernière réforme ferroviaire, la CGT réaffirme que la dette ferroviaire est une dette d’État, largement contractée pour financer le développement des lignes à grande vitesse dans les années 1980. Elle plombe aujourd’hui le système ferroviaire de près de 50 milliards d’euros, et 1,7 milliard d’euros sont chaque année alloués aux remboursements des seuls intérêts de cette dette. « Le système ferroviaire ne peut s’autofinancer», répète la CGT, qui affirme que « la modernisation du réseau exige plus de 3 milliards d’euros d’investissement par an ».

Le syndicat propose donc la mise en place d’une caisse d’amortissement de la dette

ferroviaire de l’État (Cadefe), structure de défaisance qui apporterait « mécaniquement près de 2 milliards d’euros tous les ans au système ferroviaire en le libérant des intérêts bancaires de la dette ».

Les investissements sur les lignes ferroviaires relatifs à l’aménagement et à l’équilibre du territoire courent sur des dizaines et des dizaines d’années. Le recours à l’endettement pour intérêt stratégique général n’est pas une folie. Des pistes de financement sont à regarder du côté des autoroutes, bradées au privé et qui réalisent des profits énormes sur le dos des usagers. Autant d’argent qui pourrait revenir dans les caisses de l’État pour financer un réel projet de transports en France. n

n À CALAIS, L’ÉTAT FAIT MOINS

ET PIS QUE LES ASSOCIATIONS

Accusées de mensonges et de manipulations, les associations de solidarité avec les migrants intervenant dans la distribution des repas à Calais se sont vu interdire la continuation de leur tâche. Le président de la République avait posé le principe d’une distribution à la charge de l’État, vial’association La Vie active. C’est ainsi que 350 repas sont livrés, soit trois fois moins que n’en distribuaient les associations humanitaires. De plus, le nouveau dispositif ne prévoit que deux endroits de distribution, ceinturés de policiers et de barbelés, pour seulement deux repas quotidiens. La mise en place du nouveau dispositif s’accompagne, en outre, du démantèlement des infrastructures sanitaires précédemment mises en place. n

n À LA RECONQUÊTE

DE LA CULTURE SCIENTIFIQUE

Dans une tribune publiée fin février 2018, des dizaines de scientifiques français de renoms tirent la sonnette d’alarme. Leur inquiétude? la contestation accrue de « l’universalité, de la valeur culturelle et de l’impact social du travail scientifique. L’incertitude normale, constitutive des premières étapes de tout développement scientifique ou technologique suscite parfois des inquiétudes. Des postures idéologiques fondées sur une défiance croissante vis-à-vis des processus d’acquisition des données scientifiques les alimentent. Dans ce relativisme culturel, la connaissance sociale de la science s’éloigne des considérants scientifiques». Loin d’une foi béate dans le progrès, les signataires rappellent dans cette tribune qu’« il ne faut pas oublier que le gain de temps au quotidien, la modernisation de la cuisine et du ménage, la conservation des mets, la révolution agricole, la communication, l’univers des loisirs ainsi que l’allongement moyen de l’espérance de vie de 70 % depuis le début du XXesiècle sont directement issus des acquis scientifiques et technologiques».Une alerte qui fait écho, par exemple, aux questionnements légitimes sur les onze nouveaux vaccins obligatoires et la hausse croissante du taux de nonvaccination (et ses dangers publics mortels inhérents). La reconquête pour laquelle les scientifiques plaident serait salutaire aussi pour les 61 % de Français persuadés que les centrales nucléaires

 

contribuent au réchauffement climatique.

Nous nous permettons de reproduire les mots d’Yves Bréchet, haut-commissaire à l’énergie atomique et signataire de la tribune, qui dans une interview en 2015 disait déjà: « À force d’entendre n’importe quoi, la population en devient désinformée. C’est ainsi que naît le conflit entre la légitimité politique et la rationalité scientifique. […] Si l’on veut que l’action politique soit rationnelle, il faut lutter contre cette désinformation du public. Les citoyens doivent se réapproprier la science dans laquelle ils vivent. La reconstruction du capital scientifique est le travail des scientifiques citoyens, car la science, en plus d’être un métier, est aussi une culture. » n

 


SCIENCE ET TECHNOLOGIE

n HISTOIRE DES SCIENCES

Jules, Michel, Albert, Gustave et l’origine de E = mc2

L’idée d’équivalence entre la masse et l’énergie dans le roman de Jules Verne la Chasse au météore, bien avant la diffusion des théories d’Einstein, interpelle. Comment l’expliquer?


PAR JACQUES CROVISIER*,

l y a cent quatre-vingt-dix ans, le 8 février 1828, naissait Jules Verne. Et il y a cent dix ans, trois ans après sa mort, paraissait l’un de ses plus curieux romans, la Chasse au météore. Le lecteur peut être surpris d’y découvrir une allusion à l’équivalence masse-énergie. En effet, c’est en 1905 qu’Albert Einstein a publié l’équation E = mc2 qui institue cette loi. Avant de devenir célèbre, cette formule est restée longtemps confidentielle, connue seulement d’un petit nombre de spécialistes.

Comment a-t-elle pu s’introduire dans ce roman?

DEUX VERSIONS DE LA CHASSE AU MÉTÉORE

À la mort de Jules Verne, en 1905, sa rédaction de la Chasse au météoreétait presque achevée. Aux termes de son testament, son fils Michel (1861-1925) est chargé d’achever les romans

restés en suspens. Pour la Chasse au météore, une simple relec-

 

ture aurait pu suffire. Mais Michel procède à des modifications considérables : ajout de plusieurs chapitres, des développements substantiels, et surtout introduction un personnage supplémentaire, Zéphyrin Xirdal, un savant original manipulé par un spéculateur dénué de scrupule. C’est cette version remaniée qui paraît en 1908, sous le seul nom de Jules Verne pour des raisons évidemment commerciales. Ce n’est que vers 1978, après la découverte du manu scrit initial de Jules Verne, que l’on a pu se rendre compte de l’ampleur des changements et ajouts. Le manuscrit original a alors été édité et publié, et c’est cette version que l’on trouve maintenant couramment en librairie1. Le monde des spécialistes de Verne s’est alors immédiatement partagé entre « julophiles » et « michellâtres » (selon l’expression du vernien François Raymond). Les puristes, outrés, ont dénoncé une défiguration de l’œuvre de leur grand écri-

vain. Quant à moi, j’ai choisi mon camp : je préfère la version remaniée par Michel, que je trouve plus riche tant sur le plan scientifique que sur le plan dramatique. Mais je me réjouis de l’existence des deux versions, car on peut apprécier les apports respectifs du père et du fils. Les petits corps célestes – astéroïdes et comètes – abondent dans les romans de Jules Verne, qui avait lu l’Astronomie populaire de François Arago avec passion. Ainsi, Hector Servadac (1877), l’un des plus fous des Voyages extraordinaires, se passe… à la surface d’une

 

comète. L’astronome Palmyrin Rosette y effectue la première exploration in situ d’un noyau cométaire. Bien avant que l’Agence spatiale européenne n’envoie sa sonde Rosetta (la coïncidence des noms est remarquable, mais semble fortuite) vers la comète TchouriumovGuérasimenko!

traverse l’atmosphère. Les deux astronomes amateurs qui l’ont découvert s’en disputent la paternité avec acharnement; le monde n’a pas changé sur ce point ! Tout bascule lorsque l’on découvre que l’astéroïde est composé d’or pur et que l’on apprend qu’il va chuter sur la Terre. La fièvre gagne l’humanité. La

 

Pour modifier l’orbite d’un astéroïde et le faire chuter en un endroit choisi, le personnage Zéphyrin Xirdal utilise un appareil de son invention qui préfigure le laser. Si la description en est confuse, il apparaît qu’il est fondé sur le principe de l’équivalence matière-énergie.

 

Dans la Chasse au météore, un objet insolite apparaît dans le ciel. En fait, le titre est impropre et c’est bien un petit astéroïde qui se trouve capturé dans une orbite terrestre, et non un météore (ou bolide), phénomène transitoire dû à la désintégration d’un tel corps lorsqu’il

course pour s’emparer de la future météorite s’engage. Les cours boursiers s’effondrent. Mais l’astéroïde s’abîme dans la mer et se disloque en débris irrécupérables. Les spéculateurs en sont pour leurs frais. Les tintinophiles reconnaîtront dans ce roman-catastrophe le scé-

nario de l’Étoile mystérieuse (1942), bien qu’Hergé se soit toujours défendu d’avoir lu Jules Verne.

L’ÉQUIVALENCE MASSEÉNERGIE DANS LE ROMAN L’apport essentiel de Michel Verne est l’introduction du personnage de Zéphyrin Xirdal, savant farfelu qui se met en tête de modifier l’orbite de l’astéroïde pour le faire chuter en un endroit choisi. Pour cela, il utilise un appareil de son invention, sorte de « rayon de la mort » qui préfigure le laser. La description de son appareil est confuse, mais il apparaît qu’il est fondé sur le principe de l’équivalence matière-énergie. On lit en effet dans le chapitre X de la Chasse au météore: « La substance, éternellement détruite, se recompose éternellement. Chacun de ses changements d’état s’accompagne d’un rayonnement d’énergie et d’une destruction de substance correspondante. Si cette destruction ne peut être constatée par nos instruments, c’est qu’ils sont trop imparfaits, une énorme quantité d’énergie étant enclose dans une parcelle impondérable de matière. » Incidemment, Zéphyrin Xirdal a aujourd’hui des émules qui envisagent de construire sa machine: on a en effet sérieusement proposé d’explorer l’exoplanète récemment découverte autour de Proxima du Centaure (à 4,2 années-lumière de distance de la Terre), ou de rattraper l’astéroïde interstellaire ‘Oumuamua qui a traversé notre système solaire à l’automne 2017, par des sondes spatiales équipées de voiles, propulsées à partir de la Terre par la poussée du rayon d’un laser gigawatts, pouvant les accélérer à une fraction notable de la vitesse de la lumière.

Pas plus que son père avant 1905, Michel Verne avant 1908 ne devait connaître les idées d’Einstein, alors ignorées du public. Le principe d’une équivalence masse-énergie était ciste qui a inspiré certains régimes totalitaires. Mais ce polygraphe toucha tour à tour à l’anthropologie, la sociologie, la photographie, la physique… Il avait son propre laboratoire de physique et publiait ses travaux dans les Comptes rendus de l’Académie des sciences et la Revue scientifique. Il tenait un salon où il rassemblait des intellectuels triés sur le volet. Il a dirigé la Bibliothèque de philosophie scientifique, collection éditée par Ernest Flam marion où furent publiés, entre

Michel Verne, fils de Jules.

cependant déjà « dans l’air du temps », le génie d’Einstein consistant à en déduire l’expression numérique par le raisonnement. Mais où Michel at-il pêché cette idée? La clé de

autres, des ouvrages de Henri Poincaré (1854-1912) comme la Science et l’hypothèse (1902), et bien sûr plusieurs livres de Le Bon lui-même, qui a trouvé là une affaire lucrative. Il est un peu l’image de ces savants paranoïaques, en conflit avec la

 

Gustave Le Bon est un peu l’image de ces savants paranoïaques, en conflit avec la science universitaire et officielle, tels qu’on en rencontre dans les romans de Jules Verne et ailleurs.

 

ce mystère nous est peut-être livrée encore dans le chapitre X de la Chasse au météore,où l’on lit : « Donc, en opposition avec l’axiome classique “Rien ne se perd, rien ne se crée”, Zéphyrin Xirdal proclame que “Tout se perd et tout se crée”. » Si l’axiome est celui attribué à Lavoisier, la proclamation de Xirdal semble sortir tout droit de l’Évolution de la matière(1905) de Gustave Le Bon, un livre largement diffusé qui porte en épigraphe « Rien ne se crée. Tout se perd. » C’est là que Le Bon expose ses vues sur l’équivalence masseénergie2.

GUSTAVE LE BON,

UN PERSONNAGE TOURMENTÉ

Qui était Gustave Le Bon (18411931)? C’était un autodidacte en mal de reconnaissance3. Actuellement, on se souvient surtout de sa Psychologie des foules (1895), un des ouvrages fondateurs de l’idéologie fas-

science universitaire et officielle,

tels qu’on en rencontre dans les romans de Jules Verne et ailleurs.

Avec ses livres et ses articles de vulgarisation largement accessibles, Gustave Le Bon a fait un temps illusion, même parmi les scientifiques de son époque. Les faiblesses de son argumentation scientifique ont cependant été dénoncées en 1907 par Jean Perrin, qui a souligné « un orgueil sans limite», un langage « d’une inimaginable imprécision », « l’aisance dogmatique de certaines affirmations», « des réclamations de priorité, toujours vagues d’ailleurs»4. Plutôt que d’utiliser un formalisme théorique pour établir l’équivalence matière-énergie comme l’a fait Einstein, Le Bon s’est fondé sur une interprétation intuitive de la radioactivité. Son estimation n’était pas E = mc2 mais ½ mv2, où la vitesse vn’était que le tiers de la vitesse de la

lumière: le compte n’y était pas. Plus tard, en 1922, il revendiquera pourtant la paternité de E = mc2 auprès d’Einstein. Ses lettres deviendront de plus en plus agressives, se teintant d’antisémitisme et de xénophobie. Einstein finira par l’éconduire… et la physique de Le Bon est maintenant bien oubliée. La science des romans de Jules Verne est restée ancrée dans un XIXesiècle où les techniques électriques commencent à supplanter les machines à vapeur. La radioactivité et la TSF, apparues au tournant du siècle, n’y ont pas trouvé place. Son fils Michel était plus ouvert aux nouveautés scientifiques de sa génération : n’avait-il pas tenu une chronique de vulgarisation scientifique dans certains journaux? On comprend donc qu’il ait cherché à moderniser le roman de son père. Il ne pouvait alors y introduire les idées d’Einstein, qui ne parviendront à atteindre le grand public que vers les années 1920. Mais il semble s’être laissé séduire par celles de Gustave Le Bon5.n

*JACQUES CROVISIER est

astronome à l’Observatoire de Paris.

1.        La version de la Chasse au météore de 1908, difficile à trouver en librairie, est accessible sur Gallica ( 6517517v?rk=21459;2). La version reprise de l’original de Jules Verne a été publiée en 2004 par Folio/Gallimard.

2.        L’influence de Gustave Le Bon dansla Chasse au météore a été avancée par Jacques Payen (1989, Culture technique, vol. XIX, p. 309-317) et par Guy Desloges (1992, Bulletin de la Société Jules Verne, no 103, p. 14-15).

3.        Sur Gustave Le Bon, on peut lire: Benoît Marpeau, Gustave Le Bon : parcours d’un intellectuel, 18411931, CNRS Éditions, Paris, 2000.

4.        La critique de Le Bon par JeanPerrin est parue le 10 novembre 1907 dans la Revue du mois.

5.        D’autres aspects de la Chasse au météoresont évoqués sur

PAR GEOFFREY BODENHAUSEN ET, EVARISTE SANCHEZ-PALENCIA*,

sent 6,6 milliards d’euros, et un récent rapport de l’entreprise prévoit une nouvelle année de

L

SCIENCE ET TECHNOLOGIE

n ÉDITION

La publication scientifique: une mauvaise affaire pour la science

Le 27 juin 2017, le quotidien britannique The Guardian a publié un important article sur le mode de fonctionnement que les maisons d’édition scientifique imposent aux chercheurs. Parce que la qualité de l’information et la pertinence des analyses illustrent l’appropriation de ce qui devrait constituer un patrimoine du monde scientifique, de l’humanité même, Progressistes vous en propose un compte rendu.

               édition scientifique est          croissance.

une industrie comme Le cœur de l’activité d’Elsevier aucune autre, avec des est constitué par des revues marges bénéficiaires qui riva- scientifiques, des publications

lisent avec celles de Google. Elle a été développée par l’un des magnats les plus connus de Grande-Bretagne : Robert Maxwell, mort en 1991.

Reed Elsevier, un géant de l’édition multinationale, l’un des

hebdomadaires ou mensuelles à travers lesquelles les chercheurs partagent les résultats de leurs travaux. Malgré un public peu nombreux, l’édition scientifique est une entreprise importante. Si le volume du chiffre

 

Reed Elsevier, un géant de l’édition multinationale, l’un des rares éditeurs qui ont réussi à gérer la transition vers Internet, est le chouchou des investisseurs. Ses revenus annuels dépassent 6,6 milliards d’euros, et un récent rapport de l’entreprise prévoit une nouvelle année de croissance.

 

rares éditeurs qui ont réussi à d’affaires mondial total de l’édigérer la transition vers Internet, tion scientifique – plus de 20 milest le chouchou des investis- liards d’euros – se place entre seurs. Ses revenus annuels dépas- celui des industries de l’enrea déclaré 800 millions d’euros de bénéfices pour un peu plus de 2,2 milliards de chiffre d’affaires, soit une marge de 36 %, supérieure à celle d’Apple, Google ou Amazon cette année-là.

LE FONCTIONNEMENT DU SYSTÈME

Pour gagner de l’argent, un éditeur traditionnel doit couvrir une multitude de coûts: il doit payer les auteurs des articles, il doit employer des éditeurs pour passer commande puis vérifier les articles, et il doit payer les frais de la distribution du produit fini aux abonnés et aux détaillants. Tout cela coûte cher, et les magazines les mieux vendus font généralement des bénéfices aux environs 12 à 15 %. La façon de gagner de l’argent à partir d’un article scientifique semble très similaire, sauf que les éditeurs scientifiques par-

viennent à éviter la plupart des coûts. Les scientifiques, qui sont en grande partie salariés par les États, donnent leurs travaux gratuitement aux éditeurs. De d’évaluation par des pairs – est assurée par des scientifiques, salariés eux aussi par les États, qui travaillent sur une base bénévole. Les éditeurs vendent ensuite le produit aux bibliothèques institutionnelles et universitaires financées par les États, pour les scientifiques, ceux-là mêmes qui, au sens collectif, ont créé le produit en premier lieu. Les observateurs extérieurs font souvent preuve d’une grande incrédulité quand on leur décrit ce cycle de production. Un rapport du comité parlementaire britannique des sciences et de la technologie de 2004 sur l’industrie a constaté que, dans « un marché traditionnel, les fournisseurs sont payés pour les produits qu’ils fournissent ». Un rapport de la Deutsche Bank datant de 2005 a qualifié de « bizarre » ce sys-

tème triple pay, dans lequel « l’État finance la recherche, paie les salaires de la plupart de ceux qui vérifient la qualité de la recherche, puis achète la

plupart des produits publiés ». Les scientifiques le savent bien: c’est une mauvaise affaire pour eux. L’entreprise d’édition est « perverse et inutile », selon Michael Eisen, un biologiste de Berkeley qui, dans un article paru en 2003 dans The Guardian, déclarait que « ce devrait être un scandale public ». Adrian Sutton, physicien de l’Imperial College de Londres, a dit que les scientifiques « sont tous esclaves des éditeurs. Quelle autre industrie reçoit ses matières pre-

depuis 2015, a prétendu que cette manière de procéder « sert la communauté de la recherche en faisant des choses dont ils [les chercheurs] ont besoin et qu’ils ne peuvent pas faire eux-mêmes, en facturant un prix raisonnable pour ce service ».

DES EFFETS PERVERS

Nombreux sont les scientifiques qui pensent que l’industrie de l’édition exerce une trop grande influence sur ce que les chercheurs choisissent d’étudier,

 

Adrian Sutton, physicien de l’Imperial College de Londres, a dit que les scientifiques « sont tous esclaves des éditeurs. Quelle autre industrie reçoit ses matières premières de ses clients, utilise ces mêmes clients pour effectuer le contrôle de qualité de ces matériaux, puis vend les mêmes matériaux aux clients à un prix excessif ?».

 

mières de ses clients, utilise ces mêmes clients pour effectuer le contrôle de qualité de ces matériaux, puis vend les mêmes matériaux aux clients à un prix excessif?» Un représentant du groupe RELX, le nom officiel d’Elsevier

ce qui est évidemment nocif pour la science elle-même. En effet, comme les revues préfèrent des résultats nouveaux et spectaculaires – après tout, la vente d’abonnements est leur affaire –, les scientifiques, sachant


Depuis une trentaine d’années, le monde de la recherche est gangrené dans l’exercice de son activité et l’orientation même des travaux par une mainmise progressive du pouvoir de l’argent.

 

quel type de travail a le plus de chances d’être retenu pour publication, adaptent leurs articles en conséquence.

Selon une étude de 2013, la moitié des résultats de tous les essais cliniques aux États-Unis ne sont jamais publiés. Les chercheurs peuvent être amenés à explorer inutilement des impasses que leurs collègues scientifiques ont déjà reconnues comme stériles, uniquement parce que l’information sur des échecs n’a jamais été publiée dans les pages des publications scientifiques. Le « cas » Elsevier n’est nullement isolé. Ce type de pratiques a conduit les travailleurs scientifiques à développer, grâce en particulier à Internet, des « archives ouvertes » pour la communication de leurs travaux; mais ces publications sont souvent entachées de suspicion puisque non soumises à vérifi-

cation, impactant ainsi la pratique même de la recherche. Depuis une trentaine d’années, le monde de la recherche est gangrené dans l’exercice de son activité et l’orientation même des travaux par une mainmise progressive du pouvoir de l’argent, qui revêt des formes diverses et variées : contrats, bien entendu, mais aussi des outils plus sournois, tels que l’impact factoret le classement de Shanghai, régulièrement dénoncés par les scientifiques, qui dénaturent la production de connaissances. n

*GEOFFREY BODENHAUSEN,

spécialiste de la résonance magnétique nucléaire, est professeur de chimie à l’École normale supérieure (Paris).

EVARISTE SANCHEZ-PALENCIA est mathématicien, membre de l’Académie de sciences.

TRAVAIL, ENTREPRISE & INDUSTRIE

n SERVICES

L’aide à domicile, entre services à la personne et action sociale

L’importance quantitative des aides à domicile, tant en nombre de salariés (550000 aujourd’hui) que de bénéficiaires, place la profession au centre de nombreux enjeux sociaux: Comment financer ses services? Comment en garantir la qualité? Et, enfin, comment favoriser une organisation du travail correcte pour les salarié(e)s?


PAR FRANÇOIS-XAVIER, DEVETTER*,

LE PÉRIMÈTRE DE L’AIDE À DOMICILE AUJOURD’HUI

L’une des particularités – et non des moindres – de ce champ d’activité est de faire l’objet

d’âpres débats relatifs à sa définition même. Longtemps restés dans des zones floues entre travail informel, bénévolat et travail associatif peu reconnu, les services d’aide à domicile accélèrent leur structuration dans les années 1990, et en 2002 obtiennent une reconnaissance institutionnelle majeure par la loi dite « de modernisation de l’action sociale ».

L’appartenance de l’aide à domicile au monde social et médicosocial semble alors pleinement reconnue. L’appellation désignant les travailleuses est modifiée: les aides ménagères laissent la place aux aides à domicile et aux auxiliaires de vie sociale. Cette victoire sera cependant de courte durée, et le plan de développement des services à la personne (dit « plan Borloo », 2005) inscrira explicitement l’aide à domicile dans un vaste secteur des « services à la personne » dont le point commun, le domicile, ne constitue qu’un faible marqueur d’identité professionnelle. Les aides à domicile sont ainsi renvoyées à des activités avant tout domestiques, sans spécificité sociale marquée. Depuis, l’aide à domicile – les structures prestataires comme les salarié(e)s – demeure ballottée entre deux logiques très différentes qui renvoient à des identités professionnelles opposées: s’occuper de personnes en perte d’autonomie et les accompagner durant leur vieillissement versus entretenir le domicile d’un ménage aisé. Or le sens accordé au travail tout comme

la reconnaissance sociale qu’un(e) salarié(e) peut obtenir constituent des éléments majeurs de la qualité des emplois et un ressort fondamental pour faire évoluer l’organisation du secteur.

SOLVABILISER LA DEMANDE ET FINANCER CES SERVICES La définition du champ d’activité et de public bénéficiaire est d’autant plus importante qu’elle n’est pas sans incidence sur les mécanismes de financement des services. De nombreuses études ont souligné que dans le champ des services à la personne la demande potentielle était très vaste et n’attendait que d’être solvabilisée… Mais loin d’être uniforme cette demande doit être séparée en deux grandes branches. La première est issue des ménages actifs et repose sur une volonté d’externaliser les tâches domestiques que l’on ne veut plus faire pour des raisons de manque de temps ou parce qu’elles constituent des « corvées »; la seconde correspond aux activités quotidiennes que l’on ne peut plus faire lorsque le vieillissement ou le handicap réduisent l’autonomie individuelle. Ces deux types de demande n’ont finalement en commun que leur difficulté à s’exprimer : le premier en rai-

son d’un faible consentement à payer de la part de clients qui arbitrent entre faire et faire faire; le second du fait d’un effort financier trop élevé au regard des revenus des personnes âgées. Au final ces deux « marchés »

alors que les mesures de défiscalisation entretiennent une consommation très inégalitaire et une forme de domesticité, les financements sur critères médico-sociaux permettent une démocratisation réelle du recours

 

Le sens accordé au travail tout comme la reconnaissance sociale qu’un(e) salarié(e) peut obtenir constituent des éléments majeurs de la qualité des emplois et un ressort fondamental pour faire évoluer l’organisation du secteur.

 

bénéficient de financements différents: défiscalisation et soutien proportionnel à la dépense pour les services de confort, allocation attribuée en fonction de critères médicaux et sociaux pour l’aide aux personnes fragiles (principalement allocation personnalisée d’autonomie [APA] et prestation de compensation du handicap [PCH]). Pour autant d’autres financements publics sont moins marqués et entretiennent le flou entre ces deux champs d’activité. Plus encore, les sommes en jeu (6 à 7 milliards d’euros pour les services de confort, autant spécifiquement pour les services à domicile adressés aux personnes vulnérables et près de 4 milliards concernant indifféremment ces deux publics) créent une forme de concurrence entre ces deux politiques publiques.

Or ces mécanismes de solvabilisation sont déterminants pour les salariés du secteur. Tout d’abord parce qu’ils ont un impact essentiel sur l’identité professionnelle des salarié(e)s:

à ces services et renforcent ainsi leur logique de service d’intérêt général ; mais également parce que les financements accordés et leur durabilité, en partie liée à leur légitimité sociale, conditionnent les marges de manœuvre dont disposent les employeurs pour améliorer les conditions de travail et de rémunération.

AMÉLIORER LA QUALITÉ

DES EMPLOIS ET RÉDUIRE LA PAUVRETÉ LABORIEUSE

Car la situation des salarié(e)s demeure particulièrement préoccupante: rémunération mensuelle moyenne parmi les plus faibles de toutes les professions (moins de 920 €, contre une moyenne de 1838 € pour l’ensemble des salariés), taux de travailleurs pauvres parmi les plus élevés (près de 30 %), pénibilité physique du travail marquée et associée à des taux importants d’accidents du travail, importantes contraintes psychologiques et temporelles, faiblesse des opportunités de


DEUX VISIONS POLITIQUES CONCURRENTES DE L’AIDE À DOMICILE

 

ENJEUX POUR LES SALARIÉS

LOGIQUE LIBÉRALE

« SERVICES

À LA PERSONNE »

LOGIQUE D’ACTION SOCIALE

Quel périmètre?

Identité

professionnelle/sens du travail

Services à domicile, y compris services de confort

Services aux personnes vulnérables

Quelle solvabilisation?

Marges de manœuvre

financières

Défiscalisation, subvention à la dépense

Subventions sur critères socio-économiques (APA,

PCH), subvention de l’offre.

Quelle qualité du service?

Formation/division du travail

Concurrence et libre choix

Compétence

professionnelles autonomes

Quelle organisation du travail?

Temps de travail/rémunération

Spécialisation/décompte horaires/industrialisation

Professionnalisation des salariés

promotion…

Quelle que soit la dimension étudiée, la qualité de l’emploi des aides à domicile apparaît assez médiocre. Certes, des progrès ont été enregistrés depuis quinze ans: les salaires ont crû plus vite que la moyenne des autres professions employées ou ouvrières; des éléments de classifications permettant des progressions, modestes, en termes de carrière se sont structurés ; les temps de déplacements et d’intervacation sont plutôt mieux pris en compte par les employeurs. Surtout, des conventions collectives (branche de l’aide à domicile associative en 2010, convention collective nationale des entreprises de services à la personne en 2012) ont été signées et garantissent de nouveaux droits pour les salarié(e)s.

Cela dit, ces progrès restent très insuffisants et soulignent le chemin qu’il reste à parcourir pour faire de ces emplois des emplois décents. La multiplicité des formes d’emploi (prestataire, mandataire, emploi direct) et des types d’employeurs (public, privé associatif, privé lucratif,

particuliers) crée également une d’un temps complet. Les études grande hétérogénéité dans les convergent pour souligner qu’auconditions de travail et d’em- delà de 26 heures hebdomaploi et nuit à l’organisation et à daires la pénibilité du travail est l’expression des revendications insoutenable à long terme ; des travailleurs (-euses) concer- 26 heures est ainsi la durée nées. Les avancées observées moyenne observée dans le secdans le secteur public ou asso- teur… Raisonner en temps parciatif sont ainsi menacées par tiel choisi ou subi n’a ici que peu la concurrence des acteurs à but d’intérêt: entre ce qui est subi lucratif et du système de l’em- en raison de contraintes fami-

 

Le travail de l’aide à domicile n’est alors plus réductible à la succession des tâches exigées mais correspond à la logique du « prendre soin » nécessitant de multiples qualifications permettant, en retour, une meilleure reconnaissance sociale et financière du travail effectué.

 

ploi direct.                                                  liales et ce qui est choisi pour

En outre de l’analyse des condi- épargner sa santé, la frontière tions de travail il ressort qu’un est plus que mince. Or ce des nœuds du problème demeure décompte du temps de travail le calcul du temps de travail: la est également directement lié volonté de coller au plus près aux modalités de solvabilisation du « travail effectif » (construit du secteur qui répond à une comme le seul temps d’inter- logique de financement à l’heure vention) conduit à maintenir prestée. La contrainte pesant les salarié(e)s à temps partiel sur les coûts retombe lourdepour des activités dont l’em- ment sur les salarié(e)s, mais prise temporelle est de fait celle également sur la façon de conce-

voir la qualité des services qui en retour affaiblit la position des travailleuses.

GARANTIR LA QUALITÉ DES SERVICES

En effet, l’aide à domicile est également traversée par deux conceptions de la qualité du service radicalement différentes. D’un côté, la sélection des services de qualité est pensée comme pouvant résulter de la concurrence et du choix des consommateurs. Il s’agit alors de les informer correctement viades labels, des certifications ou encore des marques. Derrière cette conception, l’hypothèse formulée est celle d’une qualité du service située dans ou produite par l’organisation. Son amélioration passerait alors par plus de division du travail et de spécialisation des salarié(e)s. Or cette logique est un moyen de déqualifier le travail des intervenant(e)s et, si possible, d’en accroître l’intensité. De l’autre côté, les appels à la professionnalisation des structures comme des intervenant(e)s renvoient une tout autre vision de ce qu’est la qualité de service: elle se situe dans la subjectivité de la coproduction avec le bénéficiaire et exige des compétences professionnelles bien plus larges en termes d’autonomie et de capacité d’adaptation. Le travail de l’aide à domicile n’est alors plus réductible à la succession des tâches exigées mais correspond à la logique du « prendre soin » nécessitant de multiples qualifications permettant, en retour, une meilleure reconnaissance sociale et financière du travail effectué.

Ainsi, l’aide à domicile demeure un territoire mal défini et en mouvement permanent. Soumis à des transformations technologiques et, surtout, réglementaires1, régulé de manière très hétérogène par des autorités multiples tant nationales que locales et au cœur d’une concurrence intense entre opérateurs de statuts très différents, le secteur peine à se définir de manière cohérente et demeure ballotté entre une logique libérale de « services à la personne » et une logique d’action sociale qui aurait dû tendre vers la création d’un nouveau service public. n

*FRANÇOIS-XAVIER DEVETTER est professeur de sciences économiques, CLERSE, IMT Lille Douai

1. Loi 2002-2 rénovant l’action sociale et médico-sociale de 2002, plan Borloo de 2005, loi 2015-1776 relative à l’adaptation de la société au vieillissement de 2015, pour ne citer que les trois principales.


n FORMATION

Travail prescrit-travail réel: du prédictible à l’imprévisible

Évoquer les concepts de travail prescrit et de travail réel c’est parler de ce qui advient alors même que cela ne semble pas imaginable pour en venir à considérer que tout est possible. L’objectif est de répondre à deux questions fondamentales : pourquoi ce qui doit être n’est pas? et quelle réponse

apporter à ce qui peut arriver?

PAR SYLVAIN LEDUC*,

DES CONCEPTS FONDATEURS:

LES MOTS JUSTES

Dès 1969, l’ergonomie est définie comme « l’étude scientifique de la relation entre l’homme et ses moyens, méthodes et milieux de travail » avec comme objectif d’adapter le travail à l’homme. Or, pour comprendre les « interactions entre les humains et les autres composantes d’un système », il est nécessaire de disposer soit de connaissances directement opérationnelles, qui en précisent donc la teneur, soit de les développer.

Dans le cas du travail prescrit, c’est la prédiction qui prévaut; c’est-à-dire que le futur est envisagé (ce qui doit être ou advenir) sur la base de règles, d’un modèle logique, un peu comme le font les mathématiciens, voire les statisticiens… mais ces derniers y mettent une certaine prudence puisqu’ils parlent souvent de « probabilité ». Dans le cas du travail réel, il s’agit de prévoir le futur réel possible et improbable. Autrement dit, c’est essayer d’anticiper sur ce tout ce qui peut advenir. Dans le cas du travail, c’est plus une prévision, car la situation future est considérée au regard de la situation actuelle et de ses possibilités d’évolution. Ainsi, à titre de comparaison, les premiers météorologues ont fait des prévisions – comme tout un chacun peut s’y essayer – puisqu’ils se sont efforcés de préciser le temps à venir à partir d’obser-

vations du jour même: s’il pleut lin ou féminin et surtout une aujourd’hui, alors il est fort pro- même personne a un état qui bable qu’il pleuve demain. Mais varie tout au long d’une jourtrès vite des règles sont intro- née, plus ou moins éveillé le duites pour affiner ces prévi- matin, plus ou moins disponisions grâce aux connaissances ble à tel ou tel moment. En un formalisées sur la saisonnalité, mot, l’homme ne se caractérise la localisation géographique, pas comme une constante mais les mécanismes thermiques et bien plutôt comme une « variadynamiques (anticyclones et ble » qui représente à la fois une dépressions…). Aujourd’hui, grande ressource d’adaptabi-

 

Le réel, qu’il est possible de qualifier comme une « évolution par rapport au prescrit », est complexe à expliquer mais tient en grande partie à la présence

La hauteur de la table et de la chaise: un sujet très fréquemment adressé aux ergonomes. Leurs interlocuteurs pensent bien souvent qu’un tel expert est celui qui est le plus à même de donner une indication sur ce point. Donc, quelle est la bonne hauteur pour une chaise et une table? Même si cette problématique peut apparaître essentielle – il n’y a qu’à voir les nombreuses offres commerciales vantant les mérites du travail debout (tendance du standing at work) –, c’est oublier qu’il ne s’agit somme toute que d’une table et d’une chaise. Or, et jusqu’à preuve du contraire, des dizaines de milliers d’enfants dans les écoles ont passé de nombreuses heures assis, sur des chaises en bois avec une assise située aux alentours de 40 cm et un plan de travail environ 30 cm au-dessus, sans pour autant qu’il soit observé une recrudescence d’escarres au niveau du postérieur ou de déformations du dos. Par conséquent, pour répondre à cette question de la hauteur idoine, la consultation des bases de données normatives sur les caractéristiques anthropométriques des populations peut être suffisante. Ces bases, qui tiennent compte de nombreux paramètres comme l’âge, le genre, l’origine géographique, offrent une réponse précise pour prédire la hauteur « idéale »; elles apportent ainsi une réponse au travail prescrit et permettent à tout un chacun d’être assis à la

du facteur humain.

 

les météorologues font essentiellement des prédictions, puisqu’ils utilisent des modèles mathématiques. Les ergonomes de l’activité, quant à eux, s’inscrivent plutôt dans le registre de la prévision.

La distinction prévision/prédiction n’est pas qu’une affaire de vocabulaire, elle rend compte de la perspective adoptée en ergonomie de l’activité non seulement pour rendre compte de ce qui se passe ici et maintenant, mais surtout de ce qui peut se passer.

Le réel, qu’il est possible de qualifier comme une « évolution par rapport au prescrit », est complexe à expliquer mais tient en grande partie à la présence du facteur humain. En effet, ce qui caractérise l’homme, c’est sa variabilité intrinsèque: il peut être grand ou petit en taille, jeune ou âgé, de genre mascu-

 

lité aux changements auxquels il est exposé et aussi une certaine difficulté quant à prédire ce qu’il va en être dans les faits. L’enjeu alors est moins de prédire – dans la mesure où l’homme ne se résume pas à une simple équation – que de s’assurer que l’ensemble des conditions où il va œuvrer puisse en tenir compte pour qu’il y trouve des ressources afin de faire face à l’adversité du réel. Il s’agit donc de le prévoir.

DEUX EXEMPLES

POUR OPÉRATIONNALISER

CES CONCEPTS

Afin de mieux saisir la portée des concepts de prescrit et de réel, voici deux exemples. Le premier se référant aux situations de la vie quotidienne, le second à un incident de l’aviation rapporté dans le film Sully, de Clint Eastwood, sorti en 2016.

       

ProgresProgressistes sistes OCTOBRE-NOVEMBRE-DÉCEMBRE 2014

L’amerrissage sur l’Hudson en janvier 2009 illustre l’écart entre travail prescrit


« bonne » hauteur, ni trop haut ni trop bas, dès lors qu’il a besoin de s’asseoir. Néanmoins, ce n’est pas toujours le cas. Dans la « réalité », il peut être nécessaire d’être assis mais, d’une part, des changements de position sont possibles en réponse à des événements plus ou moins prévus et, d’autre part, le « fameux » modèle anthropométrique de l’homme ou de la femme moyens ne s’applique pas totalement. Tout un chacun n’a pas des mensurations idéales. Alors, la norme de ce qui est prédictible montre ses limites face à l’imprévisibilité de l’activité réellement mise en œuvre par un utilisateur singulier dudit siège. Cette distinction entre la prédiction du travail prescrit et l’imprévisibilité du travail réel montre, dans le cas de la table et de la chaise, que tout l’enjeu est de concilier ces deux aspects pour prévoir des situations de travail qui soient adaptées au travail réel. Le second exemple se réfère à un amerrissage sur l’Hudson. Pour rappel, le 15 janvier 2009, le vol 1549 de la compagnie US Airways percute, quelques minutes après le décollage, un groupe de bernaches du Canada, ce qui provoque la perte de puissance des réacteurs et oblige le pilote à faire un amerrissage d’urgence dans le fleuve. L’accident n’a fait aucune victime. Ici, les experts ont attendu des pilotes certaines actions, conformément aux procédures définies en cas d’incident au décollage: le fameux « travail prescrit ». Pour autant, les pilotes ne les ont pas mises en œuvre, non qu’ils ne les aient pas respectées, mais tout simplement parce qu’en situation « réelle », à la suite de la collision inattendue, les pilotes ont mis un ceret travail réel.

Aujourd’hui, il existe un modèle plurifactoriel qui permet de prédire leur survenue dès lors que des opérateurs sont exposés à des tâches comportant des contraintes biomécaniques, que ce soit au plan du rythme des sollicitations ou des angula-

tain temps à réagir, en partie du fait de la compréhension de l’événement et de la gestion de

tions. Des abaques sont développés et repris dans des méthodes du type RULA ou

 

Il apparaît essentiel de connaître les travailleurs, ce qu’ils ont à faire et font réellement – aussi bien en situation nominale, quand tout va bien, qu’en situation dégradée, quand tout va mal! –, et cela au regard des ressources mobilisables et mobilisées.

 

la frayeur ressentie. Tout cela a pris un temps certain, dont la durée est difficilement prédictible, et variable d’une personne à l’autre. La probabilité de ce type d’incidents est extrêmement faible, aussi est-il difficile de prévoir la réaction « temporelle » desdits pilotes. Pour autant, le réel a bien eu lieu et les pilotes ont réussi à maîtriser la situation: ils ont fait face au réel.

DES RÉALITÉS D’INTERVENTION:

LA SANTÉ AU TRAVAIL

Dans l’univers du travail, il est possible également d’appliquer ce cadre conceptuel aux enjeux de la santé dans la perspective de bénéfices immédiats et différés. Le cas des troubles musculo-squelettiques en constitue une illustration intéressante. En effet, les études épidémiologiques menées sur des cohortes de travailleurs ont identifié des facteurs pouvant altérer leur santé dans des conditions données. Ces pathologies ostéoarticulaires affectent principalement les articulations des membres supérieurs (épaule, coude, poignet) et le rachis (vertèbres cervicales, dorsales et lombaires). Elles sont très présentes dans les pays industrialisés : en France, elles constituent la première cause de maladie professionnelle!

OREGE ; ils offrent un intérêt certain pour indiquer dans quelle mesure des opérateurs, confrontés à des tâches données, vont être ou non sollicités et prédire ce qui peut advenir, constituant par là même une indication pour définir le travail prescrit. D’ailleurs, le croisement de ces informations avec d’autres, comme l’âge, les modalités d’organisation du travail, les pratiques de management, offre généralement une bonne indication sur les conséquences à moyen terme pour la santé des travailleurs concernés.

Mais ce n’est pas suffisant, car même si l’objectif est de dia gnostiquer la situation actuelle pour indiquer ce qui « ne va pas », la finalité est bien de définir une situation où « ça va bien », donc de transformer ce qui est pour permettre au réel d’advenir dans les meilleures conditions, c’est-à-dire de prévoir le réel. Ici, seule la prise en compte de ce qui se passe dans les faits – les fluctuations, les irrégularités, les incertitudes – peut apporter une réponse adaptée quant à ce que peut être la situation future. Il ne s’agit pas alors de prédire quelle doit être la tâche mais bien plutôt de prévoir des conditions futures qui vont en permettre la réalisation avec performance, au sens de l’efficience productive et de la

préservation, voire du développement, de la santé des travailleurs. Sur ce point, il peut être intéressant de considérer une situation de travail comme une situation d’entraînement sportif. Ce dernier vise à maintenir une certaine forme physique et psychique, voire à soutenir le développement d’une performance : courir plus vite, plus longtemps, sauter plus haut, plus loin… Or l’enjeu est alors de procéder aux exercices qui vont y contribuer – au regard de leur prédictivité – tout en ménageant le corps afin de pouvoir s’entraîner de nouveau en tirant du plaisir, c’est-à-dire tenir compte du réel. Tous ces aspects sont transposés à l’univers du travail. Dans ce cas, il apparaît essentiel de connaître les travailleurs, ce qu’ils ont à faire et font réellement – aussi bien en situation nominale, quand tout va bien, qu’en situation dégradée, quand tout va mal! –, et tout cela au regard des ressources mobilisables et mobilisées. C’est ici qu’intervient l’adaptation des systèmes de travail pour prévoir des situations qui préviennent l’apparition des troubles de santé.

EN CONCLUSION…

In fine, pour les ergonomes, parler de travail prescrit et de travail réel c’est mettre en perspective deux représentations du travail: l’une sur ce qui est attendu et souhaité – par ceux qui prédisent le travail –, l’autre sur ce qu’il est et peut être – par ceux qui le réalisent. L’enjeu est alors de les rapprocher par la construction de compromis; c’est ici que toute la dimension d’ingénierie des systèmes de travail intervient grâce à la mobilisation de ceux qui connaissent le mieux le réel du travail: les travailleurs qui le font au quotidien. n

*SYLVAIN LEDUC est ergonome, maître de conférences à l’université d’Aix-Marseille, président de la Fédération européenne des sociétés d’ergonomie.


n ÉCONOMIE

Entreprises, péréquation et socialisation des richesses

La péréquation – mécanisme de redistribution des ressources et des charges visant à réduire les inégalités – se pratique déjà dans les collectivités locales: elle permet de réallouer les ressources de façon à favoriser les communes faiblement dotées. Pourquoi ne pas appliquer aux entreprises? Une mesure immédiate contribuant à la démarchandisation progressive mais déterminée du travail et qui préfigure la société de demain.

PAR BENOÎT BORRITS*,

LA COMÉDIE DES BAISSES

DE « CHARGES »

Voilà des décennies que les cotisations sociales sont pointées du doigt par les gouvernements de droite comme de gauche comme facteur de chômage. Depuis des années, des mesures se succèdent les unes après les autres pour réduire les cotisations sociales sur les bas salaires. Dans le discours ambiant, ces cotisations sont réduites à des « charges pesant sur les entreprises » alors qu’elles constituent du salaire socialisé destiné à offrir des prestations aux salariés pour la retraite, en cas de chômage ou de maladie, ou encore à financer une politique familiale ou des salaires dans la fonction publique hospitalière. Avec l’empilement de ces mesures et le remplacement du CICE par une baisse définitive de cotisations, nous approchons désormais un niveau zéro de cotisations autour du SMIC. Le bilan de ces exonérations est catastrophique:

–      même partiellement compen-sées par l’État, elles accentuent le déficit public;

–      elles dissuadent les entreprisesd’augmenter les travailleurs à faibles revenus créant ainsi des « trappes à bas salaires »;

–      elles sont une aubaine pourles entreprises qui font de gros bénéfices.

Quels ont été les effets de ces baisses de cotisations sur les

bas salaires? Les économistes production: on prend la valeur restent très partagés; pour les de la production réalisée de plus enthousiastes d’entre eux, laquelle on retranche les achats elles auraient permis de sauve- et l’usure du matériel afférente garder des milliers d’emplois. à cette production. Cela corresEn admettant qu’elles aient eu pond à la valeur que les travailun effet positif sur l’emploi, n’y leurs de l’entreprise ont rajouavait-il pas une autre façon de tée dans le processus de procéder que celle qui consiste production. Dit autrement, cette à mettre à mal les budgets valeur ajoutée est donc égale

 

Le principe de cette péréquation consiste à redistribuer une partie du revenu disponible de l’ensemble des entreprises en fonction du nombre d’emplois mesuré en équivalent temps plein (ETP) de chaque entreprise.

trésorerie disponibles (ou free cash flow). L’évaluation de ce revenu disponible de l’entreprise est simple: il suffit d’additionner tous les encaissements réalisés par l’entreprise (paiements de factures, de subventions, de financements) et de déduire les flux de trésorerie sortants (paiements des fournisseurs, d’intérêts et de remboursements d’emprunts, d’impôts et de taxes).

Le principe de cette péréquation consiste à redistribuer une partie du revenu disponible de l’ensemble des entreprises en fonction du nombre d’emplois mesuré en équivalent temps plein (ETP) de chaque entreprise. On pourra décider de prélever un pourcentage donné (20 %, 30 %, 40 % ou plus) de ce revenu disponible et de le redistribuer sous la forme d’une allocation unique donnée par ETP. Sur la base des données de l’INSEE pour l’année 2014, il apparaît qu’une péréquation sur 33 % des revenus disponibles aboutirait à une allocation par ETP présent dans chaque entreprise de 1321 €. Si la péréquation se fait sur la moitié des revenus disponibles, alors l’allocation sera de 2 001 € ( age_id=44).

Pour éviter de trop gros mouvements de trésorerie dans l’économie, on procédera par des échanges de soldes, positifs ou négatifs, de cette péréquation. Comme pour une déclaration

 

publics ? Pourquoi les entreprises « riches » ne financeraient-elles pas celles qui ont du mal à payer des salaires proches du SMIC ? Pourquoi n’opérerions-nous pas des transferts entre entreprises plutôt que de ponctionner les budgets publics?

:

UN NOUVEAU RÉGIME

DE SÉCURITÉ SOCIALE

Nous venons d’employer le terme d’« entreprise riche » en opposition à des entreprises qui ont du mal à payer des salaires aux alentours du SMIC. C’est donc sur une assiette proche de la notion de valeur ajoutée que nous allons établir cette redistribution : le revenu disponible. La valeur ajoutée exprime de manière comptable ce que l’entreprise a apporté en termes de valeur dans le processus de

 

au bénéfice de l’entreprise, auquel on rajoute la masse salariale. Le défaut du bénéfice – et, par voie de conséquence, de la valeur ajoutée – est qu’il s’agit d’une donnée comptable, et non de trésorerie: en effet, l’activité propre de l’entreprise a pu induire l’autofinancement d’achats de longue durée ou de recherche et développement comptabilisée qui ne se traduiront que plus tard en termes de trésorerie. L’évaluation du bénéfice est un indicateur qui précise combien l’entreprise a économiquement gagné, et non ce qu’elle a su dégager en flux de trésorerie.

Comme c’est la trésorerie qui, seule, permet le paiement des salaires, nous établirons comme assiette de prélèvement le revenu disponible, que nous définirons comme la masse salariale, à laquelle on rajoute les flux de

       

ProgresProgressistes sistes OCTOBRE-NOVEMBRE-DÉCEMBRE 2014


de TVA, chaque entreprise calculera donc en début de mois ce qu’elle doit – le revenu disponible du mois précédent multiplié par le pourcentage de péréquation – et calculera la somme à laquelle elle a droit, en multipliant l’allocation unique par le nombre d’ETP ayant participé à la génération de ce revenu mensuel. Si ce qu’elle doit est supérieur à ce qui lui est dû, elle paiera alors immédiatement le solde au régime de péréquation. Dans le cas inverse, ce régime lui versera ce qui lui est dû dans les jours suivants. L’ajustement macroéconomique entre le pourcentage de péréquation et le montant de l’allocation doit logiquement tendre à ce que les contributions nettes soient égales aux versements.

UNE SOCIALISATION

DU REVENU L’émergence des cotisations sociales – et, dans une moindre mesure, de la fiscalité sur les entreprises – est une contestation directe du régime de la propriété productive: on dénie

à l’employeur le droit de payer une personne comme bon lui semble. Si l’entreprise veut employer quelqu’un, elle devra accompagner le salaire de cotisations qui, pour partie, ouvrent des droits au travailleur et, pour partie, financent des dépenses collectives. Il n’en reste pas moins qu’à cette étape le revenu issu du travail reste totalement déterminé par l’employeur, luimême contraint par la répartition de la valeur ajoutée opérée par les relations marchandes entre les différentes entreprises. La péréquation du revenu disponible permet de rompre avec cet état de fait. Grâce à ce système, une partie du revenu du travailleur est directement garantie par la simple présence du salarié dans l’entreprise, et échappe donc aux relations marchandes. Il s’agit d’une aspiration profonde qui veut qu’on ait la garantie d’une rémunération dès lors que nous sommes en poste: les nombreux créa-

teurs d’entreprises ou les animateurs d’économie sociale et solidaire en savent quelque chose, eux qui doivent travailler pendant de long mois, voire des années, sans rémunération sérieuse. Avec la péréquation, ils se verront d’office garantir un revenu, et ce quel que soit le comportement économique de leur unité de production. Ils auront peut-être la chance, demain, de rendre la pareille en devenant des contributeurs nets du système.

Cette aspiration à la socialisation du revenu signifie que sa répartition ne doit plus être l’affaire exclusive des rapports marchands mais devienne l’objet d’un débat politique. À cet égard, la péréquation du revenu disponible ne doit pas être conçue comme un outil figé mais, au

vail mais par un grade affecté à l’individu, cet individu étant alors libre de contracter pour un travail ou pas. Comme pour le revenu de base, l’allocation serait alors directement distribuée aux citoyen(ne)s –rebaptisé(e)s « salarié(e)s » dans cette proposition – et modulée en fonction des grades des individus. Ce salaire à vie sera la seule source de revenus, excluant toute rémunération issue de la présence dans une unité de production. Le moins que l’on puisse dire est que cette proposition soulève un scepticisme assez légitime, et il est peu probable qu’elle recueille l’assentiment d’une majorité de citoyen(ne)s. Mais cette proposition s’inscrit aussi dans la logique de la socialisation du revenu, logique qui offre de multiples autres possi-

 

Grâce à ce système, une partie du revenu du travailleur est directement garantie par la simple présence du salarié dans l’entreprise, et échappe donc aux relations marchandes.

 

contraire, comme un dispositif flexible et adaptable en fonction des décisions politiques prises par les citoyen(ne)s.

Les partisans de l’allocation universelle (ou revenu de base) estiment qu’une partie du revenu doit être garantie et inconditionnelle quel que soit le rapport à l’emploi. La vocation des forces politiques de la transformation sociale n’est pas de prendre position mais de permettre aux citoyen(ne)s d’en débattre et de trancher. Si ceux-ci tranchent positivement, tout ou partie de l’allocation de la péréquation pourra alors servir d’allocation universelle en n’étant plus distribuée à l’unité de production mais directement aux résidents.

Une autre proposition, qui comporte des points communs avec le revenu de base, est le salaire à vie de Bernard Friot. Dans cette proposition, le salaire n’est plus déterminé par un contrat de tra-

bilités de répartition.

Le débat politique doit donc déterminer comment nous voulons que le revenu disponible soit réparti. À cet égard, la péréquation du revenu disponible constitue un moyen concret de mettre en œuvre les résultats de ce débat politique. Le pourcentage de péréquation – pouvant varier de 0 à 100 % – devient le premier paramètre du débat. La façon de redistribuer en est un autre. Voulons-nous une allocation unique par équivalent temps plein ou voulons-nous un système de grades ? Sou haitons-nous que cette redistribution se fasse inconditionnellement ou en fonction de la présence à un poste de travail? Il n’appartient pas à une quelconque force politique progressiste de se substituer au débat démocratique sur la façon dont les citoyens veulent répartir ce revenu. A contrario, les forces politiques progressistes ont la

charge d’organiser ce débat qui conteste directement le régime de la propriété productive.

L’INDISPENSABLE COMPLÉMENT D’UNE

POLITIQUE PROGRESSISTE Nous définirons ici comme progressiste une politique qui contribue à accroître la part des salaires dans la valeur ajoutée, et donc à contester les profits des actionnaires. Cela peut vouloir dire aussi bien une augmentation généralisée des salaires directs qu’une réduction du temps de travail avec maintien des salaires ou une hausse des cotisations à la charge des entreprises pour améliorer le régime des retraites. Face à un patronat qui, d’office, déclarera qu’il n’est pas capable de supporter économiquement ces nouvelles mesures, nous devrons le prendre au mot: s’il n’est pas capable d’intégrer le progrès social – comme il le faisait à son corps défendant durant les Trente Glorieuses –, c’est qu’il doit partir, c’est que l’heure de la socialisation de l’économie a clairement sonné.

Dans le cadre d’une politique d’augmentation de la part des salaires dans la valeur ajoutée, rien ne serait pire que ce ne soit que dans les entreprises à faible valeur ajoutée par salarié que se pose la question de leur appropriation. La mise en place conjointe de la péréquation permet de transférer de la richesse vers les entreprises à plus faible valeur ajoutée pour leur permettre de suivre les avancées sociales, y compris et surtout après expropriation des actionnaires, et de poser simultanément l’appropriation sociale dans les entreprises les plus « riches ». L’introduction de la péréquation permet de déconnecter une partie des rémunérations du comportement économique des entreprises. Il s’agit d’un vecteur de démarchandisation de l’économie qui sera essentiel dans la société future.n

*BENOÎT BORRITS est responsable de l’Association pour l’autogestion.


ÉCOLOGIE

Enjeux scientifiques ou publicité et démagogie?

Que d’articles de presse ou d’émissions à la radio et à la télévision dans lesquels les journalistes avancent des chiffres et des unités comme s’ils étaient des scientifiques! Cela correspond-il à un progrès sensible des connaissances du grand public ou est-ce de la poudre aux yeux?


PAR LUC FOULQUIER*,

Puill1 sur le glyphosate montre qu’il ne suffit pas de dire « on

L

es publicités s’appuient arrête » pour que tout soit réglé. sur l’écologie. Celle de

en termes d’habitat, de transport, d’emploi, etc.

Le même organisme a testé d’autres hypothèses dont on ne parle pas et qui concluent à 30 000 décès ou moins. Cela n’enlève rien à la nécessité de prendre de bonnes mesures pour réduire les pollutions atmosphériques. Par exemple le développement des transports en commun alimentés par l’élec-

la substance) en usage chez les évaluateurs plutôt que la notion de risque, qui est celle de l’exposition au danger.

Pourquoi certains confondentils sciemment ces deux notions? Pourquoi parle-t-on si peu de la qualité de l’air intérieur et des impacts socio-économiques de la pollution de l’air? Pourquoi les collectivités territoriales, qui peuvent pratiquer des politiques

             la région PACA pour 2018        L’EXEMPLE DE LA POLLUTION

clame « Ensemble engageons-           ATMOSPHÉRIQUE

nous pour les accords sur le climat » alors même que son président veut privatiser les transports régionaux ferroviaires! L’Occitanie vise les 100 % d’énergie renouvelable? Soit, mais nul

On serait devant une catastrophe sanitaire de grande ampleur et on culpabilise nos comportements (la voiture, le chauffage…). On parle peu des travaux scientifiques. Gaëlle Guillossou, spé-

 

Il ne faut pas confondre toutes les sources polluantes : On doit distinguer les effets à long terme (cancer du poumon) et à court terme (fonction respiratoire ou cardio-vasculaire).

 

n’explique comment solaire, éolien et économies, ensemble, permettront de répondre aux besoins! Une autre, plus réaliste, indique « Gaz naturel et électricité verte 10 % moins cher», et là c’est un service 100 % Total! C’est du lobbying alors que les prix de l’électricité augmentent. On utilise des craintes réelles ou induites pour faire l’apologie du profit et du régionalisme. C’est plus subtil qu’une bataille frontale contre le progrès, la science ou les techniques. La démarche revient à instaurer une « science officielle ». En matière énergétique, il est de bon ton de reprendre le scénario Négawatt, alors que de sérieuses études montrent qu’il est totalement irréaliste pour les prochaines décennies. On ajoute un peu de catastrophisme pour jouer sur les peurs. C’est une campagne électorale permanente. L’article de Gérard Le

cialiste de la question, montre ce que sont les réalités et la prudence à avoir dans les interprétations2. Il ne faut pas confondre toutes les sources polluantes: particules, ozone, dioxyde d’azote et de soufre, monoxyde de carbone et métaux lourds, etc. On dispose de connaissances épidémiologiques, mais, du fait des mélanges en situation quotidienne, il est difficile d’établir la nocivité propre de chaque polluant atmosphérique. On doit distinguer les effets à long terme (cancer du poumon) et à court terme (fonction respiratoire ou cardio-vasculaire). Dans le cas du tabac, mieux étudié, il y a une relation simple et avérée entre la consommation et les décès qui en résultent : environ 70 000 personnes/an en France.

La méthode est plus complexe dans le cas de la pollution atmosphérique. Tout le monde


reprend le chiffre de 48000 décès annuels en France, publié dans une étude de juin 2016 de l’Agence de santé publique, bien que des progrès aient été effectués et que les émissions aient été réduites depuis. Ce chiffre est une estimation de l’augmentation du risque de décès (et non un dénombrement) qui repose sur des hypothèses utilisant certains indicateurs (ici les particules de diamètre inférieur à 2,5 µm). Gaëlle Gillossou montre que cette estimation implique que « si toute la population française respirait l’air pur des 5 % des communes rurales les moins polluées (5 µg/m3), alors 48000 décès par an seraient évités». C’est un calcul qui suppose l’arrêt de toute activité industrielle ou agricole. Il faut voir ce que ce scénario signifie

tricité décarbonée que la « transition » énergétique officielle ignore. Dans les grandes villes, de Mexico au Caire, en passant par Pékin, la situation sanitaire est plus que sérieuse, ce qui est à mettre en relation avec un mode de production et de consommation. En France, on fait la promotion des transports par camions et bus, on mange des fraises en hiver, on élève du bétail pour le méthane, etc.

LES DANGERS DE LA

POLLUTION ATMOSPHÉRIQUE La pollution atmosphérique est cancérogène, c’est avéré. Cependant les classifications du Centre international de recherche sur le cancer (CIRC) sont qualitatives, et sont à rapprocher de la notion de danger

(effet et mécanisme d’action de

 

Les classifications du Centre international de recherche sur le cancer (CIRC) sont qualitatives, et sont à rapprocher de la notion de danger (effet et mécanisme d’action de la substance) en usage chez les évaluateurs plutôt que la notion de risque, qui est celle de l’exposition au danger.

 

Certains simplifient à outrance des résultats scientifiques, voire les travestissent, afin d’utiliser des arguments dans le cadre d’une croyance (exemple du créationnisme) ou d’une idéologie

(exemple des adeptes de l’écologie « profonde »).

 

de justice environnementale, sont-elles privées de leurs moyens?3.

Les dispositions réglementaires françaises sont bonnes. Il faut les appliquer, et il y a des marges de progrès.

LES RISQUES

ET LES INÉGALITÉS

DEVANT LES RISQUES

Nous ne sommes pas à Paris dans la situation de Londres pendant l’hiver 1952, où le brouillard, le chauffage résidentiel et les rejets des usines ont provoqué le smog (de smoke, « fumée », et fog, « brouillard ») qui a induit des milliers de morts en quelques jours.

Engels avait étudié la situation de Manchester en 1842-18444. « […] deux millions et demi de poumons et 250000 foyers entassés sur une surface de trois ou

quatre mille mètres carrés consomment une quantité considérable d’oxygène, qui ne se renouvelle que très difficilement […]. Quel effet nocif doit avoir cette atmosphère anormale dans les districts ouvriers où est réuni tout ce qui peut empoisonner l’atmosphère. » Il décrivait la ségrégation par quartier en fonction des pollutions, en montrant qu’à l’est et au nord de Manchester la bourgeoisie ne s’est pas installée « car les vents dominants apportent de ce côtélà les fumées des usines. » Cette ségrégation a-t-elle disparu? Les milieux populaires et les salariés dans les entreprises ne sont-ils pas les premières victimes d’un mauvais cadre de vie? Que dire de la situation au Bangladesh, où les ouvrières travaillent pour les capitalistes dans les conditions de


l’Angleterre à l’époque d’Engels? Aujourd’hui, les mégapoles d’Afrique ou d’Asie sont aussi polluées que Londres en 1952. L’OMS a estimé qu’en AsiePacifique 2,6 millions de décès seraient liés aux pollutions. Il est bien de regarder le local, mais il faut aussi considérer l’enjeu au niveau mondial.

En vingt ans, il y a eu une décrois-

présence de sources de pollution et de nuisances est bien souvent corrélé à tel ou tel indicateur de défaveur sociale. » Nous disposons des connaissances scientifiques pour éviter ces pollutions, ou du moins pour les réduire. Il reste à prendre les décisions politiques qui s’attaquent vraiment au cœur de ce système d’exploitation.

 

En vingt ans, il y a eu une décroissance importante du CO2 dans les villes, mais la pollution atmosphérique pèse encore sur l’espérance de vie.

 

sance importante du CO2dans les villes, mais la pollution atmosphérique pèse encore sur l’espérance de vie, apprend-on dans Toxique ? Santé et environnement 5. Si on prend en compte les progrès réalisés dans la détection des polluants, on comprend mieux les mécanismes de leur impact sur la santé humaine

(expologie). Il y a d’autres questions à résoudre comme celle des nanoparticules. Les auteurs poussent la réflexion plus loin: « […] le risque de se trouver en

RÉDUIRE LES RISQUES:

UN CHOIX POLITIQUE

ET DE SOCIÉTÉ

L’écologie scientifique progresse, y compris dans sa composante sanitaire. Mais l’écologie dite politique – comme si on parlait de la climatologie ou de la physique politique! – ne clarifie pas les choses! Certains simplifient à outrance des résultats scientifiques, voire les travestissent, afin d’utiliser des arguments dans le cadre d’une croyance (exemple du créationnisme) ou44

ÉCOLOGIE

 


44d’une idéologie (exemple des adeptes de l’écologie « profonde »). Aussi est-il indispensable de développer la recherche en toxicologie afin de saisir le rôle de tel ou tel polluant, mais aussi le contexte social dans lequel il est produit et agit. La suppression des CHSCT dans les entreprises est une grave atteinte à notre sécurité sanitaire et environnementale. Dans un ouvrage de 2012, Lucien Sève aborde la cause écologique et la cause anthropologique6. « La planète Homme, façon de dire genre humain, va mal […] la planète Terre, façon de dire notre habitat naturel, va mal […] Écolo tout le monde croit savoir ce que c’est, mais anthropo, c’est quoi?» Il faut sauvegarder l’humanité et mettre en cause cette mauvaise abstraction qu’est l’homme. De quel homme parlet-on? De l’exploiteur ou de l’exploité? Parlons aussi du mode inhumain de produire et de la tyrannie du taux de profit. La pensée « verte » devient œcuménique alors qu’il y a besoin de changer les rapports de production et de ne pas s’engouffrer dans les affres du capita-

lisme « vert ». « Une écologie qui ne s’en prend pas résolument au système du profit n’a pas d’avenir. Avec du commun on peut repousser le pire en luttant pour la sauvegarde du genre humain. » Et voilà ce qui fait peur au système des riches et à Macron, qui le symbolise. Ils font tout pour que la perte de la biodiversité, l’agriculture productiviste, les pollutions ne soient pas mises sur le compte de leur

faut s’unir contre le réchauffement climatique, qu’il faut en finir avec les partis politiques où l’individu abdiquerait toute conscience, alors que, sous une forme ou une autre, se fabrique une conception de parti ultracentralisé!

Nicolas Hulot est la caution « morale » pour, avec d’autres qui servent de caution « politique » ou « scientifique », transcender les querelles partisanes

 

Nicolas Hulot est la caution « morale » pour, avec d’autres qui servent de caution « politique » ou « scientifique », transcender les querelles partisanes et dédouaner de sa responsabilité la classe exploiteuse.

 

système d’exploitation générale. Ils brouillent les pistes et les repères. La science est confondue avec le scientisme, le progrès avec le développement humain durable, la production avec le productivisme, la modernisation avec les dangers. Selon leur credo, il faut à tout prix trouver une voie entre le capitalisme et le marxisme. Des idéologues nous expliquent qu’il

et dédouaner de sa responsabilité la classe exploiteuse. Dès 2006 il écrivait7: « Que l’émulation s’empare des esprits pour faire jaillir une nouvelle société, tant mieux. De ce point de vue, d’ailleurs, on verra sans doute bouger les lignes. Et si quelque chose émerge ce ne sera ni à droite, ni à gauche, ni au centre, mais au-dessus.» Du macronisme avant l’heure!

Pour nous, il s’agit, face aux dégâts environnementaux et humains du système en place, de lier le social et l’écologique dans un même combat. Il n’y a pas d’arguments sérieux pour les faire sortir des enjeux de classe. n

*LUC FOULQUIER est ingénieur chercheur en écotoxicologie, membre de la commission nationale Écologie et Énergie » du PCF.

1.  Gérard Le Puill, « Glysophate,

molécule de la discorde », in Progressistes, no 18, octobrenovembre-décembre 2017.

2.  Gaëlle Guillossou, « Pollutionatmosphérique en France », in Science et pseudo-sciences, no 320, avril-juin 2017.

3.  Environnement, Risques, Santé (ERS), 7e congrès national santéenvironnement sur le thème « Qualité de l’air et santé », vol. 16, no 4, juillet-août 2017.

4.  Friedrich Engels, la Situation de la classe laborieuse en Angleterre, Éditions sociales, Paris, 1960.

5.  Francelyne Marano, Robert Barouki,Denis Zmirou, Toxique? Santé et environnement: de l’alerte à la décision, Bucher Chastel, 2015.

6.  Lucien Sève, Aliénation et émancipation, La Dispute, 2012.

7.  Nicolas Hulot, Pour un pacte écologique, Calmann-Lévy, 2006.

n AGRICULTURE

OGM-PGM, agriculture et progrès

Réduire la question des plantes génétiquement modifiées (PGM) à usage agricole et alimentaire au seul aspect technique ou à la seule appréciation bénéfices/risques est une aberration car c’est aussi une question économique, sociale,

environnementale, de santé publique, juridique, éthique et hautement politique.

PAR CLAUDE SEUREAU*,

AGRICULTURE, PGM

ET « BOÎTE À OUTILS » Il y a 10000 ans, nos ancêtres choisissaient des espèces sauvages d’intérêt alimentaire ou autre. Les premiers agriculteurs en semèrent les graines, gardant une partie de la récolte pour les prochains semis tout en sélectionnant les plus utiles. C’est seulement après la découverte des mécanismes de la reproduction sexuée des végétaux, au XIXe siècle, que furent tentés les premiers croisements artificiels dans une même espèce. Au début du XXe siècle étaient cultivées les premières variétés issues d’hybridations artificielles. Événement considérable: on passait du simple choix à une création artificiellement orientée de nouvelles variétés. La recherche fondamentale apporta ensuite les lois de la génétique, les chromosomes comme supports de l’hérédité, la culture de cellules végétales

et la régénération in vitro de plantes à partir d’une seule cellule, la structure de l’ADN et son universalité, les gènes et la biologie moléculaire, les enzymes permettant le séquençage des génomes et le transfert de gènes, l’hybridation entre espèces différentes d’un même règne, et même de règnes différents. À la fin du XXe siècle, le sélectionneur dispose d’une véritable boîte à outils. Des PGM sont produites et cultivées1.

UN NOUVEL OUTIL:

CRISPR-CAS Comme c’est parfois le cas en recherche fondamentale, c’est un peu par hasard, au tout début

des années 2000, que fut élucidé le rôle de petites séquences répétées d’ADN observées chez les bactéries. Ces séquences, nommées CRISPR (clustered regularly short palindromic

plexes CRISPR-Cas protègent les bactéries contre une infection virale : introduit dans le génome bactérien, l’ADN viral est reconnu et détruit. Un mécanisme « immunitaire » bacté-

 

La recherche fondamentale apporta ensuite les lois de la génétique, les chromosomes comme supports de l’hérédité, la structure de l’ADN et son universalité, l’hybridation entre espèces différentes d’un même règne, et même de règnes différents.

 

repeats : « courtes répétitions palindromiques groupées et régulièrement espacées »), sont associées à des protéines enzymatiques intervenant dans le métabolisme du génome. « Cas » est l’une d’elles. Des séquences de type viral ayant été trouvées dans les CRISPR, et des enzymes Cas dans toutes sortes de bactéries, il fut montré que les com-

rien inattendu était découvert. Les enzymes Cas peuvent reconnaître une séquence très précise de l’ADN bactérien puis couper le génome à ce seul endroit. L’ADN ayant une structure universelle, des systèmes simplifiés furent alors mis au point pour modifier n’importe quel génome en n’importe quel point. Modifications qui peu-

vent aboutir à une véritable « réécriture » des génomes (genome editing). Un nouvel outil, d’une précision sans égale pour la recherche fondamentale et pour le génie génétique, était né. L’engouement des cher-

cheurs en biologie moléculaire et en génétique est immédiat: « Le Graal du génie génétique depuis près de cinquante ans », écrit le généticien Antoine Danchin2; le magazine Science reconnaît CRISPR-Cas comme « découverte capitale de l’année 2015». Engouement repris, sous d’autres formes: « Crispr, le big bang de la génétique» (le Monde, avec une série de six articles hebdomadaires à l’été 2016), ou, en référence à son usage, « outil universel », « couteau suisse », etc.

Comme d’autres techniques voisines, CRISPR-Cas est, avant tout, selon Antoine Danchin, un « accélérateur de la recherche44

RECHERCHE

44génétique du XXIesiècle» et, incon- tion est d’obtenir, ce qui est déjà testablement, un progrès scien- le cas, des droits de propriété tifique historique et de grande industrielle, type brevet, sur des portée. Leur intérêt technolo- plantes facilement commercia-

 

Avec CRISPR-Cas, la manipulation génétique peut s’effectuer à l’intérieur des gènes choisis avec une précision telle que l’on peut dès lors parler de mutagènes, comme cela se produit naturellement ou artificiellement mais de manière aléatoire.

 

valence en substance » qui « consiste à comparer les composants d’une plante transgénique (protéines, nutriments, antinutriments…) avec des

plantes conventionnelles. Si les écarts enregistrés correspondent à des écarts connus entre variétés de la même espèce, la plante transgénique est considérée comme équivalente en substance. [Or :] En l’occurrence, l’idée par recombinaison naturelle ». En 2012, c’est sur cette base et sur celle du principe de précaution, mais aussi sur l’avis de scientifiques et la pression d’une

opinion très majoritairement opposée aux PGM, que la France s’est prononcée pour un moratoire en interdisant la culture d’un maïs transgénique de Monsanto. Moratoire toujours en vigueur.


lisables car échappant à la fois à la législation et à un éventuel rejet de la société civile4. D’où l’expression « OGM cachés » et un début d’application dans les champs.

Du point de vue réglementaire, la situation est, pour le moins, diverse et chaotique. Aux ÉtatsUnis, gros obtenteurs, vendeurs et utilisateurs d’OGM-PGM, le ministère de l’Agriculture a considéré que les PGM de

« deuxième génération » étaient similaires à des variétés obtenues par des méthodes classiques de croisement, et que donc, a priori, une régulation n’était pas nécessaire. Cette prise de position continue de s’appuyer sur le principe dit « d’équi-

d’équivalence en substance ne Des institutions françaises se repose pas sur une démonstra- sont prononcées sur les noution scientifique irréfutable » 5. velles biotechnologies, et plus En Europe, et en France, la régle- particulièrement sur la nature mentation actuelle s’appuie sur juridique des nouvelles PGM, la directive 2001/18/CE qui sti- au regard des législations natiopule qu’un OGM est un « orga- nale et européenne. À la suite nisme, à l’exception des êtres d’une audition publique, l’Office

 

En Europe, et en France, la réglementation actuelle s’appuie sur la directive 2001/18/CE qui stipule qu’un OGM est un « organisme, à l’exception des êtres

humains, dont le matériel génétique a été modifié d’une manière qui ne s’effectue pas naturellement par multiplication et/ou par recombinaison naturelle».

 

humains, dont le matériel géné- parlementaire d’évaluation des tique a été modifié d’une manière choix scientifiques et technoqui ne s’effectue pas naturelle- logiques (OPECST) a publié, un ment par multiplication et/ou volumineux rapport6. On y lit

gique n’a pas échappé aux sélectionneurs de variétés végétales cultivées (NPBT, new plant breeding techniques).

PGM DE « DEUXIÈME

GÉNÉRATION » Avant CRISPR-Cas, les PGM sont obtenues par inactivation, suppression (délétion) et/ou introduction d’un gène (trans genèse), mais avec une précision et une efficacité toutes relatives et un temps de réalisation important. Avec CRISPR-Cas, et d’autres biotechnologies proches, temps et coût sont réduits considérablement et, surtout, la manipulation génétique peut s’effectuer à l’intérieur des gènes choisis avec une précision telle que l’on peut dès lors parler de mutagènes, comme cela se produit naturellement ou artificiellement mais de manière aléatoire. De plus, pour les végétaux cultivés qui possèdent plusieurs copies d’un même gène, la mutagenèse porte simultanément sur toutes les copies. D’un point de vue technique, il s’agit bien d’une nouvelle génération de PGM. Mais, s’agit-il d’OGM, au sens large et reconnu par la réglementation en vigueur?

« OGM CACHÉS »

ET RÉGLEMENTATION À la différence des premières PGM, les modifications génétiques des nouvelles variétés sont, pour le moment, quasi indétectables3. Les semenciers et les entreprises de biotechnologies végétales jouent sur cette propriété pour affirmer que ce ne sont pas des OGM. Leur ambipas la faim dans le monde ; c) conduire à un appauvrissement de la biodiversité agricole; d) accélérer la course aux brevets et au secret industriel en privant ainsi des chercheurs indépendants de vérifier la validité des techniques brevetées, en particulier pour la qualité sanitaire des aliments, ce qui du point de vue éthique est intolérable.

que « les nouvelles techniques de sélection végétale sont complémentaires des méthodes d’agroécologie» (sic) et que, pour l’obtention de brevets, elles sont un atout pour les petites structures face aux États-Unis et à la Chine. De plus, elles « devraient être exclues du champ de la directive 2001/18 ». Dans un avis7, le Haut Conseil des biotechno logies (HCB) décrit « les risques environnementaux et sanitaires» (« effets non intentionnels », « incidences liées à la facilité de mise en œuvre des NPBT »,

« impacts […] sur le fonctionnement et la dynamique des écosystèmes»). Il recommande que, « quelle que soit leur qualification juridique in fine, la sécurité des produits issus de NPBT soit soigneusement encadrée sur le fondement des principes de

 

2001/18/CE, soit de l’inscrip- convient qu’« il est […] difficile tion au Catalogue officiel fran- à ce jour de prévoir l’ensemble çais des espèces et variétés des produits qui pourraient en végétales, soit d’une « voie inter - découler, être proposés par les médiaire qui serait à créer ». obtenteurs et éventuellement

 

En 2017, à la suite de fusions, trois multinationales détiennent deux tiers du marché mondial des semences OGM. Le continent américain accueille à lui seul plus de 85 % des quatre grandes cultures de PGM.

 

Interrogé par plusieurs organisations françaises sur cette question de réglementation, le Conseil d’État l’a portée devant la Cour de justice européenne. L’avocat général de cette instance vient de rendre ses conclusions qui, selon Inf’OGM, « clarifie[nt] sans répondre » aux questions posées. La Commission euro-

 

 

adoptés par les agriculteurs. Les opportunités et les risques qui pourraient leur être associés ne peuvent donc être cernés que de façon très générale. Concevoir un cadre juridique adapté n’en est que plus délicat » 7.

Alors, OGM ou pas OGM? Avec les NPBT, innovation qui n’est qu’une fuite en avant, force est de constater que les paradigmes sont toujours les mêmes: a) de manière dangereusement réductrice, considérer un génome comme une simple succession de lettres, comme un jeu de Lego, alors que l’ADN est dynamique et réagit à son environnement par des voies qui ne sont pas toutes connues; b)dans une optique productiviste, encourager à outrance des monocultures intensives, dépendantes des multinationales semencières et de leurs produits, qui ruinent les petits agriculteurs, et qui, à l’inverse de leurs prétentions ne réduisent

Avec les NPBT, innovation qui n’est qu’une fuite en avant, force est de constater que les paradigmes sont toujours les mêmes.

 

précaution et de proportionna- péenne ne prendra aucune décilité» et souligne que « l’évalua- sion avant l’arrêt de la Cour de tion doit être menée au cas par justice européenne prévu pour cas au regard des impératifs de mi-2018.

sécurité et de contribution des variétés à une agriculture dura- EN GUISE DE CONCLUSION: ble, diversifiée et innovante. » OGM OU PAS OGM?

Pour l’encadrement légal, le Dans un paragraphe intitulé HCB propose que chaque pro- « Un ensemble de techniques duit relève soit de la directive hétérogènes », l’avis du HCB

En 2017, à la suite de fusions, trois multinationales détiennent deux tiers du marché mondial des semences OGM. Le continent américain accueille à lui seul plus de 85 % des quatre grandes cultures de PGM. Mais, mondialement, leur progression stagne n’atteignant que quelques pour-cent des terres cultivables. N’est-il pas temps de changer de paradigmes? Oui, l’usage des OGM-PGM est bien une question hautement politique. n

*CLAUDE SEUREAU est biologiste, maître de conférences honoraire des universités (UPMC Paris-VI).

1.        Georges Pelletier, « Progrèsscientifique et amélioration des variétés végétales », in l’Humanité Dimanche, 28 janv. et 10 févr. 2016.

2.        Antoine Danchin, « CRISPR-Cas,accélérateur de la recherche génétique du XIXe siècle », in l’Humanité Dimanche, 2-8 nov. 2017.

3.        Mission pour la science et latechnologie de l’ambassade de France aux États-Unis, la Transgenèse 2.0 avec CRISPR: modification génétique multiple et édition du génome sans laisser de traces, , 18 déc.2015.

4.        Les nouveaux OGM, Inf’OGM, 14 déc. 2016.

5.        José Bové, député européen,discours en ouverture de l’atelierconférence sur « Sélection de comparateurs pour l’évaluation des plantes OGM » de l’Autorité européenne de la sécurité des aliments, 31 mars 2011, et UE-OGM, l’équivalence en substance est un dogme, Inf’OGM, 11 avr. 2011.

6.        OPECST, « Les enjeuxéconomiques, environnementaux et éthiques des biotechnologies à la lumière de nouvelles pistes de recherche, rapport du 14 mai 2017.

7.        InfoCuria-Jurisprudence, 18 janv.2018; Inf’OGM, même date.


Les métropoles, entre polarisation économique et fragmentation sociale

Avant d’être consacrée sur le plan institutionnel, la notion de métropole s’est imposée pour désigner les formes les plus massives d’urbanisation observables à travers le monde. Elle fait ressurgir les multiples interrogations que suscite de longue date le phénomène de la grande ville quant à son développement économique, son organisation socio-spatiale, sa gouvernance politique, etc.


PAR ANDRÉ DONZEL*,

B

ien que sa définition soit variable dans le temps et dans l’espace, la métropole associe généralement trois types de déterminations complémentaires. Elle sous-tend l’idée de polarisation économique des territoires, c’est-àdire d’attraction et d’accumulation de richesses sur un petit nombre d’entre eux. Ce processus est aussi ancien que l’urbanisation elle-même; il s’est toutefois particulièrement accéléré dans les dernières décennies, avec l’amplification de la mondialisation. Cela va de pair avec la formation de vastes régions urbaines articulant un centre et une périphérie, accueillant des populations nombreuses et diverses en termes d’origines et de statuts. Enfin, le statut de métropole est souvent lié à l’exercice de fonctions politiques éminentes, celles-ci résultant de leur rôle de pivot dans l’organisation territoriale des États et, au-delà, de leur influence géopolitique à une échelle suprarégionale.

ADAPTER LES TERRITOIRES À LA CONCURRENCE?

Bien que cristallisant la puissance sur différents plans, les métropoles n’en sont pas moins exposées à de fortes tensions. La polarisation économique renforce la compétition entre territoires, les uns bénéficiant de ressources accrues, les autres étant voués au déclin. Au sein même des territoires « gagnants », croissance économique et développement social tendent à se dissocier. Tandis que s’affirme leur prééminence économique, les espaces métropolitains accumulent les désutilités sociales : chômage, crise du logement, déficiences d’équipements publics, déstructuration sociale, nuisances environnementales… Cela tend à induire une grande instabilité des dispositifs de régulation publique à l’échelle métropolitaine : les cadres traditionnels de l’administration locale sont remis en cause, tandis que les nouvelles formes de « gouvernance métropolitaine » peinent à affirmer leur maîtrise du développement urbain et à conforter leur légitimité politique. Dans ces conditions, la question de la métropolisation reste un objet controversé. Pour certains, les métropoles seraient l’« horizon indépassable » du développement territorial1. La concentration croissante des ressources du développement dans les plus grands centres urbains à l’échelle de la planète vient généralement à l’appui de cette thèse. Dans la continuité de la théorie des lieux centraux ou des pôles de croissance, les analyses de l’économie spatiale ont conféré une aura considérable à cette loi de la gravitation métropolitaine. D’autres, moins nombreux, critiquent cette vision mécanique du développement territorial. Ils montrent que l’« avantage métropolitain », c’est-à-dire l’effet de surproductivité lié aux économies d’échelle engendrées par la concentration de ressources sur un même territoire2, n’est pas sans contreparties en termes de coûts économiques, sociaux et environnementaux. Cela limite la portée du déterminisme économique et invite à prendre en compte l’incidence des facteurs politiques et des contextes socioculturels dans l’analyse des phénomènes de métropolisation. Le développement des villes est dans les faits frappé d’une grande


plexité. Un regard rétrospectif sur la genèse du phénomène de métropolisation nous révélera son caractère fluctuant. Mais au-delà de la simple alternative de l’expansion et du déclin, on percevra aussi l’étonnante capacité d’adaptation des territoires métropolitains, souvent à même de surmonter les nombreux défis auxquels ils sont confrontés. On pourra le vérifier plus bas dans le cas français.

MÉTROPOLISATION

PLANÉTAIRE, DE LA CITÉ

À LA VILLE GLOBALE

La métropolisation, en tant que processus d’accumulation de ressources économiques et sociales diversifiées sur un même territoire, s’inscrit dans la longue

La puissance des villes est étroitement liée à la productivité de leurs industries, et leur organisation est assujettie à cette vocation. La symbiose entre ville et industrie atteindra un sommet dans les villes nord-américaines du début du xxe siècle.

 

essentiellement par ses fonctions de capitale politique à l’échelle d’un empire ou d’une province. Elle doit sa survie à la domination de territoires plus ou moins étendus qui, outre la subsistance de sa population, lui fournissent le surplus économique nécessaire à son expansion et à son rayonnement. Ce rapport fut porté à son paroxysme dans le cas de Rome, « capitale parasitaire », selon Paul Bairoch, qui « reçoit beaucoup de son empire mais lui fournit peu »3.

 

sition. À partir du XIXesiècle, les grandes villes dépassant le million d’habitants se répandent sur l’ensemble de la planète au gré de l’émergence de nouvelles filières de production industrielle et de l’ouverture de nouvelles voies commerciales. Dans les pays européens, une seule ville dépassait le million d’habitants au début du XIXe siècle : Londres; à la fin du siècle, on en comptait une vingtaine. Par la suite, cette tendance va encore s’amplifier à l’échelle mondiale : on comptait moins d’une qua-

rogènes en intensité et en com-


Tandis que s’affirme leur prééminence économique, les espaces métropolitains accumulent les désutilités sociales : chômage, crise du logement, déficiences d’équipements publics, déstructuration sociale, nuisances environnementales…

instabilité. Sur le long terme, la croissance des villes n’a rien de linéaire. À moyen terme, et à l’intérieur d’un même cadre national, les processus d’urbanisation apparaissent très hété-

durée. Elle s’affirme dès l’Antiquité avec l’émergence des cités-États du pourtour méditerranéen, Athènes et Rome notamment. La métropole, ou « cité mère », se définit alors

Bien qu’initiatrice du fait urbain, cette économie de prédation se révélera peu à même d’assurer la croissance des villes sur le long terme. Celle-ci passe inévitablement par des formes de développement économique plus endogènes à travers la mise en valeur des ressources productives propres des territoires urbains. Les développements de l’industrie dans la période moderne permettront cette tranrantaine d’agglomérations millionnaires dans le monde en 1900, on en dénombre aujour d’hui plus de quatre cents. Dans ce contexte, les ressorts de la métropolisation changent. La puissance des villes est étroitement liée à la productivité de leurs industries, et leur organisation est assujettie à cette vocation. La symbiose entre ville et industrie atteindra un sommet dans les villes nord-américaines44 44du début du XXesiècle. En conformité avec les principes du taylorisme et du fordisme élaborés alors, l’organisation urbaine va se modeler sur celle de la grande entreprise. En même temps que les processus de production évoluent dans le sens d’une division accrue du travail, la vie urbaine s’organise selon une spécialisation fonctionnelle et sociale de plus en plus poussée. Cette logique entraînera l’individualisation à l’extrême des modes de vie et la régression des relations de type communautaire dans la structuration sociale de la grande ville moderne. Mais avec l’amplification des restructurations économiques

dans le contexte de la mondia-

 

lisation ce modèle de ville industrielle va être profondément remis en cause.

TRAJECTOIRES DIVERGENTES

Trois types d’évolution vont se présenter. Les centres urbains à forte spécialisation industrielle seront les plus brutalement concernés. Sous l’effet des délocalisations industrielles, ils vont entrer dans un processus de récession durable, et parfois

Mais la récession n’est pas la seule trajectoire qui oriente les processus de métropolisation aujourd’hui. Nombre de villes nées de la révolution industrielle et urbaine de la fin du XIXesiècle et du début du XXesont parvenues à stabiliser leur déclin, voire à redresser la tête, grâce principalement à la reconversion tertiaire de leurs activités économiques et à la rénovation de leur cadre urbain, le plus

 

Trois types d’évolution vont se présenter. Les centres urbains à forte spécialisation industrielle seront les plus brutalement concernés. Sous l’effet des délocalisations industrielles, ils vont entrer dans un processus de récession durable, et parfois irréversible.

irréversible. Le cas le plus emblématique d’une telle inversion de tendance est sans doute la ville de Detroit, aux États-Unis, capitale de l’industrie automobile américaine (motor city) et siège historique du fordisme. Au cours d’un long processus de dégradation où se combinent chute de l’emploi, détérioration du cadre bâti et faillite de l’administration locale, la ville perdra les deux tiers de sa population, celle-ci passant de 1,8 million d’habitants à son apogée en 1930 à environ 600000 aujourd’hui.

souvent avec un apport massif d’argent public. Les cas de « régénération » d’anciens centres industriels sont désormais nombreux en Europe et en Amérique du Nord. Les villes portuaires en particulier, un temps dévastées par l’effondrement de leurs activités industrielles et commerciales anciennes, ont pu retrouver une certaine raison d’être en développant leurs fonctions tertiaires au service d’un bassin d’emploi régional. Dans d’autres cas, plus rares, les villes ont pu renouer avec une forte dynamique de crois-


sance en tirant parti de leur positionnement favorable dans la globalisation économique. Celle-ci a en effet fortement accru la polarisation de la richesse dans les plus grandes villes. Ainsi, en 2007, les 600 plus grandes villes du monde, bien que ne rassemblant que 22 % de sa population, contribuaient à la formation de 38 % du PIB mondial. On estime qu’en 2025 cette proportion pourrait atteindre 60 %, alors que ces villes ne devraient accueillir que 25 % de la population mondiale4. Ces villes doivent leur prééminence économique à leurs fonctions stratégiques dans les processus de mondialisation en cours. Elles s’apparentent pour la plupart à des « villes globales »,

des ménages, etc. Loin d’être dépourvues d’attaches productives, elles sont des foyers majeurs d’innovation technologique et de services à l’industrie, contribuant ainsi à l’organisation de réseaux productifs sur une base mondiale. Enfin, la métropolisation n’étant pas un processus hors sol, elles se doivent de fournir à leur population les services et les aménités nécessaires à la préservation de l’attractivité résidentielle de l’espace métropolitain. Elles sont ainsi des lieux majeurs d’investissement en matière d’aménagements urbains (immobilier, réseaux urbains, équipements et services collectifs).

Ces paramètres sont de puissants stimulants de la crois-

En 2007, les 600 plus grandes villes du monde rassemblaient 22 % de la population mais contribuaient à la formation de 38 % du PIB mondial. En 2025 cette proportion pourrait atteindre 60 % pour 25 % de la population mondiale.

 

dans le sens multidimensionnel qu’en donne Saskia Sassen5. Elles se caractérisent par leur place nodale dans la circulation des flux financiers en drainant capitaux d’entreprises, financements publics, épargne

sance économique dans ces territoires. Ils n’en sont pas moins de plus en plus sélectifs en privilégiant les activités économiques à plus forte valeur ajoutée. Cette polarisation a pour effet d’accroître fortement les


inégalités d’emploi et de résidence à l’intérieur des villes. Comme le souligne Saskia Sassen : « [À l’encontre] des images dominantes de la globalisation, la restructuration économique dans les villes glo-

a connu une réaffirmation forte dans la période récente à la suite de la loi du 27 janvier 2014 dite « de modernisation de l’action publique territoriale et d’affirmation des métropoles » (MAPTAM). Cette loi attribue assez

La reconnaissance institutionnelle du fait métropolitain en France, relativement récente, s’inscrit sur l’agenda de l’aménagement du territoire depuis la formulation de la politique des « métropoles d’équilibre » dans les années 1960. Elle a connu une réaffirmation forte dans la période récente : loi du 27 janvier 2014 de modernisation de l’action publique territoriale et d’affirmation des métropoles.

s’adjoindre en 2018 un contingent de 7 nouvelles métro poles (voir tableau). Ces 22 métro poles rassemblent près de 19 millions d’habitants, soit 28 % de la population française. Elles recouvrent un assez large éventail de tailles démographiques,

puisque leur population s’échelonne de 7 millions d’habitants pour le Grand Paris à un peu plus de 200000 pour la métropole de Brest. À l’échelle des aires urbaines7, la dispersion des tailles est encore plus étendue, passant de 12,4 millions pour la première à environ 300000 habitants pour la dertants (Nantes, Strasbourg, Rennes, Grenoble, Rouen,

Toulon, Montpellier), les 8 restantes se situent dans la tranche comprise entre 499 000 et

300000 habitants (Rennes, SaintÉtienne, Tours, ClermontFerrand, Orléans, Nancy, Dijon,

Metz, Brest).

Si l’on prend en compte ce seuil minimal de population, la définition actuelle des métropoles peut paraître restrictive, puisque la France possède plus d’une trentaine d’aires urbaines de plus de 300000 habitants et que la croissance urbaine a plutôt été portée dans les dernières


bales a généré une forte croissance de la demande de travailleurs à bas salaire pour des emplois qui n’offrent que de faibles perspectives d’avancement. [ ]Le fait que ces emplois soient en grande majorité occupés par des immigrants, des citoyens minorisés et des femmes désavantagées s’ajoute à leur invisibilité et contribue à la dévalorisation de ce type de travailleur et de culture du travail. [ ]Cela se déroule au milieu d’une explosion de la richesse dans laquelle l’expansion des emplois à haut salaire est plus visible6. »

LES VILLES FRANÇAISES À L’HEURE DE LA

GLOBALISATION Ces dynamiques de polarisation économique et de segmentation sociale se vérifient pleinement à l’échelle du territoire français, même si les processus de métropolisation s’y caractérisent par une grande diver sité en fonction des situations propres à chaque ville : taille démographique, profil économique, organisation sociospatiale, cultures politiques, etc. La reconnaissance institutionnelle du fait métropolitain est relativement ancienne en France, puisqu’elle s’inscrit sur l’agenda de l’aménagement du territoire depuis la formulation de la politique des « métropoles d’équilibre » dans les années 1960. Elle généreusement le label de « métropole » aux territoires urbains, puisque cette dénomination concerne 15 des principales agglomérations urbaines françaises, auxquelles viennent nière. Au total, parmi les

22 métropoles, seules 7 appartiennent à des aires urbaines dépassant le million d’habitants (Paris, Lyon, Aix-Marseille, Toulouse, Lille, Bordeaux et Nice), 7 autres sont comprises entre 999000 et 500000 habidécennies par les strates

LES 22 MÉTROPOLES FRANÇAISES (AU 1ER JANVIER 2018)

 

Dénomination

Siège

Nombre de communes

Superficie (km2)

Population

2013

Population aire urbaine

1

Métropole du Grand Paris

Paris

131

814,00

6 968 061

12 405 426

2

Métropole d’Aix-Marseille-Provence

Marseille

92

3 148,00

1 841 459

1 734 277

3

Métropole de Lyon

Lyon

59

533,68

1 354 476

2 237 676

4

Métropole européenne de Lille

Lille

90

611,45

1 119 867

1 175 828

5

Bordeaux Métropole

Bordeaux

28

579,27

737 492

1 178 335

6

Toulouse Métropole

Toulouse

37

465,96

725 091

1 291 517

7

Nantes Métropole

Nantes

24

523,36

602 923

908 815

8

Métropole Nice-Côte d’Azur

Nice

49

1 465,8

537 769

1 004 826

9

Métropole Rouen-Normandie

Rouen

71

664,53

488 630

660 256

10

Strasbourg Eurométropole

Strasbourg

33

339,57

482 384

773 447

11

Grenoble-Alpes Métropole

Grenoble

49

541,17

439 974

684 398

12

Montpellier-Méditerranée-Métropole

Montpellier

31

434,21

434 101

579 401

13

Toulon-Provence-Méditerranée

Toulon

12

366,41

427 839

611 978

14

Rennes Métropole

Rennes

43

704,94

420 707

700 675

15

Saint-Étienne Métropole

Saint-Étienne

53

723,00

401 845

515 240

16

Tours Métropole Val de Loire

Tours

22

390,41

292 932

483 744

17

Clermont-Auvergne Métropole

ClermontFerrand

21

300,62

284 672

472 943

18

Orléans Métropole

Orléans

22

334,28

279 549

425 495

19

Métropole du Grand Nancy

Nancy

20

142,30

262 445

432 788

20

Dijon Métropole

Dijon

24

239,95

256 113

380 236

21

Metz Métropole

Metz

44

306,00

220 696

389 898

22

Brest Métropole

Brest

8

218,37

206 719

315 982

Source : INSEE (RP 2013).

moyennes et inférieures de la hiérarchie urbaine, sous l’effet de plusieurs facteurs favorisant la dispersion des populations hors des grandes villes: extension de la périurbanisation, exode des retraités, etc. 44

44L’EMPLOI TERTIAIRE

POUR DES MÉTROPOLES D’ÉQUILIBRE? Mais ces tendances centrifuges dans la localisation de la population sont encore loin de concerner la distribution des emplois, qui restent très fortement concentrés dans les métropoles. Ainsi, entre2008 et2013, le solde de création d’emploi salarié en France s’est presque exclusivement reporté sur une dizaine de métropoles, celles-ci bénéficiant de 87 % des 197000 nouveaux emplois créés au niveau national sur cette période8. Parmi elles, on trouve les métropoles les plus peuplées : Paris, Lyon et Aix-Marseille, Lille, ainsi que les villes qui se situent sur le nouveau front pionnier de la croissance urbaine française dans le sud et l’ouest du territoire : Montpellier, Toulouse, Bordeaux, Nantes, Rennes. Cette tendance à la polarisation de l’emploi dans les grandes villes n’est pas nouvelle, elle s’est toutefois fortement accentuée au cours des dernières décennies: « Le début du siècle est marqué par un mouvement de concentration de l’emploi dans une douzaine de métropoles françaises. Ce phénomène constitue un tournant par rapport à la seconde moitié du XXe siècle, où l’expansion de l’emploi salarié avait profité à toutes les villes, petites et grandes.9 » Cette croissance renouvelée de notion désigne principalement des activités relevant du champ culturel : professions artistiques, métiers de l’information et de la communication, de l’éducation et de la recherche… Ces emplois sont de fait surreprésentés dans les grandes villes en raison de la présence de nombreux équipements et services culturels. Mais leurs effectifs dans les zones de croissance urbaine récente, particulièrement dans le sud et l’ouest du pays. Celles-ci bénéficieraient de la croissance des emplois

« présentiels », liés à la satisfaction des besoins locaux de la population (administrations, services publics, transports, commerces). On se trouverait dans ce cas dans une continuation des processus de tertiarisation qui avaient jalonné la tent 37 % du solde net d’emplois créés dans les métropoles. Cette proportion avoisine même les 50 % dans un certain nombre d’entre elles, comme Paris, Lyon, Toulouse, Bordeaux, Nantes, Aix-Marseille, Mont pellier, qui sont les seules parties du territoire national à connaître une évolution positive de leurs effectifs d’emplois productifs. Au total, grâce à leurs fonctions économiques diver-


LES AIRES URBAINES FRANÇAISES SELON LE DÉCOUPAGE DE 2010

 


l’emploi dans les grandes métropoles renvoie à plusieurs types d’explications. Elle serait pour certains le fruit de l’essor de la « classe créative », nouveau fer de lance de la métropolisation selon Richard Florida. Bien qu’elle soit assez floue, cette

restent limités, et leur poids n’est significatif dans la structure des emplois que dans quelques villes à fort rayonnement culturel, comme Paris. Une autre ligne d’argumentation met en avant un effet de rattrapage de la tertiarisation

L’aspect le plus remarquable, et plutôt inattendu, de l’évolution récente de l’emploi dans les métropoles françaises tient à la place importante qu’y occupent désormais les emplois productifs. Ainsi, sur la période 2008-2013, ceux-ci représentent 37 % du solde net d’emplois créés dans les métropoles.

politique des métropoles d’équilibre à l’époque des Trente Glorieuses, dans un contexte de décentralisation administrative et de montée en puissance de l’État-providence.

MÉTROPOLES «PRODUCTIVES»

MAIS INÉGALITAIRES L’aspect le plus remarquable, et plutôt inattendu, de l’évolution récente de l’emploi dans les métropoles françaises tient à la place importante qu’y occupent désormais les emplois productifs. Ainsi, sur la période 2008-2013, ceux-ci représensifiées, les métropoles auraient « mieux résisté à la crise » que les autres parties du territoire national10. Cet essor de l’emploi est conditionné par les nouvelles normes de production imposées par la globalisation économique :

incorporation massive des nouvelles technologies dans les procédés de fabrication, ouverture sur les marchés internationaux en amont et en aval… Cela va de pair avec une transformation profonde des règles sociales s’appliquant au travail salarié. Si la globalisation économique


ÉVOLUTION DE L’EMPLOI DES 25-54 ANS DANS LES AIRES URBAINES ENTRE 2006 ET 2013

 


est souvent vue comme une tendance favorisant l’élévation des qualifications et des rémunérations, elle peut aussi avoir des effets très néfastes pour les catégories les plus précarisées de salariés.

On perçoit ainsi dans les métropoles françaises une forte accentuation des inégalités de revenus, celles-ci étant plus marquées qu’à l’échelle nationale. Ainsi : « À l’échelle des 15 métropoles françaises, les 10 % les plus modestes ont un niveau de vie […] inférieur de 7 % au seuil audessous duquel vivent les 10 % des Français les plus pauvres. À l’opposé, les 10 % les plus aisés vivent avec […]16 % de plus que le niveau de vie plancher des Français les plus aisés.11 » Audelà des revenus et des situations d’emploi, ces inégalités se prolongent dans les formes d’occupation résidentielle de l’espace. La « gentrification » des quartiers les mieux lotis va de pair avec la paupérisation et la dégradation des moins favorisés. À défaut de mixité sociale, les fractures territoriales s’accentuent à l’échelle du périmètre métropolitain et jusque dans ses franges.

Ces inégalités varient toutefois sensiblement d’une métropole à l’autre. Elles sont très marquées dans les villes où se concentrent traditionnellement les populations les plus fortunées, comme à Paris ou sur le littoral méditerranéen (Aix-Marseille, Nice) ; elles le sont aussi, inversement, dans les capitales de régions industrielles en reconversion, particulièrement dans le nord et l’est (Lille, Nancy, Strasbourg), qui sont confrontées à des formes plus aiguës de pauvreté. En revanche, les villes de croissance plus récente, dans le sud et surtout l’ouest, ont plutôt mieux préservé leur niveau de cohésion sociale.

LE POIDS DES INSTITUTIONS Outre ces situations socioéconomiques très diverses, les facteurs institutionnels et politiques ne sont pas sans incidence sur les processus de métropolisation. À l’échelle de l’Europe, on a pu remarquer que les pays à structure administrative décentralisée (Espagne, Italie) ont été plus précoces à prendre en compte les enjeux sociaux et environnementaux de la métropolisation. L’autonomie des collectivités locales a permis dans le même temps de mieux relayer les aspirations civiques locales. Les mobilisations citoyennes ont pu intervenir et infléchir le cours des politiques métropolitaines sur différents plans : économique, social, environnemental, culturel, etc. À l’inverse, les pays à tradition plus centralisatrice, comme la France, s’en sont tenus à une approche plus réductrice de la métropolisation, abordée presque exclusivement sous l’angle de l’optimisation économique. Sa mise en œuvre institutionnelle s’est en outre opérée de manière très directive de la part de l’État, au détriment de l’intervention des élus et des citoyens. Il en résulte des structures de gouvernance métropolitaine à faible légitimité et peu à même de peser efficacement sur les tendances lourdes de la métropolisation. Il est donc probable que le dilemme entre polarisation économique et fragmentation sociale se perpétue encore longtemps dans le cas des métropoles françaises. n

*ANDRÉ DONZEL est sociologue, CNRS-MMSH d’Aix-en-Provence.

1.  Pour une critique de cette position,cf.Olivier Bouba-Olga, Michel Grossetti, « La métropolisation, horizon indépassable de la croissance économique? », Revue de l’OFCE 2015/7, no 143, p. 117-144.

2.  Ludovic Halbert, l’Avantage métropolitain, PUF, Paris, 2010.

3.  Paul Bairoch, De Jéricho à Mexico.

Villes et économie dans l’histoire, Gallimard, 1985, p. 115-117.

4.  McKinsey Global Institute, Urban World: Mapping the Economic Power of Cities, McKinsey & Company, mars 2011.

5.  Saskia Sassen, la Globalisation.

Une sociologie, Gallimard, Paris, 2009.

6.  S. Sassen, op. cit., p. 125-126.

7.  Le zonage en « aires urbaines » a été proposé par l’INSEE à partir du recensement de 1990. Il distingue au sein d’une aire urbaine trois types d’espaces: le « pôle urbain » rassemblant au moins 5000 habitants, la « couronne périurbaine » et les « communes multipolarisées », ensemble de communes dispersées dont au moins 40 % des actifs travaillent dans des aires urbaines. En 2014, elles étaient une cinquantaine à dépasser les 200000 habitants, et celles-ci rassemblaient au total 37 millions d’habitants, soit 55 % de la population française.

8.  « Quelle dynamique de l’emploidans les métropoles françaises », Métroscope, 50 indicateurs clés pour les métropoles françaises, Fédération nationale des agences d’urbanisme, juin 2017.

9.  France Stratégie, « Dynamique del’emploi et des métiers: quelle fracture territoriale? », in Note d’analyse, no 53, février 2017.

10.  « En matière d’emploi, lesmétropoles ont davantage résisté à la crise », inINSEE Première, no 1503, juin 2014.

11.  Métroscope, op. cit., p. 33.


POLITIQUE

Du côté du PCF et des progressistes

Économie et politique Cause commune Hommage à Paul Boccara Mouvements, partis.

Quelle organisation révolutionnaire

La revue Économie et politiqueconsa-

cre deux numéros spéciaux au sou- pour notre temps? venir et à l’œuvre de Paul Boccara. Le premier (novembre-décembre 2017) rend hommage à l’homme, au militant révolutionnaire, inséparablement économiste et militant politique. Il regroupe des interventions, articles, témoignages de Catherine Mills, Frédéric Boccara, Danielle Bleitrach, Claude Diebolt, Yves Dimicoli, Denis Durand, Pierre

Garzon Aimé Halbeher, Pierre Laurent, Patrick Le Hyaric, Jean Magniadas, Nasser MansouriGuilani, Dominique Plihon, Henri Sterdyniak, Francis Wurtz, ainsi que des messages syndicaux ou venus de l’étranger, mais aussi des textes de Paul Boccara représentatifs de ses combats théoriques et politiques. Le second (janvier-février 2018) revient sur les écrits de Paul Boccara, le théoricien, avec la publication d’une sélection de textes. Il présente des extraits de son œuvre théorique, économique et anthroponomique, illustrant les principales étapes de son élaboration. n

Carnets rouges

Des fondamentaux pour quelle école?

L’heure est aux « fondamentaux », ou plus précisément aux

« savoirs fondamentaux ». Dans « Pour l’École de la confiance », le gouvernement se donne comme

objectif « 100 % de réussite à l’école Dans une année politique riche en rebondissements et sur primaire » dans la maîtrise de ces laquelle pèse l’ombre galopante du FN, les nouvelles formations savoirs, affiche comme priorité la politiques gagnent un écho auprès de la population. Les partis « lutte contre les inégalités» scolaires politiques sont déclarés morts et l’époque serait aux mouveet/ou sociales et préconise (impose?) ments, selon les médias dominants. L’enthousiasme que susciune « aide bienveillante» aux élèves tent ces nouvelles formations contraste avec celui d’organisa« fragiles », « défavorisés », « issus de tions plus anciennes comme le PS ou LR. Pourtant, qu’il s’agisse familles modestes ». du Parti du travail de Belgique, qui ne cesse de grimper dans les Que sont ces savoirs singulièrement sondages, du Parti communiste portugais ou encore du Sinn rétrécis, réduits à leur seule valeur Féin en Irlande, on le voit bien: la forme parti ne rebute pas tous d’échange, dans des marchés de les citoyens. La différence entre parti et mouvement serait-elle l’éducation et du travail visant à donc secondaire? Une lutte politique qui veut remettre le peu-

satisfaire « les besoins de l’économie », à « renforcer la place de ple au centre de l’histoire ne peut ignorer les liens fondamenla France en Europe et dans le monde » et « l’attractivité de la taux entre démocratie et travail. En ne construisant pas des rapplace financière de Paris »? On voit bien qu’il y a urgence à se ports de force qui s’appuient sur des travailleurs organisés et en réapproprier des mots confisqués, détournés d’un sens qu’il se contentant de vouloir seulement déplacer des électeurs vers serait cependant illusoire de croire univoque. Égalité, tous les urnes, le parti ou le mouvement risque de rester une brève capables, co-émancipation: des fondamentaux qui ne soient parenthèse populaire. Forme mouvement ou forme parti? Place pas le carcan d’un « déjà-dit » qu’il s’agirait de dépoussiérer, nette est faite à la parole des différents acteurs et actrices de la mais l’objet et la méthode de co-élaboration d’un « pas-encore- vie politique française et européenne, mais également aux éclaidit ». Tels sont les fondamentaux convoqués ici. n rages historiques et philosophiques. n

Pour l’entrée au Panthéon d’une figure feminine emblématique de notre histoire populaire. Martha Desrumaux

 


OUVRIÈRE, SYNDICALISTE, FÉMINISTE ET DIRIGEANTE POLITIQUE

Ouvrière du textile dès neuf ans, cégétiste et membre des Jeunesses socialistes à treize ans, communiste dès 1920, elle organisa sa première grève à vingt ans, en 1917! Elle fut une des grandes dirigeantes du mouvement ouvrier du Nord et de toute la France. Le 7 juin 1936, Martha est la seule femme présente et active, face au patronat, aux côtés notamment de Léon Jouhaux et Benoît Frachon, dirigeants de la CGT, lors de la signature des accords Matignon. Fondatrice de l’Union des jeunes filles de France dans le Nord, elle œuvre à l’émancipation de toute une génération, qui obtiendra le droit de vote en 1944.

UNE RÉSISTANTE DE LA PREMIÈRE HEURE

Dès juillet 1940, Martha organise clandestinement avec des délégués mineurs la grande grève des mineurs du Nord-Pas-de-Calais. Du 27 mai au 9 juin 1941, malgré l’occupant et les collaborateurs, 100000 mineurs osent la grève. Le premier convoi de déportés vers Sachsenhausen sera exclusivement formé d’ouvriers mineurs! Arrêtée le 26 août 1941, Martha est déportée dans le camp de Ravensbrück, où elle organise la lutte clandestine aux côtés de Marie-Claude Vaillant-Couturier et Geneviève de Gaulle-Anthonioz.

UNE DES PREMIÈRES FEMMES DÉPUTÉES

Rescapée des camps, Martha reprend la lutte à la Libération et durant les Trente Glorieuses. Dirigeante syndicale, responsable politique, elle devient en 1945, élue municipale à Lille puis l’une des seize premières femmes députées. Martha lutta toute sa vie pour un monde meilleur et pour l’émancipation des femmes au quotidien. Inlassablement, elle mit en avant le rôle des femmes et le droit pour elles de prendre toute leur place dans les combats pour l’émancipation.

OUVRONS LE PANTHÉON À LA CLASSE OUVRIÈRE! À ce jour, soixante-seize de nos concitoyens ont été panthéonisés. Parmi eux, seulement quatre femmes et aucun ouvrier ni ouvrière, aucune représentante, aucun représentant des travailleurs! Silence sur ces femmes et ces hommes usés à la tâche, disparus ou vieillis prématurément, qui ont bâti nos routes, nos villes et nos usines, construit notre pays et qui le construisent encore! L’association Les Ami.e.s de Martha Desrumaux souhaite donc que soit enfin honorée la mémoire de cette ouvrière et, à travers elle, que soient honorées toutes les femmes du peuple, toute la classe ouvrière!

SIGNEZ LA PÉTITION SUR

Martha Desrumaux, pour une ouvrière au Panthéon

L’association vient également de réaliser une exposition retraçant le parcours et les engagements de Martha Desrumaux (10 panneaux couleur). Pour tout renseignement, vous pouvez contacter l’association par courriel () ou par téléphone (Laurence Dubois : 06 75 68 59 61).

JANVIER-FÉVRIER-MARS 2018


 

Pour consulter tous les articles de Progressistes en ligne ou pour télécharger la revue gratuitement

LE BLOG! : - Retrouvez-nous aussi sur


2