...

Document 994341

by user

on
Category: Documents
891

views

Report

Comments

Transcript

Document 994341
Décision
Prospective
Auto-organisation
Remerciements
Le
comité d'organisation
des Mélanges en l'honneur
de
Jacques Lesourne tient à remercier Électricité de France, la SNCF et
La Poste pour leur soutien à la réalisation de ces Mélanges, ainsi qu'à
l'organisation du colloque de remise de l'ouvrage.
Textes réunis par
,
J. THÉPOT M. GODET F. ROUBELAT · A.E. SAAB
Décision
Prospective
Auto-organisation
Mélanges en l'honneur
de Jacques Lesourne
DUNOD
Ce pictogramme mérite une explicarieur, provoquant une baisse brutale
tion. Son objet est d'alerter le lecteur
des achats de livres et de revues, au
sur la menace que représente pour
point que la possibilité même pour les
l'avenir de l'écrit, particulière- auteurs
de créer des œuvres
ment dans le domaine de l'édinouvelles et de les faire éditer
1DANGER
tion technique et universitaire,
correctement est aujourd'hui
le développement massif du
menacée.
Nous rappelons donc que
t I I/j t
photocopillage.
Le Code de la propriété
toute reproduction, partielle ou
intellectuelle du 1" juillet 1992
totale, de
publi aLE PIIOTOCOPIlAGE
interdit en effet expressément la
la présente
tion est interdite
sans autorisaTUE LELIVRE
tion du Centre français
photocopie à usage collectif
sans autorisation des ayants droit. Or,
d'exploitation du droit de copie (CFC,
cette pratique s'est généralisée dans les
20 rue des Grands-Augustins, 75006
établissements d'enseignement supéParis).
© Dunod, Paris, 2000
ISBN
2 10 004653
5
Toute représentation ou reproduction intégrale ou partielle faite sans le consentement
de l'auteur ou de ses ayants droit ou ayants cause est illicite selon le Code de la propriété
intellectuelle (Art L 122-4)et constitue une contrefaçon réprimée par le Code pénal. *
Seules sont autorisées (Art L 122-5) les copies ou reproductions strictement réservées
à l'usage privé du copiste et non destinées à une utilisation collective, ainsi que les analyses et courtes citations justifiées par le caractère critique, pédagogique ou d'information de I'oeuvre à laquelle elles sont incorporées, sous réserve, toutefois, du respect des
dispositions des articles L 122-10 à L 122-12 du même Code, relatives
à la reproduction par reprographie.
TABLE
DESMATIÈRES
Avant-propos :
Maurice Allais, Kenneth J. Arrow, Herbert A. Simon, Robert M. Solow
Introductiongénérale :
Jacques Thépot
9
23
Partie 1 Décision
Introduction
Gérard Worms
Quelques remarques personnelles sur l'apport de Jacques Lesourne au
monde économique
Raymond Leban
L'oeuvre de Jacques Lesourne : exemple de richesse cohérente
29
311
34
Robert Lattès
La décision à l'âge de la société d'information
AlexisJacquemin
La compétitivité européenne et l'entreprise
Bernard Roy
Réflexions sur le thème quête de l'optimum et aide à la décision
49
NicolasCurien
À la poursuite du Gaspimili
84
40
61
6
AUTO-ORGANISATI
DÉCISION,
PROSPECTIVE,
Alain Bensoussan
Quelquesremarquessur le prix des options,avec prise en comptede
contraintes
Jean-PierreDupuy
Quand la stratégiedominantese révèle irrationnelle
Anne Marchais-Roubelat
Décisionset irréversibilités.À proposdu supersonique
JacquesThépot
Le tiers dans la décision
HeinerMüller-Merbach
Five Concepts of Holistic Understanding:Generalists as Critical
SuccessFactorof Nations
MichelCrozier
L'approchetransdisciplinaireen matièrede décision
107
129
140
158
170
185
Partie2 Prospective
Introduction
MichelGodet
La raisontranquille
Thierryde Montbrial
Le stratégisteet l'économiste
RémiBarré
La prospectivede la scienceet de la technologiecommeintelligence
socialedes « systèmesdu destin»
Huguesde Jouvenel
Pour une rechercheen prospective
ChristianSchmidt
Des décisionsindividuellesà la prospectivesociale. Une médiation
par la théoriedes jeux
ClaudeBerlioz&JacquesBiais
La prospectiveà la SNCF
ChristianStoffaës
Le rôle de JacquesLesourneauprèsd'Électricitéde France
AssaadE. Saab
Du bon usagede la prospectivedans les entreprises
FabriceRoubelat
La prospective stratégique. Des hommes et des organisationsen
réseaux
MichelAlbert
Interfutursvingt ans après
195
197
207
220
231
244
264
268
279
286
306
7
Tabledes matières
Wolfgang Michalski
The OECD Interfutures Project Revisited 20 Years Later
Robert Dautray
Prospective en énergie nucléaire
Jean-Jacques Salomon
La tristesse de Cassandre
3188
332
343
Daniel Bell
Reflections at the End of an Age
361
Partie 3 Auto-organisation
Introduction
367
Patrick Cohendet
Bifurcations et trajectoires de recherche : autour de quelques rencontres décisives avec Jacques Lesoume
369
Bernard Walliser
L'espace et le temps en économie
Bernard Paulré
L'auto-organisation comme objet et comme stratégie de recherche.
L'exemple de l'économie industrielle
375
382
Jean-François Laslier
Agents historiens et anticipations rationnelles
408
Gilbert Laffond & Jean Lainé & Gauthier Lanot
Un modèle dynamique de compétition électorale
425
UlrichWitt
Self-Organization in the Economy and its Driving Forces
Gisèle Umbhauer
Formation de la réputation : quelques apports sur le rôle de l'inertie
Appendices
et
Biographie
bibliographie de Jacques Lesourne
Index thématique
Présentation des auteurs
Liste des souscripteurs
455
468
488
494
.
498
499
AVANT-PROPOS
Maurice
Allais
Dans la pléiade de mes anciens élèves Jacques Lesourne occupe une place
exceptionnelle tout à la fois par ses contributions originales aux théories de
l'efficacité économique et du calcul économique, et à leurs applications, et
par son influence considérable et novatrice sur la gestion économique des
entreprises publiques et privées et sur la formation d'ingénieurs économistes
dans les secteurs publics et privés.
Ses principaux ouvrages (Technique économique et gestion industrielle,
1958 ; Le calcul économique, théorie et applications, 1972 ; Modèles de
croissance de l'entreprise, 1972 ; A Theory of the Individual for Economic
Analysis, 1977 ; Économie de l'ordre et du désordre, 1991 ) marquent autant
d'étapes majeures dans le développement de sa pensée.
,
',
'
'
L'influence de Jacques Lesourne s'est exercée principalement dans la direction de la Société Métra de recherche opérationnelle et d'études économiques (1958-1975), et dans le cadre de son enseignement au Conservatoire
national des arts et métiers (1974-1998), ainsi que dans ses très nombreuses
relations nationales et internationales dans le domaine de la recherche opérationnelle et des études prospectives.
;
Jacques Lesourne est un des pionniers du calcul économique.
;
"
;
''
Ce qui constitue l'originalité spécifique de Jacques Lesourne, c'est la
conjonction qu'il a su réaliser entre la théorie et la pratique, entre la pensée
et l'action.
i
:
En fait, si dans ses principes la théorie économique est très simple, elle est
par contre toujours très difficile à appliquer, tant est complexe la réalité
concrète. Il faut avoir médité pendant des années sur l'analyse économique
pour en comprendre toute la portée, et savoir l'appliquer.
12
2
AUTO-ORGANISATION
DÉCISION,
PROSPECTIVE,
Dans la très difficile conjonction de la théorie économique et de ses applications Jacques Lesoume a démontré à la fois la puissance de ses analyses
et ses capacités de synthèse. Il a toujours su allier la rigueur scientifique de
l'analyste et le souci d'efficacité de l'ingénieur sur le terrain.
Incontestablement, aussi bien sur le plan international que sur le plan national, Jacques Lesourne est un des meilleurs économistes de sa génération.
Kenneth J. Arrow
Jacques Lesourne : The General and the Specific
In the late 1950s,a youngFrench scholarshowedup at StanfordUniversity
on a travellingfellowshipand asked to attent some of my courses.Jacques
Lesournewas alreadyan ingénieurdes Minesand had alreadybeen studying
the future of the French coal industry. His knowledge and depth were
already apparent;he belonged to the best in that great French tradition of
appliedeconomics,goingback to A. A. Cournotand Jules Dupuit,whichhas
in fact transformedthe very foundationsof economicanalysis.He attended
my courses faithfullyand even claimedto have learned something,though
given the depth of his previousknowledge,1had somedoubtswhetherthere
was much he didn't know already.
We have maintainedcontactover the years and visitedeach other.Especially
1 have followedhis major contributionsto scholarship.What is extraordinary is the combinationof thesoundestscholarship,deep knowledgeof both
general principlesand specifictechniques,and close and sensitiveapplications to specific industrial and policy problems.All these characteristics
were alreadyapparentin his book on cost-benefitanalysis[ 1 ].Strikingly,he
emphasizeda point of view that was not at all common then and not so
common now: the aim of cost-benefitanalysis is improvementor reform,
not the achievementof an optimum.The generalprinciplesand assumptions
are laid out clearly.A series of models of gradually increasinggenerality
introducesuch complicationsas taxation,dynamic(intertemporal)considerations,uncertainty,and the demandfor information.An astonishingarrayof
14
AUTO-ORGANISATION
DÉCISION,
PROSPECTIVE,
issues are discussed in terse paragraphs. At each point, the emphasis is on
stating the criterion for improvement in terms of measurable magnitudes.
The very varied case studies show how the analytic apparatus is fully used.
The most sophisticated theoretically developments find application in practical decisions.
His work on the growth of businesses [2] shows a complete understanding,
drawn from practical experience and extensive reading, of the leading
special aspects of corporate behavior not encompassed in the standard
economic models. The special constraints on borrowing and on other aspects
of business activity (such as personnel) showed Lesoume's special skills at
translating generalizations about behavior into models which can be subject
to analysis both descriptive and prescriptive.
The depth of Lesoume's learning and broad intellectual curiosity is even
more strikingly displayed in his broadly generalized picture of human behavior [3], in which he draws on an extraordinary range of psychological and
sociological literature, including the economics of organization, to show
how the standard tools of economic analysis still find use in this broader
setting. The impact of the last two books has not yet been fully felt.
Jacques Lesourne has given a powerful impetus to both scholarship and
practical decision-making. We are all grateful for his accomplishments.
REFERENCES
J., Cost-Benefit Analysis and Economic Theory. First published as
[1] LESOURNE
Le calcul économique, Dunod, 1964. 2e ed. révisée, 1972. English translation,
North-Holland, 1975.
J., Modèles de croissance des entreprises. Dunod, 1973.
[2] LESOURNE
J., Theory of the Individual for Economic Analysis. North-Holland,
[3] LESOURNE
1977.
Herbert A. Simon
Jacques Lesourne's Contributions to Economics
and to SocialScienceGenerally
The lapse of more than forty years has cloaked the memoriesof my first
contacts with Jacques Lesourne, when he visited the then-new Graduate
Schoolof IndustrialAdministrationin our distantcity of Pittsburgh.1do not
know just what broughthim here, or recall in what year he came, but from
my knowledgeof his own work and interests,perhapsit was the rumorshe
had heard of a small group of young schismaticswho were skepticalabout
how far the static truths of neoclassicaleconomicscould bring us to a real
understandingof modern economic systems - systems which seemed to
spendmost of their lives very far from equilibrium,shroudedin dense mists
of uncertaintyabout the future.
The recollectionthat 1 do have is that he was alreadyin searchof an economic dynamicsthat woulddo justice to the uncertaintiesand complexitiesof
industrialsociety,with its markets,but also with its businessfirms. He had
just written,or was about to write,his early book, Techniqueéconomiqueet
gestion industrielle(1958),and sharedwith the Pittsburghgroup a belief in,
and understandingof the role of businessorganizationsin the operationof
an economy.Organizations,which March and 1 published (also in 1958),
, and Cyert and March's Behavioral Theory of the Firm (1963) could have
come as no surpriseto him.
During the interveningyears, up to the current one, Jacques Lesournehas
progressedever farther in his searchfor a realistictheory of economicphenomena,and in so doing, has contributeda wide range of new ideas to economics that are just now beginning to receive the attention from the
16
6
AUTO-ORGANISATI
DÉCISION,
PROSPECTIVE,
economics profession that they deserve. From the outset, the central idea
that guided his work is that the economy, and the society in which it operates, must be viewed as a large and complex dynamic system, and that our
understanding of it and its operation depends on acquiring an understanding
of the basic nature and behavior of dynamic systems. This continuing attention to systems theory is expressed again in a significant way in the introduction to his relatively recent ( 1991 )Économie de l'ordre et du désordre.
There he describes his work as "placing itself at the confluence of several
currents of scientific thought": (1) general systems theory, (2) the "evolutionary current" in the writing of historical economists, (3) the behavioral
approach, (4) institutional economics, and (5) (neoclassical) economic
theory itself. (The inclusion of the last item reminds us that we must regard
Jacques Lesourne as a revolutionist, but not as an anarchist.) These themes
and their sources show up consistently in his whole body of work.
The vastness and complexities of the system he was studying sometimes led
him to question whether there really existed solutions to its problems that
could preserve humanity and its civilization. Perhaps his "Black Book" was
Les systèmes du destin of 1976, which examines these problems boldly and
with some pessimism. His "Simplified Schema of a Model of Contemporary
History, 1918-1973" on pages 418-419 conveys its flavor very well. Among
the problems he lists are: oligopolization of social life, decline of parliamentarism, the crises of the youth and the cultural system, ossification of
bureaucratic socialism, the Cold War, single-party government and dictatorship in the third world, exhaustion of non-renewable resources. A quarter
century later, the list sounds very familiar, missing little, perhaps, except
ethnic conflict and Global warming.
However formidable these problems are, Jacques Lesourne did not turn from
the task of understanding them as a step toward their solution. As early as
the year following publication of Les systèmes du destin, he published a collection of his essays, A Theory of the Individual for Economic Analysis
(1977), in which he proposes "an integrated theory of individual behavior,
constructed for economics, taking into account as much as possible the
results of the other human sciences, enlarging the utility theory, and adopting mathematical representations suited to the assumptions made concerning environment". Here we see again a specific segment of the overall
venture he had launched in the 1950's, and which he has pursued systematically ever since. However, if the mission remained unchanged, the stream of
ideas contributed to it continued to be fresh and significant.
We come now to the present, with the volume he has recently co-edited on
Advances in Self Organization and Evolutionary Economics (1998). Here
we find examples of the applications to economics of the new mathematical
tools that have emerged in the last twenty years for the study of dynamic
complex systems embodying agents who make decisions under uncertainy
in a world that has regions of chaos, and that evolves continually. And again
Avant-propos
7
17
we see, Jacques Lesoume, in continuing pursuit of deeper understanding of
the economic system, standing at the cutting edge of our knowledge and
exhibiting to us powerful new tools that may aid our quest. It would be hard
to find a more consistent, persevering, and fruitful lifelong scientific journey, steering steadily towards its destination, aware of that port's distance
and the difficulty of reaching it, but always seeking the most modern technology to speed the journey.
1 am happy to have this opportunity to greet and congratulation Jacques
Lesourne, whose imaginative work continues to be a source of insight and
instruction to all of us who wish to create an economics of the real world,
taking account of its chaos and complexity, and providing us with tools for
dealing with its problems.
Robert
M. Solow
When 1 think of Jacques Lesourne, 1 see him as 1 knew him some 40 years
ago. The photograph on the dust jacket of Technique économique et gestion
industrielle (1958) is just about right: a bit under 30 years old, very French,
reserved, intellectually and visibly neat and self-coldminded. Much the same
could be said of that book itself. Its title is not a bad summary of a large part
of Jacques Lesourne's oeuvre, though not of ail of it, as 1 shall point out in
a moment.
Technique économique et gestion industrielle was intended as a handbook,
something that a staff officer of an industrial firm could refer to when faced
with a quantitative problem of management, and where he could hope to find
a precise way to formulate the problem and eventually to solve it. To stop
with that description, however, would be to miss the point. It was Lesourne's
goal-perhaps inherited from his teacher Maurice Allais - to put these operational tricks on a firm, general basis of economic theory. (Perhaps it was the
search for generality that struck me as particularly French?) In this marriage
of operations and research and economic theory, it was quite obvious who
was supposed to be the boss. It is clear from his most recent work that he has
remained in close touch with the frontiers of economic science as it applies
to the operations of business firms in the contemporary environment.
1 had forgotten another aspect of Jacques Lesourne's work until 1 began to
think of writing these few words in his honor. He very early acquired an
interest in applying economic theory to problems of localization and urban
planning. 1 do not know when this interest began and when - or if - it ended,
but it is already clearly expressed in two chapters of Le calcul économique
(1964). There one can see the same impulse at work, to ground different
Avant-propos
19
problems of applied welfare economics on a common general foundation.
This is especially interesting to me, because 1 too once became fascinated by
some questions of urban form, and wrote a few papers on that subject. But
my (American?) inclination was to find in each case a mathematical model,
any model, that would capture the intuition and allow it to be worked out.
Jacques Lesourne has had a distinguished career both inside and outside of
academic life. 1 do not know if one could have foretold that about the young
man 1 knew at MIT. 40 years ago. But it was perfectly clear then that he had
a clear and vigorous mind, and that Technique économique was in good
hands. 1 wish him well as he retires from CNAM.
DÉCISION,
PROSPECTIVE,
AUTO-ORGANISATION
INTRODUCTION
GÉNÉRALE
Jacques Lesourne est un homme de livres : ceux qui s'empilent aux quatre
coins de son bureau, qui garnissent sa bibliothèque et impressionnent le visiteur ; ceux aussi qui - plus secrètement - habitent son espace intérieur et
nourrissent sa pensée. Il y a enfin ceux qu'il a écrits et sont autant de jalons
pour saisir un parcours intellectuel hors du commun.
À l'origine, il y a le livre de Maurice Allais, À la recherche d'une discipline
économique, paru en 1943 et que Jacques Lesourne découvre durant ses
études à l'École polytechnique, vers 1950. Avec les travaux de Maurice
Allais, l'économie devient une discipline scientifique dans laquelle le langage mathématique permet d'analyser le fonctionnement des marchés et le
rôle des prix dans l'accomplissement du bien-être social. Quoi de plus séduisant pour un major de promotion, déjà animé par le désir d'oeuvrer pour le
progrès de la société, dans la France de la reconstruction !
À sa sortie de l'X, Jacques Lesoume décide de devenir économiste. Au cours
de ses études à l'École des mines, il consacre tout son temps à cette discipline. En 1953, il entre aux Charbonnages de France et en devient le chef du
service économique, poste qu'il occupera jusqu'en 1957. Durant l'année
1955/1956, il séjourne aux États-Unis comme boursier de la fondation
Rockefeller. Il y côtoie une dizaine de futurs prix Nobel et rédige son premier livre Technique économique et gestion industrielle, publié en 1959. On
peut dire que cet ouvrage a été le manuel de référence de l'économie d'entreprise de l'après-guerre. Il a inspiré les décisions d'une génération complète d'ingénieurs et de cadres qui ont découvert dans ce livre les principes
de l'actualisation, l'analyse des coûts et la recherche opérationnelle. En
1958, Jacques Lesourne fonde la Société de mathématiques appliquées
24
AUTO-ORGANISATIO
DÉCISION,
PROSPECTIVE,
(SMA) qui deviendra, l'année suivante la SEMA (Société d'économie et de
mathématiques appliquées). Cette entreprise de matière grise jouera un rôle
déterminant dans les domaines de la recherche opérationnelle, de l'économie appliquée, des sondages, de l'informatique et des études régionales.
Internationalisation oblige (déjà !), la SEMA donne naissance à Metra international qui est alors le premier groupe européen de conseil.
Un grand nombre d'études réalisées par la SEMA portent sur les décisions
publiques dans le secteur des transports, de l'énergie ou de l'aménagement
du territoire. À partir de cette expérience, Jacques Lesoume rédige Le calcul
économique (publié en 1964, repris en 1972 avec l'ajout « Théorie et applications »). Ce livre prolonge le précédent en traitant des décisions que les
entreprises publiques et les administrations doivent prendre du point de vue
de l'intérêt de la collectivité. À partir d'un cadre microéconomique général
fixant le rôle des agents économiques en présence, Jacques Lesourne développe une démarche de modélisation visant à fixer le périmètre pertinent
d'interactions et le niveau de décision adéquat. Ainsi, par exemple, il s'interroge à propos du problème du transfert des Halles de Paris, décidé en
1960. Faut-il un ou plusieurs marchés périphériques ? Si c'est Rungis et
Argenteuil, alors il se pourrait que ces deux marchés manifestent de fortes
instabilités liées au chevauchement de leurs zones d'influence. Et cela,
l'analyse marginaliste du calcul économique ne permet guère de l'apprécier.
On verra combien cette interrogation va nourrir la pensée systémique de
Jacques Lesourne sur l'interdépendance et l'instabilité dans les systèmes
complexes.
Dans Modèles de croissance des entreprises, paru en 1972, Jacques Lesourne
développe une théorie dynamique de l'entreprise dans laquelle est étudiée, à
l'aide de modèles microéconomiques, l'évolution optimale de l'entreprise,
conçue comme une organisation au sien de laquelle des processus d'accumulation de ressources (financières, techniques ou humaines) sont à
l'oeuvre. Les modèles examinés dans cet ouvrage font apparaître, dans divers
contextes, les enchaînements de décisions conduisant l'entreprise vers un
état de régime permanent. Au centre de l'analyse proposée, se trouve le
concept de surrégénération,
que Jacques Lesourne emprunte à la physique
nucléaire : la croissance de l'entreprise consomme des ressources mais cette
consommation est elle-même créatrice de ressources futures : l'investissement d'aujourd'hui accroît les capacités de financement - et donc les possibilités d'investissement de demain. À 25 ans de distance, tandis que la
glose stratégique peine toujours à concilier le caractère multidimensionnel
de l'entreprise (les fameuses « compétences » en amont, le « portefeuille
d'activités », en aval) et sa trajectoire d'évolution inexorablement isomorphe à un cycle de vie, l'ouvrage de Jacques Lesoume fait figure de précurseur.
En 1974, Jacques Lesoume devient professeur titulaire de la chaire d'économie et statistiques industrielles au Conservatoire national des arts et
métiers. Il quitte la présidence du groupe SEMA en 1976. Cette bifurcation
Introductiongénérale
25
professionnelle l'éloigne de la direction d'entreprise (à laquelle il reviendra
cependant de 1991 à 1994 en occupant les fonctions de directeur gérant du
journal Le Monde) ; elle accompagne une bifurcation intellectuelle qui
trouve dans l'analyse systémique à la fois l'expression d'une conviction et
le cadre d'une méthode scientifique. Jacques Lesourne est devenu convaincu
du rôle central de la notion de système dans la compréhension des phénomènes économiques et sociaux qui, à ses yeux, sont régis plus par l'interdépendance des structures et l'instabilité des groupes que par la rationalité des
acteurs. Il développe et illustre les principes de l'analyse systémique dans
Les systèmes du destin, publié en 1976. Ce texte synthétise et hiérarchise
l'évolution des systèmes économiques, historiques, voire biologiques.
Impressionnant exercice digne de l'Encyclopédie !
À partir de ce corpus systémique et évolutionniste, Jacques Lesourne mène
de front deux types de travaux, d'une part sur la prospective et, d'autre part,
sur l'auto-organisation.
,
En 1976, Jacques Lesourne se voit confier la direction du projet Interfuturs
de l'OCDE. Au milieu des années 70, le monde traverse une période d'incertitudes liées à la crise pétrolière, à la fin de la guerre du Viêt-nam et à
l'émergence du Japon. L'équilibre dipolaire installé à Yalta manifeste des
signes de rupture et des interrogations sur l'avenir apparaissent dans les pays
occidentaux. L'objectif du programme Interfuturs est de répondre à ces
interrogations à travers une analyse prospective globale du système mondial
et une évaluation de différents schémas possibles d'évolution à long terme.
Interfuturs - néologisme imaginé par Jacques Lesourne pour signifier qu'il
s'agit de comprendre la dynamique des interdépendances et non de prolonger des variables macroéconomiques - est le plus grand projet de prospective internationale jamais réalisé. Publié en 1979 sous le titre Face aux
futurs : pour une maîtrise du vraisemblable et une gestion de l'imprévisible
et largement traduit, le rapport final recueille un écho indéniable dans les
milieux dirigeants des plus grands pays (c'est à ce jour la publication de
l'OCDE qui aura connu le plus gros tirage). Jacques Lesourne en donne une
version à la fois libre et pédagogique, dans les Mille sentiers de l'avenir,
publié en 1981. Il nous annonce un monde multipolaire et interdépendant,
souffrant de graves insuffisances de contrôle mais demeurant à l'abri de
toute pénurie de ressources physiques ; oui, c'est bien ce monde-là que nous
avons vu se construire depuis vingt ans.
Les travaux de prospective qu'il réalise dans la lignée d'Interfuturs et ses
activités de consultant placent Jacques Lesourne à la frontière de la réflexion
et de l'action. Il occupe cette position charnière avec le désir de convaincre
les responsables, d'éduquer les « élites cultivées » et de conduire les uns et
les autres à s'affranchir de toute pensée convenue. C'est ainsi qu'il écrit plusieurs essais pour dénoncer les rigidités du système français, Éducation et
société demain (1988), Vérités et mensonges sur le chômage (1995), Le
modèle français : grandeur et décadence (1998).
26
AUTO-ORGANISATIO
DÉCISION,
PROSPECTIVE,
Avec l'auto-organisation,
c'est le théoricien de la microéconomie qui
(re)prend la plume. Jacques Lesoume cherche à dépasser le cadre restreint
de la rationalité pure qui fait de l'agent économique un être doué du pouvoir
de maximiser son intérêt individuel en toutes circonstances et de tout prévoir ; l'ambition de Jacques Lesourne est de reconstruire une théorie microéconomique qui, comme il l'écrit lui-même, fait « intervenir tout à la fois le
hasard, la nécessité et la volonté ». Cet élargissement de la discipline vise à
tenir compte du comportement adaptatif des acteurs, du hasard de leurs rencontres et de l'existence d'irréversibilités ; il s'agit de s'affranchir de ce
commissaire-priseur qui, dans la microéconomie classique, décide tout à la
place de tous, en examinant si des institutions de régulation des marchés ne
peuvent pas émerger spontanément. Économie de l'ordre et du désordre,
publié en 1991, est la première pierre de cette reconstruction ; ce livre est
essentiellement consacré à l'auto-organisation du marché de l'emploi.
Jacques Lesourne met ainsi en évidence une multiplicité d'états d'équilibre
dépendant de l'histoire du marché ; l'équilibre classique, qui égalise l'offre
et la demande de travail, s'interprète alors comme un cas particulier. C'est
son livre préféré, dit-il ; peut-être parce qu'il y poursuit cette « recherche
d'une discipline économique » entrevue cinquante ans plus tôt...
Jacques Lesourne est un homme de livres. Il fallait donc un livre pour lui
témoigner reconnaissance et amitié. Ce livre de Mélanges rassemble un
« désordre » de textes variés dans le style, le contenu, l'origine des auteurs.
Ce désordre atteste en lui-même de la variété du parcours intellectuel de
Jacques Lesourne, de la diversité des personnes avec lesquelles il a travaillé. Mais, en bonne logique lesournienne, l'ordre naît du désordre. Aussi
les textes se regroupent-ils naturellement .selon les trois thèmes qui, comme
nous l'avons vu, structurent 1'oeuvre scientifique de Jacques Lesourne : la
décision, la prospective et l'auto-organisation.
Jacques Thépot
25 juillet 1999
Partie 1
DÉCISION
Introduction
'
1
DÉCISION
Jacques Lesourne a consacré d'importants travaux à la décision, notamment
dans la première partie de sa carrière ; il s'est toujours interrogé sur les
conditions dans lesquelles les décisions sont prises au sein des organisations.
Gérard Worms témoigne de l'influence de Jacques Lesourne et de ses travaux sur la formation des cadres dirigeants. Il souligne combien la démarche
scientifique de Jacques Lesourne est un exemple à suivre dans la prise de
décision, pour concilier la rigueur de la modélisation et la cohérence avec le
réel. Rigueur et cohérence : telles sont les qualités que l'on retrouve dans le
voyage rétrospectif à travers l'oeuvre de Jacques Lesourne auquel invite
Raymond Leban.
Robert Lattès examine les changements que l'avènement de la société de
l'information apporte dans la préparation et l'exécution des décisions. Cette
société de l'information est liée au développement des nouvelles technologies ; Alexis Jacquemin montre ce qu'elle implique pour les entreprises de
l'espace européen notamment en ce qui concerne les formes d'organisation.
'
Bernard Roy recentre le débat sur la question clé : la décision n'est rien sans
ce processus intellectuel qui la fait émerger ; l'aide à la décision est cette
démarche par laquelle se construit pas à pas la légitimité de la décision au
sein de l'organisation. Nicolas Curien présente deux applications du calcul
économique à des problèmes de management militaire, réalisées en commun
avec Jacques Lesourne. C'est un cas d'école, puisque, dans l'armée, le processus de légitimation emprunte la voie hiérarchique. Il arrive cependant que
les ministres changent. Autre cas d'école dans lequel, cette fois-ci, la légitimité procède du marché : celui de l'évaluation des options financières. Alain
30
DÉCISION
Bensoussan montre que, dans le cas d'un marché complet, la formule de
Black et Scholes définit sans ambiguïté le juste prix d'un produit dérivé ; il
n'en est plus de même en présence de coûts de transactions et autres imperfections.
Jean-Pierre Dupuy porte le débat au coeur même de la théorie de la décision
à propos des paradoxes qui entourent la question de la « stratégie dominante », celle qui doit être adoptée par tout individu rationnel, quoi qu'il
advienne. Existe-il un fondement rationnel à la confiance ? s'interroge JeanPierre Dupuy qui considère que la confiance permet d'échapper à la logique
de la stratégie dominante et d'assurer le passage de l'intention à l'acte. Ce
passage est au coeur de l'analyse proposée par Anne Marchais-Roubelat qui
examine le projet Concorde en distinguant processus de décision et d'action
et les effets d'irréversibilités résultant à la fois des uns et des autres. Jacques
Thépot se pose la question du tiers dans la décision ; c'est le tiers incarné
dans toute institution chargée de vérifier les contrats noués entre acteurs qui
peut garantir le passage de l'intention à l'acte.
En amont de toute décision, se trouve la vision dont tout leader politique ou
économique dispose pour analyser les éléments qui fondent son action.
Heiner Müller-Merbach plaide pour la formation d'esprits généralistes
capables de comprendre le tout autant que les parties et d'en avoir une perception systémique. Michel Crozier analyse le problème de la décision, tel
qu'il s'est posé depuis un siècle dans les organisations. La décision est
affaire de volonté jusqu'à la Libération, puis affaire de calcul dans les
années 60. Une approche transdisciplinaire s'impose aujourd'hui pour
prendre en compte les conditions humaines qui prévalent lorsqu'il s'agit de
passer à l'action collective.
1.
2.
3.
4.
5.
6.
Gérard Worms
Raymond Leban
Robert Lattes
Alexis Jacquemin
Bernard Roy
Nicolas Curien
7.
8.
9.
10.
11.
12.
Alain Bensoussan
Jean-Pierre Dupuy
Anne Marchais-Roubelat
Jacques Thépot
Heiner Müller-Merbach
Michel Crozier
Gérard
Worms
PERSONNELLES
QUELQUES
REMARQUES
SURL'APPORT JACQUES
DE
LESOURNE
AUMONDE
ÉCONOMIQUE
Il m'a été proposé de contribuer au présent ouvrage de Mélanges, bien que
mes activités actuelles m'aient progressivement éloigné de la théorie économique. Les organisateurs du volume m'ayant précisé que cet éloignement ne
disqualifiait pas pour autant mon témoignage, c'est bien volontiers que j'ai
accepté de l'apporter.
Je suis en effet de ceux qui se sont éveillés, en 1958/59, à la pensée économique et à la théorie de la décision avec deux ouvrages magistraux de la
célèbre collection rouge d'Henri Hierche chez Dunod : d'abord bien sûr
Technique économique et gestion industrielle de Jacques Lesourne (1958),
puis, un an plus tard le Choix des investissements de Pierre Massé (1959).
Quarante ans plus tard, mes jeunes collègues financiers ou industriels, lorsqu'ils manient les taux de rentabilité interne ou les discounted cashflow
values, désormais intériorisés comme instruments de base d'une étude d'investissement ou d'acquisition, mesurent sans doute mal, tant leur formation
a baigné dans ces concepts, l'impression d'éblouissante clarté que pouvait
ressentir le jeune polytechnicien de 22 ou 23 ans, à peine sorti des généralités du cours d'économie de Divisia, en découvrant dans ces deux livres le
calcul économique et sa portée opératoire.
Mais là n'est pas le plus surprenant. D'autres outils de la finance ou de la
gestion modernes ont eux aussi connu l'évolution, somme toute naturelle, de
l'ère des pionniers à celle de l'usage généralisé. Plus exceptionnel à mes
32
DÉCISION
yeux est le fait que, relus aujourd'hui, et à l'exception de quelques chapitres
de recherche opérationnelle rendus partiellement caducs par le progrès des
ordinateurs, les percées conceptuelles profondes opérées par ces deux livres
n'apparaissent guère dépassées ou surpassées.
Le terme de profond vient de venir spontanément sous ma plume à propos
du premier grand traité de Jacques Lesourne. Et c'est bien, si je ne devais
retenir qu'un qualificatif à propos de lui, celui que je choisirais : Jacques
Lesourne est un homme d'une extrême profondeur de vue.
D'autres, nombreux, ont pensé et écrit sur des modèles de croissance, sur
l'axiomatique de la décision, sur les systèmes, sur les scénarios de l'avenir.
Mais nul, à mes yeux, ne l'a fait avec autant de cohérence et d'acuité lorsqu'il s'est agi (et ne s'agit-il pas presque toujours de cela ?) d'intégrer des
facteurs interdépendants : le court et le long terme, le probable et le certain,
les intérêts privés et la chose publique, le hasard et la nécessité ?
,
Je ne suis pas un fanatique des modèles ; j'ai toujours déploré, par exemple,
que le département d'économie de l'École polytechnique fasse la part trop
belle aux économètres. Je regrette aussi que la théorie de l'entreprise ou
celle de la décision restent écartelées entre les pseudo-calculs des uns (souvent ceux qui, ayant découvert les mathématiques sur le tard, en sont devenus prisonniers) et le fatras jargonnesque des docteurs ès stratégie. Jacques
Lesourne, comme Pierre Massé, ou Marcel Boiteux, est l'un des rares penseurs qui aient totalement surmonté cette dichotomie, en modélisant mieux
que d'autres, mais sans jamais quitter des yeux l'économie réelle.
Et tel est bien le véritable enjeu de la décision : celle qui, sans renoncer à
recourir aux approches rationnelles les plus exigeantes, au prix de calculs
parfois savants ou de simulations que d'aucuns jugeront théoriques, retrouve
ensuite le chemin du réel avec ses imperfections, ses bons ou mauvais
hasards, et avec l'infinie diversité de la nature humaine.
Tel intuitif raisonne sans le savoir en optimisant son minimax regret, tel
autre en maximisant sa plus-value locale alors qu'elle ne coïncide que partiellement avec l'intérêt de l'entreprise ou de la collectivité qu'il croit servir.
Mais ceux qui sauront intégrer à leur action les effets de tels comportements
somme toute naturels sont ceux qui en auront assimilé les explications sousjacentes grâce aux enseignements de Jacques Lesoume et de quelques autres
maîtres.
Tel est bien d'ailleurs le propos de ceux qui utilisent Jacques Lesourne
comme consultant, qu'il s'agisse de l'OCDE ou de grands dirigeants industriels ; ils savent que la compétence théorique en matière de micro ou de
macroéconomie, lorsqu'elle est devenue à ce point partie intégrante de soi,
peut enrichir la réflexion concrète et à visée opératoire, là où la modélisation
mal digérée, mal surmontée, ne ferait que des ravages.
Dit encore autrement, l'apport de Jacques Lesourne à la théorie et/ou à la
pratique de la décision (on vient de voir que pour lui les deux aspects sont
indissociables) me paraît pouvoir être résumé ainsi :
Quelquesremarquespersonnellessur l'apportde J. Lesourne
33
L'introduction du calcul économique dans la vie industrielle, sans complexes et sans complaisance, en tant qu'instrument de premier rang dans
les choix d'investissement et le contrôle de la gestion. La discounted
cashflow value était déjà un concept financier, mais l'inclusion de ce type
de notions dans une vision d'ensemble de la théorie économique est une
percée majeure. Les ingénieurs économistes français, dams le sillage de
Jacques Lesourne, ont incarné cette percée, tant au niveau de l'entreprise
qu'à celui des investissements publics. Ceux qui ont ensuite enseigné ce
calcul économique (comme je l'ai fait pendant près de 20 ans à HEC puis
à l'X) recueillent aujourd'hui de nombreux témoignages de praticiens sur
ce que cette imprégnation leur a apporté.
Le recours, là aussi sans complexes ni complaisance, à une explicitation
attentive des hypothèses d'environnement macro ou microéconomique
dans lesquelles doit se mouvoir le processus de décision. Le succès de la
SEMA, fondé par Jacques Lesourne et Jean Mothes, a démontré qu'une
telle approche rigoureuse pouvait engendrer un développement spectaculaire du métier de consultant, par l'inclusion d'approches concrètes des
décisions à prendre dans une axiomatique d'ensemble.
Le maniement à son juste niveau (ni pour sa beauté formelle, ni pour
« épater le bourgeois ») de l'outil mathématique, lorsqu'il est réellement
utile à l'élucidation des enjeux et des problèmes à résoudre.
Enfin et peut-être surtout, la recherche systématique de la cohérence, gage
d'efficacité de nos organisations. L'usage d'une approche systémique,
complétant l'indispensable intuition, est devenu un ingrédient majeur de
tout processus décisionnel complexe.
On aura compris qu'à mes yeux la science économique, comme l'armature
intellectuelle d'un aussi grand nombre de nos dirigeants, ne seraient pas,
sans Jacques Lesoume, tout à fait ce qu'elles sont.
Raymond
Leban
.
DEJACQUES LESOURNE
L1CEUVRE
:
DERICHESSE
COHÉRENTE
EXEMPLE
J'ai rencontré Jacques Lesoume en 1975 lorsque, devant succéder à Jean
Fourastié au Conservatoire national des arts et métiers, il avait réuni pour la
première fois l'équipe que ce dernier lui confiait. J'étais jeune assistant ; je
terminais une thèse de mathématiques sur les apports de la statistique bayésienne à l'économétrie ! Plongé dans un groupe surtout féru d'observation
des prix et plutôt méfiant à l'égard des modèles, je n'avais pas beaucoup eu
l'occasion de m'expliquer sur la nature de ce sujet, j'en conviens très pointu.
Lorsque, dans la séquence des présentations, est arrivé mon tour, j'ai parlé
en m'excusant presque d'être un canard si noir. Très vite, et avec cet enthousiasme qu'il montre toujours lorsqu'il s'agit d'échanger des idées, Jacques
Lesoume m'a lancé un « je vois très bien quel est l'objet de vos recherches », puis il a fait quelques remarques sur le concept de probabilité subjective et la controverse dont il est l'objet, pour finir en m'expliquant
comment... il l'utilisait dans les études réalisées à la SEMA, la célébrissime
société de « conseil scientifique » qu'il avait créée et dirigeait.
Tel est en effet Jacques Lesourne : un homme à la culture à la fois encyclopédique et profonde, ayant le goût de la théorie et en même temps le souci
d'en pousser l'application au plus loin. Deux associations de qualités qui
sont à l'origine d'une imposante oeuvre autant par sa cohérence que par sa
richesse.
Les travaux de Jacques Lesoume couvrent incontestablement un champ
impressionnant : ils touchent au calcul économique, à la stratégie d'entre-
:
de richessecohérente
L'oeuvrede JacquesLesourne exemple
35
prise, à la prospective, à la théorie économique comme à la sociologie et à
la science politique ; ils traitent des questions de croissance, d'emploi et de
développement technologique mais aussi de l'éducation, de la construction
européenne ou du destin de nos sociétés. Certains, qui portent par exemple
sur l'auto-organisation des marchés ou les politiques de croissance de l'entreprise, ont une vocation clairement théorique. D'autres, comme le magnifique ouvrage Les systèmes du destin, sont des essais. D'autres encore, tels
ses « scénarios pour l'Union européenne », se veulent à portée plus pratique.
Tous laissent transparaître une posture profondément scientifique, traduisent
le souci - ô combien opportun - d'une approche dynamique des phénomènes et reflètent une pensée systémique empreinte à la fois d'angoisse et
d'optimisme, c'est-à-dire profondément humaine.
>.
L'attitude est scientifique parce qu'elle bannit « la maladie de la table rase
à
la
théorie
traditionnelle
de
Lesourne
s'intéresse
l'utilité,
Quand Jacques
qui permet de décrire le comportement d'un individu ayant à effectuer des
choix sous contrainte (sélection d'un panier de consommation dans la limite
de son revenu par exemple), c'est pour l'enrichir d'apports d'autres sciences
sociales comme la psychologie et la rapprocher des pratiques de marketing :
au lieu d'exprimer globalement la satisfaction de l'individu par un nombre,
il propose par exemple de la mesurer au regard de chacune des motivations
(sécurité, confort, prestige, puissance, évasion, narcissisme... ) qui orientent
les comportements. Lorsque Jacques Lesourne se plonge dans la théorie de
l'équilibre général des marchés, c'est pour l'enrichir en associant aux états
stables des cheminements possibles résultant de jeux d'acteurs aux résultats
aléatoires, certes simples mais explicités et autrement plus réalistes que le
schéma du commissaire priseur Walrasien.
'
L'attitude est scientifique aussi car elle reconnaît la nécessité, pour améliorer les méthodes, d'effectuer des recherches appliquées se livrant certes à
une critique constructive des pratiques existantes mais s'efforçant aussi
d'utiliser les acquis de la science. Après avoir réalisé un exercice de prospective sans précédent sur le devenir des grandes zones du monde (Interfuturs) et décrit dans la foulée Les mille sentiers de l'avenir, Jacques
Lesourne note ainsi, en s'en inquiétant et proposant des pistes de réflexion,
les déficiences des outils utilisés. A propos notamment de l'analyse structurelle, employée pour décrire de manière systématique et en groupe le système objet de l'étude, il dit avec justesse : la méthode « introduit dans le
champ de la réflexion des éléments qui, sans elle, seraient facilement omis
et oblige à s'interroger sur les relations entre eux ». Mais, poursuit-il avec
autant de pertinence, « force est de reconnaître [son] extrême fragilité théorique », puisqu'elle considère toutes les influences directes [d'une variable
X sur une variable Y] comme équivalentes et - ajouterions-nous - ne dit rien
sur le libellé des variables, autorisant au cours même de l'étude des glisse(1) « Crise de l'économieet des sciencessociales», Revueéconomique,vol. XXVI n° 6,
novembre1975.
36
DÉCISION
ments de sens et donc des déformations de la matrice des relations tout à fait
coupables
Animés par un esprit de rigueur constructif, les travaux de Jacques Lesourne
se préoccupent aussi avant tout de dynamique, car là lui paraissent être les
insuffisances les plus criantes et les sources de progrès les plus substantielles. « Depuis des années, écrit-il en 1985, je suis hanté par cette constatation : alors que tout s'inscrit dans la durée, le noyau dur de la théorie
économique ignore l'histoire [au sens des processus par lesquels le temps
transforme en un passé unique la multiplicité des avenirs uniques]. »
_
-
Dans un premier effort pour combler ce vide, Jacques Lesourne s'est intéressé à la théorie de l'entreprise en modélisant le comportement de celle-ci
dans le langage du « contrôle optimal » (2). Cette technique d'optimisation
dynamique suppose que l'on définisse à partir des résultats de l'activité un
critère de performance sur une période de temps (création de valeur pour
l'actionnaire sur n années par exemple), que l'on relie cette performance à
des déterminants exogènes (croissance du marché suivi, évolution prévue
des prix des produits intermédiaires...) ainsi qu'à des variables d'action
(recrutement, licenciement, investissement en capital, emprunt...), en spécifiant pour finir les contraintes limitant les choix (rareté de certains types de
main-d'oeuvre, borne au taux d'endettement...). Elle fournit alors le ou les
enchaînements de décisions dans le temps qui conduisent à la meilleure performance. Cette technique de modélisation a permis par exemple à l'auteur
de préciser utilement comment combiner autofinancement et endettement et
gérer la distribution de dividendes au cours de la croissance de l'activité,
selon l'état du marché financier. Nous-mêmes avons montré comment, lorsqu'elle anticipait des fluctuations de la demande du produit dans un contexte
de coûts d'ajustement de la main d'oeuvre élevés, l'entreprise avait intérêt à
mener des politiques de précaution (arrêt précoce du recrutement dans la
phase ascendante du cycle conjoncturel, et reprise tardive ou même inexistante des recrutements lors du redémarrage), les politiques étant liées de
manière claire aux niveaux relatifs des coûts concernés et contribuant à
amplifier les stop and go prévus. Grâce toujours à une modélisation en
termes de contrôle optimal, nous avons pu aussi montrer comment, selon
l'intensité de la concurrence sur les prix, des progrès de productivité espérés
et de la compensation salariale accordée aux employés, l'entreprise était tentée de réagir à une réduction du temps légal de travail en termes d'emploi
dans la durée (c'est-à-dire non seulement en ajustement presque mécanique
lors du choc initial mais aussi dans la suite, compte tenu de l'impact de la
réduction sur son niveau de compétitivité
(1) « Plaidoyerpour une rechercheen prospective», Futuribles,novembre1989.
(2) Modèlesde croissancede l'entreprise,Paris,Dunod, 1972.
(3) R. Leban, La politique de l'emploi dans l'entreprise, Paris, Economica,1986.Alain
Bensoussanet JacquesThépotont aussicontribuéà ce travailsur l'entreprise,l'un à propos de l'étude des politiquesfinancièresen environnementaléatoire,l'autre concernant
l'analysede jeux dynamiquesentre duopoleurs.
L'oeuvrede JacquesLesourne exemple
:
de richessecohérente
37
Dans une tentative certainement plus ambitieuse et avec l'équipe du laboratoire d'économétrie du CNAM, Jacques Lesourne s'est attaqué plus tard aux
« processus dynamiques de la microéconomie en cherchant à comprendre
« les phénomènes d'auto-organisation qui [en] résultent (1). >. Ila bien entendu
appliqué dans ce champ de recherche la démarche d'enrichissement des
théories évoquée plus haut. S'intéressant par exemple au marché du travail,
il a supposé que les individus recherchant un poste et les entreprises en
offrant étaient caractérisés respectivement par des exigences de salaire minimum et des propositions maximales de rémunération, se rencontraient de
manière aléatoire et adaptaient leurs prétentions en fonction du résultat des
confrontations. Ces hypothèses de fonctionnement étant posées, il a d'abord
montré que, si les acteurs avaient à chaque passage accès (avec une probabilité non nulle) à toutes les opportunités, alors, quelle que soit la situation initiale, le marché convergeait en un temps fini vers l'état stable que
décrit la théorie statique classique de l'équilibre (niveau de salaire unique
correspondant à un niveau d'emploi N égalisant offre et demande, emploi
des N individus les moins exigeants par les N entreprises les plus généreuses). Dit autrement, sur la base d'un schéma d'interaction des agents
simple mais aux fondements réalistes, parce qu'incorporant l'aléatoire et
supposant des comportements adaptatifs caractéristiques de la rationalité
limitée, Jacques Lesourne a montré qu'il existait une dynamique endogène
de cheminement du marché vers l'état stable de la théorie, dès lors que l'information restait extensive et sans coût à chaque stade de la vie de ce marcomme par
ché. Puis il a introduit dans son modèle des irréversibilités,
le
fait
les
accessibles
à
un
individu
à
exemple
que
postes
chaque passage sur
le marché dépendent des emplois occupés précédemment (effet de spécialisation) ou du lieu de résidence (effet de localisation géographique). Il a alors
montré que le marché pouvait évoluer vers une variété d'états stables et que
l'état atteint dépendait de la situation de départ et des événements aléatoires
jalonnant la recherche, bref de l'histoire du marché, cette histoire pouvant
avoir une fin plus ou moins heureuse. Avançant encore dans la voie du réalisme, Jacques Lesourne a modélisé l'idée d'élévation aléatoire de la qualification des individus selon les entreprises rencontrées et servies au gré des
passages successifs sur le marché, dès lors que ces dernières diffèrent par
leurs arbitrages en matière de technologies et donc de niveaux de compétences des emplois offerts. Il a alors montré qu'un marché spécifique pour
les travailleurs qualifiés émergeait presque sûrement, sa taille dépendant de
l'histoire. Dit autrement, il a décrit avec un formalisme rigoureux permettant
la réfutation, un marché « autopoïétique », c'est-à-dire capable de s'autoorganiser, de se produire lui-même, en engendrant des institutions.
Qui dit auto-organisation dit évidemment pensée systémique, toile de fond
intellectuelle de toute l'aeuvre.
(1) « Le marchéet l'auto-organisation», Économieappliquée,tome XXXVII,n° 3/4, 1985.
L'économiede l'ordre et du désordre,Paris, Dunod,1991.
38
DÉCISION
La conviction de la puissance de cette approche systémique des problèmes ?
qui a le souci de les insérer dans un contexte suffisamment vaste et d'explorer les causalités circulaires en concentrant l'attention sur les relations entre
les parties du système constitué pour leur étude, s'est forgée très tôt chez
Jacques Lesoume, à l'occasion, comme il le dit lui-même, de la lecture du
Cybernetics de Wiener puis du Models of Man de Simon, quand il achevait à
>.
la plus austère par Maurice Allais
peine d'être formé à la microéconomie
alors même qu'il apparaissait
Son intérêt précoce pour la prospective
comme le champion du calcul économique est donc a posteriori peu surprenant.
-
Chemin intellectuel faisant, à la lumière de son expérience dans la haute
et le conseil aux entreprises, Jacques Lesourne a aussi acquis
administration
le sentiment que, lorsqu'il s'agissait de construire l'avenir, « le problème
futures mais aussi de
n'était pas seulement de comparer des trajectoires
concevoir des organisations sociales capables de survivre dans des environ» (2). Le langage et la théorie des systèmes, à cause
nements défavorables
lui sont apparus comme des
notamment de leur caractère transdisciplinaire,
très efficaces pour formuler ce double problème
instruments potentiellement
Dans les Systèmes du destin (3),
en dehors de tout recours à la métaphysique.
oeuvre pour moi la plus marquante, Jacques Lesourne s'est alors efforcé d'atteindre deux objectifs. Le premier était « de comprendre comment - technipasser des systèmes les plus simples,
quement - on pouvait progressivement
transformant
des entrées en sorties, à des systèmes cybernétiques
susceptibles de s'autoréguler
grâce à des rétroactions, puis à des systèmes à appren[puis
tissage aptes à modifier leurs relations en tirant parti de l'expérience,
encore] à des systèmes auto-organisateurs
capables de se donner des buts,
d'inventer et créer, [pour aboutir] enfin aux sociétés de systèmes, ces ensementre eux ». Le second consisbles de systèmes complexes communiquant
à l'étude de l'individu,
de l'évolution
tait à appliquer cette problématique
entre nations. De la
et
des
relations
des systèmes politiques nationaux
à
deux
facettes.
Satisfaction
réflexion est sorti un message
optimiste d'une
ouvert
comment un système
pouvait
auto-organisateur
part d'appréhender
naître du désordre puis survivre dans un environnement
changeant, devenant
ainsi porteur d'un certain ordre, grâce à des adaptations de son organisation
des
par essais aléatoires. Inquiétude d'autre part de constater l'incapacité
«
à
maîtriser
les
construction
»,
hommes, aux trois échelles citées et
par
l'intermédiaire
ensembles de systèmes sans cesse complexifiés par
desquels
leur disparition, c'est à dire
ils agissent, avec comme perspective possible...
à partir du
aléatoire d'organisation
celle de l'humanité. L'idée d'émergence
l'avons
vu.
Celle
de survie
nous
désordre a été creusée en microéconomie,
a
a
été
illustrée
mouvant
à
dans un environnement
grâce
l'adaptabilité
(1) « From Markets Dynamics to Evolutionary Economics », Journal of Evolutionary
Economics, vol. 1, 1991.
(2) Op. cit.
(3) Paris, Dalloz, 1976.
:
de richessecohérente
L'oeuvrede JacquesLesourne exemple
39
contrario, par exemple, dans une analyse de la crise du modèle français de
société
Celle de « l'insuffisance de contrôle - potentiellement mortelle l'humanité
des systèmes de son destin a été concrétisée dans les Mille
par
sentiers de l'avenir à travers l'énoncé de quatre peurs : le maintien d'un taux
de fécondité élevé dans le tiers-monde, une rareté croissante des ressources
primaires associée à une impasse environnementale, un élargissement explosif du fossé entre pays riches et pays pauvres et une poursuite de la confrontation entre l'Est et l'Ouest maintenant présent le spectre d'une troisième
Au pessimisme du diagnostic, Jacques Lesourne a
guerre mondiale
associé
à
chaque fois des pistes d'action porteuses d'espoir, des
cependant
«
les
éléments les plus divers des systèmes les plus diffétouchant
pistes
rents » en « une politique des mille sentiers » seule possible à ses yeux pour
lutter contre le défaut congénital de contrôle.
Attitude scientifique, souci de comprendre et favoriser le mouvement, vision
systémique équilibrée du monde. Tels sont donc les qualificatifs qu'un
voyage rétrospectif à travers l'oeuvre de Jacques Lesourne me donne envie
de lui attribuer. Des qualificatifs qui s'appliquent au travail de recherche
mais aussi aux autres actions que j'ai pu connaître : enseignement aux débutants comme aux spécialistes, « éducation profonde » des jeunes esprits celle dont Paul Valéry disait qu'elle consiste à défaire l'éducation première que ces esprits aient entamé leur parcours en explorant les sciences
humaines ou les sciences dites exactes. Des qualificatifs qui, lorsque l'on
saura que j'ai passé plus de vingt ans à travailler auprès de lui, laissent imaginer l'influence que Jacques Lesourne a pu avoir sur mon itinéraire intellectuel et ce que je lui dois.
et décadence,Paris,OdileJacob, 1998.
(1) Le modèle français grandeur
:
1.
(2) Paris, Seghers,1981.
Robert
,
Lattès
,
LADECISION
A L'AGE
. DELASOCIÉTÉ
D'INFORMATION
Vers 1965, à l'occasion d'une conférence sur l'aide à la décision, Jacques
Lesoume évoquait comme exemples un programme de développement pour
un pays, l'établissement d'un programme d'équipement d'une ville, la
des travaux de
gestion des stocks dans une usine, l'ordonnancement
construction d'un barrage, l'étude de marché d'un produit alimentaire quelconque. « L'unité de ces problèmes, ajoutait-il, réside dans le fait qu'il s'agit
dans tous les cas de problèmes de politique, qui pour être résolus amènent
les responsables à effectuer un choix entre plusieurs décisions possibles.
Etant donné le nombre et la complexité des données à prendre en compte
pour évaluer les incidences de chaque solution envisagée ou envisageable,
on voit le rôle des experts : il va consister, à partir d'informations recueillies
puis élaborées sous forme de données opérationnelles, à définir des politiques, à les comparer en mesurant les conséquences de chacune d'elles, de
telle sorte que la décision finale puisse être prise en connaissance de cause
et compte tenu des risques à encourir. »
Faut-il ajouter qu'environ deux ans avant cette conférence, un éditeur
opiniâtre et Lesourne avaient arraché aux auteurs potentiels et publié un
livre collectif sur les Techniques modernes de préparation des décisions,
dans lequel on trouvait en fait les divers spécialistes un peu pionniers qui
commençaient à assurer le décollage et la notoriété de la SEMA.
La décision à l'âge de la société d'information
41
1. RETOUR
SURLEPASSÉ
À une trentaine d'années d'écart, mesure-t-on combien choses et contextes
ont changé ? Éventail, considérablement
élargi et diversifié, des préoccupations ; facilité et rapidité pour accéder aux informations,
pour les recueillir,
bénéficier d'une richesse et d'une précision alors rarement possibles ; champ
Et plus
et variété des problèmes abordés ainsi que leurs modes d'approche.
des modalités pour discuter et décider
que tout peut-être le bouleversement
à plusieurs en n'étant pas nécessairement
en un même lieu : on y reviendra.
On ne s'intéressait on ne pouvait s'intéresser qu'à certains types de
du territoire (pont de
nationaux, régionaux et d'aménagement
problèmes :
Tancarville ou liaison avec une île), ou encore de politique nationale, comme
celle de l'énergie.
Les coûts et moyens à mettre en oeuvre pour des études homologues étaient
rarement à la mesure des entreprises, sauf peut-être des plus grandes et pour
des problèmes très spécifiques en raison des enjeux financiers : ordonnancement et gestion de la production ou encore, dans l'industrie
pétrolière,
de l'extraction,
d'ensemble
du transport, du raffinage et de
programmation
la distribution.
Déjà coûteux, ce pouvait être assez long et mobilisait des effectifs importants et diversifiés. Les délais étaient parfois considérables,
notamment pour
réunir et extraire les informations,
en particulier chiffrées, voulues. Sauf
dans des cas très spécifiques évoqués ci-dessus, ce n'était que rarement dans
les possibilités, donc les objectifs, d'une entreprise.
]
j
i
)
j
/
;
)
)
1
/
/
S
En raison des multiples contraintes volume des équipes, internes ou non,
il fallait recourir avec ingéniosité à des
coûts, délais, méthodes utilisables modèles simplifiés.
On devait souvent se limiter à quelques variantes du
modèle, ou même se contenter d'analyser quelques cas à partir de variations
sur un cas considéré comme central, de référence.
Ainsi donc pour trop de problèmes qu'il s'agisse de projets, ou de fonctionnement
à « améliorer », de structures et cadres existants méthodes,
délais, moyens humains, techniques et financiers limitaient les ambitions,
avec, il ne faut cesser de le rappeler, tous les problèmes soulevés par la
collecte des données.
Dans l'entreprise,
on commençait, depuis la fin des années cinquante, à découvrir les possibilités
et les vertus de l'informatique
pour de simples
Deux ou
problèmes d'exploitation :
paie, facturation, parfois comptabilité.
trois ans plus tard, de premières
avancées réelles, méthodologiques
et
ciblées - en programmes d'ordonnancement
ou en programmation
linéaire allaient, outre leur utilité propre, ouvrir des horizons nouveaux à l'entreprise.
42
DÉCISION
Certes depuis près de dix ans de puissants (!), pour l'époque, ordinateurs
permettaient, on le savait, de considérables progrès, mais essentiellement
dans les domaines très à part militaires et nucléaires.
Les besoins d'aide à la décision commençaient néanmoins à se faire sentir au-delà de simples tâches de gestion - dans les entreprises : à cause de la
taille, croissante, de certaines d'entre elles ; du fait de la dispersion et de la
diversité des implantations d'une entreprise donnée ; pour une meilleure
gestion d'ensemble d'une entreprise : approvisionnements, unités diverses
de production, stockages (et leurs localisations), livraisons, actions de
ventes, etc.
Parler d'optimisation n'aurait guère eu de sens : on recherchait une solution
de base, réaliste, prise comme référence pour des améliorations par approximations successives.
Notons en outre qu'on n'était que rarement prêt à consacrer les moyens
voulus - humains et financiers - à de telles approches « stratégiques »,
même si l'on commençait à savoir ce qui se faisait ici ou là, aux États-Unis
notamment, avec précisément ces ordinateurs qui semblaient commencer à
quitter les lieux réservés du militaire, du nucléaire et du spatial avec le
lancement américain du programme Apollo.
2. PROGRESSIVEMENT,
LEGRAND
CHAMBARDEMENT
Projetons-nous alors de trente à quarante ans plus tard.
Qu'est-ce qui a radicalement changé ? Souvent comme en une éternelle
relation de la poule et de l'aeuf.
En tête les moyens, leurs possibilités et leurs conditions d'utilisation.
L'informatique avec ses deux volets du hardware et du software. Le hard
sans oublier tous les équipements de visualisation, ni le fax dont on ne
rappellera jamais assez les multiples capacités (que n'a pas, selon moi,
l'E-mail). Sans oublier non plus les nouvelles formes de télécommunications et de transmissions avec, en particulier, la possibilité de travailler, de
débattre en temps réel et à plusieurs à partir de localisations disséminées ; de
fixer, avec les responsables d'actions, le cadre de ces actions. Et tout cela
avec, à la fois, vitesse et simplicité de traitement. En ayant abandonné des
modèles plus ou moins simplifiés au profit d'un reflet de plus en plus fidèle
de la réalité parce qu'on peut - si nécessaire - opérer par balayage, certes
intelligent, mais assez systématique de l'espace des variables et des paramètres ; disons par simulation exhaustive, la simplicité d'exécution n'empêchant pas la profondeur et la finesse d'analyse voulues et une complexité
abordable croissante. Avec la nécessité de surveiller un nombre croissant de
La décision à l'âge de la société d'information
43
facteurs, de pouvoir s'adapter à des évolutions rapides et à d'inévitables
toutes choses inhérentes, par exemple, à l'image d'une entreincertitudes,
mouvants, en foncprise aux multiples implantations et aux environnements
tion de ses activités et des demandes qui lui sont adressées ; tout ou presque
- au besoin
est devenu possible.
par segmentation Cependant, élément
l'accroissement
des
crucial, qu'on assistait à trois évolutions prodigieuses :
la chute des prix et la simplicité d'emploi.
performances,
Réflexion décisions actions : les enchaînements
admissibles ont totalement changé, comme le contexte d'un nombre croissant de décisions - dans
l'espace et dans le temps -, en particulier quels que soient la dispersion ou
la dispersabilité
envisageable, et bien entendu, le suivi des décisions. Avec,
le
parfois,
risque - si l'on n'y prend garde - de répondre plus rapidement à
une mauvaise question ou à une question qui ne se posait pas !
On est devenu de plus en plus fréquemment
capable de tenir compte, à la
fois du caractère évolutif des choses et de la nature, en résultant, des décisions ; et cela aux divers niveaux d'actions ayant chacun ses spécificités, ses
de la trésorerie et
exigences et ses responsables (de branches, commerciaux,
du financement,
etc.).
N'ont cessé de la sorte de s'accroître les dimension, richesse et raffinements
des cadres qu'on veut prendre en compte, des types de problèmes auxquels
on peut, et on est de plus en plus contraint de s'intéresser.
Sans oublier, on va y revenir,
données nécessaires.
les problèmes
posés par les informations
et
Constatons
au passage que l'ensemble
des besoins et des moyens sousjacents qu'ils impliquent coûtent cher en personnels et équipements et tirent
vers le haut les tailles critiques des entreprises
ou groupes aptes à les
supporter ; nécessité susceptible, parmi d'autres, de pousser à la mondialisation.
3. ACCÉDER
AUXINFORMATIONS
ETDONNÉES
NÉCESSAIRES
'
-
De toute façon se pose le problème des informations
et données : avoir à
et
à
un
volume
et données
croissant
d'informations
disposition
jour
- internes et externes à l'entreprise dans le cas d'une entreprise plus généralement une mémoire auxiliaire
(à la fois interne et externe à l'entreprise)
adaptée à un environnement
spécifique donné. Ce qui impose de la constide
la
faire
évoluer
en
fonction
des évolutions de besoins, de l'actualiser
tuer,
en permanence,
tout en conservant certains
plus ou moins longtemps -
.
44
DÉCISION
« instantanés » d'étapes
intermédiaires
qui peuvent s'avérer nécessaires
dans le futur. (Mémoire qui doit rester insensible aux mouvements,
quels
qu'ils soient, de personnels et de responsables.)
De la sorte il est possible d'élaborer les multiples jeux de tableaux de bord
susceptibles de représenter au mieux les diverses réalités - et leurs regroupements (plus ou moins synthétiques dans l'espace et dans le temps) - de
unités, fonctions, responsables,
objectifs, aux fins de compal'entreprise :
«
relations
raisons,
») avec l'extérieur
(convenablement
photographiées
clients
et
de
fournisseurs, prestataires
services, etc.).
(exemples :
Il faut ici rappeler combien se sont développés dans un passé relativement
récent les outils, moyens et services permettant - dans et pour les entreprises
ou autres entités aux activités les plus diverses le suivi, la mise à jour
et l'accès « externe à ces entités » aux informations
et
permanente
données indispensables
(tout en mémorisant ce qui, du passé, doit l'être).
4. PERSPECTIVES
ETHORIZONS
NOUVEAUX
avec les délais
Simplifiant, élaguant, adoptant des conditions compatibles
dont on pouvait raisonnablement
faut-il rappeler
disposer pour décider qu'on ne travaillait pas en temps réel -, on consacrait temps et moyens aux
bases à réunir, à quelques modélisation simplifiées autour d'un cas central,
cerné et obtenu par des raisonnements
et calculs « à la marge » plus ou
moins licites ? - et qui l'étaient, le plus souvent.
Par la suite on a pu prendre en compte la réalité la plus fine (par exemple le
choix des implantations pour un grand groupe industriel qui se développe ou
procède à des absorptions) en partant de la situation existante et en s'interadmissibles, ou sur des évolurogeant sur les possibilités raisonnablement
tions envisageables
ou
moins
plus
profondes et plus ou moins localisées. Y
en
et
en
chiffrant
tous azimuts des structures profondécompris
analysant
ment différentes, en envisageant par exemple des fusions ou absorptions
considérées comme possibles.
.
Précisons par quelques exemples :
- des licenciements
en vue d'économies,
sans qu'on change significativement les volumes de production et de ventes ;
- la recherche et la réalisation d'une fusion sans forcément examiner en
profondeur le bilan de toutes les conséquences,
positives et négatives ;
- la restructuration
des opérations
internes pour assouplir l'ensemble :
éliminer des niveaux de supervision, réduire des coûts et délais de dévemieux équilibrer ce qui est respectivement
local, national,
loppement,
mondial ;
La décision à l'âge de la société d'information
45
- rationaliser
et unifier l'ensemble
de la production
(qu'il s'agisse aussi
bien d'automobiles
de
de
à l'échelle de l'enconsommation)
que
produits
semble des implantations ;
- remettre en cause la
dispersion et la décentralisation
des structures de mise en marché ;
de la production
et
- substituer
une organisation
assise sur la mise en marché de lignes de
à
un
ensemble
d'unités
de production qui avaient été retenues
produits
des
raisons
pour
purement géographiques.
Pour mémoire, on citera quelques exemples ne concernant pas l'entreprise :
le budget d'une nation ;
la réflexion en dynamique
sur une politique
fiscale ou sur la refondation d'une politique de retraites ; les grands travaux
dans le temps,
et l'aménagement
du territoire : flexibilité, programmation
de tous ordres, en
séquences, coûts et modes de financement, conséquences
particulier pour les divers acteurs et entités concernés. Ajoutons encore,
'
pourquoi pas !, la gestion économique et financière d'un foyer.
Ces exemples visent à insister sur les progrès considérables réellement
nés
de
ont
été
au
des
raisonneréalisés,
progressifs l'expérience,
qui
plan
aborder
et
des
de
en
ments, pour
poser
problèmes
plus
plus larges et
aux
niveaux
les
ceci
nécessite
complexes
plus divers ;
pour chacun de ces
de
:
problèmes
- les cerner, autour des choix,
apparemment
majeurs, impliqués ;
- les
des divers
segmenter, et définir de façon opératoire les caractéristiques
ainsi
mis
en
évidence ;
segments
-
dégager les variables - quantifiables ou non - et les paramètres (en partide ces segments.
culier économiques,
financiers,
parfois monétaires)
Examiner les conditions, possibilités
et délais pour les évaluations
(ou
obtentions) correspondantes.
Dégager des tests de fiabilité ;
-
approfondir les possibilités de modélisation
mise au point de ces outils ;
,
,
'
- isoler, le cas échéant, les sous-ensembles
simulations correspondantes ;
-
,
synthétiser le ou les tableaux
retenues ;
d'hypothèses
.
- bien sûr réitérer en fonction
lacunaires ainsi réunis.
y
des valeurs
des résultats
et simulation
modélisables
quantifiant
et les délais de
et procéder
aux
les divers groupes
éventuellement
insuffisants,
notamment
de l'entreprise,
les incertitudes
S'agissant
multiples et croissantes, les opportunités mais aussi les nécessités de notre monde - mondialisé - peuvent contraindre à de multiples et fréquents changements de pied,
et nécessités. Sans oublier les décisions
parfois en combinant opportunités
à
On dispose aujourd'hui,
imprévues
prendre rapidement.
phénomène
46
DÉCISION
majeur, des moyens voulus, moyens qui ont également profondément
modifié la possibilité d'abord, puis la facilité, du suivi.
Simultanément le recours croissant, souvent dans des situations complexes,
à ces moyens a développé des aptitudes nouvelles à l'anticipation, du fait
de ces jeux multiples avec les modèles de la réalité. Notons aussi, pour faire
court, que ces jeux virtuels avec les problèmes permettent d'en mettre en
évidence les points sensibles, les éléments critiques, les situations ou
moments de déséquilibres, les goulets d'étranglement.
5. LESNOUVEAUX
FONDEMENTS
DE LA VIE PROFESSIONNELLE
Dans la vie professionnelle, la plupart de nos actes impliquent sans cesse
davantage d'analyses et de décisions préalables, une fois que sont fixés des
cadres d'action.
Il en résulte une exigence corrélative et préalable d'aides à la décision
aisées, multiformes, aussi complètes et immédiates que possible au regard
d'un espace raisonnable et vraisemblable de possibles.
Cela implique en amont ou en aval - avec les rétroactions possibles - de
commander, organiser ou faire organiser, exécuter, coordonner, contrôler
avec - à chaque stade - de nouvelles prévisions dont on puisse tenir compte.
Aide capitale dans cet enchaînement : à l'extériorisation matérielle des
supports de notre intelligence par les hardwares les plus divers - notamment
en matière de visualisation - et les télécommunications, s'ajoute l'extériorisation par le software, software complet et diversifié, extériorisation
immatérielle de cette faculté même.
Avec, faut-il le rappeler, la possibilité de se réunir à plusieurs, éventuellement dispersés sur la planète, pour décider en temps réel. Et l'on peut
disposer des systèmes de liaisons hommes-machines, des transmissions, des
langages, commandes et modes de communication et d'expression évolués
et spécialisés pour assurer ou faire assurer et assumer aussi bien des tâches
et responsabilités individuelles que collectives. Les systèmes ont ouvert à la
décentralisation des possibilités - et une approche - entièrement nouvelles.
Cela autorise, au-delà du software, des interactions croissantes entre tous ces
instruments - matériels ou non - et les modes d'analyse, de décision et
d'exécution. Complément indissociable de cette autre face que sont les
facteurs de production, lesquels sont de façon croissante partie intégrante
des tâches de direction : aussi bien à des noeuds en nombre croissant et
Ladécisionà l'âge de la sociétéd'information
47
proches de l'exécution qu'à des noeuds de concentration de tâches concourant à des sous-ensembles isolables formant chacun un tout.
Les aides à la décision ont en trois décennies - en temps réel notamment été complètement bouleversées ; champs, modalités, réactions à plusieurs,
dispersion des acteurs, les possibilités, entièrement nouvelles, existent et
sont parfaitement adaptées et de mieux en mieux maîtrisées. Ces possibilités - leur chaîne avec ses implications - sont certes coûteuses, mais les
gains dépassent généralement et largement les coûts ; c'est d'ailleurs à la
pénétration de ces moyens qu'il faut attribuer, par exemple aux États-Unis
depuis quelques années, des gains de productivité, inexplicables autrement.
À cet égard, les réserves de productivité semblent loin d'être épuisées.
On assiste dans un nombre croissant de domaines à la mise en place d'enchaînements de moyens avec rétroactions qui vont de l'imagination à la
simulation pour aboutir à l'exécution effective, contrôles et décisions
concurrents ou ultérieurs, que cela implique, compris. On aboutit souvent
de la sorte à une cybernétique complète et parfaite parce qu'elle intègre
l'intervention humaine, seule susceptible en général de faire face à des
réalités imprévisibles (réalités qui naissent notamment de la dispersion, donc
par exemple de la mondialisation).
La véritable aide à la décision - multiforme, complète - à la fois impliquée
et de plus en plus exigée, de plus en plus souvent simultanée à des exécutions effectives, est en fin de compte récente et, bien entendu, perfectible.
Il n'y a pas longtemps qu'on a su constituer une panoplie d'outils matériels
ou immatériels informatique, transmissions, visualisations, dispositifs
spécialisés multiples - d'intervention notamment, et de banques de données
mises à jour - parfois à chaque instant - et accessibles en temps réel.
'
;
;
;
Expériences accumulées de plus en plus raffinées, la Société d'Information
a atteint une relative maturité grâce à tous ces outils, à leur facilité d'emploi,
à leurs performances : coûts, rapidité, capacités multiples.
De sorte que le gouvernement et l'administration des choses viennent de
subir - potentiellement dans encore bien des cas - une mutation radicale.
On a complètement changé la dynamique de la préparation des décisions et
de leur exécution ainsi que l'adaptabilité en fonction du déroulement des
éléments et réalités en cause et des changements éventuels de l'environnement - par exemple économique, financier de l'offre ou de la demande - à
la limite en temps réel.
'
ei 6. DEMAIN, SERA
IL TROPTARD
;
Le Groupement industriel américain des technologies de l'information (ITI),
prenant en compte les ventes d'ordinateurs et d'équipements annexes, de
48
.
DÉCISION
de systèmes pour entreprises et de serlogiciels, de services informatiques,
vices de télécommunications
de télécommunica(mais hors équipements
tions et coûts de transmissions)
a enregistré en 1997 un chiffre d'affaires
total de plus de 800 milliards de dollars : c'est 80 % de l'industrie informatique mondiale (et près de 3 % du produit mondial brut, mais avec une
concentration
essentiellement
avec une croissance
annuelle
américaine),
à
%
sur
les
dix
dernières
années.
Cette
colossale
7,5
moyenne supérieure
montre clairement que cette industrie est un moteur de l'écoémergence
nomie américaine et que se situent bien là - après une période de décollage
durant laquelle les choses étaient, bien entendu, moins visibles - les sources
d'une productivité
que les bases et méthodes habituelles ne permettent pas
ou mal d'évaluer.
Rien ne démontre mieux cet essor de la Société d'Information
et qu'on est
bel et bien sorti de la Société
Industrielle
traditionnelle.
Société
d'Information
largement fondée sur l'immatériel logiciels et banques de
données -, immatériel dont la valeur économique croît lorsqu'on le partage,
seul bien à avoir cette propriété.
Mais l'aspect le plus fondamental
de la Société d'Information
concerne le
rôle des hommes : les capacités cérébrales et mentales se substituent de plus
en plus à la force musculaire de travail.
L'économie
sera de plus en plus fondée sur la connaissance,
sur d'autres
savoirs et d'autres savoir-faire.
Ce qui contraint à une révolution vitale dans les savoirs à enseigner et la manière de les enseigner. À défaut, on peut
nourrir les pires inquiétudes,
chez tous ceux qui ont déjà,
spécialement
contrairement
aux Américains (voir les chiffres ci-dessus), raté le premier
train des nouvelles technologies de l'information
(avec leur cortège de créations d'emplois).
Au-delà des enseignements
et formations,
c'est tout un état d'esprit, une
manière de regarder les problèmes et leurs contextes, une façon d'aborder
toutes nos activités et de progresser dans les directions voulues qui sont en
cause.
C'est là que va se jouer l'avenir.
'
Alexis
Jacquemin
LACOMPÉTITIVITÉ
EUROPÉENNE
ETL'ENTREPRISE
Dans son ouvrage Économie de l'ordre et du désordre (1991, p. 206),
Jacques Lesourne se penche sur l'influence des personnalités exceptionnelles. Selon lui, dans le meilleur des cas, une personnalité se manifeste par
ses propres objectifs, des capacités remarquables de jugement sur les
ressources et les croyances des autres acteurs, une aptitude développée à
obtenir le concours des individus qu'il commande, une imagination apte à
découvrir des conduites innovantes, et une faculté de calcul permettant de
concevoir des règles de décision complexes.
Dans cette caractérisation, qui n'a pas reconnu Jacques Lesourne ?
',
,
'
,
;
i
l
¡
:
Ses travaux, qu'il s'agisse du Calcul économique (1964), des Modèles de
croissance de l'entreprise (1972), des Mille sentiers de l'avenir (1981), de
l'Éducation et société demain (1988) ou l'Après-Communisme (1990), ont
ouvert de nouvelles perspectives, à partir de méthodologies rigoureuses,
allant de la science fondamentale jusqu'à la pratique.
Pour rendre hommage à cette « personnalité », ma contribution consistera à
explorer un domaine où la capacité de décision et les jeux stratégiques sont
essentiels, à savoir les défis que la compétitivité européenne adresse aux
entreprises. L'approche adoptée évite le recours à ce que Lesourne appelle
le « noyau dur de la théorie économique » au profit d'une démarche impressionniste.
Mon point de départ réfère à deux sources : F. Braudel et J. Schumpeter.
50
DÉCISION
Dans son étude sur La dynamique du capitalisme (1985), F. Braudel
distingue trois stades dans l'évolution de nos économies. En premier lieu, se
situe la « vie matérielle », basée sur l'habitude et la routine, et dans laquelle
les hommes subissent les déterminismes biologiques et démographiques.
de la
L'économie se caractérise par la subsistance, l'autoconsommation
famille ou du village, et ses principaux régulateurs sont les disettes, les
famines, les guerres, et les maladies.
De nombreuses sociétés, dites en voie de développement, sont encore aujourd'hui immergées dans cet immense royaume du quotidien et du routinier.
A un second stade, intervient le marché. On passe de la valeur d'usage à la
valeur d'échange. Les mécanismes transparents de la concurrence assurent
la liaison entre production et consommation.
Ils s'expriment dans les multiples échanges quotidiens, trafics locaux, foires
et bourses. Entre les xve et XVIIIesiècles, le rôle de ces rouages n'a cessé de
s'élargir en Europe. La main invisible d'Adam Smith assure l'autorégulation, ajuste l'offre et la demande et amène chacun à s'adapter le mieux
possible aux conditions données du marché.
Mais les germes du troisième étage, à savoir le capitalisme, existent également à cette époque. Pour Braudel, le capitalisme est fondé sur les accumulations de résultats passés, utilisables et utilisés pour contrôler le
fonctionnement des marchés. En contraste avec les échanges quotidiens dont
chacun connaît à l'avance les tenants et aboutissants et dont on peut supputer
à peu près les bénéfices toujours mesurés, le système capitaliste repose sur
mille moyens de manipuler le jeu par le maniement du crédit, le change des
monnaies, la supériorité de l'information, de l'intelligence et de la culture.
« Sont ainsi contrastés deux types ou deux schémas d'activité, le marché et
les relations capitalistes, et ce ne sont ni les mêmes agents ni les mêmes
mécanismes qui les régissent. Privilège du petit nombre, le capitalisme se
situe à la hauteur des Bardi, des Jacques Coeur, des Jakob Fugger, des John
Law ou des Necker. » Ces acteurs ont été capables de changer au loin des
secteurs entiers de l'économie européenne, voire mondiale. « Ils transforment l'échange à leur profit, dit Braudel, et bousculent l'ordre établi. »
Étendant ses réflexions à l'ensemble du monde, Braudel anticipait l'analyse
des grands groupements régionaux actuels. « Dès le Moyen Âge et dès
même l'Antiquité, écrit-il, le monde a été divisé en zones économiques plus
ou moins centralisées, plus ou moins cohérentes, qui coexistent... Ces
économies-mondes ont été les matrices du capitalisme européen, puis
mondial. »
Une autre oeuvre de pionnier qui met en lumière le rôle des acteurs économiques est celle de l'économiste autrichien Joseph Schumpeter. Pour celuici, la concurrence est par nature un processus dynamique d'où naissent des
combinaisons nouvelles et où certains gagnent, partiellement par chance,
Lacompétitivitéeuropéenneet l'entreprise
511
partiellement par l'adoption d'une bonne stratégie. Et il n'est pas possible
d'explorer adéquatement un tel processus avec un modèle supposant que le
« concours » est totalement défini et aboutit à un équilibre. C'est dans sa
Théorie de l'évolution économique (1912) qu'il livre sa conception. Il y
déclare que l'évolution est un phénomène totalement étranger à ce qui peut
être observé dans un flux circulaire ou dans une tendance vers l'équilibre. Il
s'agit de changements spontanés et discontinus dans les canaux des flux,
d'un désordre dans l'équilibre qui l'altèrent irréversiblement. Dans la sphère
de la production, dit-il, une telle évolution apparaît par l'introduction d'un
nouveau produit, d'une nouvelle qualité ou d'une nouvelle méthode de
production, par l'ouverture de nouveaux marchés et de nouvelles sources
d'approvisionnement et, enfin, par la mise en oeuvre d'une nouvelle organisation de l'industrie.
C'est dans cette perspective d'une étonnante actualité qu'au cours des
dernières années, l'Union européenne a pris conscience des changements
radicaux qui transforment les conditions de la compétitivité des entreprises.
Sur le plan externe, l'abaissement des barrières tarifaires et non tarifaires,
l'efficacité accrue des systèmes de transport et de communication et plus
généralement la large diffusion internationale du capital et des technologies
ont accru la globalisation des économies et ont exacerbé la concurrence.
Sur le plan interne, il apparaît que les éléments déterminants de la compétitivité vont audelà du niveau relatif des coûts directs des facteurs de production. Ils portent aussi sur la qualité de l'éducation et de la formation,
l'efficacité de l'organisation industrielle, la capacité d'améliorer de façon
continue les processus de production, l'intensité des efforts de recherche
développement ainsi que leur exploitation industrielle, la disponibilité d'infrastructures efficaces, la qualité des produits et l'intégration, dans les stratégies d'entreprises, les conséquences des changements de société, tels que
l'importance de la protection de l'environnement.
,
C'est ce qu'a mis en lumière le Livre blanc intitulé Croissance, compétitivité, emploi, publié par la Commission européenne. Il y est notamment
affirmé qu'entre 75 à 95 % de la masse salariale des entreprises sont désormais consacrés à des fonctions liées à l'organisation : informatique, ingénierie, formation, comptabilité, commercialisation, recherche, plutôt qu'à la
production directe.
Ces facteurs peuvent être regroupés sous le concept d'investissement
« immatériel » qui doit bénéficier à l'avenir d'une priorité au moins égale à
celle de l'investissement matériel dans les stratégies d'entreprise.
De ce point de vue, deux thèmes sont particulièrement importants : les
nouvelles technologies et les innovations dans les formes d'organisation des
entreprises.
DÉCISION
52
TECHNOLOGIES
1. ENJEUX
DESNOUVELLES
Alors que de nombreuses analyses démontrent le rôle crucial joué par l'élade produits et de procédés nouveaux
boration constante de technologies,
une étude récente (P. Buigues et
et la croissance,
pour la productivité
A. Jacquemin, 1997) suggère qu'il existe des différences considérables entre
l'Union européenne et les États-Unis dans ce domaine.
Se fondant sur la classification proposée par l'OCDE, cette étude montre en
les secteurs de la haute
premier lieu que, dans les industries manufacturières,
technologie ont représenté 25 % de la valeur ajoutée totale aux États-Unis
contre 20,4 % dans l'UE en 1994. Ils assurent 20,4 % des emplois aux USA
et seulement
18 % dans l'UE. En outre, les salaires européens dans ces
à la
secteurs augmentent plus rapidement que la productivité, contrairement
Cette détérioration du coût salarial unitaire eurosituation outre-Atlantique.
En revanche, dans les
un handicap important.
péen pourrait constituer
secteurs de moyenne technologie, l'Europe est mieux placée que les ÉtatsUnis, que ce soit du point de vue de la valeur ajoutée ou de l'emploi.
Ces tendances se reflètent dans les échanges. Une ventilation des exportamontre qu'en
tions en fonction des niveaux technologiques
1994, les
de haute technologie représentaient
marchandises
37,3 % des exportations
D'une
et seulement
américaines,
22,8 % des exportations
européennes.
des États-Unis est à son maximum dans
manière générale, la spécialisation
les industries de haute technologie, elle est moyenne dans les industries de
moyenne technologie et faible dans les secteurs à faible intensité technolode l'Europe est élevée dans les indusgique. En revanche, la spécialisation
dans les secteurs
de faible
tries de moyenne
technologie,
moyenne
technologie et faible dans la haute technologie.
Si l'on opère une distinction entre les positions respectives de l'Allemagne,
on voit apparaître certaines différences.
de la France et du Royaume-Uni,
La spécialisation
de l'Allemagne
France et du Royaume-Uni.
est clairement
différente
de celle de la
La forte spécialisation de l'UE dans les secteurs de moyenne technologie est
dans
son coefficient de spécialisation
due à l'Allemagne :
principalement
s'est accru jusqu'à
atteindre
155 en 1994.
ces activités (x¡fxl M¡f M)
L'industrie chimique, la construction de machines et de matériel mécanique
et le secteur automobile constituent les forces motrices de l'industrie allemande.
Les coefficients
correspondants
nettement plus faibles, atteignant
de moyenne technologie.
sont
pour la France et le Royaume-Uni
dans les secteurs
100 et 98 respectivement
Lacompétitivitéeuropéenneet l'entreprise
53
En revanche, dans la haute technologie, c'est la spécialisation allemande qui
est relativement faible (87) comparée à celle de la France (102) et du
Royaume-Uni (107).
Enfin, l'examen de la taille des entreprises en fonction des secteurs révèle
aussi des différences considérables. Aux États-Unis, 23 % des petites entreprises opèrent dans les industries de haute technologie tandis qu'en Europe,
la proportion n'est que de 13,3 %. Ces chiffres confirment qu'en Europe, les
activités relevant de la haute technologie se concentrent davantage dans les
grandes entreprises.
L'exemple des brevets relatifs au génome humain est symptomatique à cet
égard. Selon le magazine Nature (04.04.96), 40 % des brevets relatifs au
génome humain délivrés par l'Office européen des brevets sont détenus par
des Américains et seulement 24 % par des Européens. Aux États-Unis, la
majorité de ces brevets appartient à des PME, alors qu'il n'existe presque
aucune PME européenne titulaire de tels brevets.
Il importe cependant de ne pas tirer des conclusions erronées de ces constats.
Une balance commerciale défavorable pour les produits de haute technologie peut simplement être l'indice d'importations élevées dans ce secteur.
Si de telles importations sont alors utilisées à des fins productives, cela pourrait indiquer un renforcement, plutôt qu'un affaiblissement, de la compétitivité globale de l'Europe (rapports Groupe consultatif sur la compétitivité,
1996, dans A. Jacquemin et L. Pench éd., 1997). Confirmant cette argumentation, un rapport de l'OCDE (1997) concluait que l'invention et l'exploitation commerciale initiale de produits et de procédés nouveaux importaient
moins que la diffusion rapide et généralisée de cette technologie. C'est principalement le cas pour les services. A noter, dans ce contexte, que l'acquisition de technologie intégrée dans des biens d'équipement importés tels que
des ordinateurs et des machines est aisée et semble être plus rentable que la
technologie acquise au niveau national.
En revanche, renforcer sa position dans certains secteurs de haute technologie peut être une opération très coûteuse à la fois directement, en termes
budgétaires, et indirectement, à travers la hausse des coûts des intrants intermédiaires pour les entreprises et les utilisateurs finals.
Il n'en reste pas moins que les activités de haute technologie se caractérisent
par une demande en rapide augmentation, une productivité importante, une
main-d'oeuvre extrêmement qualifiée et des salaires élevés. Plus généralement, une forte présence dans un secteur industriel à forte intensité technologique débouche souvent sur un avantage comparatif qui s'autoentretient en
cas d'économies externes importantes. Celles-ci résultent à la fois du
rejaillissement des connaissances technologiques sur d'autres entreprises,
qui augmente l'efficacité des producteurs, et de la taille du marché, qui
accroît la productivité des fournisseurs (Krugman, 1991).
54
DÉCISION
Ces économies externes justifient un soutien public à la recherche de haute
technologie et facilitent les liens entre science et industrie.
Selon une étude récemment réalisée par la National Science Foundation,
73 % des documents cités par les brevets industriels américains sont du
domaine de la science publique, leurs auteurs étant des organismes universitaires, gouvernementaux ou d'autres institutions publiques. Ainsi, une
interdépendance étroite entre communautés de recherche et développement,
universitaires, industrielles et gouvernementales est un élément important du
progrès technologique.
Cela dit, il ne faut pas oublier que l'Europe peut encore se vanter de disposer
d'un vaste éventail de spécialisations (produits pharmaceutiques, produits
chimiques ou industrie aérospatiale par exemple). Selon le « Rapport européen sur les indicateurs scientifiques et technologiques » (Commission européenne, 1997), l'UE a aussi accru sa part dans les publications scientifiques
mondiales, se plaçant à un niveau similaire à celui des États-Unis et audessus du Japon.
En revanche, la part européenne dans les brevets américains et européens
connaît une diminution substantielle depuis les années 1980. À l'heure
actuelle, le Japon obtient à lui seul plus de brevets aux États-Unis que la
totalité des pays européens.
Certains signes incitent à penser que l'approche des entreprises européennes
a été trop spécifiquement « scientifique », au détriment d'une prise en considération adéquate des exigences du marché et des structures de la demande.
L'Europe doit traduire en succès commercial l'excellent niveau qu'elle a
atteint en science fondamentale. De ce point de vue, dans le domaine de la
haute technologie, les entreprises européennes semblent moins souffrir de
faiblesses technologiques que d'une difficulté à transformer leurs activités
de recherche-développement en innovations et stratégies offensives qui leur
permettraient d'acquérir des parts importantes du marché mondial.
2.. ENJEUX
DESNOUVELLES
FORMES
D'ORGANISATION
L'un des éléments clés dans la mise en oeuvre des stratégies évoquées cidessus n'est pas l'innovation technique, mais l'innovation dans l'organisation. Les structures traditionnellement découpées et segmentées doivent
céder la place à des systèmes d'information rapides, une interaction plus
souple, des procédures considérablement simplifiées. Les cas d'innovations
industrielles réussies, tels que l'introduction et la diffusion de la production
dite lean production dans l'industrie automobile, sont davantage fondés sur
Lacompétitivitéeuropéenneet l'entreprise
55
une révolution administrative et organisationnelle que sur une application
directe de découvertes technologiques. Lors d'une enquête menée auprès de
plus de 200 entreprises européennes(1?, les directeurs de ces entreprises ont
estimé que la gestion des ressources humaines était devenue l'impératif
premier. L'une des conclusions de l'enquête était qu'il n'existait apparemment peu de lien entre les investissements en capitaux et ceux en ressources
humaines?2>. En fait, l'essentiel est de réconcilier flexibilité et productivité
en fondant cette dernière sur la flexibilité des tâches, de la main-d'oeuvre et
des opérations. Cela implique la création de nouvelles lignes de communication entre les différents services, ce qui sous-entend une forte participation
des travailleurs. À son tour, cette participation exige de nouvelles compétences, l'implication des travailleurs et des qualifications polyvalentes.
Plus généralement, l'organisation taylorienne tirait son efficacité de la
rigueur des découpages entre fonctions de l'entreprise, entre tâches et entre
métiers, ainsi que de la précision de la programmation. Mais ces principes,
qui permettent de réduire les coûts en environnement stable, fonctionnent très
mal pour la variété, la réactivité et surtout la qualité ou l'innovation. D'où un
formidable renversement : alors que le taylorisme était entièrement bâti sur
un idéal de zéro communication, la nouvelle productivité est directement liée
à la capacité de coopération entre toutes les parties du système de production, depuis l'amont jusqu'au client, en passant par les services fonctionnels,
les fournisseurs, etc. « L'efficacité est relationnelle. La productivité des
opérations fait place à une productivité des interfaces. » (P. Veltz, 1994.)
Les changements en cours peuvent être représentés comme le passage d'un
modèle d'« entreprise traditionnelle » à un modèle d'« entreprise flexible ».
Celle-ci est caractérisée par la capacité de redéployer en permanence ses
ressources, afin de créer et d'exploiter de nouveaux segments de marché à
plus forte valeur ajoutée. La réalisation de cet objectif suppose généralement
que l'entreprise concentre ses efforts sur le développement de « compétences fondamentales » ou sur l'application d'une « productivité évolutive »
(OCDE, 1996).
,
,
Plus spécifiquement, le passage de l'entreprise traditionnelle à l'entreprise
flexible implique une modification des différents aspects de l'entreprise :
développement des produits et organisation de la production, style de gestion
et organisation du travail (tableau 1). Les principaux aspects du changement
sont : une plus grande différenciation des produits, la réduction des échelons
de la hiérarchie, la suppression des barrières professionnelles. Ces changements doivent être accompagnés par une amélioration des compétences et de
la motivation des salariés, qui est généralement associée à une évolution des
relations professionnelles. Elles sont appelées à ne plus être de nature conflictuelle, mais à être coopératives (A. Jacquemin et L. Pench, 1997).
(1) Booz-Allenet Hamilton,1992.
(2) Rapportélaborépar la Taskforce Ressourceshumaines(1993).
DÉCISION
56
Tableau 1 : Entreprise traditionnelle et entreprise flexible
« Entreprise traditionnelle »
Développement
« Entreprise flexible »
des produits et organisation de la production
Variété des produits
Production modulaire
Mécanisation flexible
Produit standard
Chaîne de montage
Mécanisation à objectif unique
Style de gestion
Gestion hiérarchique
Division verticale du travail (séparation
entre planification et mise en oeuvre)
Contrôle « externe »
Gestion participative
Intégration verticale des emplois
(enrichissement)
Autorégulation interne
Organisation du travail
Division horizontale du travail
(morcellement extrême des tâches)
Travailleurs liés au poste de travail
Travail individuel
Horaires fixes
Intégration horizontale des emplois
Rotation
Travail de groupe
Gestion autonome du temps
Compétences/Motivation/Rela tions
Travailleurs non qualifiés
Faible motivation (indifférence)
Relations de travail conflictuelles
professionnelles
Travailleurs qualifiés
Motivation élevée (identification)
Relations de travail coopératives
croissante attribuée à la qualité des ressources humaines et de
L'importance
leur organisation est corroborée par des données empiriques sur les performances des entreprises.
américaines et
ont montré, pour un vaste échantillon d'entreprises
les
facteurs
«
immatériels
la
», y compris l'innovation,
européennes,
que
des
la
du
service
de
la
commercialisation,
rapidité
qualité
produits,
qualité
les principaux déterminants
de la compétitivité
et de l'image, constituaient
(PIMS, 1994 et tableau 2).
Celles-ci
Des études de cas mettent en lumière cette évolution. Un exemple particulièrement illustratif est celui de Nokia. La société finlandaise Nokia, jadis
s'est convertie en une entreprise de télécommuconglomérat manufacturier,
nications axée sur un créneau, qui réalise des opérations dans le monde
cellulaires
entier et qui est leader mondial sur le marché des infrastructures
et des combinés. Elle a un chiffre d'affaires de 6 milliards d'écus et compte
34 000 salariés.
Nokia a dû relever le défi de la gestion d'une croissance rapide, du maintien
de l'esprit d'entreprise
et de l'amélioration
de l'apprentissage
du personnel,
dans un marché hautement compétitif et en constante évolution. Les solu-
Lacompétitivitéeuropéenneet l'entreprise
57
tions ont été d'ordre structurel et culturel et ont porté sur l'organisation et la
gestion.
Les activités de formation et de développement, qui ont été étroitement liées
à la stratégie professionnelle, ont été complétées par une rotation entre les
divers emplois et de nouvelles affectations. La technologie est également
le développement
utilisée pour faciliter le partage de l'information,
de
et
dans
l'ensemble
l'entreprise.
personnel
l'apprentissage
Nokia a ainsi élargi ses activités de façon substantielle et, malgré une
concurrence féroce, renforcé sa position en tant que leader du marché. La
vente d'unités de télécommunication a plus que triplé entre 1992 et 1995.
13 000 salariés ont été recrutés au cours des deux dernières années, tout en
maintenant la flexibilité de l'entreprise et sa capacité à innover.
'
Cette expérience montre l'importance d'une étroite relation entre les investissements dans la production et dans les ressources humaines.
Dans la même perspective, une étude américaine éclaire la question
suivante : la promotion des ressources humaines augmentetelle la productivité des travailleurs (C. Ichniowski, K. Shaw et G. Prennushi, 1995) ?
Pour cette étude, les auteurs ont construit leurs données de base portant sur
26 unités de production d'acier, utilisant le même processus de production.
Ils ont également collecté des mesures précises sur les pratiques de travail.
La conclusion est la suivante : l'adoption d'un système cohérent des
nouvelles pratiques de travail, incluant le travail en équipe, l'attribution
flexible des activités, la formation à plusieurs emplois, le recours à des incitants financiers, conduisent à des niveaux de productivité beaucoup plus
élevés que celui obtenu par les approches classiques. Par ailleurs, les
pratiques de travail isolé, individualiste, n'ont pas d'effet positif sur la
productivité.
Une interprétation des auteurs est un argument en faveur des modèles théodans les
riques qui soulignent l'importance et les complémentarités
et
de
travail
des
1990 ;
Roberts,
pratiques
entreprises (voir Milgrom
Holmstrom et Milgrom, 1994).
Ces conclusions sont confirmées par des recherches du Boston Consulting
Group (Bilmes, Wetzker et Xhonneux, 1997). Les auteurs ont examiné une
centaine d'entreprises allemandes, dans dix secteurs industriels, y compris la
fabrication automobile, les banques et l'industrie pharmaceutique, au cours
d'une période de 7 ans. Les résultats sont impressionnants. Dans chacune
des industries, les sociétés qui ont favorisé le degré d'autonomie et la liberté
de prendre des décisions et des initiatives, les heures de travail flexibles, la
prédominance d'organisation en réseau, un nombre réduit de niveaux hiérarchiques, la possibilité d'acquérir de nouvelles compétences, une association
aux résultats financiers de l'entreprise, obtiennent un rendement nettement
supérieur à celui des concurrents, sous la forme d'une forte croissance de la
valeur de leurs actions et des dividendes. En outre, ces sociétés ont été les
créateurs du plus grand nombre d'emplois.
DÉCISION
58
.
Tableau 2 : Déterminants des performances d'une entreprise
en matière de compétitivité
« Immatériel »
« Matériel »
Effort relatif en Avantage en matière
Rapidité de
intellectuelle
commercialisation matièrede R&D de propriété
Innovation
relative
__________
Qualitérelative
________
Coûts/prix
relatifs
Position
relative
.
Accentmissur
sur
en termes
termes
ladistribution
d'image/service
Compétitivité
relatives)
(partsde marchéet rentabilité
Source:Adaptéde PIMS
(1994)
3. CONCLUSION
La recherche de la productivité et de la compétitivité à travers les activités à
forte intensité technologique et les nouvelles formes d'organisation ne sont
pas des fins en soi. Elles doivent permettre d'améliorer les conditions de
travail et de vie, de mieux protéger l'environnement, d'économiser les
ressources naturelles et énergétiques, de relever les défis du vieillissement
de la population et de promouvoir une croissance soutenable.
De ce point de vue, l'innovation n'est pas seulement un mécanisme économique ou un processus technique. Elle est avant tout un phénomène social.
À travers elle, les individus et les sociétés expriment leur créativité, leurs
besoins et désirs. Ainsi, l'innovation est étroitement imbriquée aux conditions sociales dans lesquelles elle est produite et, en fin de compte, à l'histoire, la culture, l'éducation, l'organisation institutionnelle et aux systèmes
de protection sociale. Les partenaires sociaux qui, dans de nombreux États
membres, ont conclu des accords importants et souvent innovants en matière
d'organisation du travail liée à l'introduction de nouvelles technologies ont
à cet égard un rôle essentiel à jouer.
Pour réussir, nos sociétés doivent devenir des « sociétés cognitives », où
chacun pourra continuer d'apprendre activement et tout au long de sa vie,
par l'éducation et la formation. Cet impératif éducatif réduira le risque de
transformer la « société de l'information » en une nouvelle source d'inéga-
59
Lacompétitivitéeuropéenneet l'entreprise
lités entre les régions ou les citoyens. C'est une condition cruciale pour
promouvoir la solidarité et la cohésion, qui sont des valeurs auxquelles les
pays européens ont toujours accordé une grande priorité.
BIBLIOGRAPHIE
P. (1997), « Value in Human Resources »,
K. and XHONNEUX,
BILMES,
L., WETZKER,
Financial Times (10 February).
Booz-ALLEN & HAMILTON,
(1992), The Competitiveness of Europe and its
Entreprises, décembre.
F. (1985), La dynamique du capitalisme, Arthaud, Paris.
BRAUDEL,
A. (1997), « Haute technologie et compétitivité : une
BmGUESP. et JACQUEMIN,
comparaison entre l'Union européenne et les États-Unis », Revue
d'Économie industrielle, n° 80, 2e trimestre 1997.
COMMISSION
EUROPÉENNE
(1993), Croissance, compétitivité, emploi. Les défis et les
xxie siècle, Luxembourg, Office des publications offientrer
dans
le
pistes pour
cielles des Communautés européennes.
EUROPÉENNE
COMMISSION
(1997), « Rapport européen sur les indicateurs scientiet
»,
technologiques
Luxembourg, Office des publications officielles des
fiques
Communautés européennes.
HOLMSTROM,
B., MILGROM,P. (1994), « The firm as an incentive system »,
American Economic Review, septembre, vol. 84.
G. (1995), « The effects of human resource
IcHNIowsKi,C., SHAW,K. et PRENNUSHI,
management practices on productivity », American Economic Review,juin, vol. 87.
JACQUEMIN, A. et PENCH, L. (ed.) (1997),
Edward
London.
Elgar Publishing,
1
JACQUEMIN, A. et PENCH,
Boeck
Université.
j
KRUGMAN,
j
/
P.R.
(1991),
L. (éd.),
« Myths
LESOURNE, J.
(1964),
Le calcul
)
LESOURNE, J.
(1972),
Modèles
L
)
1
LESOURNE,
J. (1981),
LESOURNE,
Paris.
J. (1988),
LESOURNE,
J. et LECOMTE,
LESOURNE,
J. (1991),
e
)s
(1997),
and
Pour
Realities
in the Global
Competing
une
compétitivité
of US
Competitiveness
Economy,
européenne,
De
», Science,
8.11.
)
)
Europe
Les mille
Éducation
économique,
de croissance
sentiers
Économie
Paris.
de l'entreprise,
de l'avenir,
et société
B. (1990),
Dunod,
Seghers,
demain,
La
L'après-communisme,
de l'ordre
Dunod,
et du désordre,
Paris.
Paris.
Découverte :
Robert
Economica,
Le
Monde,
Laffont,
Paris.
Paris.
DÉCISION
60
« The
MILGROM, P. et ROBERTS, J. (1990),
American
Economic
Review, juin, vol. 80.
OCDE
(1996),
Technology,
productivity
OCDE (1997),
productivité -
Technologie
et performance
et qualifications -
PIMS
and
Jobs,
emplois
ASSOCIATES,
North America
rapport
SCHUMPETER,
établi
and job
of modem
compétitivité
Des
Théorie
territoires
de l'évolution
pour
apprendre
»,
Paris.
creation,
industrielle :
manufacturing
de la technologie
diffusion
Paris.
internationale,
(1994),
Business for
Europe.
Evidence from
Building
» Factors
behind
on « Intangible
Growth,
Competitiveness
européenne.
pour la Commission
J. (1912),
VELTZ, P. (1994),
economics
économique,
et innover,
Payot,
Éditions
Europe
and
Paris.
de l'aube.
Bernard Roy
RÉFLEXIONS
SURLETHÈME
A
QUETE DE L'OPTIMUM
ET AIDE À LA DÉCISION
1. INTRODUCTION
... Et si l'optimum comporte l'intégration des désordres,
incertitudes, aléas, concurrences, antagonismes, alors, une
telle optimisation comporte de l'inoptimisable ; dès lors, ne
faut-il pas réviser, reformuler, ouvrir notre notion d'optimisation ? ne faut-il pas comprendre que la véritable optimisation est toujours complexe, risquée, comportant désordres et
conflits, et que son ennemi est la pseudo-rationalisation qui
prétend chasser le conflit, le désordre, la concurrence, le
risque ? Toute conception idéale d'une organisation qui ne
serait qu'ordre, fonctionnalité, harmonie, cohérence est un
rêve dément d'idéologue ou/et de technocrate.
Edgar Morin, 1980.
Certains lecteurs jugeront peut-être le passage qui précède excessif et provocant. Quoi qu'il en soit, il a, je crois, le mérite de souligner certaines des
limites d'une approche scientifique
des questions touchant la décision.
et au calcul économique,
Mathématicien
formé à la recherche opérationnelle
il
ma
de
très
nombreuses
circonstances
au
début
de
cru,
carrière,
j'ai
qu'en
existait une décision optimale qu'il importait, sinon de découvrir, du moins
afin de pouvoir arrêter la décision effective sur des bases rationd'approcher
nelles et légitimes. Étant chargé d'études à la Société de mathématiques
appliquées (SMA) que venait de créer Jacques Lesourne et qui est rapide-
62
DÉCISION
ment devenue Société d'économie et de mathématiques appliquées (SEMA),
j'ai été confronté à des situations problématiques très variées : plans de
fabrication ou de production, armement du paquebot France, analyse et
sélection d'activités nouvelles, choix de supports de presse pour une campagne publicitaire, pour n'en citer que quelques-unes. J'ai vite dû me rendre
à l'évidence : dans de nombreuses situations, cette quête de l'optimum était
illusoire et, plus important, la démarche qui la sous-tendait était loin d'être
la mieux adaptée pour éclairer les décisions.
Les recherches que j'ai conduites ensuite dans un cadre universitaire ainsi
que les travaux liés à mon activité de conseil (notamment à la RATP) m'ont
permis de réfléchir sur l'intérêt, mais aussi sur les limites, d'une évaluation
des diverses possibilités d'action à l'aide d'un unique critère lorsqu'il s'agit
d'éclairer et/ou de guider un processus de décision.
Les réflexions qui suivent concernent non seulement les décisions de nature
managériale qui affectent le fonctionnement d'une entreprise mais également celles, à caractère public, qui touchent les collectivités territoriales. Je
commencerai par préciser ce que j'entends par aide à la décision (section 2)
et par énoncer les conditions qui me paraissent être indispensables pour pouvoir prétendre que le résultat d'un calcul d'optimisation approche un optimum réel (section 3). J'examinerai ensuite, sous divers angles (sections 4 à
9), ce qui peut influencer la modélisation des préférences et la démarche
d'aide afin de mettre en évidence ce qu'on peut attendre de l'optimisation.
Je montrerai ainsi, chemin faisant, que la quête de l'optimum, si elle est
viable et justifiée dans des cas bien précis, peut être avantageusement remplacée, dans beaucoup d'autres cas, par des démarches d'inspiration différente dans lesquelles la recherche d'un optimum en tant que tel n'est ni un
objectif, ni un point de départ même si des calculs d'optimisation y occupent
une place importante.
PERSPECTIVES
DANS
À LADÉCISION
: QUELLES
2. L'AIDE
Par aide à la décision (AD), je désigne, en accord avec une large communauté scientifique internationale, l'activité de celles ou ceux qui cherchent à
prendre appui sur une démarche à caractère scientifique pour éclairer des
décisions de nature managériale et/ou guider des processus de décision dans
des systèmes organisés. De façon plus précise, l'AD vise, par une démarche
< <et pas seulement descriptive :
qui peut être constructive
- à faire émerger des éléments de réponse (énoncés de propositions) à des
questions que se pose un acteur engagé dans un processus de décision, cela
dans le cadre d'hypothèses de travail permettant notamment de tenir
compte d'une description imparfaite des réalités passées, présentes et
futures ;
(1) Pour plus de détailssur l'aspect constructivistede l'AD, voir Roy (1992).
Réflexions
sur le thèmequête de l'optimumet aide à la décision
63
- à apporter des moyens (concepts, cadres de travail, modèles, procédures...) pour accroître la cohérence entre d'une part la décision qui doit
être finalement arrêtée et, d'autre part, les objectifs et/ou systèmes de
valeurs qui sont ceux des acteurs engagés dans le processus de décision.
Même si la démarche de l'AD se veut essentiellement scientifique avec des
modèles formalisés, des raisonnements hypothético-déductifs ou d'inférence, des calculs d'optimisation..., il ne s'agit pas nécessairement de découvrir, ni même d'approcher, une décision idéale dont l'optimalité devrait
s'imposer à tout acteur suffisamment intelligent et de bonne foi. Toute référence à ce genre d'idéal peut disparaître. Vouloir la maintenir peut, dans bien
des cas, être contre-productif. Les modèles sur lesquels l'AD prend appui ne
sont pas nécessairement le reflet d'une réalité pure et dure. Que l'on songe
par exemple aux préférences qu'un acteur peut avoir en tête relativement à
des actions potentielles très nombreuses qui ont des conséquences fort complexes. De telles préférences peuvent évoluer sous l'influence de divers
acteurs et peuvent également être modifiées par l'activité même d'aide à la
décision.
L'AD peut certes conduire à découvrir des vérités cachées. Plus généralement, elle peut contribuer à construire des convictions individuelles, des
décisions collectives, des compromis entre des rationalités, des enjeux, des
systèmes de valeurs multiples et souvent conflictuels. Pour situer convenablement cet apport de l'AD, il importe de ne pas perdre de vue, comme le
souligne Thépot (1995), que « la modélisation ne suppose rien sur la rationalité de l'individu dont les capacités d'investigation et d'observation sont
acceptées pour ce qu'elles sont dans leurs limites et leurs imperfections. En
revanche, elle postule la rationalité pleine et entière du tiers sollicité », autrement dit de celles et ceux qui sont en charge de l'AD. Ceci permet de comprendre la nature, la portée du rôle que jouent, dans cette activité, les
raisonnements hypothético-déductifs et, en particulier, les calculs d'optimisation.
L'AD peut aussi contribuer à structurer et à organiser le processus de décision. Elle privilégie en effet une démarche dynamique qui favorise une
bonne insertion, dans ce processus, de celles et ceux qui pratiquent l'AD. Il
s'ensuit qu'elle peut conduire, dans certains cas, à déplacer l'analyse des
solutions initialement envisagées vers un approfondissement du problème et
à susciter un débat autour de questions du type : qui sont les acteurs concernés, quels sont les enjeux, les points de vue, les axes de signification des critères, où se situent les contraintes, comment prévoir les effets d'une action
envisagée, quels liens de causalité permettent d'évaluer les conséquences
d'une action, comment peser le pour et le contre des avantages et des inconvénients... ? Ce cadre de concertation qu'apporte l'AD peut ainsi être à l'origine d'une profonde reformulation du problème. Enfin, parce qu'elle
favorise cette concertation, parce qu'elle aide à construire et pas seulement
à décrire, l'AD peut contribuer à la légitimation de la décision et, le cas
échéant, à une meilleure responsabilisation des parties prenantes.
64
DÉCISION
À QUELLES
CONDITIONS
:
3. L'OPTIMISATION
ETDANSQUELLES
PERSPECTIVES ?
3.1 Deuxapprochesde la modélisationdes préférences
Une première approche, dite monocritère, consiste à bâtir directement un
unique critère exprimant un point de vue global apte à refléter les préférences d'un acteur ou d'un groupe d'acteurs. Ce critère doit prendre en
compte la totalité des effets et attributs pertinents pour asseoir les comparaisons des possibilités de décision que je désignerai sous le terme général
d'actions potentielles. Chacune d'elles reçoit ainsi une évaluation ou performance unique. Celle-ci peut avoir une signification plus ou moins
concrète : gain pour une collectivité, bénéfice pour une entreprise, utilité
espérée, taux de rentabilité, niveau de satisfaction... Deux actions potentielles deviennent alors immédiatement comparables.
Une seconde approche, dite multicritère, consiste à bâtir une famille de critères reflétant des points de vue spécifiques à partir desquels il convient de
construire, d'argumenter, voire de faire évoluer, des opinions ou convictions
relatives à des préférences. Chaque action potentielle reçoit alors non plus
une performance mais autant qu'il y a de critères dans la famille. Ces performances peuvent être situées sur des échelles fort hétérogènes : prix, qualité, risque, part de marché, pollution, durée, confort... La comparaison des
deux actions potentielles n'est immédiate que dans le cas très particulier où
elle s'opère de la même façon pour chacun des critères. Pour asseoir cette
comparaison dans le cas général, on peut (entre autre procédure) bâtir un critère unique de synthèse. Cette approche reste néanmoins multicritère. Elle
ne doit pas être assimilée à une approche monocritère qui fait tout d'abord
l'économie d'une analyse mettant en évidence des points de vue structurants, ensuite celle d'une modélisation des préférences propres à chacun de
ces points de vue.
Concevoir d'emblée plusieurs critères ou, au contraire, vouloir n'en bâtir
directement qu'un seul est un choix de modélisation. Ce choix est conditionné par le rôle que l'on entend faire jouer, dans l'aide à la décision, au(x)
critère(s) et aux contraintes. Quoi qu'il en soit, l'approche monocritère ne
doit pas être vue comme un cas limite (ou dégénéré) d'une approche multicritère.
3.2 Quêtede l'optimum
Découvrir ou, à défaut, approcher une décision qui soit l'optimum grâce à
une démarche prenant appui sur des modèles décrivant une réalité objective,
sur le thèmequête de l'optimumet aide à la décision
Réflexions
65
telle a été l'ambition de la recherche opérationnelle (RO) durant les deux
décennies qui ont suivi la Première Guerre mondiale. Les situations décisionnelles vérifiant les conditions nécessaires pour que cette ambition ait un
sens se sont avérées plus rares que les pionniers de la RO ne l'avaient cru
(cf. Churchman et al., 1957 ; Lesoume, 1959 par exemple).
Parler d'optimum, c'est faire référence à une action potentielle dont on peut
prouver qu'elle est au moins aussi bonne que n'importe quelle autre qui
pourrait lui être substituée. Pour donner sens à ce concept d'optimum, il est
par conséquent nécessaire de disposer d'un modèle de préférences qui permette de comparer n'importe quelle action potentielle à n'importe quelle
autre selon une relation qui soit complète et transitive. Cette condition
revient à dire qu' il est possible de bâtir un critère unique (que ce soit avec
une approche mono ou multicritère).
Pour donner sens à l'optimum, il est également nécessaire d'avoir défini (et
cela avant même la construction du critère) la nature des entités qu'il s'agit
d'évaluer et de comparer. Les entités doivent être modélisées sous forme
d'actions potentielles qui soient telles que la mise à exécution de l'une quelconque d'entre elles (notamment si elle devait être l'optimum) exclut la mise
à exécution de n'importe quelle autre. De telles actions potentielles sont
communément appelées des alternatives (au sens anglo-saxon du terme).
L'alternative est par conséquent un modèle d'action potentielle qui doit
appréhender la décision dans sa globalité.
Une troisième exigence doit encore être satisfaite pour pouvoir donner sens
au concept d'optimum. Pour que l'alternative la meilleure (ou l'une des
meilleures) au sens du critère élaboré puisse être regardée comme étant l'optimum, il faut avoir cerné, de façon exhaustive, non ambiguë et définitive,
l'ensemble de toutes les alternatives susceptibles d'être envisagées.
Dans la démarche d'aide à la décision que je dénommerai quête d'un optimum, il importe que l'optimum mis en évidence, en conformité avec les
trois exigences rappelées ci-dessus, ait effectivement la signification qu'il
prétend avoir, c'est-à-dire être une représentation convenable et opérationnelle d'une meilleure décision objective et exécutable ou, à défaut, une
bonne approximation de celle-ci. Pour qu'il en soit ainsi, il est indispensable
que les diverses parties prenantes engagées dans le processus de décision
reconnaissent :
- le caractère approprié de la modélisation des alternatives pour appréhender la décision dans sa globalité ;
- la pertinence des frontières qui servent à cerner l'ensemble des alternatives prises en considération ;
- la validité et le réalisme du critère d'optimisation.
DÉCISION
66
3.3 Placede l'optimisation
Les réflexions autour des questions soulevée dans les sections
ront que, dans bien des cas, cette quête de l'optimum apparaît
(voir citation en exergue) comme une démarche d'idéologue
crate. Quelle est alors la place de l'optimisation dans l'aide à
4 à 9 montreeffectivement
ou de technola décision ?
L'aide à la décision peut, sans avoir la prétention ni même l'ambition de
découvrir un optimum, prendre appui sur des calculs d'optimisation utilisant
un critère ou plusieurs pour mettre en évidence de « bonnes alternatives » au
sein d'un ensemble clairement délimité. Rien n'interdit de déplacer les frontières de cet ensemble, notamment sous l'effet des résultats des précédents
calculs d'optimisation. Dès l'instant où l'on abandonne la quête de l'optimum en se contentant de résultats partiels, de tels calculs d'optimisation
peuvent également porter sur des actions potentielles qui ne sont pas des
alternatives. Ils peuvent également contribuer à un bon ajustement de la
valeur de certains paramètres afin de rendre compte le mieux possible d'une
certaine réalité. Je parlerai dans ces conditions d'une démarche utilisant
l'optimisation.
Il existe en outre une troisième forme de démarche dans laquelle il n'est fait
aucun usage de l'optimisation. Ces trois formes de démarches d'aide
(cf. tableau ci-dessous) peuvent évidemment être combinées avec les deux
approches de modélisation des préférences décrites au § 3.1.
Approche de
modélisation
Démarche d'aide
Quête de l'optimum
Utilisant l'optimisation
Sans optimisation
Monocritère
Multicritère
1
3
5
2
4
6
Chacune des six cases du tableau renvoie à des pratiques possibles et utilisées. La case 1 correspond à la recherche opérationnelle originelle. La
case 2 implique la construction d'un critère unique de synthèse. Comme le
laissent entendre les propos qui précèdent, l'utilisation de l'optimisation
dans les cases 3 et 4 peut prendre des formes très variées. La case 4 couvre
en particulier l'exploration et l'énumération des actions efficaces (encore
appelées optimum de Pareto). La case 5 correspond au simple fait de
construire un critère pour évaluer, aider à choisir, trier, ranger tout en étudiant, le cas échéant, la sensibilité du résultat à la variation de certains facteurs. La case 6 renvoie à de nombreuses méthodes multicritères, notamment
d'aide au choix, au tri et au rangement dans lesquelles l'optimisation ne joue
aucun rôle.
sur le thèmequête de l'optimumet aide à la décision
Réflexions
67
4. COMMENT
FAIRE
FACEÀ L'HÉTÉROGÉNÉITÉ
DESCONSÉQUENCES ?
4.1
1 Conséquences
et échellesd'évaluation
Pour éclairer une décision quelle qu'elle soit, il est nécessaire d'inventorier
et de structurer l'ensemble des conséquences qu'il convient de prendre en
compte. Sous ce terme général de conséquence (on parle aussi d'attribut), on
désigne habituellement tout effet, aspect ou facteur jugé pertinent pour élaborer ou faire évoluer des convictions, pour débattre de la décision qu'il
convient d'arrêter ou encore pour la légitimer et, s'il y a lieu, entraîner la responsabilisation des parties prenantes lors de sa mise à exécution. Il est clair
que ces conséquences concernent en général des réalités très variées. La
façon la plus naturelle de les évaluer en termes concrets et intelligibles pour
les différents acteurs fait le plus souvent référence à des échelles hétérogènes. Certaines sont numériques avec des échelons qui se chiffrent en kilofrancs, en heures ou en années, en nombre de morts ou de clients desservis,
en tonnes-km ou en degrés de concentration d'un polluant... D'autres sont
essentiellement qualitatives avec des échelons caractérisés de façon verbale :
qualité d'un produit ou d'un service, image d'une activité ou d'une entreprise, satisfaction du personnel ou d'une clientèle, adéquation à un objectif
visé ou aux moyens humains disponibles...
Pour évaluer une conséquence ou l'ensemble de celles qui relèvent d'un
même point de vue, on peut toujours utiliser une échelle numérique : les
échelons d'une échelle qualitative peuvent toujours être codés numériquement. Dans ce dernier cas, mais aussi dans beaucoup d'autres où l'échelle
est naturellement numérique, il importe d'être attentif à la signification des
chiffres. La préférence (ou la mesure de satisfaction) est-elle multipliée par
deux lorsque le chiffre est doublé ? Il n'est généralement pas possible de
considérer qu'une note de 18/20 est deux fois meilleure qu'une note de 9/20.
Des écarts égaux en termes d'évaluation chiffrée reflètent-ils des écarts
égaux en variation de préférence (ou de mesure de satisfaction) ? Les efforts
à accomplir pour accroître de 5 points un taux de rentabilité interne qui en
vaut 7 et un autre qui en vaut 15 ne sont pas forcément équivalents. Selon
que l'on répond oui ou non à de telles questions, certaines des opérations de
l'arithmétique ont ou n'ont pas de signification.
4.2 L'arithmomorphisme
et sesdangers
Sous le terme d'arithmomorphisme, je désigne (avec Schàrlig, 1998) cette
disposition de l'esprit qui conduit à utiliser, sans prendre suffisamment de
précautions, les opérations de l'arithmétique pour comptabiliser, sur une
68
DÉCISION
échelle commune, des effets, des aspects, des facteurs non naturellement
soustend cette croyance selon
commensurables.
L'arithmomorphisme
contexte
il
doit
exister une décision optimum
dans
tout
décisionnel,
laquelle,
soit
nécessairement
Parce
(sans qu'elle
unique).
qu'il néglige les questions
du type de celles évoquées à la fin du paragraphe précédent, l'arithmomorphisme conduit à une comptabilité (par exemple monétaire) souvent peu
signifiante. Pour ces raisons, il est, dans bien des cas, terriblement réducteur :
- il peut conduire à négliger, à tort, certains aspects de la réalité ;
- il favorise la création d'équivalences dont le caractère factice passe
inaperçu ;
- il tend à faire passer pour objectif ce qui relève d'un système de valeurs
particulier.
Ce sont là des effets fâcheux contre lesquels l'aide à la décision et, tout spécialement, l'approche monocritère doit se prémunir. Cette dernière en effet
implique le choix initial d'une échelle commune pour apprécier toutes les
conséquences. Elle nécessite donc de convertir les évaluations initiales de
ces conséquences, effectuées chacune sur des bases concrètes avec des unités appropriées, afin de les exprimer sur cette échelle commune. Il importe
tout particulièrement d'avoir bien présent à l'esprit ce côté réducteur de
l'arithmomorphisme lorsque l'on a recours à l'analyse coût-avantage. Cette
approche monocritère repose en effet sur quelques hypothèses fondamentales comme le rappellent Hammiche et Denant-Boèmont (1997) :
« 1. Exhaustivité des effets ;
2. Valorisation monétaire des effets (indispensable pour l'agrégation finale
et le calcul de la variation de surplus collectif qui permet de hiérarchiser
les option d'investissement) ;
3. « Cardinalité » de la fonction d'utilité collective et, donc des fonctions
d'utilité individuelles. En conséquence, toute amélioration ou détérioration d'utilité peut s'interpréter ultimement comme un gain ou une perte
dans le niveau des quantités consommées (en supposant qu'il est indifférent que ce soit x plutôt que y qui gagne ou qui perde, hypothèse de répartition optimale des revenus. »
Dans le domaine du choix des infrastructures de transports, le rapport officiel (Boiteux, 1994) préconise une démarche qui relève très exactement
d'une quête de l'optimum assise sur une analyse coût-avantage. Chacune
des trois hypothèses rappelées plus haut fragilise pourtant cette démarche
comme cela a notamment été souligné par un groupe de travail réunissant
bon nombre de celles et ceux qui ont la responsabilité de la mettre en pratique (voir STP, 1996, 1998). Dans ce contexte décisionnel comme dans
beaucoup d'autres, il est intéressant de souligner que les procédés par lesquels on appréhende ce qu' il est convenu d'appeler des valeurs révélées, des
préférences déclarées, des évaluations contingentes (cf. Bouyssou et al.,
1999, chapter 3 ; Gauthier et Thibault, 1993 ; Grégory et al., 1993 ; Le Pen,
1997 ; Lesoume, 1975 ;Perez, 1996 ; Point et Desaigues, 1993) permettent de
Réflexions
sur le thèmequête de l'optimumet aide à la décision
69
jeter les bases d'hypothèses de travail fort intéressantes. Il importe cependant de ne pas perdre de vue que, dans bien des cas, elles visent à rendre
compte de systèmes de valeurs qui varient beaucoup d'un acteur à l'autre en
les résumant dans un prix unitaire (prix de l'heure, prix du mort, prix du
décibel...), lequel correspond le plus souvent à une moyenne dans le cadre
d'un modèle pas nécessairement réaliste car fondé sur des hypothèses souvent falsifiées. Afin de relativiser ces difficultés, l'idée d'approximation est
souvent mise en avant. Ce qu'il s'agit d'approximer est malgré tout généralement subjectif et bien mal défini. Cependant, un bilan fondé sur le calcul
économique (à côté d'autres critères) peut avantageusement être utilisé
comme « éducateur de jugement » et « organisateur de la discussion et de la
réflexion en groupe » ainsi que le souligne, dans sa conclusion, Lesourne
(1972).
On peut, sinon supprimer, du moins atténuer les dangers de l'arithmomorphisme en commençant par chercher un faisceau de grands points de vue
susceptibles de structurer le processus de décision eu égard aux acteurs qui
s'y trouvent impliqués (cf. notamment Bana e Costa, 1992 ; Debrincat et
Meyère, 1998 ; Roy, 1985). On peut ensuite bâtir une famille de critères prenant appui sur des échelles appropriées non nécessairement aisément réductibles les unes aux autres. Il est plus facile, dans ces conditions, de parvenir
à une prise en compte exhaustive des conséquences, de contrôler l'impact de
la part d'arbitraire qui peut exister dans leur valorisation, d'éviter des compensations abusives, enfin de chercher à faire une place objective à la subjectivité (plutôt que de l'évacuer ou de l'occulter) qui soit compatible avec
une pluralité d'expression.
LEPOURETLECONTRE ?
PESER
5. COMMENT
l Quelques
5.1
rappels
'
'
Il est rare que l'élaboration d'un critère (qu'il s'agisse d'un critère d'optimisation ou de l'un des multiples critères d'une famille) ne fasse pas intervenir une certaine forme d'agrégation. C'est là une agrégation dite de
premier niveau qui est inhérente à la construction du critère (cf. Roy, 1985)
pour définir la performance de chaque action potentielle selon ce critère à
partir des conséquences qu'il doit prendre en compte. Pour fonder une
conviction, un choix, un tri ou un rangement destiné à éclairer la décision sur
la base de critères multiples, on a souvent recours à une procédure d'agrégation multicritère (PAMC). Celle-ci opère à un second niveau : elle doit
permettre de comparer deux actions potentielles quelconques en prenant en
compte les performances de chacune d'elles selon tous les critères d'une
famille donnée.
70
DÉCISION
La construction d'un critère unique de synthèse (cf. § 3.1 fait appel à un premier type de PAMC : toutes les performances d'une action sont agrégées
pour lui associer un nombre unique (valeur, utilité, score...). La moyenne ou
la somme pondéré constitue l'exemple le plus simple de ce premier type. Il
en existe beaucoup d'autres, notamment celles qui reposent sur la théorie de
l'utilité multiattribut (cf. Keeney et Raiffa, 1976), sur la procédure d'analyse
hiérarchique de Saaty (cf. Saaty, 1980, 1984) ou encore sur la méthode
Macbeth (cf. Bana e Costa et Vansnick, 1997).
Un second type de PAMC repose sur une comparaison des actions paire par
paire, le résultat de la comparaison étant formulé dans des termes tels que
indifférence, préférence stricte, préférence faible, incomparabilité... Il en
résulte un système relationnel de préférences (nettes ou floues) qui doit
ensuite être exploité pour éclairer la décision. Dans les méthodes dites de
type Électre (cf. Pictet 1996 ; Roy et Bouyssou, 1993 ; Schàrlig, 1996 ;
Vincke, 1992), ce système relationnel de préférences est obtenu par application de règles peu ou pas compensatoires qui font penser à une procédure de
vote avec possibilité de veto.
Les PAMC, qu'elles soient du premier ou du second type, n'utilisent pas, ou
seulement de façon très accessoire, l'optimisation. L'aide à la décision peut
aussi, même dans une approche multicritère, se passer de telles PAMC et
faire plus ou moins appel à l'optimisation. Un critère unique ou plusieurs
ayant été définis, l'aide à la décision peut prendre appui sur une procédure
interactive (cf. Gardiner et Vanderpooten, 1997 ; Pomerol et Barba-Romero,
1993 ; Slowinski, 1992 ; Steuer, 1985) en vue de cheminer vers une conviction ou vers la sélection d'une action potentielle satisfaisante. Une telle procédure peut servir à compléter, à tester et/ou à faire évoluer certains aspects
de la modélisation. Il peut s'agir des frontières qui délimitent le domaine des
possibles : l'impact des conditions imposées à une action pour qu'elle soit
jugée digne d'intérêt peut ainsi être analysé, notamment en transformant certaines contraintes en critères. Il peut s'agir également de la conception même
d'un critère qui doit être confrontée à un système de préférences en vue de
le refléter au mieux ou de le remettre en question. Il peut s'agir encore d'éliciter et de tester la robustesse des choix d'un décideur. Une procédure interactive peut encore être utilisée pour éclairer une décision au regard de
critères multiples conflictuels. Elle intervient alors de façon itérative en
coopération avec un utilisateur : celui-ci oriente la procédure au vu de certains résultats partiels. Dans la plupart de ces façons de procéder, l'optimisation joue souvent un rôle crucial sans que, pour autant, il soit question de
quête de l'optimum.
Dans le cadre des lignes directrices rappelées ci-dessus, des méthodes et
techniques variées ont été proposées et expérimentées pour prendre en
compte des critères multiples dans une perspective d'aide à la décision :
pour une mise au point récente, voir Gal et al (1999).
Réflexions
sur le thèmequête de l'optimumet aide à la décision
711
5.2 Leconceptde poids
On parle de pondération des critères dès l'instant où l'on se préoccupe de
caractériser le rôle respectif qui doit être dévolu à chacun des critères d'une
famille pour asseoir des comparaisons sur la base de toutes les performances. Ce sujet est source de difficultés pour la mise en oeuvre de la plupart des PAMC et, à un moindre degré, des procédures interactives. Les
difficultés ne sont pas moindres dans l'approche monocritère : la façon d'apprécier les conséquences sur l'échelle choisie incorpore, de façon plus ou
moins cachée, un mode de « pondération » de celles-ci. Parler de pondération pour appréhender la façon de peser le pour et le contre, c'est faire appel
à la métaphore du poids. Or, celle-ci peut-être tout à fait trompeuse.
J'ai souvent entendu dire et parfois même lu sous la plume de bons auteurs :
« La décision finale équivaudra à une certaine pondération des critères ». En
fait, les choses ne sont pas si simples et cela pour deux raisons :
- celles ou ceux qui énoncent ce genre d'affirmation font référence à une
modélisation particulière de la notion d'importance : il s'agit de celle que
permet l'agrégation par somme pondérée. Cette modélisation suppose que
les performances (ou les conséquences) puissent, quelle que soit leur
nature, être évaluées numériquement de façon à ce que les opérations de
l'arithmétique dont elles sont l'objet soient signifiantes (cf. § 4). Les coefficients multiplicateurs, appelés poids, sont ici (comme dans le cas particulier de l'analyse coût-avantage) des coefficients de conversion,
autrement dit des taux de substitution, qui fixent, de façon rigide, l'amplitude du gain qu'il faut obtenir sur une dimension pour compenser exactement une perte unitaire sur une autre ;
- cette forme de modélisation étant admise, une très large indétermination
subsiste sur les valeurs des poids susceptibles de justifier une décision prise.
'
'
La métaphore du poids tend à faire croire que l'on peut donner sens au
concept de poids d'un critère indépendamment de toute logique d'agrégation. Pourtant, cette logique conditionne la conception même du poids. De
plus, dans les logiques compensatoires (somme pondérée ou théorie de l'utilité multiattribut par exemple), l'attribution d'une valeur numérique plus
grande au poids d'un critère j qu'à celui d'un critère h ne reflète nullement
l'idée simple selon laquelle le critère j est plus important que le critère h. Le
coefficient nommé poids est ici ce qui est appelé une constante d'échelle
afin de mettre en évidence le fait que sa valeur numérique dépend des caractéristiques de l'échelle (unité et étendue) sur laquelle sont évaluées les performances ou les conséquences. D'autres procédures d'agrégation font
intervenir des poids dits intrinsèques en ce sens que leur valeur ne dépend
que de l'axe de signification propre à l'échelle et non pas du choix qui a été
fait de l'unité ou de l'étendue. Dans ces conditions, attribuer au critère j un
poids supérieur à celui du critère h reflète effectivement le fait que le premier a une importance plus grande (joue un rôle plus déterminant dans la
72
DÉCISION
formation des préférences) que le second. Il en est notamment ainsi dans les
méthodes de type Électre où les poids s'interprètent comme un nombre de
voix données à chaque critère dans une procédure de vote. Cette façon de
peser le pour et le contre ne repose sur aucun mécanisme rigide de compensation. Elle peut en revanche faire intervenir, dans la construction du système relationnel de préférences, un mécanisme de veto qui permet d'appréhender un autre aspect de l'importance accordée à chaque critère.
L'importance relative des critères (ou des conséquences) est en fait une
notion complexe qui renvoie à un système de valeurs. La nature des coefficients (taux de substitution ou autres constantes d'échelle, poids intrinsèques
ou seuils de veto, niveaux d'aspiration ou de rejet) qui conditionnent la
façon de prendre en compte un tel système de valeurs en recevant chacun
une valeur numérique dépend fondamentalement de la procédure d'agrégation adoptée. En aide à la décision, le système de valeurs qu'il s'agit de
prendre en compte est nécessairement celui d'un acteur ou d'un groupe d'acteurs. Les valeurs attribuées aux coefficients ont inévitablement de ce fait un
caractère subjectif. La quête de l'optimum ne peut donc avoir de sens que
s'il y a un consensus sur leur valeur. On peut (surtout si l'on renonce à cette
démarche) faire intervenir divers jeux de valeurs, et cela de bien des
manières, qui peuvent faire appel ou non à l'optimisation (notamment dans
le cadre d'analyse de sensibilité ou de robustesse, cf. §7).
PRENDRE
ENCOMPTE
LAMAUVAISE
6. COMMENT
CONNAISSANCE ?
.
Il importe de ne pas faire dire aux données plus qu'elles ne signifient. Il
s'ensuit qu'en aide à la décision l'hypothèse de connaissance parfaite n'est
qu'exceptionnellement une hypothèse de travail convenable. L'anecdote suivante me paraît significative à cet égard.
Durant la seconde moitié des années 1960, un ingénieur en chef des Ponts et
Chaussées (René Loué) m'avait fait part de son étonnement devant la façon
dont la conception des réseaux de distribution d'eau potable était « optimisée ». La rénovation d'un réseau ancien ou la création d'un réseau pour desservir un quartier neuf donnait lieu à des calculs étonnamment compliqués
pour arrêter le tracé du réseau ainsi que les diamètres des différentes canalisations, diamètres qui décroissent au fur et à mesure que l'on se rapproche
des lieux de consommation. L'optimisation avait essentiellement pour objet
de minimiser le coût de l'investissement qui devait permettre de satisfaire,
de façon convenable, les consommations durant une période assez longue.
Bien que les besoins à satisfaire aient été fort mal connus (consommation
individuelle d'eau potable en pleine croissance, mode d'occupation des sols
mal défini et appelé à évoluer...), l'investissement dit optimal était présenté
.
Réflexions
sur le thèmequête de l'optimumet aide à la décision
73
comme celui permettant de répondre, au moindre coût, à une demande réputée être la plus probable, celle-ci étant regardée comme certaine. René Loué
jugeait cet optimum illusoire tant étaient grandes les incertitudes. Il m'interpellait avec des questions du type : que se passera-t-il dans quelques années
si la demande d'eau en certains points du territoire vient à différer significativement (en plus ou en moins) de cette demande la plus probable à laquelle
le réseau a été ajusté au mieux ? Ne faudra-t-il pas défoncer les rues pour
changer les canalisations ou en ajouter de nouvelles afin de modifier la
structure du réseau ? Ne serait-il pas plus économique de concevoir un
réseau (même s'il coûte aujourd'hui un peu plus cher) susceptible de satisfaire (moyennant d'éventuels aménagements peu coûteux) une assez large
gamme de besoins vraisemblables ?
Les sources de mauvaise connaissance sont multiples. Elles ont principalement pour origine (cf. Roy, 1989) :
- l'imprécision ou le mauvais fonctionnement des instruments de mesure
lorsqu'il s'agit de rendre compte de faits objectifs présents ou passés ;
- l'incertitude inhérente à toute appréciation de faits ou de situations à venir ;
- la présence d'une part d'ambiguïté et/ou d'arbitraire dans la manière dont
on appréhende des phénomènes complexes, qu'ils soient passés, présents
ou à venir.
Certaines caractéristiques du contexte organisationnel peuvent contribuer à
renforcer l'impact de chacune de ces trois sources. Que l'on songe par
exemple aux phénomènes d'autocensure (consciente ou inconsciente), aux
comportements stratégiques des acteurs et, plus généralement, à toutes les
entraves (notamment conflits d'intérêts) qui peuvent exister dans la circulation de l'information.
1
j
;
)
j
1
t
1
)
;j
l
Dans une approche monocritère tout comme dans une approche multicritère
aboutissant à la construction d'un critère unique de synthèse, on peut appréhender ces imprécisions, incertitudes et mauvaises déterminations au travers
de descriptions probabilistes (comme le fait la théorie de l'utilité multiattribut) ou encore de modèles relevant de la théorie des sous-ensembles flous
(cf. Fodor et Roubens, 1994 ; Slowinski, 1998). Les distributions de probabilités ainsi introduites tout comme les indicateurs servant à caractériser les
nombres flous sont très fortement marqués de subjectivité. Lorsque l'attitude face au risque inhérent au fait que le futur n'est pas un présent à venir
mérite d'être prise en compte, la façon de la modéliser ne s'impose pas de
toute évidence. Dans ces conditions, la modélisation, si bien faite soit-elle,
n'est pas apte en général à fournir une certitude et encore moins à révéler un
optimum indiscutable. Du fait de cette mauvaise connaissance, il peut être
incorrect d'interpréter le résultat des calculs comme une approximation de
l'optimum. La définition même de cet optimum peut poser problème et être
source de désaccord entre les parties prenantes. On peut néanmoins exploiter les informations dont on dispose pour expliciter diverses hypothèses de
travail qui peuvent contribuer à éclairer la décision et à organiser un débat.
74
DÉCISION
Dans l'approche multicritère (cf. Bouyssou, 1989 ; Roy, 1985), on peut avoir
recours à d'autres formes (en plus des précédentes) de modélisation de l'imet de la mauvaise détermination.
La plus courante
précision, de l'incertitude
consiste à introduire des seuils de dispersion et de discrimination.
Les seuils
de dispersion
traduisent des écarts plausibles, par excès et par défaut, qui
d'une conséquence ou d'une performance.
Ils
peuvent affecter l'évaluation
servent à encadrer la valeur la plus vraisemblable
une
valeur
par
optimiste
et une valeur pessimiste. Les seuils de discrimination
servent plus spécifiassociées à
quement à modéliser le fait que l'écart entre les performances
deux actions peut être, relativement
au critère considéré et toutes choses
égales par ailleurs, probant d'une préférence bien établie en faveur de l'une
des actions (seuils dits de préférence) ou, au contraire, compatible avec l'indifférence entre ces actions (seuils dits d'indifférence).
De tels seuils peuvent varier le long de l'échelle. Alors que les PAMC du deuxième type
(cf. § 5.1 peuvent tenir compte de la présence de tels seuils associés à chacun des critères de la famille considérée, celles du premier type ne peuvent
le faire. Certes, on peut associer des seuils d'indifférence
et de préférence au
critère de synthèse qu'elles permettent de construire mais ces seuils ne peuvent être reliés de façon pertinente à ceux relatifs à chacun des critères de la
famille.
Une autre forme de modélisation permettant de prendre en compte la mauvaise connaissance consiste à faire appel à la théorie des ensembles approximatifs (cf. Pawlak et Slowinski, 1994). Elle permet notamment de bâtir des
systèmes relationnels de préférences à partir de critères multiples.
7. QUEDOIT-ON
CHERCHER
À ÉVALUER
ET ÀCOMPARER ?
La quête de l'optimum contraint la modélisation des actions potentielles à en
faire des alternatives (cf. § 3.2). Cette conception globalisée de l'action n'est
pas toujours la mieux appropriée à l'aide à la décision. Pour le montrer, je
me contenterai d'évoquer ici deux types de contextes décisionnels dans lesquels il en est ainsi.
7.1
1 Traitement
d'unfluxde demandescontinu
Que l'on songe ici à un organisme bancaire qui reçoit tous les jours des
demandes de crédit en provenance de PMI ou PME ou bien encore à une
grande entreprise dont une part non négligeable de l'activité de recherche et
développement
repose sur les réponses qu'elle fait à des appels d'offres qui
lui parviennent
du monde entier. Dans un cas comme dans l'autre, il est
naturel de prendre comme action potentielle
la demande qui constitue
Réflexions
sur le thèmequête de l'optimumet aide à la décision
75
l'objet de la décision. Chacune de ces demandes mérite d'être examinée en
tant que telle et le fait de satisfaire telle ou telle n'exclut pas obligatoirement
le fait de satisfaire telle ou telle autre. Dans cet examen quotidien ou hebdomadaire des demandes, il est difficile de faire intervenir de façon formelle
(en vue d'appréhender une décision plus globale) ce qui a été décidé dans un
passé récent et ce qui le sera dans un futur proche. La quête de l'optimum
est ici non pertinente. L'utilisation de l'optimisation n' a également guère de
place. Il y a pourtant possibilité de mobiliser utilement des outils d'aide à la
décision. Ayant eu l'occasion de contribuer à la mise en place de tels outils
dans deux contextes précis, j'ai pu me convaincre de leur utilité puisqu'ils
sont régulièrement exploités, l'un depuis plus de dix ans, l'autre depuis
quelques années seulement. Les impératifs de confidentialité m'interdisent
malheureusement d'être plus explicite à leur sujet.
7.2 Élaborationd'un plan
Considérons maintenant le cas où l'objet de la décision est un plan, plan de
campagne publicitaire, de recherche et développement au sein d'une entrepour une collectivité territoriale par exemple.
prise, d'investissement
L'élaboration de ce plan doit être effectuée en sélectionnant, parmi un ensemble de composants (supports de presse ou de radiotélévision, propositions
émanant des différents services de l'entreprise, projets de nouvelles infrastructures ou d'aménagement de celles qui existent dans les exemples qui
viennent d'être cités), ceux qui méritent d'être retenus pour former le plan.
)
)
j
)
Adopter la démarche quête de l'optimum pour éclairer la décision contraint
à définir l'action potentielle comme étant le plan. Cela implique en premier
lieu d'être capable de formaliser les conditions (budgétaires, de cohérence...)
que doit satisfaire un sous-ensemble de composants pour constituer un plan
acceptable. Il faut en second lieu évaluer chacune des alternatives qui satisfont ces conditions. La première de ces exigences peut conduire à une combinatoire lourde et compliquée: la contrainte budgétaire peut être objet de
négociation, les relatives complémentarités et redondances peuvent être
ambiguës. Quant à l'évaluation d'un plan dans sa globalité, elle peut être fort
complexe si elle veut être autre chose que la simple somme des évaluations
de ces composants.
/
j
;
)
)
)
j
1
)
Face à ces difficultés, on peut adopter une démarche plus simple et souvent
plus opérationnelle. Elle consiste à regarder le fragment de plan que constitue le composant comme étant l'action potentielle. Dans ces conditions, ce
sont les composants (supports, propositions, projets) qui doivent être évalués
selon un ou plusieurs critères reflétant les divers points de vue. On peut
ensuite se contenter de chercher à ranger ces composants du meilleur au
moins bon ou bien de les affecter à des catégories préalablement définies. Ce
type de résultat peut enfin être exploité (de façon non nécessairement formalisée) pour aider à concevoir un ou plusieurs plans satisfaisants.
76
DÉCISION
CEÀ QUOICONDUISENT
8. COMMENT
EXPLOITER
ETPROCÉDURE
DECALCUL ?
MODÉLISATION
Ici encore, je me bornerai à aborder brièvement deux facettes de la question.
1 l'exploitation
de résultatspourélaborerdesrecommandations
8.1
La quête de l'optimum, lorsqu'elle s'avère justifiée et fructueuse, conduit
naturellement à fonder la recommandation sur l'action optimale ainsi découverte. À l'opposé, il n'est pas rare que l'activité d'aide à la décision s'arrête
sans qu'aucune recommandation ne soit formulée. Les résultats que constitue l'accord sur une famille cohérente de critères, l'obtention d'un ou plula mise en évidence de niveaux
sieurs tableaux de performances,
d'aspiration, de rejet, de seuils de discrimination, de jeux de poids constituent un apport positif que les acteurs engagés dans le processus de décision
(autres que l'équipe d'étude) peuvent juger satisfaisant. Dans d'autres cas,
l'aide à la décision conduit à mettre en évidence des résultats moins élémentaires, non reliés pour autant à une quête de l'optimum. C'est la façon
dont l'aide à la décision est conçue, autrement dit la problématique
(cf.
Roy, 1985 ; Bana e Costa, 1992), qui conditionne la nature de ces résultats.
En dehors de circonstances très exceptionnelles, le résultat qui découle du
traitement d'un jeu de données par une procédure quelle qu'elle soit ne peut
pas être assimilé à une recommandation scientifiquement fondée. Des calculs répétés à partir de jeux de données différents mais tous aussi réalistes
compte tenu du caractère imprécis, incertain, voire mal défini, de certains
.
paramètres (cf. § 6) sont généralement nécessaires pour élaborer une recommandation sur la base de conclusions robustes issues des multiples résultats
ainsi obtenus (cf. Roy, 1998 ; Vincke, 1999). Enfin, les énoncés de propositions qui forment une telle recommandation doivent être soumis à l'appréciation et au discernement du décideur (1) ou des acteurs concernés.
.
8.2 L'aideà la concertation
Les procédures et concepts de l'aide à la décision peuvent être mobilisés
pour organiser et conduire le travail d'un groupe. Comme dans tout travail
de groupe, cela suppose qu'un minimum de métarègles soient acceptées.
Pour illustrer cet aspect de l'AD, je m'appuierai sur quelques extraits d'un
(1) En aide à la décision,ce termedésignehabituellementl'entité (individuou grouped'individus)pour le comptede qui ou au nom de qui l'AD s'exerce.
Réflexions
sur le thèmequête de l'optimumet aide à la décision
77
document (cf. Bollinger et al., 1997) ayant trait à une coordination intercantonale pour l'incinération des déchets urbains.
« En 1993, l'office fédéral de l'environnement de la Confédération suisse
(OFEFP) a mis sur pied une coordination intercantonale pour l'incinération
des déchets urbains. Cette coordination concernait principalement trois cantons. Un de ces cantons, Genève, possédait déjà sa propre usine les Cheneviers,
les deux autres cantons, Vaud et Fribourg, devaient s'équiper chacun d'une
usine. [...]En février 1996, le canton de Genève a offert d'incinérer 130 000
tonnes supplémentaires par an de déchets en provenance des cantons de Vaud
et Fribourg. Cette offre a remis en cause la construction simultanée des deux
nouvelles usines Tridel (canton de Vaud) et Posieux (canton de Fribourg)
pour ces cantons. Confrontés à la difficulté de justifier la construction des
deux projets ou de choisir quel projet devrait être retardé, voire abandonné,
les responsables politiques des trois cantons concernés et le directeur de
l'OFEFP ont mandaté une commission technique dont la mission était de
comparer, sur une base aussi objective que possible, les deux projets de
Tridel et Posieux. »
Cette commission technique était composée de neuf membres représentant
les trois cantons et l'OFEFP auxquels était joint un homme d'étude provenant de l'Institut de génie de l'environnement de l'École polytechnique
fédérale de Lausanne. Ce dernier intervenait à titre de conseiller méthodologique. Il devait superviser toutes les étapes du processus d'aide à la décision
jusqu'aux résultats et à leurs interprétations. Des experts techniques ont été
contactés afin de calculer des coûts ou des données techniques chiffrables.
;
,
',
,
;
',
'
d'aide
',
'
,y
,
'
« [...]Afin de mettre en confiance tous les acteurs, l'homme d'étude se doit
d'offrir une transparence complète et doit pouvoir présenter, dans un langage
vulgarisé et imagé, la méthodologie des méthodes multicritères. Ainsi, dans
ce cas, différents exposés d'une quinzaine de minutes ont été présentés au fil
du travail et selon l'avancement du processus d'aide à la décision. Cependant, les principes de base des méthodes multicritères, l'intérêt de la noncompensation et la prise en compte de l'importance des différents points de
vue par le biais de différentes pondérations ont été mises en évidence dès la
première séance. Tous les acteurs devraient être aussi d'accord sur la même
famille de critères. La structuration des scénarios et la construction des critères sont des phases qui théoriquement se suivent. Dans un cas pratique, il
est cependant très difficile de dissocier ces deux phases dans le temps. La
première partie du travail a donc porté sur ces deux phases en travail "parallèle". Les séances de réunion de la commission permettaient de discuter de
l'évolution des scénarios et de l'évolution des critères, ces deux aspects semblaient intimement liés dans l'esprit des acteurs qui n'étaient pas spécialistes
à la décision. Ce travail étant sous la contrainte du temps, il a fallu
opter pour une base de départ simple et efficace, qui permettrait aux acteurs
de cerner d'emblée la problématique et sa formulation en termes de l'approche multicritère. Le représentant technique du ministère fédéral a donc
proposé une première ébauche de structuration de critères et de scénarios afin
de pouvoir discuter sur un canevas existant. Le principe de "démolition constructive" a été adopté, c'est-à-dire que cette base proposée était vouée a
78
DÉCISION
priori à une modification complète, mais elle permettrait de structurer les
idées à partir d'arguments souvent suscités par le désaccord. »
Sur la base de scénarios construits en commun, des conclusions opérationnelles et argumentées ont pu être élaborées de façon consensuelle.
La commission technique a adressé, le 19 décembre 1996, un rapport final aux trois
conseillers d'état des cantons de Vaud, Fribourg et Genève ainsi qu'au directeur de l'OFEFP. Ces conclusions ont été formulées en termes de « scénarios
à écarter » (au nombre de 13) et « scénarios envisageables
(au nombre de 4).
La commission
technique, « mise en place afin de pouvoir choisir quelle
usine devait être réalisée aux dépens de l'autre », a conclu de façon unanime,
en des termes assez différents :
« Le scénario concernant la construction des deux usines selon les projets
initiaux avait fait l'unanimité de la commission comme étant un scénario
certes pas parfait, mais envisageable au même titre que des scénarios avec la
construction de Tridel seule. Les possibilités de comportement de l'OFEFP
en tant que décideur étaient les suivantes :
- garder sa position initiale et
rejeter catégoriquement une double construcserait choisi probablement avec
tion ; dans ce cas, un scénario de type 3
le désaccord du gouvernement fribourgeois ;
- assouplir sa position et tolérer un tel scénario en laissant le choix aux décideurs politiques entre les scénarios recommandés par la commission technique ;
- désavouer le rapport de la commission
technique et demander une nouvelle
évaluation.
Cette dernière possibilité était peu envisageable vu le temps déjà consacré et
le sérieux du travail fourni par la commission technique. L'OFEFP a donc
décidé de revenir sur sa position initiale et d'accepter telles quelles les
recommandations de la commission technique : "(...) La méthodologie
employée n'a jamais été remise en cause, les acteurs et les décideurs ont été
étonnés par la représentativité des résultats et du nombre d'éléments pris en
compte. La décision politique qui en découle est une bonne concrétisation
des éléments d'aide à la décision dégagés par la commission technique. Il
faut encore souligner l'importance de l'impartialité de l'homme d'étude qui
se trouve à la base de toutes les interprétations des résultats. Une mauvaise
analyse peut introduire un biais énorme dans les recommandations formulées
par les différents acteurs. Il faut signaler que durant ce mandat, les sensibilités des acteurs ont été ménagées et que les représentants de l'OFEFP ont agi
en médiateurs et modérateurs. Ceci a permis un travail en toute confiance et
avec la coopération de tous."»
(1) Construction du seul projet Tridel.
Réflexions
sur le thèmequête de l'optimumet aide à la décision
79
9. COMMENT
CONTRIBUER
À LALÉGITIMATION
DELADÉCISION
ET,S'ILY A LIEU,
À LARESPONSABILISATION
DESPARTIES
PRENANTES ?
Quiconque est convaincu, dans un contexte décisionnel donné, de l'existence d'une décision optimale et de la possibilité d'en découvrir une
approximation convenable par une démarche scientifique peut être amené à
croire que cette démarche, même si elle est imparfaite, est la mieux adaptée
pour légitimer la décision et, le cas échéant, responsabiliser les parties prenantes. Celle ou celui qui pense de cette façon considère que l'optimum ainsi
découvert, même s'il leur apparaît quelque peu théorique ou relatif, doit
pouvoir servir de point de départ pour examiner, s'il y a lieu, les raisons qui
justifient qu'on s'en écarte. Pour que l'optimum puisse être cette référence
servant de point d'ancrage, il est je crois nécessaire que les acteurs, aux yeux
desquels la décision doit apparaître comme légitime, et les éventuelles parties prenantes qu'il convient de responsabiliser soient :
- aptes à comprendre les grandes lignes de la démarche ;
- disposés à admettre que, en dépit de ses imperfections, cette démarche
conduit effectivement à une bonne approximation d'un optimum objectif ;
- convaincus de la pertinence des données qui conditionnent la détermination de l'approximation de l'optimum.
§
$
Î
)
)
)
(
)
2
1
1
Î
Ces conditions peuvent être remplies dans certains contextes très techniques.
Dans beaucoup d'autres, les fondements scientifiques susceptibles de donner sens à l'optimum et d'en construire une approximation pourront apparaître, au mieux comme incomplets, au pire comme irréalistes. Lorsque la
quête de l'optimum ne peut prendre en compte la complexité du problème
particulier auquel elle devrait s'appliquer, lorsqu'elle fait intervenir des données dont tout porte à croire que la valeur peut être contestée, l'ambition
d'approximer un optimum risque fort d'apparaître comme très théorique.
Dans ces conditions, la légitimité du résultat auquel conduit cette démarche
a toutes chances d'être contestée. La décision finalement arrêtée pourra
n'avoir que peu de rapport avec l'approximation trouvée.
Pour légitimer une décision et responsabiliser les parties prenantes en vue
d'accroître notamment leur engagement, il convient, dans bien des cas, de
renoncer à l'ambition d'approcher un optimum et d'adopter une démarche
plus modeste favorisant la concertation tel que cela est préconisé dans des
textes aussi divers que ceux de Bailly (1999), Floc'hlay et Plottu (1998),
Maystre et Bollinger (1999), Rousseau et Martel (1996) (pour n'en citer que
quelques-uns). Il est en effet souvent primordial de concevoir cette démarche en fonction des possibilités de discussion et de délibération qui peuvent
être envisagées. Cette exigence est d'autant plus forte que les situations sont
80
DÉCISION
problématiques et controversées. Une démarche d'aide qui prend appui sur
des concepts clairs, des procédures de calcul intelligibles (procédures de
choix, de tri, de rangement, calcul d'optimisation...) et utilise, si besoin, des
outils informatisés peut être appropriée pour structurer un débat et faciliter
la concertation, notamment en contribuant à établir un climat de confiance
et en faisant partager une compréhension commune du problème (cf. § 8.2).
La comparaison des résultats découlant de divers jeux de données peut,
certes, faire apparaître des désaccords irréductibles. Elle peut aussi faciliter
l'acceptation d'accords partiels, par exemple sur l'élimination de certaines
des actions potentielles ou encore sur la manière de comparer certaines
d'entres elles et éventuellement d'en introduire de nouvelles. Lorsqu'il reste
à choisir entre des actions efficaces (optimum de Pareto) qui apparaissent
finalement toutes recommandables, le choix devient nécessairement politique et il doit être montré comme tel, c'est-à-dire sous-tendu par des idéologies et non justifiable par un calcul rationnel.
Ainsi conçue, l'aide à la décision peut constituer une source de légitimation
des recommandations et/ou conclusions auxquelles le processus aboutit. En
effet, quel que soit le degré de scientificité que les diverses parties prenantes
peuvent accorder à cette source de légitimation, cette dernière peut être
reconnue comme étant pertinente par bon nombre d'entre elles. Certes,
l'aide à la décision ne peut prétendre ni unifier, ni synthétiser des systèmes
de valeurs, des logiques de traitement de l'information, des formes de rationalité, des fondements de légitimité lorsque ceux-ci s'affrontent au sein d'un
même processus de décision. Néanmoins, un débat convenablement organisé autour de possibilités d'action soigneusement discutées et identifiées à
partir de critères aussi bien explicités que possible, c'est sans doute comme
la démocratie, un très mauvais système, mais les autres sont pires.
10. CONCLUSION
.
L'impossibilité d'envisager toutes les alternatives pertinentes, de justifier un
système de valeurs rendant commensurables les diverses conséquences pertinentes et de prendre en compte, de façon significative, la présence d'imprécisions, d'incertitudes et de mauvaises déterminations pour évaluer ces
conséquences oblige, dans bien des cas, à renoncer, en matière d'aide à la
décision, à la démarche de quête d'un optimum (au sens donné à cette
expression au § 3.2). Il me paraît souvent préférable de lui substituer une
démarche moins ambitieuse faisant usage ou non de l'optimisation, prenant
appui sur une modélisation des préférences ne relevant pas nécessairement
d'une approche monocritère. Une approche multicritère peut notamment
favoriser la structuration progressive du problème de décision dans une
démarche participative impliquant les parties prenantes. Ce genre de démarche,
Réflexions
sur lethèmequête de l'optimumet aide à la décision
81
qui privilégie la rationalité procédurale aux dépens de la rationalité substantielle (cf. Simon, 1976), est souvent la plus apte à contribuer à la légitimation de la décision ainsi qu' à la responsabilisation et à l'engagement des
parties prenantes.
BIBLIOGRAPHIE
BAILLYJ.P., Prospective, débat, décision publique, Éditions de l'Aube, 1999.
BANAe COSTAC., Structuration, construction et exploitation d'un modèle multicritère d'aide à la décision, Thèse de doctorat pour l'obtention du titre docteur en ingénierie de systèmes, Universidad Técnica de Lisboa, Instituto Superior Técnico,
Portugal, 1992.
BANA e COSTAC., VANSNICKJ.C., « A Theoretical Framework for Measuring
Attractiveness by a Categorical Based Evaluation Technique (Macbeth) », in
J. Climaco (ed.), Multicriteria Analysis, Berlin, Springer-Verlag, 1997, 15-24.
BOITEUXM. (ed.), Transport : Pour un meilleur choix des investissements, Rapport
du groupe présidé par Marcel Boiteux, Commissariat général du Plan, Paris, La
Documentation française, 1994.
BOLLINGER
R., « Un cas concret de la contribution
L.Y., SLOWINSKI
D., MAYSTRE
de l'aide multicritère à la décision à la coordination inter-cantonale pour l'incinération des déchets urbains », in 45e journées du groupe de travail européen « Aide
Multicritère à la Décision », Celàkovice, République Tchèque, 20-21 mars 1997.
BouYssoU D., « Modelling Inaccurate Determination, Uncertainty, Imprecision
Using Multiple Criteria », in A.G. Locklett, G. Islet (eds.), Improving Decision
Making in Organisations, LNEMS 335, Berlin, Springer-Verlag, 1989, 78-87.
BOUYSSOUD., MARCHANT
T., PERNYP., PIRLOTM., TSOUKIÀSA., VINCKEP.
(eds.), Applying Multicriteria Decision Analysis: a Handbook of Methods and
Model Development, Kluwer Academic Publishers (forthcoming).
C. W., ACKOFFR.L., ARNOFFE.L., Introduction to Operations
CHURCHMAN
Research, New York, Wiley, 1957.
DEBRINCAT
L., MEYÈREA., « L'aide multicritère à la décision. Des potentialités
pour l'évaluation des projets de transport collectif en Île-de-France », Métropolis
« Évaluer et décider dans les transports », n° 106-107, 1998, 57-61.
.
FLOC'HLAY
B., PLOTTUE., « Consultation ou codécision ? La question de la partidu
citoyen à l'évaluation des projets publics », Métropolis « Évaluer et
cipation
décider dans les transports », n° 106-107, 1998, 76-79.
FODORJ., ROUBENSM., Fuzzy Preference Modeling and Multicriteria Decision
Support, Dordrecht, Kluwer Academic Publishers, 1994.
GALT., STEWART
T.J., HANNET. (eds), Multicriteria Decision Making-Advances in
MCDM Models, Algorithms, Theory, and Applications, Boston, Kluwer Academic
Publishers, 1999.
DÉCISION
82
VANDERPOOTEN
GARDINER
Some
L.R.,
Reflections
GAUTHIER
verses,
Procédures :
Berlin,
Springer-
(eds.),
L'analyse
Défis
et contro-
coûts-avantages.
1993.
Économica,
Resources:
A
177-197.
du calcul économique
et finanS., DENANT-BOÉMONT
L., « Cohérence
Le cas de l'autoroute
ferroviaire
des grands projets d'infrastructures :
»,
HAMMICHE
Value
Analysis,
Environmental
R., LICHTENSTEIN
S., SLOVIC P., « Valuing
7, 1993,
», Journal
of Risk and Uncertainty
Approach
GRÉGORY
public
Economique,
KEENEY
M.
THIBAULT
G.,
Paris,
Constructive
Revue
Criteria
Multiple
Multicriteria
(ed.),
1997, 290-301.
Verlag,
cement
« Interactive
D.,
», in J. Climaco
vol.
RAIFFA
R.L.,
New
Tradeoff's,
48, n° 2, 1997,
H.,
York,
Decisions
John
LE PEN C., « Théorie
de l'utilité
HYEs », Économie
et Prévision,
LESOURNE
J., Technique
LESOURNE
J.,
Le
with
Multiple
and
Wiley
Sons,
et mesure
des
Objectives.
1976.
états
and
Preferences
de santé :
le débat
QALYs-
129-130.
1997,
et gestion
économique
calcul
271-294.
industrielle,
Théorie
économique.
Paris,
et applications,
1959.
Dunod,
2e édition,
Paris,
Dunod, 1972.
LESOURNE
MAYSTRE
J., Cost-Benefit
BOLLINGER
L.Y.,
Lausanne,
conseils,
MORIN
Presses
E.., La méthode
PAWLAK
transactions
and
Analysis
D.,
Aide
Economic
à la
Polytechniques
2. La vie, Paris,
Z., SLOWINSKI R., « Decision
on Operational
Research
multicritère.
négociation
et Universitaires
Éditions
North-Holland,
Theory,
Pratique
1999.
Romandes,
du Seuil,
PICTET
dans
la
Université
Sets
Analysis
Using Rough
1 (1), 1994, 107-114.
», International
dans
des préférences
collectives
en science
mention
économiques,
Lyon 2, 1996.
J., Dépasser
décision
romandes,
Lumière
l'évaluation
globale,
environnementale.
Presses
Lausanne,
Procédure
ROUSSEAU
efficacement
J.C.,
BARBA-ROMERO
Paris,
Hermès,
A., MARTEL
les conflits
de l'administration,
ROY B., Méthodologie
économie
et insertion
universitaires
S., Choix
J.M., « La décision
environnementaux
document
multicritère
La valorisation
des béné-
1993.
dans
l'entreprise.
Principes
1993.
de travail
multicritère
ROY B., « Main Sources
of Inaccurate
in Decision
Models
», Mathematical
1245-1254.
et
le marché
1996.
POINT P., DESAIGUES B., Économie
du patrimoine
naturel.
de protection
de l'environnement,
Paris, Économica,
et pratiques,
d'étude
polytechniques
fices
POMEROL
et
1980.
PEREZ M., Coût externes
et expression
des transports,
Thèse pour le doctorat
des transports,
1975.
participative :
», Université
96-24,
d'aide
une démarche
Laval,
Faculté
pour gérer
de sciences
1996.
à la décision,
Determination,
and Computer
Paris,
Uncertainty
Modelling
Économica,
1985.
and Imprecision
10/11,
1989,
12,
Réflexions
sur lethèmequête de l'optimumet aide à la décision
83
ROYB., « Science de la décision ou science de l'aide à la décision ? », Revue internationale de systémique, vol. 6, n° 5, 1992, 497-529.
RoY B., « A Missing Link in OR-DA: Robustness Analysis », Foundations of
Computing and Decision Sciences, vol. 23, na 3, 1998, 141-160.
RoY B., BOUYSSOU
D., Aide multicritère à la décision : Méthodes et cas, Paris, Économica, 1993.
SAATYT.L., The Analytic Hierarchy Process, McGraw Hill, 1980.
SAATYT.L., Décider face à la complexité. Une approche analytique multicritère
d'aide à la décision, Paris, EME, 1984.
SCH?iRLIG
A., Pratiquer Électre et Prométhée. Un complément à décider sur plusieurs critères, Lausanne, Presses polytechniques et universitaires romandes, 1996.
SCH?1RL1G
A., « La complexité en gestion : éloge de l'aide multicritère », in Actes
du Colloque ARAE, Université Jean Moulin Lyon 3, Complexité, Intelligence et
Décision, 1998.
SIMONH., « From Substantive to Procedural Rationality » in S.J. Latsis (ed.),
Method and Appraisal in Economics », 1976, 129-148.
SLOWINSKI
R. (ed.), Intelligent Decision Support. Handbook of Applications and
Advances of the Rough Sets Theory, Theory & Decision Library, Dordrecht, Kluwer
Academic Publishers, 1992.
SLOWINSKI
R., Fuzzy Sets in Decision Analysis, Kluwer Academic Publishers, 1998.
STEUERR.E., Multiple Criteria Optimization: Theory, Computation and application, New York, John Wiley and Sons, 1985.
STP (Syndicat des transports parisiens), Direction des investissements, Méthodes
d'évaluation socio-économique des projets d'infrastructures de transports en commun en région Île-de-France (Rapport d'étape), 1996.
STP (Syndicat des transports parisiens), Direction des investissements, Méthodes
d'évaluation des projets d'infrastructures de transports collectifs en région Île-deFrance (Rapport final) 1998.
THÉPOTJ., « La modélisation en sciences de gestion ou l'irruption du tiers », Revue
française de gestion 102, 1995, 66-70.
VINCKEP., Multicriteria Decision-Aid, New York, Wiley, 1992.
VINCKEP., « Robust and Neutral Methods for Aggregating Preferences into an
Outranking Relation », European Journal of Operational Research, volume 112,
n° 2, 1999, 405-412.
Nicolas Curien
1
À LAPOURSUITE
DUGASPIMILI
1. PROLOGUE
À:L'HÔTEL
DEBRIENNE
L'automne finissant recouvre d'un tapis jaune le bassin de l'hôtel de Brienne
et en chasse les canards. Mais le regard bleu intense d'André Giraud ne franchit pas les vastes portes-fenêtres qui ouvrent son bureau sur les jardins : il
est entièrement dirigé vers ses deux visiteurs, auxquels le ministre fait savoir
ce qu'il attend d'eux, avec une conviction qui ne souffre guère la contradiction. Dès sa prise de fonction, en mars 1986, le nouveau responsable de la
Défense nationale a constaté l'absence d'une comptabilité analytique digne
de ce nom et désire pallier cette lacune au plus vite : comment, en effet,
évaluer un programme militaire et prendre une décision « lucide », dans
l'ignorance des coûts de revient et sans pouvoir mettre en regard moyens et
objectifs autrement qu'à travers le filtre mal adapté de la comptabilité budgétaire ?
Le discours, ferme et sans appel, ressuscite avec talent les ambitions de la
rationalisation des choix budgétaires (RCB), morte quelque dix ans plus tôt
d'une vision trop naïve des processus de décision au sein des organisations.
Le ministre le sait-il seulement ? Je brûle de le lui apprendre, mais Jacques
Lesourne adoucit de sa coutumière prudence mes quelques tentatives en ce
sens : oui, une comptabilité analytique serait précieuse ; non, elle ne serait
pas entièrement suffisante. De ce dernier aspect, le ministre n'est point du
tout persuadé, tant il croit aux vertus des systèmes d'information. Il nous
À la poursuite du Gaspimili
85
à l'idée que, si l'intelligence
des
appartiendra de l'amener progressivement
en
combler
un
déficit
d'information
et
orienter
le
phénomènes
peut
partie
recueil des données utiles, l'inverse n'est jamais vrai : l'information
ne peut
être substituée sans danger à l'intelligence !
Mais pour convaincre, il nous
faudra d'abord travailler.
L'hiver venu, en février 1987, est créée auprès du ministre la Mission pour
le développement
du calcul microéconomique
(MICM), « chargée d'examiner comment l'usage de ce calcul pourrait être développé afin de contribuer à l'optimisation
des dépenses militaires ». La mission est priée de
remettre ses conclusions
à l'automne
1987. Le ler octobre, à l'heure au
les deux chargés de mission restituent le fruit de leurs investirendez-vous,
gations au ministre et aux principaux cadres dirigeants du ministère, au
cours d'une « réunion de programmes » spécifiquement
consacrée au calcul
Le
relevé
de
conclusions
établi
à
l'issue
de
cette
réunion décide
économique.
la création d'une mission permanente, transformée dès la fin de l'année 1987
en l'une des trois sous-directions
de la nouvelle Délégation aux études générales, confiée à Henri Conze qui deviendra plus tard délégué général de l'armement.
Comment
expliquer cette priorité si rapidement accordée à l'analyse éconosans faille du
mique ? Essentiellement
par la volonté et la détermination
ministre, bien sûr, mais un peu aussi, je le crois, par la force de l'exemple et
celle de la participation :
avec Jacques Lesourne, nous avions organisé notre
mission, puis notre présentation d'octobre, autour de plusieurs études de cas
concrètes, réalisées en collaboration avec les différentes entités du ministère.
Ces études visaient à révéler l'intérêt - et aussi les limites - du calcul éconoà un registre de situations contrastées se rapportant à
mique, en l'appliquant
différents échelons de décision au sein du ministère : depuis les grandes
options stratégiques dépendant directement du ministre et des chefs d'étatsdécisions élémentaires
de gestion prises dans les unités
majors, jusqu'aux
en considérant
tels
déconcentrées,
également des maillons intermédiaires,
militaires, un choix entre variantes d'un
qu'un arbitrage entre programmes
même programme,
ou une décision d'intendance
relevant du commissariat
d'un état-major.
Deux
de ces études sont ici reprises, sous une forme à peine stylisée, et
portées en offrande à Jacques Lesourne, parmi les ingrédients variés de ces
« mélanges ». Je les dédie également à la mémoire d'André Giraud, l'ardent
et
ministre, le redoutable chasseur de Gaspi, à qui elles doivent l'existence
en
son
avait
su
en
tirer
d'un
La
qui,
temps,
plus
enseignement.
première,
intitulée « Le camp des dragons », illustre l'échelon de base des choix militaires en analysant l'emploi d'une dotation budgétaire exceptionnelle
au sein
d'un corps de troupe ; la seconde, intitulée « Le pain des armées », considère
un échelon de décision intermédiaire et traite de l'efficacité des boulangeries
militaires d'infrastructure
de l'armée de
exploitées par le Commissariat
terre.
En avant, donc, et sus au Gaspimili !
86
DÉCISION
2. LECAMPDESDRAGONS
Le commandant du troisième régiment de dragons des Forces françaises en
Allemagne (FFA) établit son programme d'activités pour l'année à venir. Il
dispose, relativement à l'année précédente, d'une dotation supplémentaire
de 330 kF affectée au budget de fonctionnement du régiment. Ces crédits
permettent, d'une part d'améliorer les conditions de la vie courante à la
garnison, d'autre part de réviser à la marge le programme d'instruction
initialement prévu, qui comportait, outre des exercices au quartier, deux
sorties en camp, l'une à Mourmelon en France, avec trois escadrons de
chars, et l'autre à Müssingen en Allemagne, avec deux escadrons. Par
rapport à la situation de référence, la dotation de 330 kF peut être employée
de plusieurs manières alternatives et choisir rationnellement exige que soient
clairement explicités, et les objectifs, et les contraintes.
La quantification
des objectifs
Dans l'emploi de la dotation, le commandant est amené à prendre en considération deux objectifs complémentaires :
- un objectif « vie courante », visant à améliorer les conditions de la vie
locale à la garnison, notamment en termes de rénovation du casernement
et de développement des activités sociales ;
- un objectif « instruction », visant à améliorer le volume et la qualité du
programme d'instruction. Ce second objectif peut-être réalisé en combinant trois moyens :
une augmentation des activités au quartier, sous la forme d'exercices
d'équipages, d'instruction au tir, d'entretien du matériel, etc.,
une extension des manoeuvres, à travers un renforcement du camp de
Mourmelon où le terrain offre de larges possibilités de mouvement et
produit un effet de « dépaysement » dû à l'éloignement géographique,
un développement de la vie en opérations, à travers un renforcement du
camp de Müssingen, certes moins riche que celui de Mourmelon du
point de vue des manoeuvres, mais offrant à proximité de la garnison
une familiarisation avec les conditions de « terrain ».
Le premier objectif peut être quantifié par le montant s des crédits affectés
à l'amélioration de la vie courante, tandis que les trois moyens qui contribuent à l'objectif d'instruction peuvent être respectivement quantifiés par le
nombre j de jours supplémentaires d'activités au quartier, par le nombre m
d'escadrons supplémentaires envoyés à Mourmelon, et par celui M d'escadrons supplémentaires envoyés à Müssingen.
À la poursuitedu Gaspimili
87
En supposant les trois moyens j, m et fl linéairement substituables les uns
aux autres au sein de la « technologie » d'instruction, la « production »
d'instruction peut être évaluée sous la forme d'un indicateur agrégé,
exprimé en équivalents-jours d'instruction au quartier, soit :
q = j + am + afL
a à0
a>0,
où le paramètre a (resp. a ) est le « taux de substitution technique » entre
instruction au quartier et entraînement au camp de Mourmelon (resp.
Müssingen) : ainsi, à niveau d'instruction constant, un escadron de chars
envoyé en camp est substituable à a ou a jours d'activité au quartier, selon
que la destination est Mourmelon ou Müssingen. Par transitivité, le taux de
substitution entre Mourmelon et Müssingen est mesuré par le rapport a/a :
un escadron à Mourmelon équivaut à a/a escadrons à Müssingen.
Selon ce modèle, le choix du commandement consiste à sélectionner un
couple (s,q) qui traduit l'arbitrage réalisé entre le budget s affecté à la vie
courante et le niveau d'instruction q, ce dernier étant produit à partir des
trois facteurs j, m et fl (à la manière du modèle de Lancaster dans lequel les
attributs désirés par un individu sont « produits » à partir de ses consommations). Le choix s'effectue en maximisant une fonction d'utilité U(s,q),
représentant les préférences du décideur et définie à une fonction croissante
près. Cette maximisation n'est évidemment pas libre : elle s'effectue au sein
d'un espace des choix possibles, restreint par la ressource budgétaire et par
une contrainte de « potentiel », limitant l'utilisation des matériels.
Avant de préciser les contraintes, il convient d'abord d'observer que la
modélisation précédente est nécessairement réductrice, en ce qu'elle traite
de manière purement quantitative des aspects comportant une dimension
qualitative. D'une part, la qualité de la vie courante est ici assimilée au
budget qui lui est consacré ; d'autre part, le niveau d'instruction atteint par
les personnels militaires ne résulte sans doute pas uniquement du nombre
des exercices réalisés au quartier, de la quantité de manoeuvres effectuées, et
du temps passé sur le terrain : une telle approximation est assez semblable à
celle qui consiste à mesurer une production de servives de santé à l'aide d'un
indice combinant le nombre de lits d'hôpitaux, le stock d'équipements médicaux, et l'effectif du personnel soignant. Le modèle proposé, pour imparfait
qu'il soit, comporte toutefois le mérite d'établir une distinction entre les
objectifs, soumis à l'arbitrage du décideur, et les moyens mis en oeuvre pour
atteindre ces objectifs.
Les contraintes
et l'espace de choix
Deux contraintes limitent l'espace des choix réalisables : la première est de
nature budgétaire, et la seconde porte sur la consommation du « potentiel »
kilométrique des chars.
DÉCISION
88
- Du point de vue budgétaire, un escadron de chars manoeuvrant en camp
consomme pendant cette période 100 kF de carburant ; par ailleurs, le transport des blindés par voie ferrée revient à 300 kF pour un escadron envoyé à
Mourmelon, et seulement à 80 kF pour un escadron envoyé à Müssingen,
auxquels s'ajoutent 10 kF de frais de déplacement des personnels quelle que
soit la destination. Au quartier, une journée d'instruction consomme 45 kF
de carburant et mobilise 10 kF de moyens d'instruction. Compte tenu de
l'enveloppe disponible de 330 kF, la contrainte budgétaire s'écrit donc :
55 j + 1 10 (1n + fl) + 300 m + 80 fl x
< 330 .
55) + 410m + 190 f-i
330
Tenant compte d'indivisibilités dans la programmation de l'instruction, le
nombre de journées d'activités au quartier est nécessairement entier, si bien
.
que la contrainte peut être réécrite :
82
jxE
38
-)
.
szm
II - a ICI
où E[.] désigne l'opérateur « partie entière ».
- Du point de vue du potentiel kilométrique, un jour d'instruction au quartier mobilise un escadron de chars et le déplace sur 12,5 km, alors qu'un char
envoyé à Mourmelon ou à Müssingen parcourt environ 250 km pendant la
durée du camp. Afin de préserver le « potentiel » des chars, le commandement s'impose que les activités supplémentaires permises par la dotation
budgétaire ne consomment en aucun cas plus d'un équivalent de 250 km x
escadron. Cette contrainte s'écrit :
6[ -
12,5 j + 250(m + fl) x 250 ,
soit encore :
1n + fl < 1
j < 20(l - m - fi) .
-
Afin de satisfaire à la contrainte de potentiel kilométrique, le nombre
total m + f-i d'escadrons supplémentaires envoyés en camp ne peut excéder
une unité au total. Il en résulte, en raison d'un certain degré d'indivisibilité dans l'organisation d'un escadron, que l'on a nécessairement
m + fl E {0,1 /2,1 } on ne peut briser le « quantum » d'un demi-escadron !
Par ailleurs, envoyer un escadron entier supplémentaire à Mourmelon
(m = 1 et fl = 0) ne respecte pas la contrainte budgétaire (car 82/ 11 > 6 ).
Il en résulte que l'espace des choix réalisables est défini par les conditions :
m E {0,1/2}
{m+f-i E {0,1/2,1}
j 0Inx+j fl( einf{E
1 /2,
11n
) e-(0, 1 /2)
,20(1 - m - 11)
(0, [6
f.c)}
1.
- 82m/ll
Tout triplet ( j,1n, fl) vérifiant ces contraintes est réalisable et on peut lui
associer les valeurs correspondantes des deux objectifs, soit :
s = 330 - 55 j - 410 1n - 190 fl
+ ceti,
q =j
89
À la poursuitedu Gaspimili
où la première égalité exprime que le budget affecté à la vie courante est égal
à la fraction de la dotation qui n'est pas consacrée à l'instruction, et où la
seconde n'est autre que la fonction de production de l'instruction.
Le problème d'optimisation du décideur peut alors être décomposé en deux
étapes :
- à la première étape, il recherche, parmi tous les triplets ( j,1n , fl) respectant les contraintes, ceux qui conduisent à des optima de Pareto, c'est-àdire à des couples (s,q) tels qu'il soit impossible d'améliorer
simultanément les deux objectifs s et q : développer l'un oblige nécessairement à réduire l'autre ;
- à la deuxième étape, s'il existe plusieurs optima de Pareto, le décideur
sélectionne parmi eux celui qui réalise le « meilleur » arbitrage entre les
deux objectifs s et q, à l'aide de sa fonction d'utilité U(s,q).
Les optima de Pareto et la décision optimale
Recherchons d'abord les optima de Pareto. Par définition, ceux-ci sont tels
que chacun des deux objectifs est maximal lorsque la valeur de l'autre est
maximal à s donné, ce qui est exprimé par le
fixée, par exemple q
programme :
+ 410 m ++ 190fil
+am +exfLI55}
cste]
= este]
190it =
55 j +4l0m
c
max[V = (a - 82/ 1 1 )1n + (a - 38 / 1 1 ) fl]
m.1l
tenu
des couples de valeurs admissibles pour les variables m et IL,
Compte
cinq configurations sont a priori candidates à la Pareto-optimalité dans l'espace des triplets ( j,1n, fl) , soit :
QQ=
QfL =
Qm =
fLm = « Müssingen-Mourmelon
-titi
'
'
» : m = ju = 1/2, j = 0 ;
« Tout Müssingen » : m = 0, p, =
1, j = 0 ;
Dans les trois premières situations, Q Q, QfL et Qm, où seul un demi-escadron supplémentaire est envoyé en camp, la contrainte de potentiel kilométrique n'est pas saturée et l'instruction au quartier peut être développée dans
des limites uniquement fixées par la contrainte budgétaire (la variable j
pouvant alors prendre des valeurs strictement positives). Dans les deux
et flfl , où un escadron ou deux demi-escadrons sont
dernières situations,
contrainte
de potentiel est saturée de ce seul fait
envoyés en camp, la
=
donc
(m + fl
1 ) et elle impose
que l'activité au quartier soit maintenue
=
0 ).
inchangée U
DÉCISION
90
La recherche des optima de Pareto revient alors à déterminer la plus grande
parmi les valeurs de la fonction V associées aux différentes configurations
soit :
Qm, um et
éligibles Q Q,
V* =
où :
VQQ = 0
V Q/l"-_ 2 a
19
Il1
_a
VQM= - 2- -
411 1
38
a + a 60
Vltm –= 2 12
Vilit
111
lIl1
On observe tout d'abord que le choix Q fl est toujours dominé, soit par Q Q
(a/2 - 19/11 < 0 si a < 38/11 ), soit par flfl (a/2 - 19/11 < a - 38/111
si a > 38/11 ). Le problème est alors réduit à la recherche de :
v sup 1 VQ Q, VQ., VI,., Vgm 1
41 a+a
60
fa
38
,
= SUD 1< 0,2- – –,11
–––– 2–
11 a - 38}il
60
et il apparaît que chacune des quatre possibilités est optimale dans un certain
domaine de variation des deux paramètres a et a :
a < 38/111 a < 82/111 »
V* = VQQ
V* = VQm
a < 38/111 a >
= V/lm
<a
<a-4
V*
»
38/11
= V/l/l
>
V*
:::}
a
sup{38/11,a - 4}
Dans les deux derniers cas, flln et gp , la contrainte de potentiel kilométrique exige j = 0, si bien que l'optimum de Pareto est unique et suffit à
caractériser complètement la décision :
V* = V/lm {} m = ¡L = 1/2
m = 0 ¡L =] )
s = 30 q = (a + a)/2
.s=140 q=a.
Dans les deux premiers cas, Q Q et Qm, la contrainte de potentiel est inactive et il existe plusieurs optima de Pareto (respectivement sept et trois),
définis par :
m = ¡L = 0
e [0, 1, 2,3,4,5,61
= 330 - 55 j q = j }
s
fl = 0 j
E {0,1,2}
V*=VQm {} m=I/2
<* s = 125 - 55 j
q=j+a/2.
La décision optimale dépend alors de la forme de la fonction d'utilité
U(s,q) reflétant les préférences entre les deux objectifs. Dans le cas particulier où cette fonction est linéaire, soit :
U(s,q) = xs + q ,
la solution optimale est de type « bing-bang » et elle est simplement obtenue
en comparant le taux de substitution x caractérisant les préférences du déci-
911
À la poursuite du Gaspimili
deur au taux de substitution budgétaire 1/55 (renoncer à un équivalent-jour
la vie
au quartier rend 55 kF disponibles
d'instruction
pour améliorer
courante) :
-
si x < 1 /55 , on doit choisir j = 6::::} s = 0, q = 6
a/2 dans le cas Qm ;
dans le cas Q Q, et
- si x > 1/55, on doit choisir j = 0 » s = 330, q = 0 dans le cas Q Q ,
et j = 0 => s = 125, q = a/2 dans le cas Qm.
est non linéaire (mais croissante et quasiU(s,q)
Lorsque la fonction
la
solution
concave),
optimale peut être « intérieure », conduisant alors à un
certain équilibre entre instruction au quartier et vie courante. Par exemple, si
s'écrit dans le
U(s,q) = sq (à une fonction croissante près), l'optimisation
cas Q Q : i
max
jc(O, 1,2,3,4,5,6)
d'où un optimum intérieur.
atteint « en coin » :
Dans le cas Qm, en revanche,
l'optimum
est
= 0»
s = 125 , q = a/2.
max (125 - 55 j)( j + )
./<=)OJ,2)
max
(125 - 55j)(j + -) ::::} } = 02::::} s = 125 , q = a/2.
La figure ci-après indique le découpage du plan {a,a} en quatre régions,
de l'une des quatre
à la Pareto-optimalité
chacune d'elles correspondant
entre
les
lieux
d'indifférence
frontières
sont
classes de solutions. Les lignes
«
solutions
limitrophes ».
a
Plu
flm
––––––––––––––––––––––––––––––––
38/111
Qm
QQ
0
82/111
Figure 1 : Programme d'instruction optimal
a
'
92
DÉCISION
Sur la figure, un déplacement horizontal vers la droite (a = cste et a croissant) traduit, toutes choses égales d'ailleurs, une augmentation du poids
relatif de la composante m « grandes manoeuvres à Mourmelon » au sein de
l'objectif d'instruction q ; symétriquement, un déplacement vertical vers le
haut (a = cste et a croissant) traduit une augmentation du poids relatif de
la composante IL « vie en opérations à Müssingen » ; enfin, un déplacement
radial vers l'origine (a/a = cste et a et a décroissants) traduit une
augmentation du poids relatif de la composante j « vie au quartier ».
Les résultats mettent en évidence un double arbitrage concernant l'instruction : d'une part, entre entraînement au quartier et en camp ; d'autre part,
entre Müssingen et Mourmelon.
0 Si l'entraînement en camp est assez peu valorisé au sein de l'objectif
d'instruction (région sud-ouest Q Q proche de l'origine), alors toute la dotation doit être dépensée localement au quartier, un partage restant à décider
entre activités d'instruction et amélioration de la vie courante.
- Si les manoeuvres sont fortement valorisées, mais la vie en opérations
faiblement (région sud-est Qm), alors l'instruction doit être développée au
camp de Mourmelon où un demi-escadron supplémentaire sera envoyé, et
éventuellement aussi au quartier, selon l'intensité relative des préférences
entre vie courante et instruction.
- Si la vie en opérations est fortement valorisée, alors la totalité du supplément d'instruction doit être consenti en camp à l'exclusion du quartier, soit
exclusivement à Müssingen avec un plein escadron (région nord-ouest ILIL),
soit à Müssingen et à Mourmelon avec un demi-escadron envoyé à chaque
destination (région nord-est flln ) si les manoeuvres sont également fortement
valorisées. Dans les deux cas, la fraction de la dotation non dépensée en
camp (respectivement 140 kF et 30 kF), sera affectée à l'amélioration de la
vie courante au sein de la garnison.
La sensibilité du choix à la contrainte
budgétaire
En raison d'un contexte budgétaire particulièrement favorable, la dotation
supplémentaire est finalement augmentée de 110 kF, et donc portée à
440 kF. Comment les choix sont-ils modifiés ? La contrainte budgétaire
s'écrit désormais :
55 j + 410 m +
190 fl x 440,
si bien qu'apparaît une sixième possibilité, précédemment interdite : celle
consistant à envoyer un escadron entier à Mourmelon (m = 1 et fi = 0).
Compte tenu, par ailleurs, de l'augmentation permise du nombre de jours
d'instruction au quartier dans le cas où strictement moins d'un escadron
supplémentaire est envoyé en camp (dans le cas contraire la contrainte kilométrique exige encore j = 0), l'ensemble des solutions réalisables devient
alors :
',t
93
À la poursuitedu Gaspimili
*66=
«ToutQuartier»:m=/i,=0,0< j <8 ;
Q[i
«Quartier-Müssingen» : m = 0, /L = 1/2, 0 ,ç j ,ç 6 ;
Qm = «Quartier-Mourmelon» : m = 1/2, /L = 0, 0 ,ç j ,ç 4 ;
flln = « Müssingen-Mourmelon » : m = i£= 1 /2, j = 0 ;
-,uti = « Tout Müssingen » : m = 0, fl = 1, j = 0 ;
Il MM
« Tout Mourmelon » : m = 1 , /L = 0, j = O.
La recherche des optima de Pareto consiste désormais à calculer :
V* = Supi VQQ, VQI" VQ., Vt,., Vig, Vm.1
où :
82
V"2m=a--.
Ili
'
a
//Mm
mm
38/111 –––––––––––––––
QQ
0
82/11
1
a
Figure 2 : Desserrementde la contrainte budgétaire
On observe que, les situations particulières d'indifférence étant mises à part,
le choix Qm est dominé, soit comme précédemment par QQ (si
a < 82/ 11 ), soit par mm (a/2 - 41 / 11 < a - 82/ 11 si a > 82/ 11 ) ; de
même, le choix flln est dominé, soit comme précédemment par flfl (si
a > a - 4 ), soit par mm ((a + a)/2 - 60/11 < a - 82/11 si a < a - 4 ).
Par ailleurs, le choix
reste évidemment dominé comme précédemment,
des
possibilités de choix ne pouvant que renforcer cette
l'élargissement
domination. L'optimum, lorsqu'il est atteint strictement, est donc finale.
ment donné par :
DÉCISION
94
V* = supi VQQ, Vtp, V.. =
sup{O,a - 38/11,a -
82/11} ,
d'où :
a
< 38/111 a < 82/111
a > sup{38/11,a - 4}
»
'*
»
V* = VQQ
V* = VJLJL
V*= Vmm
Ainsi, lorsque la contrainte budgétaire est desserrée de manière à autoriser
l'envoi d'un plein escadron à Mourmelon, il n'est jamais optimal de répartir
l'effort d'instruction entre quartier et camp ou entre les deux camps, ce que
traduit la « disparition » des solutions Qm et lim et l'émergence d'un
« diagramme de point triple » séparant les trois « phases » Quartier (Q Q ),
), et Mourmelon (mm ) :
Müssingen (/-L/-L
- si l'entraînement en camp est peu valorisé, il faut arbitrer entre un supplément d'instruction en totalité réalisé au quartier et une amélioration de la
vie courante (secteur Q Q ) ;1
.
- si l'entraînement en camp est valorisé sous son aspect vie en opérations
(secteur lili ), un escadron supplémentaire doit être envoyé à Müssingen,
exclusivement, le restant de la dotation, soit 250 kF, étant affecté à la vie
courante ;
- symétriquement, si l'entraînement en camp est valorisé sous son aspect
manoeuvre (secteur mm ), un escadron supplémentaire doit être envoyé à
Mourmelon, excusivement, le restant de la dotation, soit 30 kF, étant
affecté à la vie courante.
La morale des dragons
L'analyse qui précède peut apparaître comme un exercice d'école, un peu
trop étroitement inspiré de la recherche opérationnelle ; même vue sous cet
angle réducteur, elle n'est pas dépourvue toutefois de vertus pédagogiques.
- Elle montre d'abord que le calcul économique est parfois intéressant sous
une forme « renversée » : plutôt que calculer une solution optimale relativement à un ou plusieurs objectifs donnés a priori, s'interroger sur la nature et
la structure des objectifs qui rendent optimal tel ou tel choix a priori
possible. La démarche « duale » qui consiste à révéler les objectifs à partir
des choix effectués est utile pour d'abord mieux comprendre les préférences
du décideur, avant d'appliquer ensuite la démarche « primale » consistant à
déduire les choix des préférences.
- Elle souligne ensuite que l'explicitation de l'espace de choix, délimité par
les contraintes qui s'exercent sur la décision, contribue grandement à la
détermination de l'optimum, en réduisant considérablement le champ des
solutions possibles. La fonction objectif joue parfois un rôle mineur dans
cette détermination, permettant éventuellement in fine de choisir parmi un
petit nombre d'options admissibles.
À la poursuitedu Gaspimili
955
- Elle indique enfin comment le déplacement d'une contrainte peut éliminer
certaines solutions et en faire apparaître de nouvelles, dominant celles qui
sont écartées. Il est souvent fructueux, dans une étude économique, d'identifier les contraintes qui empêchent la réalisation d'un résultat souhaitable,
ou qui forcent l'acceptation d'un compromis peu satisfaisant, en vue de
plaider pour une relaxation de ces contraintes.
Au-delà de cette utile pédagogie, il n'est pas interdit de penser, comme se
plaisait à le faire le ministre André Giraud, qu'un certain souci de l'opportunité des choix, ne se fourvoyant certes pas dans les excès d'une rationalisation systématique, mais imprégnant plutôt l'esprit des décideurs, soit
propre à accroître l'efficacité de la gestion dans les unités déconcentrées du
ministère : même s'il ne s'agit souvent que de petites sommes, comme dans
le cas étudié ici, c'est de kilofranc par ci en kilofranc par là que l'on chasse
le Gaspi !
3. LEPAINDESARMÉES
Les boulangeries militaires d'infrastructure (BMI) constituent le dispositif
mis en place par l'Armée de terre afin de satisfaire les besoins en pain des
Forces, ainsi que des entités qu'elles seraient amenées à soutenir en temps
de crise ou de guerre. Ainsi, 40 boulangeries militaires exploitées par le
Commissariat de l'Armée de terre (CAT) assurent environ 55 % de la
consommation de pain des corps de troupe et ont pour mission de pouvoir
fournir, en période critique, les quantités de pain prévues par les
« Instructions et données de base » (IDB).
L'efficacité économique d'un système consistant à produire du « pain militaire » en temps de paix, plutôt que recourir aux services des boulangeries
civiles, suscite quelques interrogations : faut-il supprimer les BMI ? Telle
était la tentation forte du ministre André Giraud, à laquelle s'opposait la
résistance virulente de l'État-major de l'Armée de terre. Le langage neutre
du calcul économique allait-il pouvoir calmer les passions ?
Un premier calcul comptable
Pour l'année 1986, la production courante des BMI s'élève à 14 639 tonnes
de pain et les dépenses comptabilisées par le CAT (en kF) figurent dans le
tableau ci-après, où l'on a distingué les coûts variables, proportionnels au
volume de la production, et les coûts fixes, ne pouvant être ajustés à court
terme en fonction de ce volume.
- Les coûts fixes se
composent des dépenses de personnel (rémunération des
ouvriers boulangers d'État), de l'amortissement
comptable du capital
DÉCISION
96
(moyenne annuelle des dépenses d'investissement et de renouvellement
lissée sur les dix dernières années), de l'outillage, des travaux et services
extérieurs (TFSE), et du soutien apporté par les échelons régional et national
aux établissements locaux.
- Les coûts variables comprennent les approvisionnements (farine, levure,
sel), ainsi que les autres consommations intermédiaires nécessaires à la
fabrication du pain, notamment l'énergie.
Les coûts du pain militaire(kF86)
Coûts fixes
Personnel
Amortissements
Outillage
Soutien
TFSE
Totalfixe
31 637
3 288
483
92
591
36 091
Coûts variables
Approvisionnements
Énergie
Total variable
26 686
4 458
31144
67 235
Coût Total
Ces chiffres doivent être augmentés du coût de livraison du pain aux corps
de troupe, qui est à la charge de ces derniers et ne figure donc pas dans les
comptes du CAT. Pendant une tournée, au cours de laquelle il collecte et
distribue 1 200 kg de pain, un camion livreur parcourt 150 km (3 heures à
50 km/h) et consomme 35 1 aux 100 km pour un prix moyen du carburant
égal 4,13 F/1. Le coût unitaire de transport s'établit donc à 0,18 F/kg (en ne
prenant en compte que le seul coût en carburant), d'où un coût total de
2 635 kF (compte tenu de la quantité livrée, égale à 14 639 t).
Le coût total du pain livré s'élève ainsi à 69 870 kF (67 235 + 2 635), soit
un prix de revient complet cm = 4,77 F/kg (69 870/14 639), qui peut être
décomposé en trois éléments :
cm=c+t+f
>
où :
c = 2,13 F/kg (31 144/14 639) est le prix de revient des matières
premières et des consommations intermédiaires ;
t = 0,18 F/kg est le coût unitaire de la livraison aux corps de troupes ;
· f = 2,46 F/kg (36 091/14 639) est la quote-part d'imputation des charges
fixes.
Le « ministère producteur » ne répercute pas sur le « ministère consommadu prix de revient c, mais seulement sa première
teur » l'intégralité
composante c, majorée du taux de marge de 9 % appliqué par le Compte
97
À la poursuitedu Gaspimili
spécial des subsistances militaires (CSSM), par lequel transitent toutes les
dépenses variables (approvisionnements et énergie) : le prix de cession
interne du pain militaire est ainsi pm = 2,32 F/kg (2,13 x 1,09).
Du point de vue des armées dans leur ensemble, le prix de revient du pain
militaire, soit cm = 4,77 F/kg, est à comparer au prix d'acquisition du pain
civil, tel qu'il résulte des marchés d'approvisionnement passés avec les
boulangeries civiles, soit p = 5,41 F/kg en moyenne nationale. La décision
de supprimer les boulangeries militaires et de s'approvisionner entièrement
auprès des boulangeries civiles conduirait donc, pour le ministère de la
Défense, à une perte nette de 9,3 MF ((5,41-4,77) x 14,639). Cette perte
serait la somme algébrique d'effets positifs et négatifs enregistrés par différentes entités du ministère :
- le budget d'alimentation de l'armée de terre serait grevé de 45,2 MF
((5,41-2,32) x 14,639), la prime d'alimentation versée aux corps de
troupes devant, en cas de suppression des BMI, être basée sur le prix du
pain civil (5,41 F/kg), et non plus sur le prix de cession interne du pain
militaire (2,32 F/kg) ;
- le CSSM, privé de sa marge sur les approvisionnements en matières
premières et sur les consommations intermédiaires, subirait un manque à
gagner de 2,8 MF (0,09 x 31,144) ;
- les corps de troupe économiseraient 2,6 MF, n'ayant plus à supporter le
coût de livraison du pain désormais incorporé dans le prix facturé au CAT
par les boulangeries civiles ;
- le CAT réaliserait une économie de 36,1 MF en évitant les dépenses fixes
des BMI en personnel et en investissement.
Le solde net correspondant à une perte de 9,3 MF, une étude comptable
interne au ministère de la Défense conduit par conséquent à maintenir les
boulangeries militaires. Cette conclusion, un peu surprenante, reste-t-elle
valide si l'on franchit les murs du ministère pour prendre un point de vue
plus collectif et si l'on élargit le cadre comptable pour adopter une démarche
.
,
plus économique ?
Un calcul économique
de temps de paix
Le calcul économique complète et modifie le calcul comptable de trois
manières :
.
,
- tout d'abord, il prend en compte une rémunération du capital au taux d'actualisation a fixé par le Commissariat général du plan, afin d'évaluer le
coût d'opportunité des immobilisations incorporées dans les BMI et le
stock de farine qui les alimente ;
- ensuite, il considère un coût d'opportunité 8 des fonds publics, également
affiché par le Commissariat général du plan, coût traduisant les distor-
DÉCISION
98
sions induites par le système fiscal et venant donc majorer
de l'État (un « franc public » vaut 1
« « franc privé ») ;
- enfin, et
Défense,
tous les
militaire
toute dépense
surtout, il ne considère pas seulement l'intérêt du ministère de la
mais procède à une consolidation
des coûts et des avantages de
membres de la collectivité concernée, ici composée du secteur
et du secteur civil.
Si K est le capital immobilisé dans les BMI et le stock de farine, la rémunération annuelle du capital vaut aK. Il en résulte que, exprimée en MF
de la filière de producpublics, la fonction de coût « économique Cm (q)
tion du pain militaire s'écrit :
Cm(q) = F + aK + (c + t)q ,
où q est le niveau de production
(F = 36,1 MF) le coût fixe
marginal de fabrication du pain
marginal de livraison aux corps
(q = qp = 14,64 kt en temps de paix), F
c (c = 2,13 MF/kt) le coût
comptable,
militaire, et t (t = 0,18 MF/kt) son coût
de troupes.
Pour analyser la filière civile alternative en des termes économiques comparables, il convient d'en décomposer le coût en deux éléments :
- d'une
part, le coût de fabrication du pain civil et de sa livraison aux clients
du pain par le
militaires, soit pq/(1 + g), où p est le prix d'acquisition
CAT et g le taux de marge incorporé par les boulangers civils dans les
marchés qu'ils passent avec l'Administration ;
- d'autre
d'un transfert monétaire du secteur
part, le coût d'opportunité
à l'achat de pain par les armées,
public vers le secteur civil, correspondant
soit (1 + 8)pq pq = ôpq.
Ces coûts étant exprimés en francs privés, la fonction de coût économique
Cc(q) de la filière civile est obtenue par application du facteur multiplicatif
1/(1 + 8), réalisant la conversion des francs privés en francs publics, soit :
C,(q) -
1/(1+IL)+8
1+s
8
pq -
(1 -
IL
(1 + IL) (1 + 8»pq.
Si l'on néglige en première approximation
la correction du coût d'opportu=
des
nité
fonds publics (8
0), la fonction de coût économique
Cc (q ) de la
filière civile est inférieure à la dépense comptable pq d'achat de pain par le
ministère de la Défense, car elle se base sur le prix de revient réel du pain
civil, soit p/(1 + g), et non pas sur le prix de vente de ce pain aux armées,
soit p. Le coût d'opportunité
des fonds publics (8 > 0) augmente toutefois
le coût économique de la filière civile et tend à le rapprocher asymptotiquement (lorsque 8 ---+oo) de son coût comptable, car l'achat de pain au secteur
civil implique la sortie de fonds publics (contrairement
à la filière de production militaire par les BMI).
À la poursuitedu Gaspimili
99
Dans l'évaluation économique, relativement à l'évaluation comptable, le coût
de la filière militaire est majoré (rémunération du capital des BMI) et celui de
la filière civile est minoré (soustraction partielle de la marge des boulangeries
civiles), si bien que la seconde filière est susceptible de devenir préférable à la
première. Le niveau de production d'équilibre ii, c'est-à-dire celui pour lequel
les deux filières sont équivalentes ( Cm(ii) = C;(§) ) et en dessous duquel la
> Cc (§) ) a pour expresfilière civile est moins coûteuse (q <
sion :
_
-
F+aK
P-c-t-MP/(l+M)(l+8).
En l'absence de corrections économiques apportées aux coûts comptables, la
production d'équilibre devient q < iî, soit :
.
= F
-q
P - c-t
36,01
=
t
5,41-2,13-0,18
8
= 11,6 kt.
Il existe ainsi une plage de production, soit
(cf. figure ci-après), à l'intérieur de laquelle la filière militaire apparaît comptablement opportune du
point de vue des armées (q > q ), mais pas économiquement bénéfique du
La production annuelle courante du temps de
point de vue collectif (q <
=
soit
vérifie
la première inégalité. Satisfait-elle égale14,6 kt,
paix,
qp
ment la seconde ?
Cc(q)
C
pq
1'
Cm(q)
,'
,'
'
'
,
.
0
9
i
,
,,
, _,
,--,j
11 ;
,
,
,1 ,
<
'
'
'
"
-
- F+(c+r)q
J-fi
i 1
i 1
j 1
, z
l 1
1 1
1 1i1
i 1
i i1
i i
1 1
9P q
Figure 3 : Comparaison des filières civile et militaire
q
100
DÉCISION
- Le taux d'actualisation et le coût d'opportunité des fonds publics sont fixés
par le Commissariat général du plan, soit a = 8 % /an et 8 = 0,25.
- La marge prise par les boulangers civils dans les contrats militaires est
certes difficile à apprécier; Il- = 10 % est sans doute une estimation non
totalement déraisonnable.
- Le parc productif des BMI est composé d'équipements de durée de vie
T = 25 ans, dont le renouvellement est échelonné dans le temps de manière
relativement homogène. En régime permanent, la valeur économique S de
ce stock de capital (capital net) est constante et égale à ce qu'il en sur-coûterait si on devait le reconstituer complètement à partir de rien (puis à le renouveler en bloc toutes les T années) au lieu le renouveler progressivement par
tranche de 1 / T chaque année : si R est la valeur de reconstitution (capital
brut), on a ainsi :
00
00
1
1
R
f
Rf
S = R Lk=0
(1 + a )kT - T L (1k=I
+ a )k
'
R
aT
Pour a = 8 %/ an, T = 25 ans et R/ T = 3,29 MF (investissement annuel
dans les BMI d'après les comptes du CAT), la rémunération du capital des
BMI au taux a peut être estimée à aS = 4,41 MF.
- Le stock de farine 4$ peut être évalué en admettant que 90 % des achats de
matières premières entrant dans la fabrication du pain correspondent à de la
farine et que la période de rotation du stock est de 9 mois. Compte tenu des
26,7 MF figurant au poste approvisionnements des comptes de gestion du
CAT, le niveau moyen du stock est <1> = 26,7 x 0,9 x 9/ 12 = 18 ME
La rémunération
annuelle de ce stock au taux du plan est donc
a(P = 0,08 x 18 = 1,44 MF.
· Au total, la rémunération du capital S et du stock de farine (D s'élève à :
aK = a(S + <1»= 4,41 + 1,44 = 5,85 MF.
De ces différentes estimations chiffrées, on déduit la valeur de la production
d'équilibre économique :
36,09 + 5,85
q==
5,41 - 2,13 - 0,18 - 0,1 x 5,41/l,l x 1,25
= 15,5 kt kt
La production annuelle courante des BMI, soit qp = 14,6 kt, est ainsi légèrement inférieure (de 6 %) au seuil d'opportunité économique q = 15,5 kt.
Par conséquent, un calcul économique strictement basé sur la comparaison
des productivités économiques respectives des filières civile et militaire
préconiserait l'abandon de la filière militaire.
101l
À la poursuite du Gaspimili
Exprimé autrement,
revient économique :
Ym = cm +
la filière militaire
aK
5,85
- =p4,77+- =
14,64
Ce prix de revient est à comparer
(exprimé en francs publics), soit :
(1 1 + fl ) p (1 + à ) 1,1
de l'achat
du
coût
d'opportunité
majoré
Or, il apparaît
complet
du pain civil
5,41
x
yu _ 1 +1+8
s S àp _
le pain au prix de
5,17 F/kg.
au prix de revient
p
Y, =
à fournir
conduit
1,25 ' '
F/kg,
public de pain, soit :
1,08 F/kg.
que :
ym = 5,17 F/kg
> Yc + Ya =
5,01 F/kg.
Une manière de raisonner équivalente, qui était d'ailleurs celle du ministre
André Giraud, consiste à dire que les BMI ne seraient pas compétitives face
avec ces
civiles si elles devaient entrer en concurrence
aux boulangeries
dernières pour fournir aux clients civils du pain au prix du marché. En effet,
par kilogramme de pain vendu, le coût unitaire public serait égal à ym - ya
attachée à une
(coût de fourniture du pain diminué de la valeur d'opportunité
recette budgétaire non fiscale), et donc supérieur au coût unitaire civil Yc.
au maintien des
de temps de paix sont défavorables
Si les considérations
militaires par
des
du
de
en
raison
BMI,
boulangeries
handicap
productivité
ce
aux
maintien, en
boulangeries civiles, peut-on cependant justifier
rapport
valorisant la supériorité du dispositif militaire vis-à-vis du recours à la filière
civile, en cas de crise ou de guerre ?
La prise en compte
du temps
de guerre
en considérant
On a raisonné jusqu'ici
que les BMI et les boulangeries
c'est
civiles rendaient à leurs clients militaires des services équivalents :
des
chacune
des
coûts
tenu
on
a
engendrés
par
compte
uniquement
pourquoi
deux filières sans valoriser leurs avantages, réputés identiques. Cette hypothèse, raisonnable en temps de paix - à supposer qu'il n'existe pas de différence de qualité notable entre le pain civil et le pain militaire ! - ne l'est plus
en effet, la fiabien temps de crise ou de guerre : en pareilles circonstances,
à la
lité du dispositif militaire serait très vraisemblablement
supérieure
ce
de
vue
civiles.
Selon
des
de
point
boulangeries
auprès
réquisition
pain
de
BMI
en
des
de
le
apparaît
temps
paix
handicap
productivité
élargi,
en temps de
comme le prix à payer pour leur supériorité opérationnelle
raisonner
sur deux
il
alors
de
convient
En
termes
économiques,
guerre.
marchés distincts :
DÉCISION
102
- d'une part, celui de la fourniture d'un « bien physique », à savoir le pain
destiné à la consommation courante des Forces en temps de paix ;
- d'autre part, celui de la fourniture d'un « service d'assurance », à savoir
la garantie d'une « option de pain » conditionnellement au temps de
guerre.
Le calcul mené précédemment traite de l'efficacité comparée des BMI et des
boulangeries civiles sur le seul premier marché. Qu'en est-il lorsque l'on
considère conjointement les deux marchés ?
En cas de guerre, les BMI devraient fournir 0,5 kg de pain par jour à
800 000 hommes pendant les cinq jours de la phase dite de préengagement
du conflit, d'où une production exceptionnelle qg = 2 kt s'ajoutant à la
production ordinaire qp : si un conflit survient, la production de l'année
correspondante devient ainsi qp + qg. Pendant la phase de préengagement,
la cadence journalière de production des BMI s'élève à 400 t/j, valeur dix
fois supérieure à la cadence normale du temps de paix, soit qp /365 = 40 t/j.
Cette différence explique sans-doute la surcapacité des fours militaires en
temps de paix...
Désignant par up l'utilité (exprimée en équivalent monétaire) d'un kilogramme de pain consommé au mess en temps de paix, par ug l'utilité de
disposer du même kilogramme de pain frais en temps de guerre, par s la
probabilité d'occurence d'un conflit, et supposant le dispositif des BMI
parfaitement fiable, l'espérance mathématique de surplus collectif permise
par ce dispositif s'écrit :
Sm
+ 8Ugqg -
C- (qp
+ 8qg) ,
où qp + sqg = (1 - 8)qp + 8(qp + qg) est l'espérance mathématique du
niveau de production, compte tenu du risque de guerre.
Dans l'hypothèse alternative où les BMI seraient déclassées, on devrait
recourir aux boulangeries civiles, en temps de paix comme en temps de
guerre, si bien que l'espérance du surplus collectif s'écrit alors :
Se = upqp
+ sugqg -
Cc (qp + sqg ) .
Si l'on considère enfin l'éventualité d'une défaillance des boulangeries
civiles en temps de guerre (ou de la procédure de réquisition) et si l'on
évalue à d le dommage (perte d'utilité) infligé aux Forces par kilogramme
de pain non livré (en sus du coût de la production ainsi perdue), l'espérance
du surplus collectif devient dans ce cas :
Sd = Sc - 8dqg .
Le décideur public est ainsi confronté à un choix face à l'incertain.
L'incertitude provient de deux sources : d'une part, l'occurrence ou non du
temps de guerre, mais à cela la décision de fermer ou non les BMI ne peut
rien changer ; d'autre part, la fiabilité imparfaite de la filière civile en cas de
guerre, aléa que la décision de maintenir les BMI permet en revanche d'éliminer.
À la poursuite du Gaspimili
103
Supposant que le décideur manifeste un taux constant a d'aversion pour le
maximise l'espérance
d'une fonction de von Neumannrisque, c'est-à-dire
-e-as
à
une
transformation
affine près) où S est le
(définie
Morgenstern
et
la
de
défaillance
de la filière civile vaut
collectif,
que
probabilité
surplus
n, alors la filière militaire (qui est certaine vis-à-vis du risque contrôlable de
défaillance) doit être préférée si et seulement si :
-e -ces", >
En substituant
cette inégalité
-(1 -
les expressions des différents
peut être réécrite :
Cm (qn + 8qg)
' -
surplus et après simplification,
C; (qj, + 8qg)
' < 1 In[ 1 + 7r (e"dq,
a
1)] .
mais que
En admettant que le risque de guerre e est infinitésimal (s - 0 ),
le produit sd conserve une valeur finie v, qui s'interprète comme la « valeur
en temps de paix à la perspective d'obtenir un kilod'option » accordée
gramme de pain frais en temps de guerre, l'inégalité précédente peut être
réécrite :
(Ym - Yc - y,)qp
<E
= .!.ln[1
a
-I- n(eavqM -
1)] .
Autrement dit, la filière militaire est préférable à la filière civile pourvu que
son handicap de productivité en temps de paix (membre de gauche de l'incertain E de la « loterie » à laquelle on
égalité) soit inférieur à l'équivalent
en
retenant
la
filière
civile, qui ne garantit la valeur d'option vqg
s'expose
- n < 1.
1
la
qu'avec
probabilité
Selon le niveau d'aversion
certain E de la
pour le risque, l'équivalent
« loterie civile » varie entre l'espérance nvqX du dommage créé par la perte
de la valeur d'option, limite inférieure atteinte pour un décideur neutre au
risque (a -+ 0), et la valeur vqg de l'option elle-même, limite supérieure
atteinte pour un décideur manifestant
une aversion infinie pour le risque
(a
00 ).
En évaluant à n = 1 / 10 la probabilité de défaillance de la filière civile, et
sous l'hypothèse
de neutralité face au risque (a
0 => E = n vqg ), qui est
la plus défavorable aux BMI, ces dernières doivent être maintenues si :
1 qp
10 X -
'
n qg
qg
=11,7
14,6
2
7 F/kg ,
c'est-à-dire
si la valeur d'option est estimée à plus de deux fois la valeur
marchande du kilogramme de pain (p = 5,41 F/kg). Le seuil d'opportunité
v,s.s'abaisse toutefois si l'on tient compte de l'aversion pour le risque et tend
vers 1,17 F/kg en cas d'une aversion illimitée. Il est raisonnable de penser
accordée au pain frais en situation extrême est
que la valeur psychologique
.
104
.
DÉCISION
largement supérieure à la valeur marchande du temps de paix, et c'est donc
là finalement que les BMI peuvent trouver leur justification...
Le sel du pain militaire
Non, les boulangeries militaires n'alourdissent pas les comptes du ministère,
et le Commissariat de l'Armée de terre a raison sur ce point. Oui, les boulangeries militaires présentent un handicap de productivité vis-à-vis des boulangeries civiles, et l'intuition du ministre est à cet égard confirmée, même si la
situation est moins nettement tranchée qu'il le pensait a priori. Telle a été la
première vertu du calcul économique appliqué à ce dossier : expliquer aux
deux parties, au ministre voulant supprimer les BMI au nom d'une gestion
efficace, et au CAT défendant jalousement son patrimoine productif, en quoi
chacun avait à la fois partiellement tort et partiellement raison.
Au-delà de ces bienfaits pédagogiques, mettre en évidence la source du
différend a permis de dépasser l'étape stérile du débat passionné, de
progresser dans la compréhension mutuelle des enjeux, puis d'engager des
actions nouvelles.
- Pour le ministre, le progrès a consisté à reconnaître qu'une gestion rationnelle du ministère, une gestion « lucide » selon l'une de ses expressions
favorites, ne pouvait pas uniquement reposer sur des considérations de
temps de paix, mais devait également prendre en compte des contraintes
opérationnelles adaptées au temps de crise ou de guerre.
- Pour l'Armée de terre, le progrès a consisté à se placer à l'écoute des
préoccupations du ministre et à envisager en conséquence de nouveaux
dispositifs, à la fois plus performants en temps de guerre et moins coûteux
en temps de paix que les BMI. C'est ainsi qu'a été accepté le principe d'un
déclassement progressif des BMI, accompagnant le départ en retraite des
ouvriers boulangers d'État, et simultanément mis à l'étude un projet d'ateliers de boulangerie flexibles, pouvant suivre le mouvement des Forces en
temps de guerre et ne nécessitant aucune infrastructure fixe en temps de
paix.
4. ÉPILOGUE
TREIZE
:
ANSAPRÈS
Plus de treize ans ont passé depuis cet étrange samedi de décembre où une
voiture militaire, annoncée par un appel aussi matinal que mystérieux de
l'aide de camp du ministre de la Défense, est venue me soustraire au biberon
d'Audrey, âgée de quelques jours, pour m'entraîner dans l'urgence rue
Saint-Dominique. Ce petit arrachement familial en préparait un autre,
d'ordre professionnel : comme je le compris vite en écoutant André Giraud
À la poursuite du Gaspimili
105
me dévoiler les raisons de cette convocation surprise, l'intérêt que je portais
aux études économiques
dans le secteur des
jusque-là quasi exclusivement
télécommunications
allait bientôt devoir se tourner vers l'univers bien diffénon marchande.
rent d'une Administration
Le ministre s'étant montré extrêmement
disert quant à la nécessité de s'admes
services
dans
les
délais
les
joindre
plus brefs, mais en revanche tout à
fait muet sur l'origine de cette bonne fortune, c'est seulement à l'issue d'une
déterminante
du Corps des Mines
petite enquête que j'appris l'influence
dans cette modeste affaire : à la recherche méthodique de l'intersection
de
son corps administratif d'origine avec la science économique, André Giraud
en avait assez rapidement
Thierry de
repéré deux brillants éléments,
Montbrial et Jacques Lesourne ; le premier de ces éminents personnages
fraîchement
recruté
suggéra au ministre le nom d'un jeune économiste
comme enseignant à l'École polytechnique,
tandis que le second accepta la
du pilotage du jeune économiste. Ne restait plus qu'un seul
responsabilité
détail à régler : prévenir l'intéressé, ce dont se chargea le ministre lui-même,
de la manière qui vient d'être dite ! Voilà comment Jacques Lesoume, au
titre de conseil extérieur, et moi comme chargé de mission auprès du
à la Délégation aux études générales,
ministre, puis comme sous-directeur
avons pendant deux ans vécu ensemble une aventure ardemment voulue et
constamment
soutenue par André Giraud, nous efforçant de redonner vie au
calcul économique dans un département ministériel où l'échec de la rationalisation des choix budgétaires (RCB) l'avait pour le moins asphyxié.
La tâche était lourde et, pour réussir pleinement, aurait certainement réclamé
une fenêtre de temps plus large que celle d'une éphémère alternance politique. Le successeur immédiat d'André Giraud, porteur de qualités diffési bien
rentes, ne partageait pas le même intérêt pour l'analyse économique,
que l'élan fragile que nous avions imprimé s'est brisé net, pour laisser la
place à d'autres priorités. Au moment d'écrire ces lignes, j'ignore le sort qui
fut finalement réservé aux boulangeries militaires. Je ne sais pas non plus ce
de gestion « lucide », entreprise au
qu'il est advenu de l'expérimentation
centre d'instruction
des pilotes d'hélicoptères
de l'aviation
légère de
l'Armée de terre, situé au Luc ; ni si le renouvellement
des cargos légers de
l'Armée de l'air s'est effectué par recours au crédit-bail, procédure administrative innovante, que le ministre André Giraud souhaitait voir appliquer à
ce programme d'équipement
non stratégique, mais financièrement
important. Quant aux décisions d'emploi des budgets de fonctionnement
au sein
des corps de troupe, je doute qu'elles fassent aujourd'hui l'objet d'un éclai_
-
rage économique...
L'évocation
de ce passé, aux suites vraisemblablement
modestes, pourrait
au
porter
regret ou à la nostalgie. Je préfère plutôt conserver de cette période
le souvenir d'une parenthèse stimulante et riche en découvertes, au cours de
À ce propos, je
laquelle une amitié s'est nouée autour d'une collaboration.
me rappelle avec beaucoup d'émotion, et un peu d'amusement,
le moment
106
DÉCISION
où Jacques Lesoume, avec un brin de formalisme cachant la grande cordialité que lui connaissent ses amis, me gratifia d'un tutoiement qu'il n'accorde
qu'avec une assez grande parcimonie. Je me souviens aussi de la phrase qui
lui est si familière « Ce que tu dis là ne me surprend pas ! », qu'il prononça
bien souvent en réaction à ce que, jeune enthousiaste, je lui présentais
comme des pépites jalousement sélectionnées parmi mes trouvailles au sein
du ministère. Cette réponse du sage à l'exalté fut pour moi toujours « analysante », dans son ambiguité sémantique : « Sait-il donc déjà ici ce que je dis
là ? », ou bien « Ne dis-je là rien qui puisse susciter chez lui la moindre
surprise ? », ou bien encore « Approuve-t-il et partage-t-il d'emblée ce que
je dis là ? » La dernière interprétation, peut-être la moins inquiétante, ne
parvenait jamais dans mon esprit à chasser complètement les deux autres.
À défaut de pouvoir surprendre Jacques Lesourne, j'ai en revanche beaucoup reçu de lui. C'est à son contact, et à son exemple, que j'ai appris, en
matière d'analyse économique comme en beaucoup d'autres, à m'efforcer
de ne pas rechercher les clés perdues de la connaissance sous le réverbère de
la pensée unique, quelle soit-elle. Que le maître n'en veuille donc pas au
disciple de s'incarner dans le Criton un peu impertinent de cette chute socratique :
« Mieux vaut tourner ton esprit vers l'ombre que vers la lumière, ô Criton ! »
« Ce que tu dis là ne me surprend pas, ô Socrate ! »
Alain
Bensoussan
QUELQUES
REMARQUES
SURLEPRIXDESOPTIONS,
ENCOMPTE
DECONTRAINTES
AVEC
PRISE
1. INTRODUCTION
La formule de Black Scholes (1973) fournit le prix d'une option européenne
dans une situation idéale de marché complet. Le principe « d'absence d'opportunité d'arbitrage » est à la base de cette formule. Elle est par ailleurs
extrêmement « robuste », au sens où l'on obtient aussi, à partir d'autres définitions, notamment celle fondées sur l'utilisation de fonctions d'utilité.
De nombreux travaux ont été consacrés à l'extension de cette formule dans
le cas où les marchés sont soumis à des imperfections, notamment des
contraintes sur les transations. L'objet de cet article est de présenter certains
de ces modèles et de discuter les idées qui en sont à l'origine. Il n'est nullement exhaustif et ne présente pas toutes les démonstrations mathématiques
requises.
. 2. PRIXDESPRODUITS
DÉRIVÉS
' 2.1
1 Description
dumarché
On suppose qu'il existe un marché financier, constitué de n + 1 valeurs, dont
une non risquée la « monnaie », dont les prix évoluent selon les formules
108
DÉCISION
classiques suivantes
So (t) = So,
n
dSo = Sor(s)ds,
dS; = S;[b;(s)ds
s> t
(2.1 )
+
(2.2)
j= 1
Si (t) = Si > 0,1 = 1 ... n.
On se place sur un horizon T i.e. t < s <
T et l'on suppose
r (s), bi (s) ,o-¡j(s)) sont des fonctions déterministes bornées
(2.3)
a (s) =- (ai j (s)) vérifie, notanta(s) = a (s)a*(s)
a > 0, tlsE[O,T],i;ER"
$*a(s)§ à
(24. )
Il résulte de (2.3) et de (2.4) que 0- (s) et 0- * (s)sont inversibles et les normes
de
sont bornées uniformément en s sur [o,T].
Les processus wj (s) sont des mouvements browniens standardisés définis
sur un espace de probabilités
pourvu de la filtration naturelle
0/ = o-(w("r),t (
T x s)
et 01 =
Les opérations sur le marché se limitent à des opérations d'échange d'actions
ou de monnaie, sans autre source de revenus ou de dépenses (autrement dit,
on peut imaginer que les dépenses de consommation sont réglées par les
revenus du travail, sans interférence entre le marché financier et le marché
des échanges de biens et de services).
Un agent
sera caractérisé
économique
par son portefeuille
de
monnaie
et
d'actions
de chacune des
(yo(s),yi(s), .... y,(s»,
quantité
valeurs qu'il possède (les actifs sont supposés indéfiniment divisibles). On
suppose que
YO(S),YI (s),... y, (s) sont des processus adaptés à 0/ et
¡Tt
(y¡(s))2ds < 00
¡Ti
(y¡(s)S¡(s))2ds
< 00, p.s..
(2.5)
On appelle richesse de l'agent économique le processus
X(s) = yo(s)So(s) + y (s)Si (s) +...
+ Yn(s)Sn(s).
(2.6)
Dans le cas où X(s) < 0, l'agent économique est endetté.
Les processus yo(s),... yn (s) sont des contrôles, librement décidés par
l'agent économique, par des achats ou des ventes, soumis ou non à des
restrictions, ou des coûts de transation, et à la contrainte générale budgétaire
que l'agent ne peut procéder à des achats que s'il vend des actions ou en
payant avec sa monnaie.
,
Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes
109
En l'absence de coûts de transaction, la contrainte budgétaire est exprimée
sous la forme mathématique suivante :
n
.
(2.7)
dX(s) = Ly¡(s)dS¡(s)
i=O
où dX (s) représente la différentielle stochastique du processus de richesse,
supposée implicitement exister.
La formule (2.7) est la traduction mathématique de l'expression formelle
suivante
où
Ayo,Ayl, ....
l'instant
par
Ayn
l'agent
à (2.5)
Grâce
commode
par
la
+
+ ilYl (S)SI (s)
AYO(S)SO(S)
les
représentent
ilYn(s)Sn(s) =
différents
achats
ou
est
bien
différentielle
la suite
(2.7)
stochastique
au
note
À partir
de
(2.7)
introduit
y)
actions
et S*(s)
et (2.1)
les
et au vecteur
risquées
vecteurs
lignes
correspondants.
on déduit
(2.2)
aisément
prix
de
ces
la relation
(2.8)
le processus
wo
défini
par
sa différentielle
dwo = dw + CT-I (b - r lI)ds
où b
sera
z
dX(s) = r(X - y*S)ds + y*dS.
Si l'on
Il
:
des
portefeuille
On
définie.
Si(s)
Snes)
référant
à
opérées
de noter :
et
actions.
ventes
économique.
Yi (s)
se
0
... +
stochastique
(2.9)
le vecteur
représente
b
1
.
( b' et Il
La
relation
(2.8)
devient
'
n
dX
=
Xrds
yi Si aij d woj.
(2.10)
i,j=l
Avec
la même
notation
processus
Si deviennent
fi
j
i
les
dSi
=
Si [rds
+ iij d w,
j=l
(2.11)
1 t0
DÉCISION
À ce stade,
de référence,
il est
naturel
déduite
d'introduire
P par
de
la probabilité
P*,
appelées
probabilité
la formule
dP*
(2.12)
- 1FT = Zo(t,T)
où
Il
=
Zo(t,T)
exp
8(s)
[- fT
Il ds]
(2.13)
T B*(s)dw(s) - - 2 1 J r
8(s) = Œ-I(s)(b(s) - r(s)lI).
Pour
cette
l'on
introduit
(2.14)
devient
wo(s)
probabilité,
la fonction
d'actualisation
=
Yo,r(s)
un processus
de Wiener
standardisé.
r(T)dT
Si
(2.15)
exp - J r
et si l'on
valeurs
noter
la
l'instant
le
t,
solutions
explicitement
X
par
au
par rapport
la formule
(2.11)
Xx,s,t(s)Yo,r(s)
une martingale.
est
de
dépendance
de (2.10),
processus
Le processus
donné
(s),
à
x,S
locale.
martingale
Pour
les
désigne par
initiales
portefeuille
pour
est
on
y,
des
une
écrira
Xl, S, i (S ) Y0, 1 (S )
=
(2.16)
x
Y0, 1 ( 1 )
fs
Si l'on
t
restreint
le portefeuille
.i
n
Yi ( I ) si < I >OEi j < I >d W0 j ( 1 ) .
y¡(T)S¡(T)Œ¡j(T)dwoj(T).
É
y à vérifier
la condition
supplémentaire
y0, t (I )
x+J t
alors
est
XX,s,t(s)Yo,t(s)
' '
=
{y satisfaisant
At ne dépend
alors
une
P*
On
surmartingale.
Produits
produit
dérivés
dérivé
à l'instant
les
pas
conditions
du couple
x,S
(2.5)
(S
et (2.17)}.
> 0).
Par
(2.18)
si y6?,
ailleurs,
0.
réel à
l'échange
00
locale
martingale
L'ensemble
2.2
y
1
At
Un
*
0
la
notera :
(2.17)
t
v
et
notion
européen
T d'une
valeur
est
d'arbitrage
un
instrument
h(S(T)),
financier,
où l'on
suppose
consistant
que
dans
la fonction
Quelques
remarques
sur le prix des options,
avec prise en compte
111i
de contraintes
h vérifie
CO
ah
-
+
,ç C.
aSk
(2.19)
Le prototype de la fonction h(s) est le suivant (rc = 1)
(S - K)+
h(S) =
(2.20)
ce qui correspond à l'option au prix K.
Les opérations sur les produits dérivés consistent à acheter où à vendre à
l'instant t le produit h(S(T)) à l'instant T.
On évite la notation Ss,r (T ), mais il est sous-entendu que le cours des
actions risquées à l'instant t est égal à S.
Un agent économique qui vend 8 produits à un prix p, augmente sa richesse
à l'instant t dep8 et la diminue à l'instant T de 8h(S(T)). Au contraire, s'il
achète produits à un prix p, il diminue sa richesse à l'instant t de pô et
l'augmente à l'instant T de
Supposons donc que l'agent possède la richesse x à l'instant t, qu'il vend 3
produits h(S(T)) à un prix p à l'instant t, qu'il décide d'un portefeuille
il se retrouve à l'instant T avec une richesse
S'il
8h (S (T»
'
existe x < 0 et E > 0, yeAi tels que
Xr+PO,¡(T) - bh(S(T)) 3
0
p.s .
Il y une source de profit « infini » sans risque pour l'agent.
En effet :
n
T
yo, t (S)
¡j;¡
,
et donc en achetant k produits dérivés et en décidant un portefeuille
ce
-y, 8
qui est possible puisque appartient aussi à At, on obtient une richesse à l'instant T supérieure ou égale à
k
;
!
;
c
j
k
et donc tendant vers l'infini avec k. On dit dans ce cas qu'il y a possibilité
d'arbitrage à la vente, pour ce prix p.
_________
(I)
On écrit
X'+P,,,(T)
au lieu de
X:+Pu,(T).
DÉCISION
112
De façon symétrique à l'achat, si l'agent achète produits h (S( T) ) au prix p
il se retrouve à l'instant T
à l'instant t et qu'il choisit un portefeuille
avec une richesse
S'il existe x < 0 et à >
tels que
+
5 0 p.p,
il y a possibilité d'enrichissement « infini » sans risque pour l'agent. On dit
qu'il y a possibilité d'arbitrage à l'achat, pour ce prix p. Le portefeuille y
qui permet l'arbitrage est appelé portefeuille de couverture.
On introduit les fonctions
vs (S,t)
= ' inf(x > 0[3yeAi
(2.21)
vb(S,t)
supix
> 013ycA,
0 p .s. }
(2.22)
Les arguments S,t rappellent que le cours des actions risquées est S à l'instant t.
Posons
u(S,t) = E*[h(Ss.r(T))yo.r(T)]
(2.23)
quantité bien définie, d'après l'hypothèse (2.19).
Par définition, on a les propriétés
si f.t(5'.f) < 00, alors`dx >
0 p.p.
Xx.s,¡(T) -
3yEAr,
si vb(S,t) > 0, alors `d0 < x < vb(S,t)
0 p.p.
+
3YEA¡,
(2.24)
(2.25)
Dans ces conditions on vérifie aisément que l'on a :
Pour un prix strictement supérieur à vs(S,t),
il y a arbitrage à la vente.
(2.26)
Pour un prix x vs(S,t) il ne peut y avoir d'arbitrage à la vente.
Pour un prix strictement inférieur à vb(S,t),
il y a arbitrage à l'achat.
(2.27)
Pour un prix à vb(S,t) il ne peut y avoir d'arbitrage à l'achat.
Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes
En effet, si p > vs(S,t), alors il suffit
x + p - vs(S,t) > 0, et 3y45Àt tel que
de prendre x
113
3
< 0
avec
p.p.
Si p x v, (S, t) et qu'il existe x < 0,8 > 0 et y tels que
Xx+P8,S,t(T) -
0
8h(Ss,t(T» )
alors S
+ pà
ce qui est impossible.
si p < vb(S,t),
Symétriquement,
-, comme
x - p + vb(S,t) > 0 ;
il suffit de prendre x < 0, tel que
tel que
0 < p - x < vb(S,t),3YEAt
Inversement si p à Vb(S,t), il ne peut exister x < 0 et à > O,yEAt tels que
2.3 Intervallede non-arbitrage
,
On a la propriété suivante :
On fait l'hypothèse (2.19), alors on a
'
(2.28)
vS(S,t).
Si Vs = +00. l'inégalité de droite est évidente. Supposons
Démonstration
<
alors
00,
v (S,t)
d'après (2.24), ds > 0,3YEAt tel que
xy v,(S,t)+E,t(T) - h(S(T» )
0.
Donc
E*h(S(T))Yo,t(T')
= u(S,t).
Comme
est une sur-martingale, on a
vs(S,t)
'
donc
vs(S,t) + s u (S, t)
et comme E est arbitraire, l'inégalité de droite en résulte. L'inégalité de
gauche est obtenue de manière similaire.
DÉCISION
114
4
Par conséquent, on peut affirmer la
Un prix u situé dans l'intervalle [vb(S,t),vs(S,t)]
lieu
à
donner
arbitrage, ni à la vente, ni à l'achat.
peut
ne
Si le
L'intervalle [vb(S,t),v,s(S,t)] est appelé intervalle de non-arbitrage.
prix du produit dérivé est à l'intérieur de l'intervalle d'arbitrage, il n'y a
aucune possibilité d'arbitrage, ni à la vente, ni à l'achat. Si le prix est supérieur à vs(S,t), il y a possibilité d'arbitrage à la vente. Si le prix est inférieur
à Vb(S,t), il y a possibilité d'arbitrage à l'achat.
2.4 Formulede BlackScholes
On note d'abord que la fonction u(S,t) est solution de l'équation aux déri.
vées partielles
au
au
at
asi
=
h(S)
u(S,T)
1
a2u
2
ôllisj
asias;
(2.29)
et que si l'on pose
au
alors uk est solution de
aUk
+ (r +
at
ah _ah
uk(S,T)
= - a Sk
9?
1
lai Sis
2''
a 2 uk =
00
9?9?
(2.30)
Il est facile de vérifier que u et uk satisfont les relations :
C
(2.31)
Dans ces conditions, d'après la formule de Ito, on a :
f
et le portefeuille y (s)
i (s) =
tel que
Ui (s<S>,S>
(2.32)
115
5
Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes
appartient à At. On en déduit
h(S(T»
p.s.
ce qui implique, d'après (2.21)
vs(S,t) x u(S,t)
et donc d'après (2.28)
vs(S,t) = u(S,t).
De même, on vérifie que
y
x-Y
-U(S,t),t (T)
donc Vh(S,t) ) u(S,t),
+ h (S(T)) = 0 p.s.
ce qui implique vb(S,t) = u(S,t).
On a donc la
Sous l'hypothèse (2.19), en l'absence de coûts de transaction ou de contraintes sur le portefeuille, on a la propriété
vb (S, t ) = vs (S, t) = u (S, t )
(2.33)
Dans le cadre de la Proposition 2.3, il n'y a donc qu'un seul prix du produit
dérivé pour lequel il n'y a pas de possibilité d'arbitrage, ni à la baisse, ni à la
hausse. C'est le « juste » prix du produit dérivé donné par la formule (2.23),
ou solution de l'équation aux dérivées partielles (2.29). C'est le prix de Black
Scholes.
D'UTILITÉ
DESFONCTIONS
3. UTILISATION
, ,
DÉRIVÉS
DUPRIXDESPRODUITS
DANSLADÉFINITION
Dans l'approche précédente, le prix de Black-Scholes est une conséquence
naturelle du fait que l'intervalle d'arbitrage se réduise à un point. On peut
chercher à introduire d'autres approches plus directes du concept de prix,
notamment en caractérisant l'agent par une fonction d'utilité.
1 Problème
de contrôleoptimal
3.1
On revient à la formulation initiale (2.2), (2.8) soit :
n
(3.1)>
dsi
j=1
DÉCISION
116
6
n
__
(3.2)
1
1=1
Si(t) = Si,
j
(3.3)
X(t) = x.
On introduit une fonction d'utilité Lf(x) vérifiant
l,f localement lipchitzienne, croissante et concave
(3.4)
et l'on considère la fonction valeur
=
(3.5)
sup
y6Ai
où À est un paramètre.
Le traitement qui suit est formel. On associe à la fonction valeur une équation aux dérivées partielles de Bellman, écrite formellement comme suit
1
a2<t>À
+
asF sibi 2aijsisjÉ?ÎÔjasiasj
xr
at
+
1 -à- a 2
Sibi
+
?
-yiS ax
(bi - r)
(3 .6)
(3.6)
°
Siai j yjsj}] = 0
si
axas¡
En l'absence de contraintes sur l'argument y du sup, la condition d'optimalité s'écrit
yJS/
ax (b`
ax ? }}./
r)
axasjatJ SJ./
0
(3.7)
et (3.6) devient
a(I)x
at + at
1
+
1
2
2 a2<t>À ax
1
+ Si Si
asi Si bi 2 aij
asiasj
asias
J
2
(bi
1
r) 1./
(bj - r)
axz
Si (bi
-
= 0.
r)
r)
sji ] = O.
+ axasisiaij axasj
(3.8)
Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes
117
7
3.2 Définitiondu prix
Supposons que l'agent achète 8 produits h(S(T)) au prix p à l'instant t, et
il se retrouve à l'instant T avec une
qu'il choisit un portefeuille
richesse
et donc selon la définition (3.5) de sa fonction valeur, il peut obtenir une
valeur égale à
On peut alors définir le « juste » prix,
comme celui auquel, au premier ordre près, l'agent est indifférent à l'opération d'achat. Autrement dit, p = p(x,S,t) vérifie
p8,S,t)18=0 = 0.
d
En remarquant que
partir de (3.9) la formule
p(x,S,t)
(3.9)
(Do(x,t) ne dépend pas de S, on obtient à
=
.
(3.10)
""o..
ax '
On peut chercher à obtenir l'équation de
en déri9Â
vant (3.8) par rapport à À. On en déduit l'équation dont xo(x, S, t) est solution. On vérifie alors par le calcul que l'on a
xo(x,S,t)
9jc(x,t)u(S,t)
(3.11)
(3.Il)
où u(S,t) est le prix de Black Scholes, solution de (2.29).
Il résulte alors de (3.10) que l'on a
p(x,S,t) = u(S,t).
(3.12)
Ainsi le « juste » prix défini par (3.9) ne dépend pas de x et coïncide avec le
prix de Black Scholes. On obtient bien sûr le même résultat pour une opération de vente.
, 3.3 Étuded'un cas particulier
Le résultat (3.12) est d'autant plus remarquable que l'équation (3.8) n'a pas
de solution analytique. On peut cependant la résoudre dans des cas particu-
DÉCISION
118
liers. Supposons notamment que l'on ait
xfl
1
(3.13)
?
U(x) = logx,
< 0.
six
(3.14)
Alors (3.8) possède la solution
fT
= Ll((x
(x,S,t)
(3.15)
ks.ds)
Jc
avec
kt =
r),
dans
le cas
où U
kt =
Si U
est
donnée
est
par
r +
donnée
et
(3.13)
r)(a-1(t))¡j(bj(t) -
2 (bi (t) par
(3.16)
1)
r - 1 (b¡(t) -
r).
(3.17)
(3.14).
DERÉFÉRENCE
DELAPROBABILITÉ
4. UTILISATION
La probabilité de référence P* définie en (2.12) transforme la richesse
actualisée Xx,s,r(s)yo,r(s) en une martingale locale. Il est intéressant d'exploiter cette propriété, déjà utilisée dans la Proposition 2.1.
4.1
1 Autreproblèmede contrôleoptimal
On reprend la formulation (2.10), (2.11 ), soit
n
dsi = S¡[rds
+ £ ai jdwo j 1
j-1i
(4.1)
n
dX = Xrds + £
yiSiQijdwoj
i, j-1
Si = Si
,
(4.2)
(4.3)
X(t) = x
et l'on considère cette fois la fonction valeur
'l/JÀ(x,S,t) = sup
YEA,
' '
(4.4)
Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes
119
9
D'après la section 3.1, il est clair que e est solution de (3.8), en prenant
bi = r, soit
att
1
ôx
xr
à Si
SL
1r
1
I}St1 à
2 al?
Si à sj
Sj
1
,
(4.5))
°
2 a2'l/J)..axasi
ax2
= U(x + Àh(S)).
Il est alors facile de voir que la fonction 'l/J)..est donnée explicitement par la
formule
T
rds)
(4.6)
.A
quelle que soit la fonction U.
4.2 Autredéfinitiondu prix
On introduit alors les définitions suivantes
us(S,t) =
Ub(S,t) =
0} 0} -
0}
(4.7)
0}
(4.8)
appelés « prix de vente » et « prix d'achat ».
Soit xo la valeur telle que Lf(xo) = 0.
On fait ici un raisonnement qui n'utilise pas explicitement la formule (4.6),
mais simplement les définitions (4.7), (4.8) et qui a des analogies avec la
Proposition 2.1.
l'hypothèse (2.19), alors on a :
On fait
us (S,t) x vs(S,t).
On démontre tout d'abord que l'on a
x
).
'l/Jo(x,t) =
yo, t (T)
(4.9)
Démonstration
(4.10)
Bien entendu, cela résulte de (4.6), mais on fait ici un raisonnement direct.
Par définition
= sup
y6Ai
XI 1
(4.11)
120
DÉCISION
En prenant y = 0 (qui appartient à Ad on a, d'après (2.16)
x
X0 x,S,t (T) =
et donc
,
Par ailleurs, d'après la concavité de U
et le fait que
de U, on obtient :
' '
est une sur-martingale ainsi que la croissance
d'où
.
On a donc bien (4.10). Il en résulte aussitôt
0) = xoyo,,(T)
(4.12)
On a ensuite en utilisant les mêmes propriétés de U et la Définition (2.23)
p_ j (x , S, t ) x
(4.13)
(4. 1 3)
YO,t(T)
En utilisant la définition de u,,., on a Vs > 0
.
donc d'après (4.13)
Lf xo + '
U
Yo.r(T)
à 0a
/
ce qui entraîne
us(S,t) - u(S,t) +
S> 0
et comme e est arbitraire, on a bien
u(S, t) x us(S,t).
(4.14)
Par ailleurs, par définition de v; (2.21), 3yeAi tel que
0
Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes
1211
ce qui implique
xo.
Par conséquent, on a aussi
soit
+ V> <s,t>
us(S,t)
et donc
V, (S, t)
us(S,t).
Les inégalités
Vb(S,t)
,,:; Ub(S,t) ,,:;
u(S,t)
se démontrent de manière analogue, d'où le résultat.
Sous les hypothèses de la Proposition 2.3, il en résulte bien évidemment
Vb(S,t) = vs(S,t) = u(S,t)
et donc également
Ub(S,t) = us(S,t) = u(S,t)
ce qui peut se vérifier avec la formule explicite (4.6). Mais le raisonnement
fait pour la démonstration de la Proposition 4.1 peut s'étendre à des cas ou
l'on ne dispose pas d'une formule explicite.
TENANT
COMPTE
DESCOÛTSDEGESTION
5. MODÈLE
DUPORTEFEUILLE
du modèle
5.1 Description
,
On suppose ici que l'agent économique paie un coût de gestion de son portefeuille lui donnant droit aux transactions qu'il souhaite. Ainsi formellement
sur un intervalle At, on aura la relation :
+ Ayl (s)(Si)(s)
+(S¡y¡ FI (y,S,t) + ... +
+...
+ Ay, (s)S,, (s)
= 0
DÉCISION
122
où
(Fi (y, S, t)
F (y, S, t) =
F(y,S,t)
bornée
', bornée
:
(5.1)
((FIFn(y,S,t)
Vy,S,t t
0,
y*F(y,S,t)
de la richesse
n
L'équation
(5.2)
s'écrit
n
(5.3)
i=O
1=1
et donc le modèle devient
n
dSi = Si (b; (s)ds
j=1
n
dX = [rX +
r-
F; (y, S,s))]ds
'
(5.4)
i, j
x<t> # X.
Cette fois-ci, on ne peut introduire une seule probabilité de référence
mais une famille indicée par le contrôle. On pose en effet :
dwy = dw
+
rll -
P*,
(5.5)
F(y,S,s))ds
et
(5.6)
F(y(s),S(s),s))
puis
ZY (t, T)
(5.7)
= exp[-
il
fr
[[ ds]
Y
(5.8)
1
-dP
1FT = ZY(t,T).
Pour la probabilité
l'on a :
Py,wy
devient
un processus
de Wiener
standardisé,
et
(s)
= x
ftt
n
y¡ (r:)S¡ (r:)O'ij (r:)dwj (r:))
(5.9)
123
Quelques remarques sur le prix des options, avec prise en compte de contraintes
n
= St[(r +
+
(5 . 1 0)
On est amené naturellement
la condition
à remplacer
(2.17) par :
M
y.!
x+
i£
/
(5.11)
? - nx,s,t Y>ds, p.s.
Y
Y
0
y
ce qui entraîne
que
est une PY sur-martingale.
5.2
Prix d'achat
(2.5) et (5 . 1 1 ))
et prix de vente
on fait l'hypothèse
technique
U(0) = 0.
On note, par analogie
(5.13)
à (4.4)
sup
On vérifie aisément
I
(5.14)
(5.15)
et donc
(5.16)
;
'
' '
que (cf. (4.10)) :
;
;
;
(5.12)
ne dépend pas de x, mais dépend cette fois de S.
A(S,t)
Pour simplifier,
On note cette fois :
( y satisfaisant
A(S,t) =
car l'ensemble
< 00
On introduit
alors (cf. (4.7), (4.8))
;
(5.17)
;
(5.18)
;
;
« prix de vente » et « prix d'achat » du produit
respectivement
On n'a pas l'équivalent de la formule de Black Scholes, mais l'on peut intro-
124
DÉCISION
duire les quantités :
'
.
y
(5.19)
vb(S,t) = inf
y
(5.20)
ainsi que les quantités :
vs(S,t) = E`''h(Ss,r(T))Yo,r(T)
(5.21)
Vb(S,t) =
(5.22)
où ys et yb sont les contrôles particuliers définis par les formules de feedback
,
9L\
dj;
_
asj
(5.23)
(5.24)
aVb
On démontre alors la
Proposition 5.1..... les estimations suivantes sont vérifiées
vs(S,t) ;? vs(S,t) Us(S,t)
Ub(S,t)
Vb(S,t)
Vb(S,t)-
(5.25)
(5.26)
La démonstration se trouve dans [2].
TENANT
DECONTRAINTES
6. MODÈLE
COMPTE
On présente ici un autre type de modèle discuté dans [4].
1 Description
du modèle
6.1
On reprend les formules (3.1), (3.2) et l'on considère les contrôles y de la
forme
yt
"t
(6.1)
Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes
125
5
On obtient donc le modèle
n
dS; = Si (b; (s)ds
(6.2)
j=1
n
n
dX = X[(r
r))ds + £
n;Q; jdwj]
¡,j=1
i=1
(6.4)
X(t) = x
S¡(t) = Si
(6.3)
On suppose que :
r
<
Inl2ds
X21nlds
< oo,p.s.
(6.5)
On note S5,t(S) et X;,t(s) les solutions de (6.2),(6.3). On vérifie que
x7r x,t(S)
et donc (6.5) peut s'écrire :
< oc, p.s.
<
t T ?n ?2ds
(6.6)
On considère ensuite la probabilité de référence P*, définie en (2.12) et le
processus wo défini en (2.9). On vérifie aisément que l'on a :
n
dS; = S¡(rds
(6.7)
j=l
n
dX = X (rds + £
7riuijdwt)j)
.
i, j=1
x<Î> # X.
(6.8)
(6.9)
On fait l'hypothèse supplémentaire
< oo.
E* sup X1.t
' (s)
(6.10)
Ai = 17rsatisfaisant
(6.11)
On notera
(6.6) et (6.10)}.
On se donne ensuite deux ensembles
K+, K-,
n
convexes fermés non vides de Rn
(6.12)
et l'on pose
Ar = 17reA,,
7r(s)cK+l
(6.13)
7r(s)éK-I.
(6.14)
DÉCISION
126
6.2 Intervallede non-arbitrage
On introduit les fonctions (cf. (2.21), (2.22))
V_ç (S,t)
== inf(x > 0[31eA?
p.s.}
013Jl'EA¡,X;,t(T) - h(Ss,i(T)) à 00 p.s.)
(6.15)
vb(S,t)
= sup{x > OI??EAr
(6.16)
0 p.s.}.
+
Une démonstration identique à la Proposition 2.1 permet d'affirmer la
Sous l'hypothèse (2.19) on a les inégalités
nr 4ui ,
Vb(S,t) (u(S,t)
(6.17)
< vs(S,t).
6.3 Expressiondes bornesde l'intervallede non-arbitrage
On introduit les fonctions
8(v) = sup (-7r*v),
nEK+
P6?"
(6.18)
â(v) = inf (-7r*v),
nEK-
(6.19)
et l'on fait les hypothèses
(6.20)
leurs domaines effectifs
sont continues
sur
<
> -oo}.
(6.21)
On introduit l'ensemble des processus
D=
Il vs(w)
001
(6.22)
et l'on définit (cf. (2.14)), pour vED
0,(S) = 0(s) +
zv(t,T) =
eXpj- / 1
dP"
[ = Zv(t, T)
dP ,Tt
(6.23)
Il
Il' ds]
(6.24)
(6.25)
127
Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes
dwv = dw + 0v (s)ds.
(6.26)
Avec ces notations, les processus (6.7), (6.8) peuvent s'écrire sous la forme
dSi = Si «r -
(6.27)
vi (s»ds
J
n
dX = X((r -
(6.28)
n*(s)v(s))ds
i.J=1
.
(6.29)
x<t> # X.
On a alors le
(6.21) on a les
Sous les hypothèses (6.12), (6.20),
'.Ellé()rème 6.t??
formules
T
vs(S,t)
.
(r + 8(v))ds]
(6.30)
(6.30)
(r + s(v))ds]
(6.31)
J
v6T
Vb(S,t) = inf
tJ
vED
fT
La démonstration est délicate (cf. [4]). Montrons simplement la propriété
fT
-
(6.32)
t
Posons
*'!
(r + 8(v))dt.
D'après (6.28) on a
Xx,l(s)Ÿv,t(s) +
+ 8(v(r)))dr r
Jr
H
y.!
t
Utilisant (6.10) on vérifie aisément que l'on a
T
1T
x
dx.
Comme 7r*p-f- Ô(v) x 0, on en déduit
"Ix < 0,
VvcD,V7reAt.
(6.33)
DÉCISION
128
Supposons vb(S,t) > 0, autrement
(6.16), que si 0 < ë <
(6.32) est évident.
tel que
Alors on déduit
de
donc d'après (6.33), Vue'D
Eet (6.32) s'en déduit aisément.
7. CONCLUSION
On a montré que toutes les définitions possibles du prix des produits dérivés
dans le cas de marchés
se ramenaient
à la formule de Black-Scholes,
infiniment
où
les
actifs
sont
divisibles, en l'absence de
complets,
supposés
coûts de gestion ou de transaction, et sans contrainte. Il ne peut y avoir d'ambiguité sur le «juste prix ». Dans le cas de marchés ne satisfaisant pas les
les choses sont évidemment
moins simples, et les
hypothèses précédentes,
définitions ne coïncident plus. Elles sont plus ou moins bien adaptées au
type d'imperfection
supposée, notamment en terme de simplicité d'utilisation.
BIBLIOGRAPHIE
[1] BLACK F., SCHOLES M. (1973), « The pricing of Options and Corporate
Liabilities », J. Political Economy, 81, 637-659.
A., JULIENH. (1999), « Option Pricing in a Market with Frictions »,
[2] BENSOUSSAN
W Fleming, Stochastic Analysis Control,
Volume in Honor of Professor
eds : W.M. McEneaney, G.G. Yin and
and
Birkhauser,
Optimization
Applications,
Qing Zhang.
T. (1993), « European Option Pricing
[3] DAVis M., PANASV.G., ZARIPHOPOULOU
with Transaction Costs », SIAM Journal of Control and Optimization, vol 31, 2,
pp 470-493.
[4] KARATZASI., Kou S.G. (1996), « On the Pricing of Contingent Claims under
Constraints », The Annals of Applied Probability, vol. 6, n° 2, pp. 321-369.
Jean-Pierre
Dupuy
DOMINANTE
QUANDLASTRATÉGIE
SERÉVÈLE
IRRATIONNELLE
Jacques Lesourne m'a appris à combiner la rigueur et l'irrévérence en matière de
discussion des fondements de la théorie de la décision. Je me souviens que c'est à
lui que je soumis pour la première fois les premiers balbutiements de qui devait être
ma solution au paradoxe de Newcomb. C'est avec plaisir et reconnaissance que je
lui dédie ces quelques réflexions.
1. DELALOGIQUE
APPAREMMENT
IMPLACABLE
DELASTRATÉGIE
DOMINANTE
'
Dans sa lettre du 4 décembre 17** au vicomte de Valmont, la marquise de
Merteuil écrit ceci : « Voyons ; de quoi s'agit-il tant ? Vous avez trouvé
Danceny chez moi, et cela vous a déplu ? à la bonne heure : mais qu'avezvous pu en conclure ? ou que c'était l'effet du hasard, comme je vous le
disais, ou celui de ma volonté, comme je ne vous le disais pas. Dans le
premier cas, votre Lettre est injuste ; dans le second, elle est ridicule : c'était
bien la peine d'écrire ! Mais vous êtes jaloux, et la jalousie ne raisonne pas.
Hé bien, je vais raisonner
pour vous. Ou vous avez un rival, ou vous n'en
avez pas. Si vous en avez un, il faut plaire pour lui être préféré ; si vous n'en
avez pas, il faut encore plaire pour éviter d'en avoir. Dans tous les cas, c'est
la même conduite à tenir : ainsi, pourquoi vous tourmenter ?
pourquoi,
130
DÉCISION
surtout, me tourmenter moi-même ? Ne savez-vous donc plus être le plus
aimable ? et n'êtes-vous plus sûr de vos succès ? Allons donc, Vicomte, vous
vous faites tort. » >
Qui a su mieux dire la logique du rapport de séduction lorsqu'il devient
guerre des sexes que l'officier d'artillerie Choderlos de Laclos ? Les théoriciens français qui empruntent, pour décrire cette structure, une fable américaine vulgaire, dénommée « dilemme du prisonnier », seraient bien avisés
de puiser dans les ressources de leur littérature nationale. Le raisonnement
de la marquise de Merteuil met en scène de façon saisissante la logique
apparemment implacable de ce que les théoriciens modernes de la décision
désignent sous le nom de stratégie dominante. Selon Merteuil, Valmont n'aa
le choix qu'entre deux stratégies : ou bien se montrer jaloux, se plaindre,
manifester son ressentiment, se conduire comme un mari trompé, etc. ; ou
bien ne jamais cesser de lutter pour plaire et toujours s'efforcer de rester le
meilleur dans la guerre de séduction. Or, quelle que soit la situation
(inconnue de lui, qui souffre les affres du doute) dans laquelle Valmont se
trouve - supplanté ou non par un rival -, le mieux qu'il ait à faire (toujours
selon Merteuil), c'est de choisir la seconde stratégie : « Dans tous les cas,
c'est la même conduite à tenir. » Le meilleur choix ne fait aucun doute, il n'y
a donc pas lieu de se tourmenter. L'incertitude
sur la situation n'en
entraîne aucune sur la décision qu'il faut prendre, puisque celle-ci est
indépendante de la situation. Le meilleur choix constitue, dans ce cas, une
« stratégie dominante ».
La force de ce raisonnement est telle qu'il a été érigé au rang de vérité axiomatique par l'un des fondateurs de la théorie de la décision, Leonard Savage.
Le schéma d'axiome en question, dit « principe de la chose certaine » (noté
PCC dans ce qui suit ; Sure Thing Principle en anglais), se dit en termes de
préférence : si un sujet préfère une option p à une autre q dans le cas où l'état
du monde appartient à un sous-ensemble X ; et préfère également p à q dans
le complémentaire de X ; alors il doit préférer p à q même s'il ne sait pas si
l'état du monde appartient à X ou au complémentaire de X.
L'ennui, allons-nous montrer, c'est que cette logique est responsable d'un
grand nombre des maux qui affectent les sociétés modernes. Citons simplement : la très grande difficulté que les hommes ont à mettre leur confiance
les uns dans les autres ; leur incapacité foncière à gérer leurs conflits d'une
façon non destructrice pour tous. S'ils arrivent néanmoins à faire société,
c'est en échappant au joug de la logique en question. Le lien social serait-il
donc irrationnel ? Avant d'en arriver à une conclusion aussi désespérante, il
convient de peser les termes du débat.
La psychologie, d'ailleurs, semble contredire la logique. Des expériences de
psychologie cognitive, menées à l'université Stanford par le regretté Amos
Tversky, montrent que les sujets violent le PCC de façon systématique (voir
encadré 1).
(1) Choderlosde Laclos,Les Liaisonsdangereuses,LettreCLII.Je souligne.
Quandla stratégiedominantese révèleirrationnelle
1311
Encadré 1 : Le Principe de la chose certaine mis en défaut
. Expérience 1 : On dit aux sujets : « Vous avez fait un pari à pile ou face. Vous
avez 50 % de chances de gagner 200 $ et 50 % de chances de perdre 100$. La
pièce a été lancée mais vous ne connaissez pas le résultat. Décidez-vous de
jouer une seconde fois ? Quid si vous savez que vous avez gagné la première
fois ? Quid si vous savez que vous avez perdu ? »
Résultat : 70 % des sujets rejouent s'ils ont gagné ; rejouent s'ils ont perdu ; ne
rejouent pas s'ils ne savent pas.
- Expérience 2 : On dit aux sujets (des étudiants de Stanford) : « Vous venez de
passer un examen difficile.Vous êtes épuisé (e) et avez les plus grands doutes
sur le résultat. Celui-ci ne sera connu que dans deux jours. Or vous avez maintenant la possibilité de vous acheter à tarif avantageux une semaine de vacances à
Hawâi. L'offrespéciale expire demain. Allez-vous :
- acheter la semaine de vacances ?
- ne pas l'acheter ?
- payer une somme de 5 $ non remboursable qui vous donne accès au tarif
avantageux jusqu'à après-demain - lorsque vous aurez les résultats de
l'examen ? »
« Supposez maintenant que vous connaissiez aujourd'hui les résultats de
l'examen. Êtes-vous prêt (e) à acheter la semaine de vacances dans le cas où
vous avez réussi ? même question au cas ou vous avez échoué. »
Résultat : Si les étudiants savent qu'ils ont réussi, ils sont 77 % à acheter la
semaine de vacances ; et 83 % s'ils savent qu'ils ont raté. En dépit de cela, ils
sont 61 % à payer les 5 $ non remboursables pour savoir ce qu'il en est avant de
prendre leur décision - et 32 % à acheter la semaine sans attendre, et 7 % à ne
pas l'acheter.
Interprétation : Tversky conjecture que l'incertitude sur l'état du monde rend difficile de se concentrer sur l'une ou l'autre des branches de la disjonction.
L'élargissement de l'attention se traduirait par une perte d'acuité. Quel que soit
l'état du monde le sujet a les mêmes préférences, certes, mais c'est pour des
raisons fort différentes (ilveut se payer des vacances, dans un cas parce qu'il les
a bien méritées, dans l'autre pour noyer son échec dans les loisirs ;s'il ne sait pas,
son esprit s'embrouille). Cette interprétation est confirmée, selon Tversky,par l'observation suivante : lorsque l'on rend les sujets attentifs aux raisons de leur préférence dans l'un et l'autre cas, ils ne violent plus le PCC.
Sources :E.Shafiret A.Tversky,
and
·· Thinking
throughUncertaintyNonconsequential
:
Reasoning
Choice··, Cognitive
et E.Shafir,< TheDisjunction
EffectinChoiceunder
1993 ; A.
Tversky
Psychology,
··, Psychological
Science,1992.
Uncertainty
"
Ces résultats, certes intéressants, ne suffisent pas à résoudre le conflit entre
logique et lien social. L'autorité de la logique a valeur normative et s'il est
démontré que les hommes doivent, pour vivre ensemble, échapper à son
emprise, le fait que leur esprit soit « câblé » pour rendre cela possible, s'il est
avéré, ne les dédouane pas pour autant du reproche d'irrationalisme. Celui
qui voudrait réconcilier logique et lien social aurait une tâche autrement
ardue : il lui faudrait montrer que la force logique du PCC, et donc de la stratégie dominante, n'est qu'apparente. Même si je crois possible de montrer
cela, je ne ferai ici qu'effleurer le sujet (cf. bibliographie en fin d'article).
132
DÉCISION
2. LOGIQUE
ETCONFLIT
L'un des grands mérites de la théorie du choix rationnel est d'avoir montré
la possibilité de structures d'interactions
telles que, chaque agent cherchant
la maximisation
de son intérêt, il en résulte une situation désastreuse pour
tous - et, en particulier, moins bonne que si tous avaient accepté, ou été
capables, de se contraindre. C'est parce qu'ils sont rationnels que les sujets
se montrent incapables de gérer leur conflit d'une façon qui préserve les
intérêts qu'ils ont en commun. Nous allons insister ici sur le rôle que joue la
stratégie dominante dans ce résultat paradoxal.
Considérons l'inévitable dilemme du prisonnier. Deux joueurs, Ego et Alter,
ont chacun le choix entre deux stratégies : coopérer (C) ou faire défection
(D). Quatre cas sont donc possibles, qui donnent chacun un certain résultat
aux deux joueurs (le « gain » d'Ego apparaît en bas et à gauche de chaque
case ; le gain d'Alter, en haut et à droite). Ainsi, si Ego et Alter tous deux
coopèrent, ils obtiennent chacun R (pour « récompense mutuelle »), contre
P (pour « punition mutuelle », ou « autopunition »), plus petit que R, si l'un
et l'autre font défection. Si l'un fait défection tandis que l'autre coopère,
celui-là obtient le gain T de la « tentation », avec T plus grand que R ; tandis
que celui-ci récolte le gain S de la « sottise », avec S plus petit que P.
En résumé, la condition pour qu'on ait un dilemme du prisonnier est :
T > R > P > S. On peut, pour donner chair à ce squelette formel, songer à la
guerre amoureuse dont nous sommes partis ; plus banalement, aux comportements de file d'attente (la défection étant la resquille) ; plus tragiquement,
à la course aux armements (la coopération étant le désarmement).
C
D
Alter
R
T
C
R
S
Ego ––––––––––––––––––––––––––––
S
P
D
T
P
Quand la stratégie dominante se révèle irrationnelle
133
La très grande majorité des théoriciens qui se sont intéressés à cette structure raisonnent ainsi. Je suis Ego. Mon choix devrait en principe dépendre
de ce que fait Alter, mais celui-ci agit par hypothèse indépendamment
de
moi et sans que je puisse savoir ce qu'il fait. Or j'observe que cela n'a en
fait aucune importance car, quoi qu'il fasse, il est dans mon intérêt de faire
défection : s'il fait C, de faire D (puisque T > R) ; s'il fait D, de faire également D (puisque P > S). En d'autres termes, j'ai une stratégie dominante, qui
est ici de faire défection.
Me pliant au PCC, je juge rationnel de faire défection. Alter aussi, qui est
dans la même situation que moi. Nous nous retrouvons en (D, D), qui nous
donne à chacun P, alors que si nous avions coopéré, nous eussions obtenu
l'un et l'autre R > P. Le dilemme du prisonnier constitue un « paradoxe », en
ce que les deux agents s'y condamnent mutuellement,
et le plus « rationnellement » du monde, à une situation qui, par rapport à un autre possible, se
révèle moins bonne pour l'un comme pour l'autre. On admet généralement
que le dilemme du prisonnier formalise la structure de « l'état de nature » tel
que le représente Thomas Hobbes dans le Léviathan. Le blocage mutuel
dans la case (D, D) illustre l'absurdité
inévitable
de la
prétendument
« guerre de tous contre tous ». « Du fait de cette défiance de l'un à l'égard
de l'autre, écrit le philosophe anglais, il n'existe pour nul homme aucun
les
moyen de se garantir qui soit aussi raisonnable que le fait de prendre
devants. » Toujours agir comme si un rival était prêt à vous supplanter dans
le coeur de votre amante.
Albert Tucker a formalisé cette structure en
Depuis que le mathématicien
il
a
eu
un
1950,
y toujours
petit nombre d'auteurs (je les appellerai les « hétérodoxes ») pour soutenir qu'il est rationnel de coopérer dans le dilemme du
prisonnier à un coup. La psychologie semble être de leur côté mais, comme
expliqué ci-dessus, son renfort n'est pas décisif (cf. encadré 2).
L'un des arguments avancés par les hétérodoxes est celui des « jumeaux ».
Supposons qu'Ego et Alter soient de vrais jumeaux. Ego devrait raisonner
ainsi : quel que soit mon choix, il est très probable qu'Alter fera le même.
Les deux seules cases à considérer sont donc les cases diagonales CC et DD.
C'est évidemment
C qu'il faut choisir. Or, nous sommes tous des jumeaux
en rationalité.
S'il est rationnel pour Ego de choisir C (resp. D), il est
rationnel pour Alter de choisir C (resp. D). Les cases CD et DC sont exclues
par là même de la délibération.
On notera que cet argument rejeté par les orthodoxes d'un simple haussement d'épaule du PCC et de la stratégie
prétend contourner l'obstacle
dominante en faisant dépendre
l'état du monde (ici, l'action de l'autre) de
sa propre action. Tous les auteurs admettent que si l'état du monde dépend
de l'action, la logique de la stratégie dominante est en effet
causalement
réduite à néant. Supposons que Pierre, grand fumeur, envisage de renoncer
à fumer, afin de réduire ses chances de mourir d'un cancer du poumon.
134
DÉCISION
Encadré 2 : Coopération dans le dilemme du prisonnier
Expérience : Des expériences ont montré que, en moyenne, 40 % des sujets
coopèrent dans le dilemme du prisonnier à un coup. Les expériences de Tversky
ont conduit à préciser ce résultat et à en changer l'interprétation. Si les sujets
savent, avant de jouer, que leur partenaire a fait défection, ils sont 97 % à faire
défection - donc 3 % à coopérer. S'ils savent que l'autre a coopéré, ils sont 84 %
à faire défection - donc 16 % à coopérer. Et s'ils ne savent pas ce que l'autre a
fait, ils sont effectivement 40 % à coopérer - donc 60 % seulement à faire défection. Dans 25 % des cas, on a la configuration suivante (violation du PCC) : on fait
défection si l'autre fait défection ; on fait défection si l'autre coopère ; on coopère
si l'on ne sait pas ce que fait l'autre.
Le résultat obtenu avant Tversky sur les 40 % de sujets qui
Interprétation :
coopèrent dans le dilemme du prisonnier était couramment interprété de la façon
suivante. Placés dans une situation d'interaction, les sujets ne se déterminent pas
seulement en fonction de considérations de rationalité ; des éléments éthiques
entrent en jeu dans leur décision. Il est « bien » de coopérer - surtout, évidemment, si l'on sait que l'autre a coopéré. Les résultats obtenus par Tversky ruinent
cette interprétation : beaucoup plus de sujets coopèrent dans l'ignorance du
choix de l'autre (40 %) que lorsqu'ils savent que l'autre a coopéré (16 %). Selon
Tversky, l'incertitude sur l'état du monde (ici, la stratégie de l'autre) favorise la
pensée « quasi magique ». Si la stratégie de l'autre est connue, l'attitude rationnelle et égoïste a le champ libre. En revanche, dans l'incertitude, le sujet devient
sensible à la rationalité collective. Tout se passe pour lui comme si, en coopérant,
il incitait l'autre à coopérer. En réalité, il ne croit pas qu'il a un tel pouvoir causal c'est pourquoi Tversky évoque une quasi magie.
Cependant, il écarte ce choix pour la raison suivante.
est, selon lui :
Pas de cancer
Renoncer
Fumer
Le tableau de ses gains
Cancer
9
- 1 000
10
0
- 995
Pierre conclut que continuer de fumer constitue une stratégie dominante
puisque, qu'il ait ou non le cancer, il se trouve mieux ainsi. Nous serions en
droit de nous scandaliser de son illogisme. Il oublierait tout simplement que
l'état du monde n'est pas indépendant de son choix, et que les deux cases
sont de loin les plus probables. Or les hétérodoxes,
dans le
diagonales
dilemme du prisonnier joué par des jumeaux en raison, ne raisonnent pas
autrement. Quelle faute commettent-ils
donc, selon les orthodoxes, que le
raisonnement
orthodoxe, dans le cas du choix de Pierre, ne commettrait
pas ? C'est que, dans le dilemme du prisonnier, l'état du monde - l'action
d'Alter dépend bien de mon action, mais elle n'en dépend pas causalement : elle n'en dépend qu'en probabilité.
Si je choisis C, il est très
probable, en effet, qu'Alter ait également choisi C. Mais tout ce que je puis
dire, c'est que mon action est le signe qu'Alter choisit C ; elle n'en est pas
Quandla stratégiedominantese révèleirrationnelle
135
5
la cause. Le raisonnement hétérodoxe serait coupable de ne pas faire cette
distinction. Il constituerait un mode de pensée magique, puisqu'il confondrait le signe et la cause.
Que l'affaire ne puisse être tranchée aussi péremptoirement est amplement
montré par le paradoxe de Newcomb (cf. encadré 3) qui, mettant également
en scène une situation où l'état du monde dépend en probabilité de l'action
sans en dépendre causalement, aboutit à un puzzle dont tout le monde reconnaît qu'à ce jour, personne ne l'a résolu.
Encadré 3 : Le paradoxe de Newcomb
Soit deux boîtes, l'une, transparente, qui contient millefrancs, l'autre, opaque, qui,
soit contient un millionde francs, soit ne contient rien. Le choix de l'agent est soit
H1 : ne prendre que le contenu de la boîte opaque, soit H2 : prendre le contenu
des deux boîtes. Au moment où le problème est posé à l'agent, un Prédicteur a
déjà placé un millionde francs dans la boîte opaque si et seulement s'il a prévu
que l'agent choisirait H1. L'agent sait tout cela et il a une très grande confiance
dans les capacités prédictives du Prédicteur. Que doit-ilfaire ?
Une première argumentation conclut que l'agent doit choisir H1. Le Prédicteur
l'aura prévu et l'agent aura un million. S'il choisissait H2, il n'aurait que mille
francs. Le paradoxe est qu'une seconde argumentation paraît tout aussi décisive,
alors qu'elle conclut de manière opposée. Lorsque l'agent fait son choix, il y a ou
il n'y a pas un millionde francs dans la boîte opaque : à prendre les deux boîtes,
il gagne évidemment mille francs de plus dans l'un et l'autre cas. H2 est donc sa
stratégie dominante.
Deux tiers des sujets « ordinaires » font le choix H1, qui viole le PCC. Presque
tous les philosophes professionnels s'en tiennent à la stratégie dominante H2.
ENSOIETDÉVELOPPEMENT
3. LOGIQUE,
CONFIANCE
ÉCONOMIQUE
On connaît la thèse célèbre, en forme de paradoxe, avancée par Max Weber
sur les « affinités électives » entre « l'éthique protestante », plus précisément les conséquences éthiques de la doctrine de la prédestination, et « l'esprit du capitalisme (1) Je ne m'intéresse ici qu'à la structure logique de
l'argument de Weber, et non à sa validité empirique. En vertu d'une décision divine prise de toute éternité, chacun appartient à un camp, celui des
élus ou celui des damnés, sans savoir lequel. Les hommes ne peuvent absolument rien à ce décret, il n'y a rien qu'ils puissent faire pour gagner ou
(1) M. Weber,L'Éthiqueprotestanteet l'esprit du capitalisme,trad. fr., Paris, Plon, 1964.
Les numérosde pagesrenvoientà cette édition.
136
DÉCISION
mériter leur salut. La grâce divine, cependant, se manifeste par des signes.
La chose importante est que ces signes ne s'observent pas par introspection,
ils s'acquièrent
par l'action. Le principal d'entre eux est le succès que l'on
obtient en mettant
à l'épreuve
sa foi dans une activité professionnelle
Cette
est
coûteuse, elle exige de travailler sans relâche,
(Beruf).
épreuve
sans
sans jamais
méthodiquement,
jamais se reposer dans la possession,
«
de
la
richesse.
La
au
note
est
le
travail,
Weber,
jouir
répugnance
symptôme
d'une absence de la grâce. »
La « conséquence
logique » de ce problème pratique, remarque Weber,
aurait « évidemment » dû être le « fatalisme ». Le fatalisme, c'est-à-dire
le
choix de la stratégie dominante :
quel que soit l'état du monde - ici, que je
fasse partie des élus ou non -, il vaut mieux pour moi mener une vie oisive.
Tout le livre de Weber, cependant,
s'efforce
et
d'expliquer
pourquoi
comment « la grande masse des hommes ordinaires » a fait le choix opposé.
Nous sommes peut-être plus ou moins, que nous le voulions et le sachions
ou non, les héritiers de ce choix.
Pour la doctrine calviniste populaire, « se considérer comme élu constituait
un devoir ; toute espèce de doute à ce sujet devait être repoussée en tant que
tentation du démon, car une insuffisante confiance en soi découlait d'une foi
insuffisante, c'est-à-dire d'une insuffisante efficacité de la grâce » (p. 134).
« Le travail sans relâche dans un métier » (p. 135) était ce qui permettait
d'obtenir cette confiance en soi, le moyen de s'assurer de son état de grâce.
Le débat qui opposa luthériens et calvinistes est du plus grand intérêt. Les
premiers accusaient les seconds d'en revenir au dogme du « salut par les
oeuvres », au grand dam de ces derniers, outrés qu'on puisse identifier leur
doctrine à ce qu'ils honnissaient
par-dessus tout, la doctrine catholique.
Cette accusation revient à dire que celui qui choisit de se comporter comme
élu raisonne comme si ce comportement
était la cause de son élection comportement
magique, insiste l'accusation,
puisqu'il consiste à prendre le
signe pour la chose. Cette accusation n'est autre que celle que de nos jours
les théoriciens orthodoxes adressent à leurs adversaires. Où l'on voit que le
débat actuel n'est pas seulement ce qu'il prétend être : une défense de la
rationalité, et qu'il a des racines théologiques. Cela n'étonnera pas celui qui,
se situant dans la tradition durkheimienne,
est convaincu que ce que nous
appelons Raison trouve son origine dans la pensée religieuse.
Je viens d'utiliser l'expression
« comme si ». Elle est ambiguë. Si on l'incomme
voulant
dire
conduisent
au
terprète
que les deux raisonnements
même résultat, alors l'accusation
est fondée, puisqu'en pratique, les deux
et même, de façon
doctrines, calviniste et catholique, sont indiscernables hautement paradoxale, la doctrine calviniste se révèle beaucoup plus méritocratique que la doctrine catholique (p. 141-143). Mais si l'interprétation
est que les puritains prenaient vraiment le signe pour la chose, alors l'accusation devient incompréhensible,
et parfaitement
Car, montre
injustifiée.
Weber, le puritanisme ascétique constitue le point final de ce vaste mouvement
Quand la stratégie dominante se révèle irrationnelle
137
de « désenchantement
» du monde qui rejette " tous les moyens magiques
et de sacrilèges »
d'atteindre
au salut comme autant de superstitions
insiste-t-il, qui « a
(p. 122). C'est cette conception puritaine de l'existence,
veillé sur le berceau de l'homo oeconomicus
moderne » (p. 240), donné
naissance
au rationalisme
« l'esprit
économique
(p. 205) et transformé
calculateur » du capitalisme, « de simple moyen économique en un principe
général de conduite » (p. 207).
On peut, si l'on veut, coller l'étiquette infamante « irrationnel » sur le choix
puritain - c'est-à-dire le rejet de la logique de la stratégie dominante. Il faut
économique
cependant savoir à quoi alors l'on s'expose. Le rationalisme
représente pour beaucoup le summum de la Raison dans l'histoire. Sommesnous prêts à braver le paradoxe consistant à le juger... irrationnel ?
4. LOGIQUE
ETCONFIANCE
ENAUTRUI
Considérons
la situation
Pierre
..
C
suivante
entre deux sujets, Pierre et Marie :
Marie
·
1
2
D
D
(0, 0)
C
(+1,+1)
(- 1, + 2)
Temps :1 et 2.
C : coopération D
; :défection.
Un échange mutuellement
avantageux entre Pierre et Marie est en principe
à savoir le vecteur
possible, qui les mènerait de leurs situations actuelles (0,0), dont la première composante
représente « l'utilité » de Pierre, et la
seconde celle de Marie - à un état (+1, + 1 ) que l'un et l'autre préfèrent. Le
problème naît du fait que pour une raison quelconque,
l'échange n'a lieu
que si Pierre fait le premier pas (C), auquel cas il court le risque que Marie
ne fasse pas le second, empochant ce que Pierre lui donne sans opérer de
contrepartie (Marie faisant alors D au temps 2, se retrouve avec + 2, laissant
Pierre avec - I).
Le raisonnement rationaliste affirme que l'échange ne peut se réaliser, alors
même qu'il améliorerait le sort de l'un et de l'autre. Partons de la dernière
du temps 2 où Marie a la main. Il est rationnel pour elle
étape, c'est-à-dire
138
DÉCISION
de ne pas jouer son rôle dans l'échange puisqu'elle obtient + 2 en faisant
défection, contre + 1 si elle coopère. Au temps 1, Pierre a le choix entre faire
le premier pas, auquel cas il anticipe que Marie ne fera pas le second et qu'il
se retrouvera avec - l, et ne pas bouger, c'est-à-dire faire D, auquel cas il
obtient 0. Donc il ne bouge pas, et l'échange n'a pas lieu.
On se dit que ce résultat désolant peut être évité grâce à l'institution de la
promesse. Marie, puisqu'elle y a intérêt autant que Pierre, va, à l'instant 0,
avant que le jeu commence, s'engager auprès de son partenaire à coopérer
en 2 si celui-ci coopère en 1. Peine perdue, selon la logique ! Marie sait bien
que le moment venu, c'est-à-dire au temps 2, elle aura intérêt à ne pas tenir
son engagement. Pierre, qui peut simuler son raisonnement, le sait également. Marie a beau lui jurer ses grands dieux, elle n'est pas crédible. Pierre
ne peut lui faire crédit. Il ne fait donc pas un geste. La confiance est
condamnée par la logique.
Le rôle crucial que jouent le PCC et la logique de la stratégie dominante
dans ce résultat désolant n'est pas immédiatement apparent. Un puzzle
inventé par Gregory Kavka, le « puzzle de la toxine », le met brillamment en
évidence('). Il faut, pour voir sa pertinence par rapport au problème en
cause, considérer qu'une promesse est, en partie, une intention rendue
manifeste. Un milliardaire, qui a fait fortune dans les sciences cognitives,
vient vous trouver et vous propose le marché suivant : « Vous voyez cette
fiole, vous dit-il, elle contient une toxine qui, si vous l'absorbez, vous rendra
malade comme un chien pendant deux jours mais ne vous tuera pas et ne
laissera aucune séquelle. Si vous avalez le contenu de la fiole, je vous paie
un million de dollars. » Vous vous réjouissez déjà de ce deal inespéré, car
vous estimez que le désagrément physique sera bien peu de chose en comparaison de la fortune qui vous est ainsi offerte, lorsque votre singulier interlocuteur ajoute ceci : « Ce qui m'intéresse n'est même pas que vous buviez
la toxine ; il me suffit que vous en formiez l'intention. J'ai apporté cette
machine de mon invention, elle est précisément capable de déceler les intentions. Vous la brancherez ce soir à minuit sur votre cerveau et elle enregistrera alors si vous avez ou non l'intention de boire la toxine demain à midi.
Et tenez, je suis bon prince, je n'attendrai même pas que vous ayez bu pour
vous donner votre récompense. Si la machine a détecté une intention positive, demain matin, à la première heure, vous trouverez le million de dollars
sur votre compte en banque. » Sur ce, le milliardaire vous laisse à vos
pensées amères car, en logicien averti, vous n'avez pas tardé à comprendre
que le magot qui paraissait à portée de vos lèvres, vous échappe irrémédiablement.
Raisonnons selon l'orthodoxie. Demain à midi, que vous ayez ou non
trouvé le million de dollars sur votre compte, vous n'avez aucune raison
de boire la toxine, et vous en avez une très bonne de ne pas la boire. Le passé
(1) GregoryKavka,«TheToxinPuzzle»,Analysis,vol.43, 1,Jan, 1983.
Quandla stratégiedominantese révèleirrationnelle
139
est ce qu'il est, et ce n'est pas votre décision qui va le changer. Il existe une
stratégie dominante, ne pas boire, et c'est la stratégie rationnelle. Cela,
vous le savez dès maintenant, et donc aussi ce soir à minuit. Former une
intention n'étant pas un acte volitionnel, il vous est impossible de former
l'intention de faire X si vous savez que le moment venu il sera déraisonnable
pour vous de faire X. Il vous est donc impossible, ce soir à minuit, de former
l'intention de boire, demain à midi, la toxine. Le million vous échappe.
On voit l'isomorphie entre le puzzle de la toxine et le problème de la
promesse. La toxine, c'est le renoncement de Marie au gain de sa stratégie
dominante, faire défection ; le million de dollars, c'est le cadeau que lui fait
Pierre en lui passant la main. Marie ne peut en 0 former l'intention de
coopérer en 2 parce qu'elle sait que le moment venu, il sera irrationnel pour
elle d'agir ainsi. Elle n'aura donc pas sa récompense, à savoir le fait que
Pierre lui fasse confiance en faisant le premier pas.
Pour sortir de l'impasse, les rationalistes convoquent l'éthique, qu'ils relèguent par là même dans l'illogisme et l'irrationnel. Je ne peux, en conclusion, que manifester deux convictions, qui ont guidé ma recherche de ces
dernières années :
1 )renoncer à donner un fondement rationnel à la confiance est une démission inacceptable ;
2) on peut trouver un tel fondement, mais cela exige une reconstruction radicale de la théorie de la décision - laquelle reconstruction ne laisse pas
intacte la logique de la stratégie dominante.
BIBLIOGRAPHIE
DupUYJ.-P., Introduction aux sciences sociales, Ellipses, 1992.
DupUYJ.-P., Éthique et philosophie de l'action, Ellipses, 1999.
DupUYJ.-P., « Philosophical Foundations of A New Concept of Equilibrium in the
Social Sciences : Projected Equilibrium », Philosophical Studies, 1999.
Anne Marchais-Roubelat
ETIRRÉVERSIBILITÉS
DÉCISIONS
À propos du supersonique
« Pour toute organisation... la notion de stratégie est
inséparable de celle d'irréversibilité de grande échelle. »
Jacques Lesourne
Parmi
.
les décisions
qu'un dirigeant est amené à prendre, beaucoup sont
un tourbillon d'activités (Mintzberg,
dans
1973), tandis
prises rapidement,
devoir
fortement
structurer
semblent
que d'autres,
beaucoup plus rares,
l'avenir : pour une entreprise, une OPA par exemple. On considère habituellement que ces décisions sont à l'origine d'un processus nouveau de mise en
oeuvre « stratégique », parce que de grande ampleur (Mintzberg, Raisinghani
& Théorêt, 1976). On préférera définir ici les « grandes décisions » comme
de grande
des décisions exceptionnelles
qui engendrent des « irréversibilités
échelle », l'objet de cette réflexion étant de préciser ce que recouvre cette
notion et de l'utiliser dans une optique stratégique. On établira dans un premier temps une typologie des irréversibilités,
puis on déterminera celles qui
caractérisent une grande décision à partir d'un cas : l'accord international du
29 novembre
1962, par lequel les gouvernements
français et britannique
à
construire
commun
un
en
avion
le futur
s'engagent
supersonique,
Concorde.
Le résumé des événements (annexe 1 ) montre que parmi les décisions les
lancement commercial
plus marquantes
qui se sont enchaînées jusqu'au
dans les années soixante-dix, c'est effectivement
cet accord qui constitue le
plus clairement une « grande décision » : non seulement il a eu un caractère
mais encore, en lançant un grand programme qui engageait
exceptionnel,
ressources financières et qui était stratégique pour les indusd'importantes
Décisionset irréversibilités
triels de l'époque, il a bien créé une « irréversibilité
il s'agira de préciser la nature.
1411
de grande échelle » dont
Les théories de la décision et les démarches empiriques qui s'intéressent
à la
décision comme choix, aux interactions entre les décideurs, ou encore aux
processus décisionnels, ne sont toutefois pas adaptées à cette analyse de l'irréversibilité
parce qu'elles ne lèvent pas certaines ambiguïtés, notamment
celles qui sont dues au déroulement
du temps (Marchais-Roubelat,
1999).
On examinera donc la grande décision et les irréversibilités
qui lui sont liées
à l'aide de concepts qui conviennent à la description d'un processus d'action, l'action étant définie comme un processus complexe au cours duquel
des acteurs effectuent des choix. Ces concepts, qui ont été regroupés dans
l'annexe 2, sont issus de la phénoménologie
de l'action mise au point lors de
recherches
effectuées
sous la direction de Jacques Lesourne (Marchais,
1993). Certains d'entre eux, qui justifient la méthode de description des liens
entre irréversibilités
et décisions, sont présentés dans la première partie.
D'autres seront introduits par la suite, en fonction des besoins de l'analyse.
À l'aide de ces concepts, on montrera dans un deuxième temps qu'il existe
dans le cas du Concorde deux sortes « d'irréversibilités
de grande échelle »
«
une irrégrande décision » :
qui permettent de qualifier une décision de
à l'échelle de la straversibilité à l'échelle de l'action, et une irréversibilité
de grande échelle est
tégie des acteurs. La nature de ces irréversibilités
différente de celle de l'irréversibilité
engendrée par l'évolution des phénomènes après une décision. On analysera ensuite l'intérêt stratégique pour les
industriels de provoquer
une irréversibilité
de grande échelle au moyen
d'une grande décision, avant de s'interroger
dans une quatrième partie sur
les différences entre le cas du Concorde et celui de son éventuel successeur,
ainsi que sur les irréversibilités
de grande échelle que le projet de supersodu
futur
est
nique
susceptible d'engendrer.
1. DÉFINIR
L'ÉCHELLE
DEL'IRRÉVERSIBILITÉ :
LETRANSFERT
ETL'IRRÉVERSIBILITÉ
STRATÉGIQUE
;
';
>
;
;
;
;
;
Les études empiriques ont montré que les processus de décision sont extrêmement complexes : les acteurs participent à des processus de choix qui ne
à celui annoncé dans la décision finale
correspondent
pas nécessairement
March
&
Olsen,
1972
;
Brunsson,
(Cohen,
1993), leur rationalité est limitée,
et leur système d'évaluation
perturbé par des biais cognitifs (Meyer &
liée aux
Rowan, 1978 ; Argyris, 1993). Décrire et analyser l'irréversibilité
décisions peut alors sembler d'autant plus difficile que les acteurs participent souvent en même temps à différents processus de décisions.
142
DÉCISION
De plus, l'irréversibilité, parce qu'elle marque une discontinuité entre un
« avant » et un « après », ne peut s'appréhender que dans la durée. Or, le
temps modifie le nombre et la nature des acteurs, ainsi que leurs problèmes
décisionnels : dans les années cinquante, l'avion supersonique représente un
défi technologique majeur. Dans les années soixante-dix, les hommes et les
entreprises ont changé, la préoccupation essentielle devient le coût du programme. Les concepts et les principes d'analyse qui vont être présentés
maintenant permettent toutefois de lever ces difficultés (Marchais-Roubelat,
1995, 1998).
Au cours d'une action, conçue comme un processus au cours duquel un ou
plusieurs acteurs sont susceptibles d'effectuer des choix, on observe l'enchaînement des phénomènes. Si un décideur effectue un choix mais ne l'exprime pas, sa décision reste virtuelle, elle ne constitue pas un phénomène
observable. Par contre, dès que le décideur signifie sa décision, il modifie
son comportement : cette modification est un phénomène observable. Enfin,
la mise en oeuvre de la décision exprimée se traduit par un enchaînement
particulier de phénomènes qui modifie le déroulement de l'action à plus ou
moins grande échelle.
Dans une phénoménologie de l'action, on dissociera complètement ces trois
composantes de la décision, alors qu'elles sont habituellement confondues.
On nommera acte le changement de comportement d'un acteur, à une condition : il faut que, à la suite de ce changement de comportement, le déroulement de l'action soit modifié. On appellera effet d'un acte la transformation
de la trajectoire de certaines variables à la suite de l'acte. L'effet de l'acte et
l'acte sont observables alors que la décision, conçue comme un choix particulier (la sélection d'une intention d'acte), ne l'est jamais. Les décideurs
sont dans ces conditions des acteurs qui sélectionnent une intention d'acte à
la suite duquel l'action sera modifiée.
Cette décomposition présente l'intérêt de clarifier les liens entre une décision et les irréversibilités qu'elle est susceptible de produire. Toute décision
est réversible jusqu'à ce qu'elle commence à être mise en oeuvre : il est toujours possible de renoncer ou de faire un nouveau choix. Par contre, dès
qu'elle commence à être appliquée, la décision introduit une irréversibilité
car elle crée une nouvelle situation : pour reprendre l'exemple de l'OPA, à
partir du moment où elle est déclenchée, même un abandon ne permet pas
de revenir à la situation antérieure. D'une décision à l'autre cependant, cette
irréversibilité est extrêmement variable. Sa durée peut notamment varier du
court terme (un enchaînement de décisions peut alors permettre de revenir
au bout d'un certain temps à la situation antérieure) au long terme (par
exemple une fusion-acquisition).
Dans la décision de novembre 1962, les gouvernements (décideurs) annoncent une intention commune, mais qui n'est pas encore concrète au moment
de la signature de l'accord. Dès que des acteurs commencent à s'organiser
pour la mettre à l'oeuvre, des changements se produisent de manière
Décisionset irréversibilités
143
concrète, ce sont des effets. À partir du moment où des effets sont observés,
la décision annoncée par les décideurs se transforme en acte. L'accord de
1962 est suivi d'au moins deux séries d'effets :
- des
des décisions de financement...
négociations,
en oeuvre du projet ;
- la construction effective de l'avion.
qui organisent
la mise
de
Lorsque l'on a défini la « grande décision » à partir des « irréversibilités
une décision et l'acte qui
grande échelle », on a associé implicitement
exprime cette décision. Pour faciliter la lecture et dans une optique descriptive, comme c'est le cas ici, on pourra continuer à parler simplement de décisions (en sous-entendant
des actes) et de leurs effets au cours de l'action. On
montrera toutefois que l'observation
des effets ne suffit pas à définir ce
de grande ampleur susceptible de qualifier une
qu'est une irréversibilité
décision de « grande décision ».
j
#
Pour analyser la décision dans le temps, il faut la replacer dans le contexte
de l'action. Au cours de l'action, un acteur qui doit prendre une décision a
tout intérêt à envisager sous des angles différents sa décision, c'est-à-dire
son choix, l'acte par lequel il fait connaître cette décision (le moment et la
manière dont il la formule, les acteurs auxquels il s'adresse, etc.), et enfin les
effets de cet acte. Cet intérêt est d'ordre pratique : au moment où il effectue
un choix, l'acteur
(le système de
prend en compte l'environnement
variables transformées
l'action
ou
de
la
tel
transformer)
par
susceptibles
le
au
fur
et
à
mesure
les
effets
se
qu'il
perçoit. Toutefois,
que
produisent,
l'environnement
ou la perception que l'acteur en avait se modifie, soit parce
que de nouvelles variables doivent être prises en compte, soit parce que les
trajectoires des effets ne correspondent
pas à celles qui avaient été prévues.
Il faut par conséquent tenir compte du fait que les phénomènes qui se produisent au cours de l'action, et dont font partie les actes et les effets, dépendent de contraintes qui n'avaient pas nécessairement
été perçues au moment
de la décision, ou qui ont évolué depuis. On classera ces contraintes à partir
des dimensions
d'évaluation
Ce sont des
auxquelles elles appartiennent.
dimensions
élémentaires
commer(technique,
économique,
politique,
Elles
exercent
résument
des
de
l'environnement.
ciale...) qui
sous-systèmes
des contraintes actuelles ou potentielles sur le comportement
d'un ou de plusieurs acteurs et sont susceptibles
d'être transformées
par un acte ou une
combinaison
d'actes. L'évolution de ces contraintes est alors susceptible de
modifier les données d'un problème stratégique pour un acteur, et parfois
même la nature du problème.
CI
§
)
g
3
§
o
L'évolution de l'action, parce qu'elle modifie les stratégies des acteurs, par
dont
exemple en modifiant l'ordre de priorité des dimensions d'évaluation
elles dépendent, est ainsi susceptible de provoquer une irréversibilité
stratégique. Cette irréversibilité,
qui est à l'échelle de l'acteur, constitue pour lui
une irréversibilité
de grande ampleur, dont parfois il ne prend conscience
qu'avec retard.
[
É
§
j
j
DÉCISION
144
Pour analyser l'évolution des contraintes susceptibles d'engendrer
des irréversibilités stratégiques dans une action en cours, comme pour prévoir et
évaluer des effets à venir, on décompose
l'action en phases. Les phases
sont des parties du déroulement de l'action pendant lesquelles des relations
des règles, restent inchangées.
Ces règles sont soit des
fondamentales,
contraintes de comportement,
soit des relations entre les variables. Elles
déterminent les durées des phases. Les transformations
des règles qui se produisent à l'achèvement
des phases sont appelées transferts.
Par conséquent,
la trajectoire des effets dépend des règles de la phase en cours. Si un transfert se produit, il établit une discontinuité
entre deux phases. En modifiant
les règles qui conditionnent
les trajectoires des effets pendant la durée d'une
phase, le transfert crée une irréversibilité à l'échelle de l'action.
En résumé, les notions de décision, d'acte et d'effet permettent de décrire les
au cours de l'action, tandis que ceux de
phénomènes
qui se produisent
dimension d'évaluation,
de phase, de règle et de transfert, permettent d'en
analyser la dynamique. Toutes les décisions (actes) engendrent des effets qui
dans l'action. D'autre part, tout phénomène
provoquent des irréversibilités
les
de
la
effets
décision)
(dont
dépend des règles de la phase en cours. Les
effets sont donc susceptibles de subir une irréversibilité
due à un transfert.
On montrera en deuxième partie que l'ampleur des effets ne suffit pas à qualifier l'accord intergouvernemental
de 1962 de grande décision. Les seules
irréversibilités
de grande échelle que l'on peut retenir de manière opérationnelle sont donc le transfert et l'irréversibilité
stratégique.
2. ANALYSER
LAGRANDE
PARL'IRRÉVERSIBILIT
DÉCISION
ETL'EFFET
L'ACTEUR
L'ACTION,
de grande échelle liée à la décision de construire
le
L'irréversibilité
Concorde sera analysée selon trois niveaux. Le premier est celui de l'action.
La décision de novembre 1962 créant de nouvelles règles, elle provoque à
ce niveau une irréversibilité
de grande échelle, exprimée par le concept de
transfert. Le deuxième niveau est celui des acteurs. En modifiant la nature et
les données du problème stratégique des industriels (ils sont désormais dans
de décider d'arrêter le projet, tandis que leurs enjeux stratél'impossibilité
sont
modifiés), la grande décision produit une seconde catégorie d'irgiques
réversibilité
de grande échelle, qualifiée d'irréversibilité
Le
stratégique.
troisième niveau est celui de l'évolution
des phénomènes
à la suite de la
décision, c'est le niveau des effets. On montrera que l'ampleur des effets ne
suffit pas à qualifier l'accord de « grande décision ».
Les décideurs
et britannique,
de l'accord
s'engagent
de 1962, c'est-à-dire
les gouvernements
français
de façon réciproque à respecter une contrainte de
Décisionset irréversibilités
1455
durable qui consiste à « respecter l'accord (la construction en
comportement
commun du TSS) ». Par définition, cette contrainte de comportement
est une
règle, elle détermine une phase dont la durée est fixée : c'est la durée du projet. Ainsi, en créant une nouvelle phase, l'accord engendre une irréversibilité dans la dynamique de l'action. Il provoque un transfert (modification
d'une ou plusieurs règles). Or, les acteurs qui mettront en oeuvre le proles gouvernements
ne respecteront
gramme n'en sont pas les décideurs :
l'accord que parce que les industriels produiront concrètement
le supersoest
Si
la
décision
mise
en
c'est
oeuvre,
nique.
grande
parce que les acteurs
une
deuxième
à
la
respectent
règle parallèlement
première : « les industriels
construisent en commun le TSS ». L'accord ne crée donc pas un mais deux
transferts simultanés. La durée de la seconde phase est aussi celle du projet.
Au moment
de l'accord, les gouvernements
sur un
s'engagent mutuellement
programme qui ne sera pas mis en oeuvre par eux. Leur engagement n'est
toutefois crédible et efficace que parce que les gouvernements
des deux pays
sont des acteurs dominants
sur les acteurs industriels,
c'est-à-dire
parce
qu'ils sont capables à tout moment de transformer les contraintes décisionnelles des industriels nationaux (dominance
forte) ou de modifier les effets
faible). Il existe
que ces derniers attendaient de leurs décisions (dominance
par conséquent une troisième règle, qui exprime le pouvoir durable des gouvernements
sur les industriels et qui n'est pas interrompue
par l'accord.
Selon cette règle : « chaque gouvernement
est un acteur dominant sur les
acteurs industriels nationaux ».
En provoquant un changement de phase (transfert), l'accord intergouvernemental de 1962 a provoqué une irréversibilité
à l'échelle de l'action. Cette
irréversibilité
n'est pas due à l'ampleur de ses effets, mais à la modification
de leur mode de production : en transformant certaines « règles » du jeu, la
grande décision en a créé un nouveau.
'
Les gouvernements
différentes de
respectent des contraintes décisionnelles
celles des industriels, qui seront les exécutants de la grande décision. Les
contraintes décisionnelles
des gouvernements
aux dimensions
appartiennent
et
C'est
donc
en
fonction
d'elles
diplomatique
politique.
qu'ils respecteront
l'accord ou le remettront en cause. Bien sûr, l'engagement
des gouvernements se concrétise par la construction de l'avion et se mesure donc sur les
dimensions technique et économique,
mais ces dimensions ne contiennent
de
contraintes
décisionnelles
pas
susceptibles de les amener à remettre en
cause la mise en oeuvre du projet. Les problèmes technologiques
notamment
ne sont pas pris en compte dans l'accord, bien que le projet soit extrêmement
innovant. Le jeu stratégique des industriels est alors radicalement
modifié
car les gouvernements
un
nouvel
ordre
des
dimenimposent
d'importance
sions d'évaluation :
les dimensions industrielles ne sont plus prioritaires. La
grande décision a interrompu le jeu industriel et politique initial entre les
industriels et les gouvernements
et l'a remplacé par un jeu diplomatique
la
entre les gouvernements,
stratégie des industriels à ce niveau décisionnel
146
DÉCISION
étant désormais fixée : la poursuite du projet ne dépend plus que des décisions des gouvernements.
S'ils perdent du pouvoir, les industriels gagnent
toutefois en contrepartie la garantie de la mise en oeuvre du projet (tant que
les gouvernements
respecteront leur accord).
Désormais, les industriels ne peuvent interrompre le projet puisque les gouvernements se sont engagés sur la production du supersonique...
et ils sont
contraints de coordonner
leurs actes puisque les gouvernements
se sont
sur
la
industrielle.
Ils
en
outre
au
comité
engagés
coopération
participent
qui
organise et surveille leurs actes. Par lui, ils peuvent jouer sur les modalités
de la coopération et sur les caractéristiques
du projet. Toutefois, le comité ne
les
industriels
remettre
l'accord
en
intergouvernemental
peut pas plus que
cause. Pour les industriels, une irréversibilité supplémentaire
s'est produite,
c'est une irréversibilité
stratégique. Elle résulte de ce qu'ils ne sont pas des
décideurs de la grande décision mais des exécutants, même si dorénavant ils
négocient les modalités de son exécution.
L'ampleur des effets aurait-elle suffi à qualifier l'accord de « grande décision », en provoquant une irréversibilité
de grande échelle ? L'effet est la
transformation
de la trajectoire de certaines variables à la suite de l'acte. La
transformation
la plus radicale est soit la destruction de la variable (sa trasoit au contraire sa création, comme ici la
jectoire est alors interrompue),
construction
du Concorde ou l'évolution
du coût du projet.
progressive
L'accord produit aussi de nombreux autres effets, par exemple la transformation des acteurs industriels. L'effet se produisant dans l'environnement
de
l'action, il en suit les règles, et pourtant il le modifie aussi en transformant,
directement ou par des effets induits, la configuration initiale du système ou
les variables qui le composent. L'effet peut alors réagir sur les règles ou sur
leur domaine d'application
et provoquer ainsi un transfert. L'évaluation d'un
effet est toutefois délicate : elle dépend des mesures (critères) choisies et du
moment de l'évaluation.
Le problème de la mesure constitue à lui seul un
domaine de recherche.
On a donc choisi d'organiser la discussion à partir de deux effets dont l'ampleur est indiscutable en simplifiant à l'extrême leur mesure, de manière à
Le premier
pouvoir concentrer la réflexion sur la création d'irréversibilité.
est le processus technique de construction du Concorde. Il exprime la production du résultat de la grande décision, sa mesure est binaire : le processus est en cours, ou il est achevé. Le second effet est la croissance du coût
du projet, qui constitue un levier essentiel de sa mise en oeuvre, et pour
lequel on évoquera simplement quelques ordres de grandeur.
L'accord intergouvernemental
de 1962 annonce à la fois l'effet recherché
la
c'est
le
par
grande décision,
processus de mise en oeuvre (la construction
en commun du supersonique),
et son état final (le supersonique proprement
La
de
ce processus dépend des deux nouvelles règles mises
dit).
dynamique
en place au moment de la décision : ce sont les premières irréversibilités
étudiées, elles sont à l'échelle de l'action. Cependant, la fin de la phase est aussi
Décisionset irréversibilités
147
sera effectivement
au moment où le supersonique
incluse dans l'accord :
achevé, les règles de l'accord deviendront caduques. Dans ce cas précis, on
observe que l'effet déclenche bien un transfert, mais l'analyse montre que ce
est dû à la nature de l'accord.
déclenchement
économique et comAprès la grande décision, les dimensions d'évaluation
merciale ne peuvent plus interrompre le programme à l'échelle des indusLes
triels (la grande décision a introduit une irréversibilité
stratégique).
et la
du supersonique
toutefois avec le développement
coûts augmentent
apparaît sur la scène politique. Le gouvernement
question du financement
travailliste élu le 25 octobre 1964 décide en effet de réduire les dépenses de
prestige, dont celles destinées au TSS. Si le second décideur avait accepté au
même moment d'arrêter le projet, celui-ci aurait pu être abandonné. Le gouvernement français, pour lequel la dimension financière n'est pas prioritaire,
utilise au contraire l'absence de clause d'abandon
pour menacer d'exiger
au
coût
très
une indemnisation
supérieure
prévisible du projet, de l'ordre de
En
à
3 milliards de francs.
1966 nouveau, quoique connaissant le coût d'une
français
poursuite du projet (désormais évalué au double), le gouvernement
double le financement. Malgré la politisation de la question financière, il n'y
a plus de remise en question : le 22 avril 1971, alors que le programme améles gouvernements
ricain vient d'être interrompu,
français et britannique
réaffirment leur décision de construire le Concorde.
de la croissance des coûts provoque des effets sur
Bien que la médiatisation
le jeu politique interne des deux pays, l'ampleur du phénomène ne suffit pas
à modifier les règles de l'accord : à aucun moment il n'est lié à des enjeux
seul
alors que l'accord
ne peut être interrompu
qu'à ce
diplomatiques
niveau. Du point de vue de l'action, la croissance des coûts n'engendre pas
d'irréversibilité
car elle n'en modifie pas de manière significative l'environnement (elle ne transforme ni les règles établies par la grande décision, ni
Elle ne remet pas non plus en cause la stratégie
leur domaine d'application).
initiale des industriels, même si les règles de la négociation au niveau de la
Si l'effet est de grande ampleur, les modimise en oeuvre sont réaménagées.
fications qu'il engendre à l'échelle du processus et des acteurs ne le sont pas.
avaient concordé dans le temps,
Si les contraintes des deux gouvernements
le projet aurait néanmoins pu être interrompu. Il aurait alors eu une rupture,
c'est-à-dire un transfert qui remet en cause l'issue de l'action pour un acteur
au moins. Cette remarque entraîne deux conséquences :
-
l'ampleur de l'effet ne suffit pas, dans la logique de l'action, à définir
de grande échelle, donc à qualifier une
l'existence
d'une irréversibilité
décision de « grande décision » ;
-
sur une dimension d'évaluation
si un effet a des conséquences
il
des
décideurs,
peut provoquer un transfert.
pour
prioritaire
Par conséquent, l'ampleur des effets n'est pas un bon critère pour qualifier
une décision de « grande décision ». D'une part, l'irréversibilité
engendrée
148
DÉCISION
par le supersonique n'est pas due à l'ampleur du projet mais au changement
D'autre part, les très
de phase (transfert) qu'il provoque mécaniquement.
fortes critiques auxquelles est soumis le financement du projet ne suffisent
pas à le remettre en cause. De plus, outre les difficultés de mesure, le recul
du temps incite à relativiser cette notion : pendant plusieurs années le coût
du projet en a occulté les autres aspects. Alors que l'on évoque actuellement
on insiste désormais sur le succès technologique
un nouveau supersonique,
du Concorde...
de 1962 ne peut
L'analyse du cas montre que l'accord intergouvernemental
des
de
d'effets
s'il
modifie
façon durable, donc s'il prorègles
que
produire
Par
de
un
ailleurs, le transfert modifie
voque
changement
phase (transfert).
radicalement le problème stratégique des acteurs industriels. Ces deux modide grande échelle. Les effets de l'acfications établissent des irréversibilités
cord (les nouvelles trajectoires des variables) traduisent ensuite dans les faits
À terme, ils sont susceptibles de les
ces irréversibilités
qui les conditionnent.
remettre en cause. Toutefois, ils ne permettent pas de qualifier une décision
de « grande décision ».
APPLICATIONS
L'IRRÉVERSIBILITÉ
:
3. CRÉER
STRATÉGIQUE
semble avoir
de construire un supersonique
La décision franco-britannique
les
les
les
solutions
et les décid'un
où
décideurs,
enjeux,
émergé
processus
sions se rencontrent de manière un peu chaotique. Son contenu lui-même
semble aberrant : la décision organise la répartition des rôles entre les industriels, mais elle ne tranche pas entre les options moyen et long courrier.
Enfin, le projet a été maintenu jusqu'au bout malgré une organisation partiet une croissance
culièrement peu efficace d'un point de vue économique
affolante des coûts, ce qui a justifié quelques années plus tard le qualificatif
de « décision farfelue ». Néanmoins, on montrera que cette grande décision
a pu constituer un objectif stratégique dans une logique de gestion du risque
de grande échelle, dont on discutera ensuite
par la création d'irréversibilité
les intérêts et les inconvénients.
sont les exéde 1962, les constructeurs
Après l'accord intergouvernemental
cutants mais plus les décideurs du projet de supersonique.
Or, la mise en
oeuvre de ce projet (un des effets de la grande décision) est stratégique pour
Il existe donc une inégalité stratégique des
eux, pas pour les gouvernements.
acteurs. Quand, comment et jusqu'à quel point notamment l'avionneur SudAviation, dont les enjeux étaient stratégiques et qui a été éliminé des décideurs, a-t-il contrôlé la genèse et les suites de la grande décision dans le cas
du Concorde ?
Décisionset irréversibilités
149
Dans les années cinquante, deux projets concurrents sont envisagés à SudAviation pour remplacer la Caravelle :
la super Caravelle supersonique,
exploit technique, sur lequel on ne sait rien, ou le gros porteur, baptisé
« grosse Julie », et dont les compagnies aériennes sont demandeuses.
Si les
dimensions commerciale
et industrielle
sont prioritaires, le premier projet
n'a aucune chance. En effet, les industriels doivent faire face à leurs risques :
comment garantir leur pérennité économique
sur un projet qui d'une part
des
investissements
très
mais
dont d'autre part ils ne
lourds,
exigera
connaissent même pas les caractéristiques
techniques ni les débouchés commerciaux ? Par ailleurs, la faiblesse de l'industrie française rend nécessaire
une coopération internationale,
ne serait-ce que du point de vue technoloLes
tentatives
construire
un supersonique avec les États-Unis et
gique.
pour
l'Italie ont échoué. Restent les Britanniques. Tout le problème consiste alors
à éliminer le risque économique en garantissant de façon durable à la fois la
sur le projet et son financement.
Seuls les États peuvent
coopération
contraindre les acteurs industriels à coopérer et garantir le financement d'un
projet dont on ne connaît ni les débouchés ni même la faisabilité technique.
En France, la stratégie des tenants du supersonique consiste à reporter le proen éliminant les compagnies
jet de gros porteur à une date ultérieure
aériennes des négociations,
et à créer, avec la tutelle, un réseau d'alliances
C'est ce que traduit l'enchaînement
des décifavorable au supersonique.
sions qui précède l'accord :
1) un accord
décideurs,
concurrent
ciation ;
dont la BSEL et la SNECMA sont les
technico-économique
en relation étroite avec les tutelles. En France, le projet
de gros porteur a été reporté et Air France éliminé de la négo-
2) un accord purement technique entre les bureaux d'études de Sud-Aviation
et de BAC. Fin décembre 1961, l'avion n'est toujours pas défini ;
de 1962. Les décideurs sont les gouvernements,
3) l'accord diplomatique
les industriels, acteurs dominés, mettront en oeuvre cet accord. Pour eux,
le problème stratégique change d'échelle et de nature. Il concerne désormais la négociation des caractéristiques
de l'avion ainsi que le partage
des compétences
et du financement associé.
,
Bien que l'accord de novembre 1962 apparaisse comme un transfert brutal,
l'ordre des décisions qui le précèdent traduit la façon dont l'enchaînement
des dominances des décideurs prépare progressivement
l'irruption des nouvelles règles. À l'échelle de l'acteur Sud-Aviation, la signature de l'accord
intergouvernemental
apparaît alors comme un objectif, préparé par une strales autres dimentégie. Cette stratégie a consisté à éliminer progressivement
sions d'évaluation,
d'une part en rejetant du processus décisionnel
des
acteurs comme Air France, d'autre part en orientant l'enchaînement
des
décisions
successives
qui ont conduit à la grande décision. Ainsi, les
contraintes décisionnelles
des acteurs se transforment au fur et à mesure que
les décisions successives font intervenir des acteurs dominants sur les pré-
150
DÉCISION
cédents : les motoristes sont dominés par les avionneurs, les gouvernements
sont dominants sur l'ensemble des acteurs. À chaque accord, les décideurs,
qui sont en l'occurrence les acteurs dominants, imposent leurs critères décisionnels.
Une fois l'objectif atteint, les enjeux sont radicalement modifiés. Dorénavant, les dimensions technique, économique et commerciale ne sont plus
prioritaires. Le risque initial disparaît, le financement du projet est garanti.
Il reste le risque de son interruption, puisque l'irréversibilité dépend des
enchaînements de décisions à venir des gouvernements. Toutefois, ce risque
est extrêmement faible : il faut que les deux gouvernements acceptent au
même moment d'interrompre le projet, car un seul décideur ne suffit pas à
rompre l'accord.
Les décisions successives des industriels ont préparé la grande décision des
gouvernements. L'accord de 1962, replacé dans ce contexte, est autant un
objectif stratégique que l'origine de la mise en oeuvre du programme. Le premier problème de Sud-Aviation était commercial : il s'agissait de remplacer
un produit (la Caravelle) dont les débouchés semblaient limités. Désormais,
la production du TSS est une contrainte. Elle s'accompagne toutefois d'une
garantie de financement, quels que soient les coûts engendrés par les problèmes techniques et quels que soient les futurs débouchés commerciaux.
Pour Sud-Aviation, la grande décision de 1962 a créé une irréversibilité stratégique dans la mesure où, en tranchant entre les deux solutions possibles
(gros porteur ou supersonique), elle a aussi modifié les données du problème
stratégique initial : les incertitudes techniques et commerciales n'engendrent
plus de risque économique.
Cette stratégie est complexe car son objectif la dépasse : pour faire le projet,
Sud-Aviation amène progressivement l'acteur dominant à lui imposer certaines contraintes (dans ce cas particulier, la contrainte est la production du
supersonique dans le cadre d'une coopération internationale). Une telle stratégie d'acteur dominé a des inconvénients, en particulier le risque que l'acteur dominant impose des contraintes supplémentaires. Son principal
avantage (ou inconvénient, selon le moment ou le point de vue) est que le
processus devient pratiquement incontrôlable après le transfert.
DUFUTUR :
4. DUCONCORDE
AUSUPERSONIQUE
REPORTÉE
L'IRRÉVERSIBILITÉ
De même que l'on n'a pas développé en première partie l'analyse du programme américain concurrent du Concorde, on ne développera pas ici les
projets concurrents du supersonique européen du futur. Il ne s'agit pas en
Décisions
et irréversibilités
1
151
effet d'une véritable étude stratégique, mais plus simplement de poser les
jalons d'une analyse des conditions d'apparition d'irréversibilités de grande
échelle au sein de l'environnement dans lequel s'amorce peut-être aujourd'hui le projet de supersonique européen.
Le problème stratégique qui se pose actuellement aux constructeurs est,
comme dans le cas du Concorde, d'origine commerciale : il est lié à la structure et à l'évolution du transport aérien et des demandes des compagnies
aériennes. Toutefois, l'environnement de l'action est désormais très différent
de celui de la fin des années cinquante.
La stratégie en faveur du Concorde avait rendu nécessaire l'élimination au
cours de la phase précédant l'accord du projet concurrent (la « grosse Julie »)
et de la dimension commerciale avec notamment l'absence d'études de marché préliminaires et l'isolement des compagnies aériennes. Ce n'est
qu'après l'accord que le projet de gros porteur voit le jour avec le GIE international Airbus.
Depuis, les différents acteurs ont évolué, certains ont disparu, d'autres sont
apparus. Actuellement, si les gouvernements restent des acteurs dominants
comme décideurs politiques et partenaires financiers, l'intervention de la
Commission européenne rend plus complexes leurs relations avec les
constructeurs. Le secteur s'est entre-temps concentré (Aérospatiale est issue
de la fusion en 1970 de Nord-Aviation, Sud-Aviation et SEREB : Société
pour l'étude et la réalisation d'engins balistiques). Les constructeurs ont
désormais une taille et une maîtrise technologique qui leur procurent les
moyens d'exercer à leur tour une dominance autre que faible sur les gouvernements. Ils ont en outre acquis sur d'autres programmes une expérience
qui les a rendus capables d'organiser directement entre eux une coopération
sur le projet supersonique : en 1994, Aérospatiale, British Aerospace et
DASA ont signé un protocole d'accord afin de conduire en commun un programme de recherche supersonique (ESPR : European Supersonic Research
Program).
,
Avec l'affaiblissement relatif de la dominance des gouvernements et la capacité acquise par les industriels d'être des décideurs, les dimensions d'évaluation industrielle et économique sont prioritaires. Sur ces dimensions
d'évaluation, l'État n'apparaît plus comme décideur, même s'il reste dominant. Par contre, la taille des groupes représente un enjeu stratégique.
L'absorption de Lockheed par Boeing, ou la croissance et le changement de
statut du GIE Airbus, ainsi que le récent décret de privatisation
d'Aérospatiale, témoignent de ces évolutions.
Pour les décideurs des programmes, c'est-à-dire les constructeurs, la dimension commerciale est essentielle : d'elle dépendent les contraintes techniques et industrielles qui détermineront les coûts des projets, le choix des
partenaires et des alliances. D'elle dépendent avant tout les débouchés.
Réduire le risque suppose alors d'établir la meilleure adéquation entre la
DÉCISION
152
demande et l'offre, au moindre coût.
durable, elle détermine une phase.
C'est
une règle
de comportement
La stratégie des constructeurs
consiste dans ces conditions à minimiser le
coût des contraintes imposées par les autres acteurs ou négociées avec eux
sur la dimension commerciale
par la recherche de synergies, d'économies
À
d'échelles ou d'envergure,
des choix de partenariat et d'organisation...
l'inverse du cas du Concorde, la participation des compagnies aériennes est
des dernières années comd'autant plus stratégique que les restructurations
binées à la dérégulation
de l'espace aérien en font des décideurs à part
entière. Les compagnies introduisent des contraintes qui leur sont propres,
de fornotamment la réduction des coûts d'exploitation
(de consommation,
de la
mation des pilotes...) et une demande cyclique (liée au renouvellement
flotte et à l'évolution
des marchés). Les contraintes imposées par d'autres
acteurs (les aéroports et les différents opérateurs de réseaux, les instances
sont aussi intégrées au projet.
régulatrices... )
L'évolution
du marché, avec notamment le développement
du trafic transles
à
à
terme
deux catéconduit
constructeurs
envisager
moyen
pacifique,
de
concurrents
:
le
gories
projets
gros porteur (superjumbo pour Boeing ou
A3XX pour Airbus), ou le supersonique
(notamment les programmes américain HSCT - High-Speed Civil Transport et européen ESPR). Actuella
s'effectue
à partir d'une famille
soit
le
renouvellement
de
flotte
lement,
on
ce
vers
semble
tendre
soit
existante,
produit un plus gros
quoi
Boeing,
de
demande
:
c'est
le
le
projet de l'A3XX. Ce proporteur pour
prochain pic
le
tôt
les
acteurs
concernés, notamment les compajet intègre
plus
possible
aériennes
et
les
La
dimension
gnies
aéroports.
technologique
n'y crée pas de
en
la
contraintes décisionnelles
de
remettre
cause
prééminence
susceptibles
de la dimension commerciale. Les échéances du supersonique sont reportées
aux cycles suivants :
de
2005, date prévue pour la cessation d'activité
ou
tard...
Concorde, 2010,
peut-être plus
Par rapport au cas du Concorde, il y a donc inversion dans le temps de
d'abord un gros porteur qui resl'ordre de priorité des deux programmes :
des autres acteurs sur la dimension
commerciale
pecte les contraintes
(notamment en ne remettant pas en cause les installations aéroportuaires),
ensuite peut-être un supersonique. Ces choix industriels s'inscrivent dans la
et respectent la phase actuellement en
stratégie générale des constructeurs,
cours.
Au contraire du cas précédent, il s'agit pour les industriels de contrôler à
chaque instant la progression du projet, qu'il s'agisse du gros porteur, actuellement le plus avancé, ou d'un éventuel supersonique :
si, le projet avançant,
les ordres de grandeur des dépenses annuelles augmentent, il faut pouvoir
arrêter le processus ou obtenir des garanties supplémentaires
de sa faisabilité économique. À l'inverse du cas du Concorde, les enchaînements
de décisions conduisent par conséquent à reporter dans le temps l'irréversibilité
du
projet.
Décisionset irréversibilités
153
ont conduit à une évode l'environnement
En définitive, les modifications
lution des relations de dominances entre les acteurs. Les constructeurs deveen est désormais
nant des décideurs des projets, la dimension commerciale
cours
de laquelle les
au
une
actuellement,
phase prévaut
prioritaire. Enfin,
constructeurs cherchent à établir la meilleure adéquation entre la demande et
l'offre, au moindre coût. À l'inverse du Concorde, il s'agit dorénavant d'impliquer le plus tôt possible tous les acteurs de la négociation commerciale et
de les faire participer aux décisions jusqu'à la fin du projet, afin d'éviter une
stratégiques qu'elle
grande décision et les transferts ou les irréversibilités
ne semble donc pas
le projet de supersonique
provoque. Actuellement,
devoir provoquer de transfert, ni d'irréversibilité
stratégique, tant qu'il ne
commerde la dimension d'évaluation
remet pas en cause la prééminence
ni
ciale et qu'il ne contraint pas à reformuler la stratégie des constructeurs,
'
à remettre en cause leur rôle de décideurs.
de grande échelle sont susceptibles
En dehors du projet, des irréversibilités
de croissance des
liées
à
la dynamique
court
à
d'être envisagées
terme,
avec les autres
de
dominance
de
leurs
relations
et
à
l'évolution
constructeurs
on
acteurs. Par ailleurs,
pourrait imaginer qu'à plus long terme, les priorités
se modifient, par exemple que les contraintes
stratégiques des constructeurs
des aéroavec l'encombrement
plus importantes
techniques redeviennent
s'il était suffisamment
avancé, serait-il
ports. Le projet de supersonique,
sur une dimension d'évaluation
alors susceptible d'avoir des conséquences
prioritaire pour les décideurs ? En supposant que le projet actuel aboutisse,
on peut enfin se demander ce que seront les principales règles suivies par les
ne serait pas suset si un supersonique
acteurs et par leur environnement,
le
moment
là
de
à
ce
aérien,
provoquant alors
système
déséquilibrer
ceptible
mais
aussi
non seulement des irréversibilités
peut-être des
stratégiques,
transferts.
5. CONCLUSION
;
3
'.
;
;
;
;
;
;
'
Parce que la grande décision infléchit l'action, son étude constitue un moyen
un aspect essentiel
la notion d'irréversibilité,
d'aborder
qui représente
du Concorde, si la
Dans
le
cas
de
la
difficile
à
étudier
stratégie.
quoique
discontinuité
stratégique pour les industriels,
grande décision engendre une
acteurs
son fonctionnement
qui l'ont préparée et qui
apparaît complexe : les
la mettront en oeuvre n'en sont pas les décideurs. Il faut donc chercher à
la logique du processus plus vaste dans lequel elle s'insère et
comprendre
doit s'analyser dans la durée même
que l'on appelle action. L'irréversibilité
lorsqu'elle est engendrée par une grande décision, car celle-ci ne marque pas
seulement une coupure, mais aussi une continuité.
154
DÉCISION
de grande
L'exemple du Concorde a mis en exergue deux irréversibilités
échelle : l'irréversibilité
le
de
et
l'irréverpar
changement
phase (transfert),
sibilité stratégique. La première est à l'échelle de l'action, elle est associée
au concept de transfert. La seconde est à l'échelle des industriels, elle est due
à une modification
de leur problème stratégique. Dans le cas particulier du
l'irréversibilité
Concorde,
pour les industriels est due au fait que leurs
contraintes techniques et commerciales ne peuvent plus être des causes d'interruption. Par contre, les gouvernements
français et britannique ont eu au
en
et
de
revenir sur leur décision commoins deux occasions,
1966
1971,
mune. Les différents acteurs de l'action sont donc inégaux face à l'irréversisi les industriels
subissent désormais
des
bilité stratégique.
Toutefois,
contraintes décisionnelles
très différentes de celles qui ont motivé leur stratégie avant l'accord, ils ont largement contribué à provoquer l'irréversibilité
par une stratégie d'acteurs dominés. Car si la grande décision leur a enlevé
du pouvoir, elle a aussi rendu possible un projet qui n'aurait pas abouti autrement.
de grande échelle
Outre le fait qu'il cumule deux formes d'irréversibilités
une
décision
seulement
un trans(on pourrait envisager
grande
qui provoque
ou
seulement
une
irréversibilité
certains
fert,
acteurs), l'acstratégique pour
cord établit plusieurs
transferts
simultanés.
De manière générale,
les
comme
les
irréversibilités
sont
et
la
transferts,
plus progressifs,
stratégiques,
transitoire
doit
alors
faire
d'une
période
l'objet
analyse particulière.
A contrario, l'intérêt de ce cas réside dans sa clarté : en créant de manière
immédiate des irréversibilités
de grande échelle, la grande décision a permis
de décomposer ce concept en distinguant l'irréversibilité
à l'échelle de l'action (le transfert), et l'irréversibilité
stratégique à l'échelle des acteurs, et de
mettre en exergue que l'ampleur des effets d'une décision ne suffit pas à la
qualifier de grande décision. La définition initiale des « grandes décisions »
comme des décisions exceptionnelles
de
qui engendrent des « irréversibilités
une grande
grande échelle » peut désormais être complétée et précisée :
décision est une décision (un acte) qui crée un transfert ou une irréversibilité stratégique.
L'environnement
a beaucoup évolué depuis la fin des années cinquante, et
les constructeurs sont devenus les décideurs des projets. Ils les conçoivent et
les enchaînent de manière à maintenir la phase actuelle, donc à reporter la
création d'irréversibilité.
On pourrait désormais, en utilisant la méthode de
et
de
l'action employée dans le cas du Concorde, envidescription
d'analyse
des
scénarios
de changements
de
sager
stratégiques à partir d'hypothèses
à
venir
et
où
les
irréversibilités
de
échelles
résulphases
grandes
pourraient
ter de grandes décisions, mais aussi se produire au cours d'enchaînements
de
décisions.
,
..
Les concepts de la phénoménologie
de l'action conduisent ainsi à proposer
une grille d'analyse
des irréversibilités
essentiellement
fondée sur les
enchaînements
des décisions des acteurs et sur les règles de l'action. Ils
1555
Décisionset irréversibilités
ouvrent des perspectives d'applications
stratégiques, où « la stratégie est la
conduite de processus d'action qui structurent les choix futurs, qui créent
des irréversibilités
» (Jacques Lesourne).
BIBLIOGRAPHIE
ARGYRIS C., Savoir pour agir. Surmonter les obstacles à l'apprentissage
tionnel, Paris, Interéditions, éd. originale 1993.
organisa-
BRUNSSONN., « Ideas and Actions: Justification and Hypocrisy as Alternatives to
Control », Accounting, Organizations and Society, vol. 18, n° 6, pp.489-506, 1993.
COHENM.D., MARCHJ.G. & OLSEN, J.P., « A Garbage Can Model of Organizational
Choice », Administrative Science Quarterly, vol. 17, na 1, pp. 1-25, 1972.
LESOURNEJ., Économie de l'ordre et du désordre, Paris, Économica, 1991.
LESOURNEJ. « La notion d'enjeu stratégique », note au comité de la prospective
d'EDF, novembre 1994.
MARCHAISA., « Décision et action. Proposition de concepts et analyses de cas »,
thèse de doctorat en sciences de gestion, CNAM, 1993.
MARCHAIs-RoUBELAT
A., « Modélisation et complexité : de la décision à l'action »,
Revue française de gestion, 102 : 102-105, 1995.
MARCHAIS-ROUBELAT
A., « Le rapport à l'autre dans le temps : le jeu et l'action »,
in Gestion et théorie des jeux : regards croisés, Thépot J. éd., Paris, Vuibert, 1998.
MARCHAIS-RoUBELATA., « L'articulation dans le temps des décisions individuelles
et organisationnelles », Gestion et décision, ESUG, 1999.
MEYER J.W. & ROWAN B., « Institutionalized Organizations: Formai Structure as
Myth and Ceremony », American Journal of Sociology, 83 (2) : 341-363, 1978.
;
MINTZBERGH., « The Nature of Managerial Work », New York, Harper and Row,
1973.
3
3
MINTZBERGH., RAISINGHANID. & THEORETA., « "The Structure of Unstructured"
Decision Processes », Administrative Science Quarterly, vol. 21, pp. 246-275, 1976.
i.
i.
]
3
s
)
156
DÉCISION
ANNEXE1
Rappeldes événements
À la fin des années cinquante, l'idée de construire un avion de transport supersonique (TSS) mûrit parallèlement en France et en Grande-Bretagne. En 1959, une
première proposition du gouvernement anglais de construire en commun un avion
supersonique n'obtient qu'une réponse réservée du gouvernement français devant
« l'ampleur du projet ». Pourtant, en France, le directeur de Sud-Aviation est persuadé qu'il faut trouver rapidement le successeur de la Caravelle. À peine SudAviation, l'avionneur, commence-t-il à collaborer avec la SNECMA, le motoriste,
en liaison étroite avec le ministère du transport, que des rencontres sont organisées
entre Sud-Aviation et BAC (British Aircraft Corporation), son homologue anglais,
pour mettre au point une politique industrielle cohérente.
En 1960-61, des pourparlers en vue d'une collaboration ont lieu entre les deux pays,
mais ils n'aboutissent à aucune décision. Parallèlement, les industriels poursuivent
des négociations en vue d'une éventuelle collaboration et en 1961 le dossier est
ouvert en France, tandis que la pression est maintenue sur le gouvernement britannique. Fin 1961, après un débat à la commission des transports sur l'avenir de la
Caravelle, le dossier technique de Sud-Aviation, bien défendu au ministère des
Finances, est accepté. Le 28 novembre, un accord a lieu entre les motoristes anglais
BSEL (Bristol Siddeley Engines Limited) et français : SNECMA. Le gouvernement
français décide le lendemain d'entreprendre les négociations avec le gouvernement
britannique.
Finalement, un accord est signé le 25 octobre 1962 entre les avionneurs des deux
pays (Sud-Aviation et BAC). Un peu plus d'un mois après, le 29 novembre 1962, la
France et l'Angleterre s'engagent mutuellement à construire « en commun » un
avion supersonique.
Fin 1964, la collaboration industrielle organisée après l'accord est remise en cause
par une crise entre les deux gouvernements. Cette crise se résout début 1965, mais
la « campagne » anti-Concorde commence dès 1966, jusqu'à la concrétisation du
programme à partir de 1971 (le premier Concorde de série est achevé fin 1973).
157
Décisionset irréversibilités
2
ANNEXE
Glossaire
acte : changement de comportement d'un ou de plusieurs acteurs, à la suite duquel
le déroulement de l'action est modifié.
action : processus au cours duquel un ou plusieurs acteurs effectuent des choix successifs.
décideur : acteur qui prend une décision, c'est-à-dire qui sélectionne une intention
d'acte à la suite duquel l'action sera modifiée.
décision : sélection d'une intention d'acte par un acteur.
dimension d'évaluation : dimension élémentaire résumant un sous-système de l'environnement qui exerce une contrainte actuelle ou potentielle sur le comportement
de l'acteur ou sur celui d'autres acteurs et qui est susceptible d'être transformé par
les effets d'un acte ou d'une combinaison d'actes.
dominance faible : caractéristique d'un acte d'un acteur dominant, dont certains
effets transforment les effets virtuels que l'acteur dominé attend de son propre acte.
dominance forte : caractéristique d'un acte d'un acteur dominant, dont certains
effets transforment des contraintes décisionnelles sur un acteur dominé.
effet d'un acte : transformation de la trajectoire de certaines variables à la suite de
l'acte.
environnement :
la transformer.
système de variables transformées par l'action ou susceptibles de
phase : partie du déroulement de l'action durant laquelle des relations fondamentales du système restent inchangées. Il y a changement de phase lorsque l'une ou
plusieurs de ces relations sont transformées, soit par suite d'influences exogènes,
soit par suite d'actes.
règle : contrainte de comportement ou relation entre les variables valable pendant
une phase.
rupture : transfert qui remet en cause l'issue de l'action pour un acteur au moins.
transfert : transformation d'une ou plusieurs règles, qui se produit à l'achèvement
d'une phase.
Jacques Thépot
LETIERS
DANSLADÉCISION
sur la place du tiers dans la décision peut surprendre. Si la déciS'interroger
sion a un sens c'est parce qu'il existe un décideur pleinement identifié dans
sa liberté de choix et ses préférences.
Certes, dans tout système organisé,
son espace de choix est contraint par celui des autres et des interdépendances
se manifestent ; il ne saurait être question, au demeurant, de confondre l'individu et son contexte.
Mais nous le savons bien, dans le concret de l'action collective, toute décision se réfère au tiers, soit parce que la décision vise à influencer les autres,
soit parce qu'elle est soumise au jugement d'autrui, soit, enfin, parce qu'elle
s'élabore sous le regard de celui qui conseille et éclaire le choix. L'influence,
le jugerrcent et le regard sont ainsi les modalités les plus immédiates par
lesquelles le tiers intervient dans la décision.
Dans ce texte, nous allons explorer ces trois modalités en empruntant le
chemin de traverse de la théorie micro-économique,
science de la décision
Nous
de
la
de
excellence.
crête, nous risquerons
par
éloignant parfois
ligne
incursions
dans
le
monde
tel
est.
Le
qu'il
genre littéraire des
quelques
et
la
fidélité
à
la
autorise
une
telle
démarche intellecMélanges
promenade
tuelle de Jacques Lesourne nous y invite quelque peu.
1.. L'INFLUENCE
La microéconomie
traite des influences que les agents s'infligent mutuellement à travers les échanges : dans les situations de concurrence parfaite, ces
159
Le tiers dans la décision
influences déterminent le calcul des prix et des quantités mais, bien évidemment, la conscience que les agents ont de celles-ci n'est pas prise en compte.
Elle n'a d'ailleurs
chaque agent se détermine
pas lieu d'être : à l'équilibre,
en fonction des prix qu'il observe sur le marché, dans un type de décision
myope.
plus le cas lorsque l'on examine des situations de concurrence
imparfaite. L'agent économique arrête sa décision en prenant en compte son
impact sur la décision d'autrui. L'influence s'inscrit dans ce que l'on appelle
l'interaction
stratégique.
Tel n'est
Chacun connaît l'histoire des Robinsons suisses : c'est la version suisse et
protestante de Robinson Crusoë où l'on voit un pasteur échouer avec femme
et enfants sur une île déserte et y vivre paisiblement grâce aux bienfaits que
le Créateur offre dans sa nature. Cependant, pour y parvenir, il leur faut se
nourrir. Comment attraper toutes ces noix de coco accrochées au plus haut
des cocotiers lorsque l'on n'a ni corde, ni échelle ? Heureusement
qu'il y a
ces singes, qui se balancent au sommet des arbres ; il suffit alors au pasteur
et à son fils de lancer quelques pierres en leur direction ; les singes, sentant
la menace, ripostent derechef en renvoyant ce qu'ils ont sous la main, c'està-dire des noix de coco. Ainsi se trouve assurée au centuple la subsistance
de nos Robinsons suisses car ils ont eu foi dans le principe de l'interaction
stratégique...
'
1.1
l l'interactionstratégique
dans la théorieéconomiquede l'entreprise
une importance
accorde aujourd'hui
économique de l'entreprise
dans
toute structure
aux
interactions
stratégiques
s'exerçant
primordiale
mettant en jeu les partenaires de l'entreprise et que l'on appelle, dans la littéune
industrielle
rature, une organisation
(Tirole, 1988). Schématiquement,
dans
les
industrielle
est
un
agents
système économique
lequel
organisation
subissent deux types d'interactions :
La théorie
- des interactions horizontales de concurrence
par exemple concurrence à la Cournot,
- des interactions verticales
tions de leader-follower.
entre agents de même statut,
entre agents de statut différent,
dans des situa-
Le traitement qui est appliqué dans ces deux types de situations est celui de
la théorie des jeux, qui permet d'unifier tous les modèles classiques, d'en
des agents à des
saisir les liens et de ramener l'analyse des comportements
concepts standards. Nous pouvons illustrer ceci à propos du second type
en montrant la filiation entre le modèle de monopsone et le
d'interaction
modèle principal-agent.
Cette filiation est parfaitement explicite lorsque l'on
se réfère à la notion de contrat..
DÉCISION
160
une
d'un employeur
à un salarié
proposant
simple
de
ce
dernier
offrir
deux
niveaux
travail,
que
puisse
en heures de travail, avec L >
L2 et qui correspondent
L 1 et
exprimées
à des profits Pl et P2 pour l'entreprise
(avec
P2). Soient wl et W2 les
désutilités
du travail subies par le salarié dans ces deux situations
marginales
Partons
d'un modèle
embauche.
Admettons
enfin que le salarié est en mesure de
(avec
W2). On supposera
d'embauche
si celle-ci lui assure un revenu non positif
la proposition
dont
de monopsone,
de réserve nul). Il s'agit d'un modèle
simplifié
à
un
est
à
une
transformation
mathématique
près,
qu'il
équivalent,
refuser
(salaire
on sait
modèle
de monopole.
/
;
oui
,
/
L2
;
(
1
/
1
/
to'ol
/
.
/
Li
/
/
non
j
j
Figure 1 : Monopsone
Trois
types
- Modèle
de modèles
être distingués.
peuvent
horaires ;
1 : le monopsone
standard.
se présente
alors
le modèle
représenté
figure
1. Il est clair
salaire
supérieur
pour
un
de
L'équilibre
P2 -
Nash
wZL2
Le contrat
sous
à
w2.
de travail
la forme
que le contrat
n'est
stipule un salaire
en trois étapes
par le salarié que
du jeu
accepté
>
=
Posons
LI de
et
standard
ce
IW2, oui,
jeu
L21
est
sinon
(où
s est
L2
}
arbitrairement
si
petit).
e Modèle
du
Le salaire horaire
2 : le monopsone
discriminant.
dépend
sens
la
notion
de
contrat
au
niveau de travail réalisé. On retrouve
pleinement
à l'étape
1 est alors un doublet IS 1S2
de Arrow-Debreu.
Le contrat annoncé
, 1,
un
niveau
de
travail
où s; est le salaire proposé
Li, i = 1,2. Le contrat
pour
si
est alors IIWI
oui, LII
P2 - w2L2,
d'équilibre
sinon.
oui, L21,
IIWI,W2 + El,
0
avec aléa moral.
Le salaire
le monopsone
discriminant
du niveau de profit et la relation entre le travail et profit
ce cas, si désigne le salaire appliqué
lorsque le niveau de
neutre au risque.
Une
est Pi. Pour simplifier,
le salarié est supposé
4 vient s'ajouter
au jeu, comme indiqué sur la figure 2. Soit x (resp. y)
Modèle
3:
dépend simplement
Dans
est aléatoire.
profit
étape
Letiersdans ladécision
161
la probabilité que le profit soit Pl sachant que le niveau de travail est L j
(resp. L2). On suppose que x > y, de sorte que le profit le plus élevé a une
probabilité plus forte d'être réalisé lorsque le salarié travaille LI heures.
Soient
?.,?
et
, les
les salaires pour
x-y
x-y
lesquels l'agent est indifférent (en termes d'espérance d'utilité) entre les
trois situations : Pl, P2 et le refus du contrat. On montre que le contrat
oui, Ld si :
d'équilibre du jeu s'écrit fis**+ e,
W2L2,
(x - y) (Pl oui, Z,2}. sinon.
Ils**, s2*
1
1
1l
1
11
:
,
l
:oui
...
1
(
:
non
;
/
/
l.
, , {0,0}
.
x
1-x
:
",
oui
(si S21'
j
:.
(1)
1
1
:
;
y
/
1
;
;,
1-Y
(s2,
j,
Figure2 : Monopsone discriminantavec aléa moral
Le dernier modèle représente une relation d'agence, relation verticale dans
laquelle chaque agent économique dispose d'un pouvoir de décision autonome : l'entreprise est dans la position du principal, le salarié dans celle de
l'agent. Le niveau de travail de ce dernier est assimilé à une variable d'effort que le principal n'observe pas, d'où l'asymétrie d'information ; le
contrat d'équilibre, lorsque la condition (1) est satisfaite c'est-à-dire lorsque
l'effort maximum correspond à l'intérêt du principal, est alors un contrat
incitatif car il pousse l'agent à agir dans le sens voulu par le principal.
1.2 Larelationd'agence,principerégulateurde l'entreprise
Dans les dernières années, la théorie micro-économique a accordé une place
prépondérante à l'analyse des relations d'agence dans divers contextes :
relations entre client et fournisseur, grossiste et détaillant, actionnaires et
dirigeants, employeur et employé, administration fiscale et contribuable.
162
-
DÉCISION
Pour autant, les relations d'agence ne concernent pas toutes les structures
organisationnelles.
e Les relations
d'agence ne sont pas réductibles à des relations d'autorité
l'on
rencontre
dans les structures hiérarchiques
telles
conventionnelles,
que
un orchestre symphonique,
un détachement de la garde républicaine ou une
équipe de bobsleigh.
e Elles sont difficilement
dans des organisations
envisageables
plus
dans lesquelles se déroulent des
complexes avec des relations multilatérales,
jeux de coalition et s'exercent des rétroactions (structure de réseaux).
Cette précaution étant admise, la relation d'agence représente un principe
industrielles
régulateur assurant le pilotage des organisations
par combinaison et réplication de contrats incitatifs noués localement
entre acteurs.
Toute décision y est contrat, parce que contingente
aux réalisations
des
acteurs situés en aval.
Ainsi est-on amené, dans la littérature, à définir l'entreprise
comme un
noeud de contrats
organisé autour de deux relations principales :
- la relation entre les
dirigeants et le groupe des actionnaires,
s'exprimant
dans des règles de gouvemance
d'entreprise,
- la relation entre vendeurs et clients, se déclinant à l'intérieur de la structure par application du principe du pilotage aval.
Cette conception est intéressante par la conclusion qu'on en tire : dans une
telle configuration
n'est pas l'acteur dominant ; il
tripolaire, l'entrepreneur
n'est jamais en situation d'agir comme si les actionnaires
et les clients
n'existaient
Cette
double
tension
fait
de
pas.
l'entreprise
l'organisation
possédant en soi des meilleures facultés d'adaptation,
grâce aux mécanismes
incitatifs qui l'empêchent
de se replier sur elle-même.
La défaillance
survient souvent à un moment où l'équipe dirigeante, par inexpérience
ou
usure du pouvoir, cesse de situer l'entreprise dans une perspective extérieure.
1.3 Larelationd'agencedansle systèmeadministratif
On peut s'interroger
sur la validité de cette conception pour des organisations autres que l'entreprise,
les systèmes bureaucratiques
en particulier.
Nous nous limiterons ici à quelques observations
concernant
le système
administratif
Le
moins
dire
c'est
la
relations
français.
qu'on puisse
que
n'en
est
le
Le
d'agence
pas
principe régulateur.
système français reste
formellement
et
car
l'incitation
ne fait pas partie de
hiérarchique
myope
notre culture administrative.
Donnons trois exemples :
· Le contrat incitatif le
plus simple est celui de la tarification publique qui
joue sur l'élasticité de la demande. En effet, la tarification constitue un mode
de régulation
tout à fait classique pour traiter des problèmes
de biens
Letiersdans la décision
163
publics ; il pourrait être envisagé, par exemple, pour limiter la circulation
automobile dans les villes les jours de pics de pollution. La mise en place
combinée d'un dispositif de péages à l'entrée des villes et de parkings
urbains avec une modulation des tarifs en fonction du taux de pollution
serait probablement plus efficace que les systèmes de circulation alternée.
Assez curieusement, ce type de réglementation n'a même pas été étudié par
les pouvoirs publics lorsque la question s'est posée. Utilisée depuis des
décennies à la SNCF ou à EDF pour gérer les problèmes d'heures creuses,
la tarification incitative n'a toujours pas franchi la porte du ministère de
l'environnement. C'est peut être l'occasion de relire le Calcul économique
de Jacques Lesourne (en particulier le chapitre 14 dans lequel un modèle de
tarification des parkings est présenté).
e Le caractère incitatif de certaines disposions d'ordre social est limité,
quand il ne joue pas dans l'autre sens. L'articulation entre minima sociaux
et salaire minimum est source de trappe à pauvreté : ceci signifie que les
taux marginaux d'imposition dépassent les 100 % pour les bas revenus, par
le jeu des seuils définissant les allocations sous conditions de ressources (cf.
Bourguignon, 1998). Aucun mécanisme n'incite à l'insertion, de sorte que
toute politique de redistribution est inefficace.
a La gestion des
emplois dans l'Éducation Nationale est régie par le statut
de la fonction publique. Comme on le sait, la rémunération des enseignants
est mécaniquement liée à l'ancienneté et l'appartenance à un corps ; elle ne
comprend aucune incitation visant à l'amélioration de la pédagogie et l'actualisation des connaissances. Dans les universités, l'incitation à la
recherche n'opère que de manière ponctuelle, à l'occasion de l'entrée dans
un corps. Mais l'Education Nationale est loin d'avoir le monopole de ce
fonctionnement ; dans le système administratif français, seule compte l'appartenance au groupe et l'on y travaille plus pour les uns que pour les autres.
Fort heureusement, la coïncidence est plus fréquente qu'on ne le pense ;
c'est peut être ce que l'on appelle le service public à la française, mais le
miracle va-t-il perdurer ?
La réforme de l'État passe par la mise en place de mécanismes incitatifs et
de systèmes de gouvernance moins autocratiques. En définitive, une bonne
décision publique se ramène toujours à une histoire de Suisses, de singes et
de noix de coco.
- 2. LEJUGEMENT
'
Il n'y a pas de décision sans jugement externe, sans évaluation, c'est-à-dire
sans un indicateur objectif proposé au décideur pour mesurer les conséquences de ses choix. Nous commencerons par regarder successivement de
164
DÉCISION
traite la question ; nous explorerons
quelle façon le marché et l'organisation
enfin comment le problème de l'évaluation
est abordé dans le cadre de la
théorie micro-économique
et les enseignements
que l'on peut en tirer.
2.1 L'évaluationdans le marché
L'économie de marché offre un cadre idéal pour traiter la question de l'évaluation, puisque, comme on le sait, le système de prix qui résulte de la
confrontation
de l'offre et de la demande sur tous les marchés attribue une
valeur aux biens.
Ainsi, par le système de prix dont il est porteur, le marché est autant une
instance d'évaluation
de ressources.
Le prix
qu'un système d'allocation
du marché est un référent extérieur par lequel je vais évaluer mon action. Si
les clients désertent mon magasin, si les lecteurs boudent mes livres ou si
mon audimat diminue, cela signifie que la prestation proposée ne vaut pas le
prix, l'effort ou le temps demandé. Vraie ou fausse, cette évaluation est
Dans le monde
portée par le marché, de sorte que nul ne peut la contester.
de la concurrence
pure et parfaite, le commissaire-priseur
joue le rôle du
tiers évaluant. Par construction, il est incorruptible.
En définitive, l'économie
de marché est un système dans lequel nul n'est
son propre évaluateur.
En résumé, l'évaluation est (i) non manipulable (ii)
exogène, car elle résulte de la confrontation des préférences d'agents économodifier les prix, libres au demeumiques qui ne peuvent individuellement
rant d'acheter ou de vendre comme ils l'entendent. Et, dans un tel système,
les outsiders ont autant de poids que les insiders.
.
2.2 L'évaluationdans l'organisation
Le rôle de l'organisation
est de régler les échanges de biens et services qui
se réalisent en dehors du marché, soit en raison de coûts de transaction, soit
pour assurer des missions d'intérêt collectif. Le problème de l'évaluation,
» résolu dans le
qui, comme nous venons de le voir, est « naturellement
cadre du marché, reste posé dans le monde de l'organisation.
Les décisions
doivent être évaluées par des institutions
prises au sein des organisations
créées à cet effet. Deux risques - au demeurant compatibles peuvent alors
survenir :
- le risque de manipulation,
lorsque l'évaluation
certaines organisations ou groupes sociaux,
est biaisée
au profit de
- le risque de l'auto-référence,
n'est pas exogène car
lorsque l'évaluation
il n'y a pas indépendance entre ceux qui prennent les décisions et ceux qui
vont les évaluer.
Letiersdansla décision
165
Illustrons l'un et l'autre sur des exemples tirés du système administratif français.
La manipulation
La question de la valeur du salaire minimum se pose dans toutes les économies des pays développés. Comment se calcule-t-elle ?
- Dans une économie de marché, la question est réglée : aucun entrepreneur
ne bénéficie de situation de monopsone lui accordant un pouvoir de marché
en matière de fixation des salaires qui, de ce fait, sont toujours égaux aux
productivité marginales du travail. Les conditions de fonctionnement du
marché de l'emploi déterminent, à chaque instant et en tout lieu, le salaire
en dessous duquel, pour une qualification donnée, personne n'accepte de
travailler. Emerge ainsi toute une gamme de salaires minimum s'ajustant en
fonctions des conditions économiques et techniques et qui, en particulier,
dépendent du taux de chômage.
- Dans une économie où un salaire minimum interprofessionnel
unique est
aucun
mécanisme
de
marché
n'en
fournit
la
valeur.
Une
institution
imposé,
va se substituer au marché pour effectuer cette tâche. En France, c'est l'État
en cheville avec les organismes paritaires, qui fixe annuellement la valeur du
SMIC. Cet attelage, composant maîtresse de ce que Jacques Lesourne
appelle l'oligopole social, ne peut que traduire les préférences de ceux qu'il
représente. Le résultat, c'est une évolution du SMIC fortement liée au calendrier électoral et qui procède d'un compromis favorable aux insiders du
système : l'augmentation du SMIC est suffisamment forte pour assurer un
accroissement des salaires dont profitent ceux qui ont un emploi ; elle ne
l'est pas trop pour, à la fois, maintenir les marges des entreprises et préserver
la hiérarchie des rémunérations à laquelle sont attachés les salariés. Ce mode
de calcul du SMIC surestime les intérêts des uns au détriment de ceux des
autres (les chômeurs). En ce sens, il y a manipulation.
- Peut-on imaginer un autre dispositif institutionnel ? Observons que le
marché de l'emploi non qualifié est d'abord une réalité régionale concrétisée
par l'existence de bassins d'emplois. Dans ces conditions, on pourrait envisager de confier au conseil régional la tâche de fixer annuellement le salaire
minimum en vigueur dans la région. Instance élue, celui-ci aurait, en la
matière, une prérogative économique d'importance, dont il devrait rendre
compte auprès du corps électoral dans son entier (chômeurs compris). Les
conseillers régionaux seraient amenés ainsi à débattre sur le fonctionnement
du marché du travail afin d'évaluer l'impact économique de leurs décisions
d'une année sur l'autre. Pour alimenter leurs réflexions, ils auraient tout à
gagner à faire de bonnes lectures sur le sujet, en particulier l'ouvrage de
Jacques Lesourne, Vérité.%.et mensonges sur le chômage... Moins manipulable, un tel dispositif a des vertus auto-éducatives.
166
DÉCISION
L'auto-référence
Revenons à l'Éducation Nationale. Il est intéressant d'analyser le rôle des
corps d'inspection (inspecteurs pédagogiques régionaux, inspecteurs d'académie et inspecteurs généraux), statutairement chargés de l'évaluation des
maîtres. Dans ce domaine, il est notoire que les inspecteurs disposent de
marges de manoeuvre bien maigres pour encourager ou sanctionner les
personnels enseignants. Ils notent, c'est tout. N'ayant plus guère de grain à
moudre de ce côté-là, les corps d'inspection sont devenus au fil du temps les
régulateurs de l'ensemble du système éducatif. Dans la pérennité, ils exercent une influence déterminante sur les concours de recrutement, les créations de filières ou de postes, les mutations, enfin et surtout sur les
programmes. Et qui dit programmes, dit manuels. Ainsi, nous est offert un
système industriel assez original. En symbiose étroite avec de grands
éditeurs, les corps d'inspection de l'Éducation Nationale participent directement ou indirectement la réalisation des manuels, rythmant à leur guise les
modifications de programmes génératrices de nouvelles éditions. Nous
avons là un exemple de filière intégrée unique au monde, isomorphe à la
hiérarchie : les utilisateurs (les élèves et leurs parents) paient sans choisir, les
prescripteurs (les professeurs) choisissent sans payer, les producteurs (les
inspecteurs) élaborent le cahier des charges. Et, last but not least, chacun
note celui qui le suit dans la filière. Dans un domaine aussi essentiel que le
contenu des enseignements, le système éducatif s'est installé dans l'autoréférence : le processus de décision y est indissociable du processus d'évaluation. Et ne posons pas la question de savoir qui inspecte les inspecteurs...
On pourra se consoler en observant que des situations du même ordre se
rencontrent dans d'autres sphères du système administratif et que, après tout,
la France s'en accommode.
2.3 Lesenseignementsde la théoriemicro-économique
.,
Sur cette question de l'évaluation, les développements récents de la théorie
micro-économique nous offrent quelques éléments prometteurs. Dans une
relation d'agence du type de celle considérée dans le modèle 3, comment
caractériser les risques de manipulation et d'auto-référence ?
La manipulation
Dans le modèle 3, nous avons considéré que tous les paramètres du
problème étaient connaissance commune du jeu et, en particulier, que le
principal était parfaitement informé des désutilités de l'agent
Imaginons que, dans une phase préliminaire du jeu (étape - 1), ce dernier
soit invité à révéler au principal la valeur de wj (w2 étant supposé connu,
pour simplifier). Va-t-il annoncer la vraie valeur wi ? Il est assez facile de
voir que l'agent a intérêt à manipuler l'information en annonçant une désu-
Letiersdans la décision
167
tilité coi = [w2L2 + (x - y) (Pj - P2)]/LI, (avec
WI), valeur pour
la
relation
est
une
Dans
ce
le
contrat
cas,
(1)
laquelle
égalité.
d'équilibre du
est
encore
les
salaires
et
+
s,
oui,
L;},
jeu
si
s2'* étant bien sûr
Ils**
calculés avec W¡. L'agent obtient alors un paiement espéré
wi)Li
tandis que le principal réalise Pl - ù) 1 L 1 + x(P! - P2). Il y gain pour
l'agent et perte (d'un même montant) pour le principal.
Comment empêcher la manipulation de l'information ? Un mécanisme assez
simple peut être envisagé : il consiste à introduire un autre agent, identique
au premier, mais honnête. Si le principal ne peut proposer qu'un seul contrat
de travail, alors il a intérêt à proposer le contrat conforme aux caractéristiques de l'agent honnête. Au terme d'une sorte de concurrence à la Bertrand
(cf. Thépot, 1995), l'agent « tricheur » se voit obligé de révéler la vérité.
Ce résultat suggère que, dans une organisation industrielle, la concurrence (réelle ou potentielle) entre unités de décision situées en aval est un
facteur favorisant la transparence de l'information et, par là même, la
justesse de l'évaluation. Cette affirmation rejoint le principe implicitement
révélé à propos du salaire minimum, selon lequel ce sont les outsiders du
système qui empêchent les insiders de manipuler l'évaluation à leur profit.
L'auto-référence
La tentation de l'auto-référence est ici celle du principal, lorsque celui-ci est
garant de l'exécution du contrat. Dans le modèle 3, il est clair que rien
n'oblige le principal à honorer son engagement, c'est-à-dire à verser les
salaires s* et s2* selon que le niveau de profit est Pl ou P2. En l'absence
d'une instance indépendante de vérification des clauses du contrat, le principal est à la fois juge et partie ; et, dans un tel contexte, l'agent ne peut
accepter le contrat de sorte que la relation d'agence ne s'exerce pas. Cette
question de la vérifiabilité des contrats, qui occupe une place importante
dans la littérature récente (voir Hart, 1995), est essentielle pour le fonctionnement des organisations et, notamment, des entreprises. Des institutions
indépendantes doivent être mises en place pour valider les résultats des
unités de décision, afin que les contrats soient menés à bonne fin.
À l'évidence le système français souffre d'un déficit de telles institutions :
- le système judiciaire est trop lourd pour régler tous les litiges survenants
à l'occasion des transactions et des échanges qui se nouent instantanément dans une société de l'information où tout va très vite ;
- le droit français est fondé sur des textes et non sur une appréciation jurisprudentielle de principes généraux, comme le droit anglo-saxon (common
law), de sorte qu'il s'adapte difficilement à des situations nouvelles non
prévues par les textes ;
- l'État est le premier à renier sa parole et à ne pas honorer ses contrats.
Combien de lois n'ont-elles jamais été suivies de décrets d'application ?
168
DÉCISION
Avec la mondialisation
de l'économie,
la question de la vérification des
contrats revêt une importance particulière. C'est probablement
la forme de
coordination
internationale
la plus urgente à mettre en place, bien au-delà
des questions de politique économique ou de traitement de la pollution : que
se passerait-il
ou une
si, un jour, suite à un embrouillamini
systémique
aucun
contrat ne pouvait être conclu parce que les chiffres
machination,
apparaissant sur l'écran n'ont plus de sens et que la confiance a disparu ?
3. LEREGARD
La théorie économique est fondée sur la décision individuelle. L'idéal type
n'est autre que Robinson Crusoë, décideur rationnel par excellence ;
ce
Robinson-là
avec autrui. Il est
peut élaborer ses choix sans interférence
maître de ses actes et de leurs conséquences.
Le principe de rationalité
enrichi la théorie classique, ne change rien
limitée, qui a considérablement
à ce schéma : comme on le sait, ce principe postule que les capacités cognitives du sujet sont défaillantes ou contraintes de sorte que celui-ci se trouve
des choix possibles ou de les hiérarchiser.
incapable de cerner l'ensemble
Ceci étant, on reste dans le monde du décideur individuel. Robinson a perdu
sa longue-vue, c'est tout.
.
Ce présupposé ne rend pas compte de l'expérience courante ; même s'il s'en
défend par fierté, l'homme d'action sait qu'aucune décision ne se prend dans
la solitude absolue. Comme le saint Antoine peint par Jérôme Bosch, le solitaire vit sous l'empire de l'affectivité,
de l'inquiétude
ou de l'enflure. Il est
donc incapable d'organiser dans la durée un choix libre, même s'il disposait
de toute l'information
nécessaire. Ce qui fait obstacle en effet à la décision
ce
sont
les
éléments du comportement
humain qui échappent à
rationnelle,
la raison et empêchent l'individu de mettre en relation l'acte et les conséquences, plus encore, semble-t-il, que les limitations cognitives. Formulée
en ces termes, cette affirmation rejoint la question que les philosophes grecs
ont posé à propos de la tyrannie. Le tyran, en effet, est celui qui gouverne
selon ses pulsions, son bon plaisir ou celui d'une faction. Que faire pour
en vue du bien commun ? Et la réponse est
qu'il agisse rationnellement
raison que s'il consent à écouter le philosophe,
à
simple : il n'entendra
débattre avec lui.
En définitive, c'est la mise en regard de l'individu
avec un tiers, entité
l'affranchit
des
spirituelle, morale ou intellectuelle,
qui, progressivement,
pesanteurs et l'ouvre à une démarche rationnelle par laquelle il sera en situation de décider. Peut-on concevoir une rationalité sans altérité ? Non, sans
Cette
doute, dès lors que le regard du tiers fonde la décision rationnelle.
à laquelle tout psychothérapeute
n'a guère de
observation,
souscrirait,
Letiersdans la décision
169
répondant dans une théorie économique trop éloignée des données de la
psychologie.
Reste à savoir de quoi est fait ce tiers qui accompagne, épaule et invite au
discernement. La vie collective a besoin de lieux d'échanges, de sociétés
savantes et de communautés académiques pour tenir ce rôle. Mais peut-être
faut-il d'abord que le sage, dont la bible dit qu'il est « une oreille qui
écoute », trouve sa place dans notre société.
BIBLIOGRAPHIE
BOURGUIGNON,
F., Fiscalité et distribution, Conseil d'Analyse Économique, La
Documentation Française, 1998.
HART,O., Firms, Contracts and Financial structure, Clarendon Press, 1995.
LESOURNE,
J., Le calcul économique : théorie et applications, Dunod, 1972, 2éd.
LESOURNE,
J., Vérités et mensonges sur le chômage, Odile Jacob, 1997, 2éd.
THÉPOT,J., « Bertrand Oligopoly with Decreasing Returns to Scale », Journal of
Mathematical Economics, 24, 689-718, 1995.
TIROLE,J., The Theory of Industrial Organization, MIT Press, 1988.
Heiner
Müller-Merbach
FIVECONCEPTS
UNDERSTANDING
OFHOLISTIC
GENERALISTS
ASCRITICAL
SUCCESS
FACTOR
OFNATIONS
WITH
1.. A GENERALIST'S
FIVETRIPLES
OFMENTAL
COPING
WHOLES:
A "SYMPHONY
OFFIVEWALTZES"?
A Generalist tends to see everything through a broader concept, to
understand any part through its embedding system, to look at any detail
from a whole. A generalist does not get lost in a thicket of single elements,
because he senses the unity above the elements. He is a top-down thinker.
Leaders in any field - statesmen, top managers, directors, presidents,
conductors, coaches etc. - ought to be generalists, at least to some extent;
and even specialists who comprehend their field of competence within a
holistic frame may be the more competent specialists.
Leaders are scarce (possibly in any nation), partly because generalists are
scarce. The competence in coping with wholes indicates a person as a
generalist, and generalists - in their qualification and in their quantity - can
be seen as "critical success factor" of nations, as they will be seen here.
The generalist's qualification can be trained, at least to some extent, and it
depends on any nation's education system to emphasise (or not) holism,
thinking in networks of interdependence,
conceiving reality as systems.
Five tripartite concepts of holistic understanding shall be presented here
(table 1). They should be seen in the context with political and economic
leaders.
Generalistsas CriticalSuccessFactorof Nations 1711
FiveConceptsof HolisticUnderstanding:
Trefoil of development:
The development of our world can be
understood from the viewpoint of continuous interdependence between
technological progress, economic growth, and social change. Each of
these components influences each other component (section 3).
Triad of geo-economics:
The interdependence
mentioned can be
observed in any nation, but it becomes particularly obvious in the geoeconomic triad: Europe, North America, and Southeast Asia (section 4).
Tripod of institutions: There is global competition within the geoeconomic triad - i.e. between Europe, North America, Southeast Asia and all other nations. The competition is not only carried by the
enterprises, but also by the states, represented by the public authorities,
as well as by the individuals, economically represented by the private
households (section 5).
Trident of intelligence: The competitive strength of the nations - as it
will be argued here - depends upon their organizational intelligence (01),
and 01 includes three components: information,
knowledge, and
opinion (section 6).
Trinity of action: Information, knowledge, and opinion are the triggers
of action, and three kinds of action will be considered here in idealised
separation: technical action, pragmatic action, and ethical action,
following Immanuel Kant (section 7).
These are the five terminological concepts, and they are related to one
another. The five concepts come - is it accidental? - in triples, like five
waltzes in a musical arrangement.
Table 1 :Morphological box of five tnples as structural frame of this contribution
Triple
Components
Trefoilof development: Technological
progress Economicgrowth
Socialchange
Triadof geo-economics: Europe
America SoutheastAsia
North
1
of
Public
authorities
Tripod institutions:
Enterprises
1 Households
Tridentof intelligence:
Trinityof action:
Information
KnowledgeOpinion
Technicalaction
Pragmaticaction
Ethicalaction
2. DEDICATION
TOJACQUES
LESOURNE
This contribution is a dedicated to Jacques Lesourne who celebrated his 70th
anniversary on 26th December, 1998.
172
DÉCISION
Prof. Lesourne contributed to many fields reflected in this contribution. He
is an economist, and he transferred his economic understanding to many
fields, such as management of enterprises (such as in his book Technique
économique et gestion industrielle) and management of public authorities
(such as in his book La gestion des villes). He emphasised the importance of
education for the competitiveness of nations (such as in his publication
Éducation et Société). He gave thought to the relations between nations and
their enterprises (such as in Le pouvoir de l'État et le pouvoir des
entreprises). He also saw the economic processes from a global point of
view (such as in The Management of the World Economy). He included
ethical questions into economic and political strategies (such as in Éthique
et stratégie pour les Français des années 1980). This contribution is an
attempt to honour Jacques Lesourne in that a "symphony of five waltzes"
will be tried to compose.
3. THETREFOIL
OFDEVELOPMENT:
INTERDEPENDENCE
BETWEEN
TECHNOLOGICAL
ECONOMIC
PROGRESS,
ANDSOCIAL
CHANGE
GROWTH,
The industrial and post-industrial world develops in a continuous
interdependence between technological progress, economic growth, and
social change (Müller-Merbach, 1988).
This interdependence is a network (figure 1) and not a directed chain in the
sense of: technological progress causes economic growth, and economic
growth causes social change. Any of the three components (taken as sets of
many subsets) has influence on the two other components, e.g.: social
change can reinforce technological progress, such as by curiosity, openness
for change, and demand pull attitudes of the citizens, as well as impede
technological progress by doubt, "angst", objection, and complacence.
Technologicalprogress 1
1
Economicgrowth
Socialchange
1
Figure1 :Networkof interdependencebetween technologicalprogress, economic
growth,and social change
FiveConceptsof HolisticUnderstanding:
Generalistsas CriticalSuccessFactorof Nations 173
In order to conduct and control national and international development
are required who deeply understand
this
processes,
generalists
interdependence. They have to bring together (i) scientists and engineers
who contribute to the technological progress with (ii) economists and
business people who know how to transfer technology into wealth and with
(iii) social scientists who not only understand society, but who are also able
to design and operate society and their groups.
Even if the interdependence between technological progress, economic
growth, and social change has been considered and mentioned by several
research. Kondratieff
authors, there exists still a lack of interdisciplinary
cycles for instance concentrate on the influence of technological progress on
economic growth, but do not include social change. Many economists, such
as Garten (1993), Porter (1990), Thurow (1993), concentrate on economic
competitiveness and growth, but pay little attention to technological
progress and social change.
The interdependence can be spelled out for whole fields of technology, i.e.
the information and communication technology, as well as for smaller
sections of technology, e.g. text computing, or for any single technological
contribution, e.g. Pentium chips. According to the arrows (figure 1),
technological innovations, such as those mentioned, (i) require economic
strength on the one hand and are (ii) the source for further economic growth
on the other hand; at the same time, such technological innovations are (iii)
the output of the social willingness and enthusiasm for new technology on
the one hand, and the new technology may (iv) continue to change society
on the other hand. In addition, economic growth will (v) change society, i.e.
the individuals' attitudes and behaviour, on the one hand, and society, i.e. the
individuals' readiness for competition, is (vi) a source for further economic
growth on the other hand. These mechanisms can be projected to any macro
and micro field of technology.
Such projections are instructive if applied to the past. More important are the
future oriented projections, in particular those which serve the purpose of
strategy development for enterprises and nations.
'
Leadership - in politics, enterprises, etc. - depends upon the understanding
of the interdependence between technological progress, economic growth,
and social change. It is the author's firm belief that those nations are in
comparative advantage in which the leaders are generalists in this sense.
The education in this direction can start very early, i.e. in the kindergarten
and in the grammar school and can be continued through all levels of lifelong leaming. This requires change of the education systems in most nations
where engineers are trained to become good engineers, and economists are
trained to become good economists etc., and it seems as if - worldwide little attention is paid to the virtue of such interdisciplinary generalism.
174
DÉCISION
4. THETRIADOFGEO-ECONOMICS:
NORTH
EUROPE,
ANDSOUTHEAST
ASIAASCOMPETITORS
AMERICA,
With Ohmaes book Triad Power (1985) a new understanding
of geoeconomics
was bom: global players, i.e. global enterprises,
have to be
in North
present in all the three most influential regions, i.e. in Europe,
or extended: Southeast Asia. In these regions, the
America, and in Japan choir of economic growth will be conducted. Most investigations
into the
of
nations
concentrate
on
these
three
advantage
regions since
competitive
nations of these regions, respectively)
such as
(or on the representative
Schmietow
( 1988), Porter ( 1990) with his Competitive Advantage of the
United States, Japan and Korea as well as Germany, United Kingdom, Italy,
and Sweden, Garten (1993) with his Cold Peace between
Switzerland,
America, Japan, and Germany, Thurow (1993) with his Head to Head battle
among Japan, Europe, and America and - forthcoming Vogel (1999) with
his international race of technology.
But it is not only economic growth; the triad is also ahead in technological
innovations
progress as well as in social change. Most of the technological
have their cradle in Europe or in North America or in Southeast Asia. And
the social change seems to occur much more rapidly in the triad regions than
elsewhere:
How many individuals
began to learn how to handle PCs and
as
a
ratio
of
the
How many individuals have
absolutely
population?
access to the World Wide Web? How many individuals use e-mail? It seems
as if social change in this sense - i.e. induced by technological progress - is
carried by a larger proportion of the population in the triad regions than
elsewhere.
The geo-economic
dominance
of the triad can be measured
in many
such
as
world
trade
traffic
dimensions,
flow, capital
transactions,
information
etc.
Behind
the
scene
there
is
serious
connections,
flow,
competition for rapid technological progress, for more economic power and
growth as well as for purposeful change of society as carrier of further
development.
Most competitors in the world are representatives
of the triad regions. This
does not only apply to economics and the competing enterprises, but also to
areas - to the
sports and culture as well as - beyond such event-oriented
value system.
The dominance
of the triad can be studied by analysing the past. More
important, again, is the outlook into the future. No nation or region is
permanently entitled to have a seat within the triad. Instead, any nation and
region has to struggle continuously for its position in the triad.
FiveConceptsof HolisticUnderstanding:
Generalistsas CriticalSuccessFactorof Nations 175
5
The triad regions are quite different in many aspects, for instance (figure 2):
Europe: The value system of Europe has old traditional roots. Most of the
Europeans are Christians (some practising, many in abstention). The
Europeans have the same philosophical history - from the pre-Socratics,
. the Greek classic, stoicism, the "Fathers", the "Schoolmen", renaissance,
but the strongest
enlightenment, positivism, existentialism, etc. influence might have had Aristotle, the father of the sciences. Europe has
a great variety of languages, but many of the most important ones are
closely related to each other. Europe has a strong regional core with the
15 member states of the European Union plus a similar number of other
nations. The population is dense.
Southeast Asia: Southeast Asia has traditional value systems as well,
based upon long national histories. It is stamped by a variety of religions,
including several branches of Buddhism. The most influential philosopher
was Confucius. Due to the many and quite different languages,
communication is difficult. Geographically, the single nations are spread
over a wide area with much sea in between (e.g. Japan, Korea, Taiwan,
Singapur, Hongkong, Malaysia, Thailand). The population is dense.
North America: Contemporary North America has a history of just over
200 years; so has its value system, influenced by many different roots.
.
Christian religions are predominant, even if all the great world religions
are represented by major groups. Insofar the influence of natural and
engineering sciences is concerned, again Aristotle can be considered as
the most influential philosopher for North America. Only one language,
English, is prevalent even if some Spanish, some French, some Chinese
and a variety of many other languages is practised. There are only two
countries, the United States and Canada; the population is thin.
;
j
j
>
;
(
1
'
;
s
/
'
)
Southeast Asia
V: Traditional
R:Variety
I:Confucius
L: Many, different
C: Spread
P: Dense
Europe
V: Traditional
R: Christians
1 : Aristotle
L: Many, related
C: Strong core (EU)
P: Dense
North America
V: Young Mix
R: Chriiticiiib
++
Christians -t-t1: Aristotle
L: One ++
C: USA + Canada
P: Thin
Figure 2: The triad of geo-economics - Europe, North America, Southeast Asia
(V= Valuesystem;R = Religion;1= Mostinfluentialphilosopher;L= Languages;
C = Centralisation;
P = Population)
176
DÉCISION
Leaders in politics and business of the
require a deep understanding
three regions of the triad - and their nations. This includes familiarity with
their political
structures
and processes,
their education
systems, their
economic structures and processes,
their societal systems including the
It is the
values, attitudes, beliefs - now and in their historical development.
author's firm belief that the deep familiarity with the similarities
of the
between the regions is fundamental
for
regions and with the différences
success in compétitive
between the triad regions. Again, the
processes
of the triad can start with the kindergarten and the grammar
understanding
school and continue through all levels of education.
5. THETRIPOD
OFINSTITUTIONS:
COOPERATION
BETWEEN
PUBLIC
ANDHOUSEHOLDS
ENTERPRISES,
AUTHORITIES,
The competition within the geo-economic triad - i.e. between Europe, North
America, and Southeast Asia - is a subject of the whole nations (or the
overnational
and the nations include many different
regions, respectively),
institutions
as players. The institutions
shall here be assembled in three
(ii) the state, represented
groups: (i) the enterprises,
by the public
and (iii) the individuals,
authorities,
economically
represented
by the
households
(figure 3).
Enterprises
Fnrerpr/ses
provide
goodss
? create goods
contribute
create
wealth to the
theGNP
GNP
/ÎÉ'Î'/
£ 'P °Y
people
PY wages/salaries
? pay interest
taxes, etc.
par
L·
Public authorities
,
11(..
?· provide
enact lawinfrastructure
a collect taxes
. maintain order
· provide education
keep international relations
the citizens
protect
. employ people
etc.
pay wages/salaries,
Households
provide labour
· earn wages/salaries
· buy goods
consume
· save money to invest
. elect leaders, etc.
t
Figure 3: The tripod of institutions - enterprises, public authorities,
and households
FiveConceptsof HolisticUnderstanding:
Generatistsas CriticalSuccessFactorof Nations 177
The three institutional groups may be dominated by different directions of
interest and may, therefore, be considered as if they were enemies. However,
they can as well be understood as cooperators, unified by the shared will to
survive and to win. It is any individual's own decision to understand his or
her nation as a conglomerate of groups who fight each other - or as a team
of groups who strive jointly competing with external competitors.
Furthermore, it is in the power of any leader to either encourage internal
fight - or to discourage it and find agreement on common internai goals
while concentrating all the energy on extemal competition.
It depends on the leaders within the institutional groups (figure 3) whether
they consider the other groups as enemies or cooperators. In the first case,
the group representatives may put first priority on their feuds with the other
groups and forget their common goals. In the latter case, they tend to "pull
the same rope"; there is basic harmony between the groups even if they have
partly conflicting goals, but they try to solve their internal conflicts within
the frame of underlying harmony.
Some politicians as representatives of the public authorities speak and act as
if the enterprises were the enemies of national wealth. Other politicians
speak and act as if they despised or loathed their citizens - as individuals
and/or as a mass. Some employers give the impression as if they considered
their personnel as second-class beings and treat them accordingly. Other
managers and business leaders seem to be convinced that the public
authorities are their natural enemies. Finally, some individuals seem to
suspect any employer guilty of exploitation. Others may be in continuous
confrontation with the public authorities, in principle. All those persons
mentioned do not really understand the distribution of roles in a nation.
'
9
-
As a matter of fact, the three groups depend on one another and are united
by national duties and goals. The three groups play different roles and will
certainly have different particular objectives in detail. Anybody who has
insight into the interdependence will tend to accept that any group's
objectives have in the long run the greatest chance to be satisfied if the three
groups jointly try to cooperate and support each other. This does not and
should not prevent the outbreak of particular conflicts, but may help to solve
the conflicts in a fair way and with acceptable results.
The understanding of the desirability of cooperation between the three
groups can be reinforced by studying the past. More important is the future
oriented awareness; actions are required taken in the understanding of the
necessity of such cooperation.
Leaders in politics and business have to understand the different roles of the
groups. It is the author's firm belief that nations will be in comparative
advantage the leaders of which think in terms of mutual support between
the three groups. They ought to be able to help design and operate the
national system of division of roles between enterprises, public authorities,
and households.
178
DÉCISION
6. THETRIDENT
0F INTELLIGENCE:
MANAGEMENT
0F INFORMATION,
ANDOPINION
KNOWLEDGE,
There are only a few nations which are wealthy because of their natural
resources. The (potential) wealth of the majority of nations depends on their
intellectual
which shall hitherto be called "organizational
strength
(01), according to Matsuda (1992, 1993). It shall here be
intelligence"
understood as a nation's capability to develop and apply competence.
OI of a nation is quite a complex concept, and abstention from any attempt
to try a general definition is recommended
here. However, 01 shall be
structured by the three components:
and opinion
information,
knowledge,
(1998). In agreement with Matsuda,
(figure 4), according to Müller-Merbach
information
shall be understood as purposeful
data. Information
can be
stored on paper, in computers,
and in the human brain. In this sense,
information
does not require
it can be
instead,
any understanding;
In contrast, knowledge
memorised.
shall be understood here as a much
in accordance
with Mittelstrass
(1992,
higher form than information;
shall
be
understood
as
p. 228), a contemporary
philosopher,
knowledge
to teach".
in this sense requires
"ability
Knowledge
understanding.
refers to "objective
and proofs included"
facts, grounds
Knowledge
1992, p. 228). However,
(Mittelstrass
people do not act because of
information or knowledge only; mostly, people decide and act according to
their opinion. Opinion cannot be proven to be true, but should be plausible.
Opinion reflects belief, conviction or subjective certainty (Mittelstrass 1992,
p. 229).
The difference between knowledge
and opinion is an old philosophical
discussed
Plato
427-347
(ca.
B.C.), Kant (1724-1804; particularly
topic,
by
etc.
The
distinction
between information and knowledge
1786), Mittelstrass,
Information = Purposeful data
(Computers, paper, human brain)
Knowledge
based upon
understanding,
"objective facts"
(Human brain only)
Opinion
based upon belief,
conviction
"subjective certainty"
(Human brain only)
Figure 4: The trident of intelligence - information, knowledge, and opinion
FiveConceptsof HolisticUnderstanding:
Generalistsas CriticalSuccessFactorof Nations 179
is of the same age and was one of the central themes in Plato's dialogue
"Phaedrus": Phaedrus suggests to write down speech, but Socrates rejects
(in his terms) to reduce knowledge to information. Mittelstrass added a new
warning in that we are all in the danger of becoming "information giants"
and "knowledge dwarfs".
Leaders in politics and business, researchers, teachers, etc., do not - in a
physical sense - deal with material, with products, with machinery, with
energy, with money, not even with people. Instead, they deal with
information, knowledge, and opinion about material, products, machinery,
energy, money, and people. They do not touch the physical things; instead,
what they touch is information, knowledge, and opinion. This is the essence
of the 01 approach: leadership is management of information, knowledge,
and opinion.
In Japan, the late Matsuda created the management
doctrine
"Organizational Intelligence" since 1980. In the meantime, it became a
quite influential school. They concentrate on leadership in enterprises.
Sumita (1992), a member of the 01 school, even developed a method to
measure the OI of enterprises. His formula was adapted to German
enterprises by Lebesmühlbacher ( 1993) and applied to German industrial
branches by Müller-Merbach (1993).
Characteristic for the 01 approach is the holistic understanding of
information, knowledge, and opinion as a set - and of their mutual
influence. It is the task of management to guarantee the perception, the
processing, the storage and the usage of information, knowledge, and
opinion - and their cross-fertilisation. This applies to the national level as
well as to the enterprise level.
.
Any nation and its institutions (section 5) need professional information
systems. For instance, Becker (1993) developed a concept for a national
technology information system in order to make information about new
technology easily accessible. In order to take advantage of such a system, a
nation needs scientists and engineers who have the sufficient knowledge to
understand the information. In addition, their activities depend highly upon
their opinion about the particular technology. Comparative advantage does
not come with the information system as such; instead, comparative
advantage is the result of holistic management of information, knowledge,
and opinion.
When individuals take a decision and e.g. buy a product or vote for a party
or choose a certain service, they make their decision on the grounds of
information, knowledge, and opinion.
This separation of information, knowledge, and opinion can be enlightening
in the analysis of decisions in the past. It is more important, however, for the
design and operation of future oriented political and industrial systems. The
concentration on information, knowledge, and opinion requires a specific
awareness of these key components.
180
DÉCISION
Political and industrial leaders should - in this sense - not only concentrate
on information systems or on knowledge management or opinion
manipulation; instead, they should develop a holistic understanding of the
mutual dependence between the three components.
It is the author's firm belief that a nation with a leadership focus on the
combined to:
management of information, knowledge, and opinion is
in
"organizational intelligence" comparative
advantage over its
competitors.
7. THETRINITY
OFACTION:
THEUNSEPARABILITY
OFTECHNICAL,
ANDETHICAL
ACTION
PRAGMATIC,
Leaders should not only distinguish between information, knowledge, and
opinion, but also between technical, pragmatic, and ethical action. This
trinity has its origin in Kant (1724-1804), see also Hinske (1980) and
Müller-Merbach (1989 and 1995, pp. 81-91).
,
Kant emphasised that any action has technical, pragmatic, and ethical
aspects at the same time. He suggested their separation for the analytical
purpose of structuring any kind of human action (figure 5):
. Technical action (in Kant's understanding) deals with lifeless objects,
such as material, products, machinery, energy, money as well as
information. Technical action requires "skill" and is the object of (any
kind of) science.
. Pragmatic action deals with people who all depend upon their own
"intention for happiness". Pragmatic action requires "prudence" and is
the subject of practical philosophy.
. Ethical action deals with values, with morality, with good and evil.
Ethical action requires "wisdom" and is again the object of practical
philosophy.
As a guideline for ethical action, Kant stated the "categorical" imperative:
"Act only according to a maxim by which you can at the same time will that
it shall become a general law." In contrast, Kant stated two "hypothetical"
imperatives for technical and pragmatic action, a "problematic" imperative
for technical action (e.g. in the sense of designing machines with the highest
possible efficiency) and an "assertoric" imperative for pragmatic action
(e.g. in the sense of taking people's preferences into consideration).
Kant emphasised that everybody is inseparably responsible for any of his
actions in the technical, pragmatic, and ethical sense at the same time.
Unfortunately, most of the education systems concentrate on technical
Generalistsas CriticalSuccessFactorof Nations 1811
FiveConceptsof HolisticUnderstanding:
Ethical action:
. Values
Wisdom
Categorical imperative
. Practical philosophy
'
t
Technical action:
. Objects
Skill
Problematic imperative
. Science
.0
Pragmatic action:
. People
· Prudence
a Assertoric imperative
e Practical philosophy
Figure 5: The trinityof action - technical, pragmatic, and ethical action,
according to Immanuel Kant
action and neglect pragmatic and ethical action. Therefore, many influential
people are "giants" in dealing with objects (in their field of competence), but
seem to be imprudent in dealing with people and helpless in reflecting
values.
The trinity of action can be studied by many major and minor events in the
past. More important, however, is the active internalisation of the trinity for
practising in decision making for the future; and this requires early
emphasis of all the three aspects in the education system.
Political and industrial leadership positions require leaders who are aware
and its
of their technical, pragmatic,
and ethical responsibility
firm
belief
that
nation
would
be in
It
is
the
author's
unseparability.
any
in
if
their
citizens
are
trained
the
skills
over
others
comparative advantage
for technical action, sensitised in prudence for pragmatic action and
prepared for wise reflection of values for ethical action.
EDUCATION
FORHOLISTIC
8. THEIDEAL
UNDERSTANDING: A SUMMING UP
Competition is everywhere: between individuals, between teams, between
groups, between universities, between enterprises, between nations,
between overnational regions. Competition causes fight for survival and
fight for victory, and fight "is the father of all and king of all, and some, he
shows as gods, others as men; some he makes slaves, others free", as
DÉCISION
182
Heraclitus (ca. 550-480 B.C.), the pre-Socratic philosopher of change
because fight keeps things moving (Müller-Merbach
1995, p. 21).
said,
In the disorder of fight - including al the shades such as contest, struggle,
conflict, quarrel, feud, combat, strive, battle, even war - the single actors
have different chances.
It is the author's firm belief that those actors are in comparative advantage
who understand the wholes and not the single parts only, i.e. systems and
and not their components
not their single elements only, i.e. compositions
can be developed by each individual, in each
only. Holistic understanding
group, in each enterprise, in each nation etc.; and holism can be emphasised
at each state of education and life-long leaming: kindergarten,
grammar
school, high school, university etc. Incidentally, holism is an old principle of
education, emphasised by Aristotle (384 - 322 B.C.). He suggested that any
instruction
should start from the whole, even if the details are not yet
understood, and then proceed to the details.
Once one is used to perceive anything in the world beginning with the
became his
wholes and proceeding to the parts the holistic understanding
second nature.
It should be in any nation's interest to educate its young generation in such
a way that they understand wholes and - through the wholes - the parts.
five concepts
contributions
contains
of
for
the
education
potential leaders
suggested
such as:
and for any field of responsibility),
This
of holistic
understanding,
(for any level of influence
There is no independent
Trefoil of development:
progress in technology,
in
in
or
Instead,
economics,
they form a whole and
change
society.
growth
influence each other. Therefore, any potential leader should understand
in technology,
before and while he specialises
the interdependence
economics or social sciences etc. The three parts form a "trefoil" like a
leaf with its three leaflets.
There is no isolated Europe, North America, or
Triad of geo-economics:
Southeast Asia. Instead, the three regions are in continuous competition,
not only in commerce, but also in sports, culture, health, education, value
systems etc. Therefore, any potential leader should understand the geoeconomic whole, including the similarities of and differences between the
three regions. The three regions form a "triad" like a chord in music
which can be in major or minor scale, in harmony or in disharmony.
of enterprises, public
There is no self-sufriciency
Tripod of institutions:
authorities, or households in a nation. Instead, these groups depend on one
another and have to serve each other. Therefore,
any potential leader
should understand the roles of the three groups and their institutions and
always act in the interest of the entity. The "tripod" symbolises the equal
importance of the three groups of institutions for the whole; one weak leg
would endanger the whole economy.
Generalistsas CriticalSuccessFactorof Nations 183
FiveConceptsof HolisticUnderstanding:
There is no independent
Trident of intelligence:
advantage of
information, knowledge, or opinion. Instead, their mutual fertilisation and
compensation make up for the "organizational intelligence" of a nation.
Therefore, any potential leader should understand the processes of
perception, processing, storage, and usage of information, knowledge,
and opinion as a closely connected network of components. "Trident" is
a metaphor of a mighty three-pronged weapon such as the symbol of
Neptune, the Roman god of the sea.
Trinity of action: There is no separable responsibility for technical,
pragmatic, and ethical action. Instead, any action is an entity in itself with technical, pragmatic, and ethical attributes. Therefore, any potential
leader should be familiar with the three dimensions of responsibility, such
the assertoric, and the categorical
as defined by the problematic,
as
a
symbol represents the fundamental idea of a
imperative. "Trinity"
tripartite unity.
Which region of the triad - or which nation of these regions - is educating
the "best" generalists? This very region - or nation - has a good chance to
come into the top position among the competitors.
REFERENCES
BECKER, T., Integriertes Technologie-Informationssystem WettbewerbsfijhigkeitDeutschlands, Wiesbaden, DUV, 1993.
Beitrag
zur
GARTEN,J. E., Cold Peace; America, Japan, Germany, and the Struggle ,for
Supremacy, New York, Times Books, 1993.
HINSKE,N., Kant als Herausforderung an die Gegenwart, Freiburg, München,
Alber, 1980.
/
j
i
i
Î
i
:
t
)
h
)
)
!
KANT,I., "Was heil3t: sich im Denken orientieren?" In Berlinische Monatsschrift,
October 1786, pp. 304-330.
LEBESMÜHLBACHER,
P., "Die Leistungskraft von fünf Banken und fünf KfzHerstellern - gemessen am 'Totalen Wertschdpfungsquotienten"', in Technologie &
Management, vol. 42, 1993, no. 1, pp. 35-37 (part 1 of a series of four, continued in
no. 2-4).
T., "Organizational Intelligence: Its Significance as a Process and as a
MATSUDA,
Product", in Proceedings of CEMIT 92/Cecoia 3 International Conference on
Economics, Management and Information Technology 92, Tokyo, The Japan
Society for Management Information, 1992, pp. 219-222.
MATSUDA,T., "'Organizational Intelligence' als ProzeB und als Produkt", in
Technologie & Management, vol. 42, 1993, no. 1, pp. 12-17.
DÉCISION
184
Mittelstrass,
"Der
J.,
MITTELSTRASS,
Verlust
Frankfurt/Main,
MÜLLER-MERBACH,
H.,
des
"Der
1992,
in
Technologie
MüLLEtt-MERSa,cH,
H., "On Technical,
Pragmatic
and the Social
Research
for OR?" In Operational
P. Keys,
and
New
S. A. Cropper,
H., "Der
MüLLEtt-MERancH,
wirtschaftliche
Leistungskraft",
1, pp. 31-34.
H.,
MüI.LER-MExBncH,
DIE,
Homburg,
Vieweg,
PORTER, M. E., The
1990.
E. A.,
EinzelT.,
SuMiTA,
Proceedings
Management
Management
"Die
and
Intelligence
SCHMIETOW
für
das
1998,
Prozessorientierung
der
Unternehmung' -
in Information
Excellence Proceedings,
The
Competitive
Coming
Shape
3rd
Management,
der
die
1993,
no.
ed,
Bad
japanisch-deutschen
von
Zusammenspiel
Management
for Business
and
ed. by W. Hummeltenberg,
Die technologische
und gesamtwirtschaftliche
of Global
Competition,
New
of Nations,
Advantage
Wettbewerbsfiihigkeit
Bad
Aspekte,
York,
der
Homburg,
The
New
York,
Free
Press,
bundesdeutschen
DIE,
1988.
in
of Organizational
on the Measurement
Intelligence",
Study
3
International
on
CEMIT
92/Cecoia
Economics,
Conference
of
for
The Japan
and
92, Tokyo,
Technology
Society
Information
1992, pp. 207-210.
Information,
"A
im internationalen
C., Deutschland
und Technologiepolitik
für
1999 (to appear).
ForschungsKaiserslautern,
für
Mass
vol. 42,
pp. 3-18.
Economic
The Coming
THUROW, L. C., Head to Head:
New York, Warner
Books
1993.
and America,
VOGEL,
Ein
Wertschopfungsquotient' in Technologie
& Management,
Philosophie-Splitter
H.,
OHMAE, K., Triad Power:
1985.
The Free Press,
Industrie.
A Challenge
Ethical
Action.
ed. by M. C. Jackson,
Sciences,
Plenum
Press,
1989, pp. 97-104.
and
'Totale
'Intelligenz
und Meinung",
Wissen
Competitive
Wiesbaden,
London,
Jürgen
1995.
MÜLLER-MERBACH,
der
Führungslehre
Information,
York,
by
wirtschaftliches
Fortschritt,
vol. 37,
& Management,
Technischer
Dreiklang Wandel",
Wachstum,
gesellschaftlicher
1988, no. 3, pp. 6-9.
ed.
in: Leonardo-Welt,
pp. 221-244.
Wissens",
Suhrkamp,
Battle
Among
Technologiewettlauf die
technologische
Japan,
Europe,
Bedeutung
Wettbewerbsfiihigkeit,
der
Michel
Crozier
L'APPROCHE TRANSDISCIPLINAIRE
DEDÉCISION
ENMATIÈRE
ETDEL'ÉNERGIE
1.. LETEMPSDE LAVOLONTÉ
,
,
'
À la fin du xixe siècle, quand le problème de la décision commence à apparaître, la réflexion porte avant tout sur l'acte de décider et sa psychologie. Le
décideur idéal est le militaire, l'homme qui a le courage de trancher et qui
mettra à exécution à force d'énergie. Que faut-il pour réussir, dit Foch, de
l'énergie, encore de l'énergie, toujours de l'énergie.
Avec de l'énergie et de la volonté tout est possible. Mais c'est la volonté du
décideur, du chef, du général qui brûlera ses vaisseaux pour impressionner
l'adversaire. Certes, on admirera les desseins stratégiques et les manoeuvres
tactiques du héros et on les fera étudier. Mais c'est toujours la personne qui
compte. Préparation et exécution sont déterminées par la demande impérative de l'homme de volonté. D'où l'importance prise en la matière par la
réflexion psychologique et morale sur la volonté. C'est l'incapacité à
décider qui fait peur plus que la mauvaise décision. L'homme compétent,
c'est le psychologue médecin de la volonté.
. 2.. LE TEMPS DE L'INGÉNIEUR
',
L'expérience de la deuxième guerre mondiale va changer tous les paramètres. Le modèle qui s'impose est celui de la victoire américaine qui est le
186
DÉCISION
Eisenhower
n'est plus le héros de la volonté
triomphe de l'organisation.
comme Foch, c'est l'homme qui a été capable de dominer la plus complexe
machine de guerre de l'histoire humaine, le général ingénieur, le héros de
façon générale, devient l'ingénieur. Le problème sur lequel on se focalise en
matière de décision, c'est la préparation scientifique qui va donner la bonne
décision.
C'est au cours de la guerre que sera inventée la recherche opérationnelle
qui
permettra de gagner la guerre du transport maritime. La recherche opérationnelle donnera naissance à toutes les formules nouvelles d'aides à la décision qui consacreront
la supériorité du modèle américain dans les affaires
et la gestion de la guerre.
comme dans l'administration
Le héros de la décision n'est plus l'homme de volonté ; c'est l'ingénieur,
et le calculateur. On a glissé de la personnalité de l'homme qui
l'économiste
décide à la qualité de la décision ou plutôt à la méthode qui permettra de
calculer la meilleure décision.
de la science est général. Les think tanks
L'enthousiasme
pour l'application
humaine qui peut tout penser, même
sont les hauts lieux de l'intelligence
l'impensable.
tout de même. C'est la préparation
On le remarquera
qui constitue le
des
mêmes
ne bénéficiera pas
lumières, on l'abanproblème, l'exécution
de
la
volonté
et
de
donnera au début au modèle
l'énergie auquel on ne croit
interne se voit
la
de
l'organisation
gestion
plus guère. Très vite pourtant
Un nouveau couplage s'établit
envahie aussi par la logique de l'ingénieur.
des coûts et avanentre la logique de la bonne décision l'optimisation
La rationalisation
des choix budgétages - et la logique de l'organisation.
taires permet de boucler la boucle. À chaque niveau de décision budgétaire,
le meilleur choix peut être calculé. L'optimum
pourra être atteint. Les
années 60 sont les années de l'illusion d'une possible rationalité totale.
de ce modèle de réflexion
La guerre du Viêt-nam va entraîner l'écroulement
le champion
de ce modèle de rationalité,
sur la décision. McNamara,
l'homme qui prétendit gérer le département de la Défense et la guerre ellesur le plus tragique
même avec le PPBS, dut abandonner ses responsabilités
échec de l'histoire américaine.
DELARÉACTION
ANTIRATIONNELLE
3. LAMONTÉE
à la mesure de la
est naturellement
La montée de la réaction antirationnelle
surestimation extraordinaire de la rationalité à laquelle on était parvenu. Elle
a été bien sûr portée par la déception et le dégoût qu'a entraîné l'effondrement
moral de la guerre du Viêt-nam, mais elle l'a précédée intellectuellement
en matièrede décision
L'approchetransdisciplinaire
grâce à l'apport magistral d'Herbert
années 50.
187
Simon qui date, lui, de la fin des
Simon était, il est vrai, très modéré. Il voulait rénover le concept de rationalité et non pas proclamer sa faillite. L'homme, selon lui, est incapable de
poursuivre l'optimum, il doit se contenter nécessairement du fait de la limitation de ses capacités cognitives de la première solution satisfaisante qui se
présente au cours de sa recherche. Une solution est satisfaisante dans la
mesure où elle satisfait aux critères de rationalité qui sont les siens.
Le raisonnement de Simon eut un effet libérateur, mais sur une partie minoritaire des sciences sociales. Ce fut seulement quelques années plus tard que
son collègue et ami, James C. March, se mit à attaquer le modèle de l'optimisation avec beaucoup de verve et d'agressivité.
Simon avait très bien montré empiriquement que dans des décisions d'investissement important, comme par exemple un achat d'ordinateur, la
recherche de l'optimum était en fait illusoire. Il avait d'autre part modélisé
les décisions des investment bankers et réussi à élaborer des programmes
d'ordinateurs capables de reproduire leurs décisions à 95 % des cas. Non
seulement l'optimum était impossible et non désirable mais avec des critères
de satisfaction bien élaborés, on pouvait arriver à prédire des comportements
hautement sophistiqués.
James C. March partit d'une autre perspective empirique : il étudia, dans les
années 70, les succès et les échecs des responsables universitaires et put
démontrer que la variable déterminante du succès des présidents d'université sur un grand échantillon était le moment de leur entrée en fonction.
Celui qui prenait la présidence au moment du début de l'escalade révolutionnaire, ne pouvait échapper à l'échec. Celui, au contraire, qui la prenait
au début de la décélération avait toutes les chances de réussir.
;
>
;
;
Mais son apport théorique le plus important c'est l'élaboration du modèle dit
de la poubelle. L'issue d'une décision de politique publique ou de choix
privé dépend de la rencontre, éventualité fortuite, d'une série de problèmes
en attente et d'une série de solutions en magasin. L'inscription sur l'agenda
des décisions constitue un élément décisif du choix qui sera fait. C'est le
problème qui sortira de la poubelle actuellement disponible qui sera discuté
et qui héritera de la solution disponible. La validité d'une vision aussi
cynique peut être démontrée dans des systèmes humains très peu intégrés, ce
que les Américains appellent « loosely coupled systems ». Les universités en
constituent un exemple mais pas le seul, le tout, bien sûr, dans les limites
plus ou moins étroites de critères de rationalité acceptables.
;
;
;
;
Ces réflexions ont eu beaucoup d'importance pour ébranler les convictions
rationalistes ou du moins pour les lester d'un minimum de scepticisme. Elles
n'ont pas été suffisantes, en revanche pour établir un nouveau modèle néorationaliste ayant la force et la prégnance de celui de l'optimum.
'
v
188
DÉCISION
DEL'APPROCHE
4. NÉCESSITÉ
ETDIFFICULTÉ
SYSTÉMIQUE
C'est l'approche
systémique qui permet sinon de résoudre le problème du
de l'optimum
moins de dépasser
la contradiction
entre la recherche
problème par problème et la recherche de l'optimum absolu sur l'ensemble
flou et dominé par des critères politiques de
d'un système nécessairement
pouvoir.
Les expériences que nous avons effectuées avec Michel Berry sur les élèves
à Paris ont permis de le démontrer.
de l'École polytechnique
Michel Berry avait conduit avec ses assistants un remarquable séminaire sur
la recherche opérationles méthodes d'aide à la décision et naturellement
nelle. Ce séminaire eut un très grand succès auprès des élèves. Il se termina
par des travaux pratiques effectués dans une série de grandes entreprises où
les élèves eurent à résoudre des problèmes de choix de décision importants.
concernés furent très favorablement
Les chefs d'entreprise
impressionnés.
Le séminaire était considéré alors comme un succès total reconnu par les
de l'École. Les enseignants
et l'administration
élèves, les chefs d'entreprise
pourtant restèrent insatisfaits, ils voulaient savoir à quoi ces travaux avaient
réellement servi. Quelles solutions trouvées par les élèves avaient été appliquées et comment ?
des difficultés mais furent effarés par les résultats. Sur une
Ils soupçonnaient
solutions
rationnelles trouvées par leurs élèves, aucune n'avait
de
vingtaine
été mise en oeuvre. Ils en choisirent quelques-unes
qu'ils étudièrent dans les
raisons
d'un
tel
les
rejet. C'était chaque fois le
entreprises pour comprendre
humains
du
du
de
système
rapports
groupe dirigeant qui avait fait
problème
obstacle à l'application
d'une mesure pourtant rationnelle.
Désireux de faire partager par leurs élèves cette découverte pour eux impressionnante, ils décidèrent l'année suivante de terminer le même séminaire par
l'exposé de leur analyse des difficultés de la mise en oeuvre des solutions
rationnelles. La réaction des élèves fut pour eux surprenante. Ceux-ci refusèrent en effet de croire à la réalité de l'échec ou tentèrent de l'interpréter en
accusant les patrons à qui on avait proposé des solutions aussi rationnelles
de manquer de courage ou de discernement.
C'est alors que pour une troisième année, l'équipe de Michel Berry imagina
un scénario capable de les convaincre. Ils choisirent un cas particulièrement
simple : le transport des voitures produites par une grande firme automobile,
Ces voitures étaient
des usines de fabrication jusque chez les concessionnaires.
insuffisant. La
et
le
nombre
de
devenait
wagons
transportées par wagons
filiale qui les possédait aurait dû en acheter d'autres et refusait de faire cet
investissement. L'analyse menée par les élèves en utilisant la théorie des files
Un nouveau
avait permis de trouver une solution optimale.
d'attente
des
livraisons
soumettant
usines
et
concessiond'échelonnement
programme
en matièrede décision
L'approchetransdisciplinaire
189
naires à un planning serré rendant possible d'assurer tous les transports sans
achat de wagons supplémentaires et en même temps, d'économiser
10 millions de francs. Pourquoi les dirigeants n'avaient-ils pas pu se mettre
d'accord pour mettre en oeuvre cette méthode si efficace ? Les responsabilités avaient été divisées entre responsables de telles façons que toute mise
en oeuvre heurtait si profondément un des protagonistes qu'il s'y opposait
violemment.
Les enseignants décidèrent alors de soumettre leurs élèves au jeu de l'application. Ils modélisèrent le problème autour des cinq rôles essentiels pour ce
problème et répartirent leurs élèves en quatre groupes de cinq chacun devant
jouer un rôle de dirigeant en respectant un cahier des charges très serré
correspondant aux responsabilités et aux contraintes des patrons qu'ils
représentaient.
Avec de telles contraintes, non seulement les élèves furent incapables de se
mettre d'accord pour trouver le moyen d'appliquer la solution rationnelle
sans y contrevenir mais on put leur montrer qu'ils reproduisaient exactement
les mêmes blocages que les dirigeants qu'ils avaient accusés d'incapacité.
L'équipe de sociologues associés à l'opération les convia alors à un bref
séminaire d'une demi-douzaine de séances pour leur donner une méthode
d'analyse leur permettant de comprendre une telle situation et de découvrir
la source des blocages qu'elle recelait quelles que soient les capacités des
protagonistes. Nous eûmes rarement un auditoire aussi attentif et nous
eûmes avec les responsables du séminaire d'aide à la décision la satisfaction
de constater que les élèves ainsi formés juste avant leur stage d'entreprise
furent capables d'effectuer à la fois une analyse de décision et une analyse
de système, c'est-à-dire de trouver une solution rationnelle qui n'était plus
la solution optimale mais qui devenait une solution applicable, étant donné
les contraintes du système humain concerné.
À LADÉCISION
5. DUSYSTÈME
De nombreuses expériences de formation en France et aux États-Unis
montrent l'intérêt d'une telle approche transdisciplinaire pour réussir à la
fois à maintenir une logique de la rationalité fondée sur l'existence d'un
optimum tout en tenant compte des contraintes du système humain qui devra
l'appliquer. On sait d'avance que l'optimum ne pourra être atteint et qu'à
s'acharner à vouloir l'atteindre, on risque un rejet complet. Mais calculer cet
optimum et le maintenir comme horizon ne reste pas moins indispensable
pour réaliser des progrès dans cette direction.
La vision systémique sans horizon est dangereuse car elle reste statique.
Mais si la recherche opérationnelle ou tout autre technique d'aide à la décision
190
DÉCISION
permet d'éclairer la direction à viser et contraindre à la respecter, elle va
pouvoir fonder une stratégie. Le problème ne sera plus comment appliquer
un modèle rationnel mais comment transformer un système humain pour
qu'il soit capable d'atteindre plus de rationalité dans la direction souhaitée.
L'intérêt de cette approche est clair et démontrable pour des problèmes de
l'ordre technique comme ceux évoqués à l'École polytechnique. Mais ils
peuvent avoir des applications beaucoup plus vastes car ils constituent une
voie de développement de type inductif pour le management. Il ne s'agira
plus de problèmes précis à résoudre mais de réformes. Au lieu que les
réformes soient fondées sur des théories à fondements en fait idéologiques :
par exemple la décentralisation, les centres de profit, la subsidiarité ou sur
les résultats d'un empirisme statistique peu vérifiable (du style, les entreprises qui réussissent ont telles caractéristiques), on va pouvoir les appuyer
sur les logiques beaucoup plus dures de l'analyse de la valeur ou du reengineering. Mais en même temps, la démarche restera inductive. On remontera
soit du fait au problème humain ou éventuellement, technique, soit à l'inverse du problème humain se manifestant par des conflits, aux problèmes
techniques qu'on va pouvoir résoudre.
Les Japonais ont très empiriquement développé des méthodes ressortissant
de cette démarche et c'est à leur école qu'on a effectué des progrès que l'on
peut maintenant formaliser.
Prenons un cas spectaculaire, la transformation radicale des processus de
réoutillage des grosses presses des usines Citroën.
Suite à un voyage d'études au Japon au début des années 80, un groupe d'ingénieurs et de dirigeants de PSA découvre que les Japonais mettent une
demi-heure à effectuer le réoutillage des grosses presses d'emboutissage
qu'eux-mêmes étaient très fiers d'effectuer en huit heures. Il s'agit d'un
problème non trivial car les immobilisations dans les encours de fabrication
coûtent des sommes énormes. Profondément choqués, ils décident de se
mettre à l'école des Japonais et engagent à prix d'or le meilleur ingénieur
japonais qui les conseillera pendant plusieurs années. À partir de ce fait technique, tout le management sera réorganisé. Le réoutillage sera confié aux
opérateurs de machine qui seront longuement formés à cet effet.
L'intervention des services de maintenance et des services techniques sera
supprimée. Mais pour y parvenir, toute la logique du management devra
changer et quantité de transformations auront dû être effectuées. On voit le
côté inductif du changement qui ne vient pas d'un modèle à la mode de la
meilleure formule de management et qui exige donc observations, interviews et remontée systémique.
La démarche peut se dérouler en sens inverse. C'est ce que nous avons
fait pour la réforme du département de la traction de la SNCF. Pour résoudre
les difficultés de commandement des conducteurs, on a finalement repensé
les fonctions de tous les échelons intermédiaires en supprimant les deux
plus puissants de ces échelons et en repensant complètement les rôles du
en matièrede décision
L'approchetransdisciplinaire
1911
management. Ce faisant, on a dû résoudre des problèmes techniques auxquels on était incapables de penser jusqu'alors.
Le développement de l'approche transdisciplinaire semble devoir offrir des
perspectives de plus en plus intéressantes, plus particulièrement avec le
succès du reengineering. Si l'on accepte cette nouvelle approche qui a joué
un rôle non négligeable dans la revanche du management américain sur les
Japonais, le problème de la coopération apparaît comme fondamental à
terme. La capacité à communiquer rapidement efficacement et la capacité à
coopérer sans blocage, commandent en effet le succès d'une approche
fondée sur les rapports horizontaux et non plus sur les empilements verticaux traditionnels. L'action la plus efficace du management va consister à
créer les conditions systémiques de ces meilleurs rapports de coopération.
Le modèle du manager ingénieur, meilleur calculateur certes, ne disparaît
pas mais il perd de son importance par rapport au manager systémiste
capable de prévoir à l'avance les blocages et paralysies que produit un
système mal agencé. La décision pourra certes encore consister à trancher et
à calculer les optima mais elle devra d'abord consister à créer les conditions
d'une coopération efficace.
Partie 2
PROSPECTIVE
Introduction
PROSPECTIVE
Réfléchir pour agir. C'est sans doute dans cette maxime qu'il faut chercher
l'intérêt de Jacques Lesourne pour cette indiscipline intellectuelle qu'est la
prospective et découvrir le sens de son implication dans le développement
d'une prospective stratégique, ainsi que le rappelle Michel Godet dans « La
raison tranquille ». Ici l'économiste se fait « stratégiste », pour reprendre la
distinction de Thierry de Montbrial.
Avec Jacques Lesoume cependant, la prospective rime aussi avec les
« systèmes du destin », fondements méthodologiques de la prospective de la
science et de la technologie que présente Rémi Barré. Ainsi, la prospective
est aussi l'objet de recherche évoqué par Hugues de Jouvenel et pour lequel
Christian Schmidt propose un programme d'investigation par la théorie des
jeux, soulignant là le pont entre les réflexions de Jacques Lesourne sur la
décision et la prospective.
Dans l'entreprise, la prospective stratégique prônée par Jacques Lesoume
devient le levier du changement que décrivent Claude Berlioz et Jacques
Biais pour la SNCF et Christian Stoffaës pour EDF. Quant à Assaad-Emile
Saab, il tire de son expérience avec Jacques Lesourne quelques enseignements sur le bon usage de la prospective dans les entreprises. Comme le
souligne Fabrice Roubelat, il apparaît alors que c'est par la constitution de
réseaux d'hommes et d'organisations que la prospective devient stratégique
et que la réflexion rejoint l'action.
Pour beaucoup enfin, l'oeuvre prospective de Jacques Lesourne est aussi
marquée par l'exercice Interfuturs, qu'il dirigea pour l'OCDE et que revisi-
196
PROSPECTIVE
tent dans leurs contributions, sous des angles différents, Michel Albert et
Wolfgang Michalski, montrant ainsi quelques vingt années plus tard la
richesse de cette prospective mondiale dont la prospective énergétique
discutée par Robert Dautray constitue une des dimensions. À partir
d'Interfuturs, c'est aussi à une réflexion plus générale sur le sort du prospectiviste que nous convie Jean-Jacques Salomon, qui présente celui-ci en
« Cassandre » des temps modernes, notamment quand il se penche sur la
grandeur et décadence du modèle français. Ce faisant il rejoint la problématique de Daniel Bell sur la dynamique du changement dans nos sociétés.
1.
2.
3.
4.
5.
6.
7.
MichelGodet
Thierryde Montbrial
RémiBarré
Huguesde Jouvenel
ChristianSchmidt
Claude Berliozet Jacques Biais
ChristianStoffaës
8. Assaad E. Saab
9. FabriceRoubelat
10. MichelAlbert
11. WolfgangMichalski
12. RobertDautray
13. Jean-Jacques Salomon
14. Daniel Bell
,,
Michel
Godet
LARAISON
TRANQUILLE
Mélanges, vous avez bien dit mélanges en l'honneur de Jacques Lesourne !
Cet exercice académique ne m'est guère familier et pourtant le mot me
convient car mon esprit est incapable de considérer séparément le penseur,
l'homme et l'ami. Voilà plus d'un quart de siècle que j'ai eu la chance de
rencontrer Jacques Lesourne et d'engager avec lui un dialogue récurrent sur
tous les grands problèmes de ce temps : l'énergie, la technologie, l'économie internationale, l'éducation, l'emploi, le développement local, la politique, la société, la démographie. Les maîtres mots de nos réunions en
tête-à-tête ont toujours été confiance, franchise, simplicité et j'ajouterais
pour ma part une bonne dose de naïveté et d'inconscience. J'ai toujours été
demandeur de ces moments privilégiés que JL n'a jamais refusé à MG selon
la terminologie héritée de la Sema. Très vite, j'ai compris la règle implicite
des trois temps. Un premier de courtoisie où le visiteur est libre du sujet :
c'est dans ce laps de temps qu'il faut absolument évoquer les points importants et non prévus à l'ordre du jour (une question générale ou personnelle) ;
JL ne s'est jamais laissé entraîner par mes tentatives de dérive : si à ses yeux
la question le mérite, il propose de fixer immédiatement un autre rendezvous. Ce qui est une manière élégante de reconnaître l'intérêt du sujet, tout
en revenant à l'essentiel du jour. Ainsi, commence le deuxième temps consacré, comme il se doit, à l'ordre du jour. L'extraordinaire mécanique intellectuelle de JL se met alors en marche pour sérier les problèmes et énumérer les
solutions qui s'imposent. Dans ces moments-là, je ne prends guère de notes,
il me remet les siennes et je compte sur ma mémoire pour ne pas trahir nos
(ses) conclusions. Tout est dit et il ne lui reste plus (c'est le troisième temps)
qu'à remercier le visiteur d'être venu en demandant l'addition s'il s'agit
d'un repas ou en cassant la conversation par un brutal : bon ! Je me suis plu-
198
PROSPECTIVE
sieurs fois révolté face à cette trilogie, en lui reprochant ce côté trop mécanique et prévisible des relations humaines. À chaque fois, il m'a gentiment
accordé une exception à sa règle comme pour s'en excuser et s'est laissé
aller à des échanges plus personnels sur ce qui est pour lui comme pour moi
l'essentiel : parler de soi et des siens ; mais ce plaisir trop rare est toujours
resté mesuré. J'exprime ici à la fois un regret et une reconnaissance du privilège vécu.
On comprend ainsi tout ce que je dois à Jacques Lesourne. J'aurais sans
doute existé en prospective sans lui, mais j'aurais certainement perdu beaucoup de temps à reconnaître l'essentiel du secondaire. J'ai pu tester sans
risque mes intuitions les plus audacieuses et il les a le plus souvent enrichies
de ses analyses éclairantes. Parfois aussi, il a reconnu que j'avais pu avoir
raison sur des débats antérieurs comme celui sur l'énergie nucléaire : il fallait certes s'équiper en centrales nucléaires, mais à un rythme plus prudent.
Seule la question de l'Europe et du vote oui ou non à Maastricht nous a divisés. C'est surtout la passion de son engagement pour le oui qui m'a surpris,
lui d'ordinaire si mesuré ! Quant à moi, j'ai voté « non » par réflexe antitechnocratique. En effet, j'ai horreur de me sentir manipulé et victime d'un
chantage du type : l'Europe ou le chaos. J'ai toujours été hostile à la pensée
unique et j'aurais préféré d'abord une monnaie commune. Le débat est clos,
d'autres choix se sont imposés et j'étais aussi content que le oui l'emporte,
car le succès du « non » aurait servi de bouc émissaire pour expliquer le chômage et la faible croissance de la première moitié des années quatre-vingtdix. Je reconnais aussi volontiers les vertus des contraintes économiques et
budgétaires de la convergence européenne.
Cette question de l'Europe mise à part, sur la quasi-totalité des sujets, la
convergence avec JL était la règle. À tel point qu'il m'est arrivé de me
demander si je ne tenais pas telle ou telle idée d'une conversation précédente
avec lui. Il y a aussi des sujets concernant l'économie, l'emploi ou la société
que j'ai, à certains moments, volontairement écartés de nos conversations,
par peur d'être influencé ou contredit. L'esquive était facile car, en tant que
demandeur de l'entretien, c'était aussi à moi de fixer l'ordre du jour.
Cependant, sur des grandes questions comme l'emploi, la convergence n'a
pas été immédiate, ma formation universitaire et mes origines sociales me
préparaient mal à accepter l'explication dite classique du chômage. J'ai mis
des années à admettre que le marché du travail n'était pas n'importe quel
marché mais qu'il fonctionnait aussi comme un marché. Or, sur un marché,
s'il y a un déséquilibre entre l'offre et la demande, c'est que l'on ne laisse
pas le système de prix jouer. En d'autres termes, le coût trop élevé avec les
charges du travail non qualifié est le principal obstacle à l'emploi de cette
catégorie de travailleurs. À l'inverse, les travailleurs dont la compétence
relative est rare sont forcément recrutés à des prix plus élevés. C'est à
Jacques Lesourne que je dois cette vision réaliste du marché du travail. En
me l'appropriant à la fin des années quatre-vingt, je suis devenu libéral, sans
La raison tranquille
199
m'en rendre compte immédiatement.
Au même moment j'ai
eu le sentiment
que Jacques Lesourne le devenait un peu moins, est-ce en partie en raison de
l'influence de ses enfants ? En tout cas, le deuxième septennat de Mitterrand
ne lui procurait plus les mêmes inquiétudes qu'en 1981 où il ne cachait pas
l'intérêt qu'il portait aux idées de Raymond Barre. Et je crois qu'aujourd'hui, lui comme moi nous ne nous retrouvons
plus dans le débat
On peut être libéral dans ses analyses et social dans ses comdroite/gauche.
peut réclamer plus de marché, d'initiative et de responsabiportements. On
lité là où l'État jacobin est sorti de son rôle et plus d'État et d'intervention
publique là où le marché est déficient, notamment pour toutes les questions
la santé, les infrastructures,
l'enqui concernent le long terme : l'éducation,
vironnement.
Je partage totalement le diagnostic et les propositions
du dernier essai de
Lesoume
sur
le
modèle
notamment
Jacques
français,
lorsqu'il avance que
c'est un modèle soviétique réussi. Il espère toujours convaincre les élites
qu'il faut changer de politique et cesser de se réfugier derrière l'exception
française. Il ne va cependant pas jusqu'à remettre en cause ces élites dans
leur mode de reproduction
par méritocratie interposée. Pourtant la nomenklatura intellectuelle
qui gouverne ce pays avec une suffisance aussi forte
dans les
que son ignorance des réalités a une lourde part de responsabilité
maux qu'il dénonce. C'est un point sur lequel, je n'ai guère cherché à
débattre avec lui. J'ai eu le sentiment, peut-être à tort, que le major de l'X
de la promotion 1948 devait être naturellement peu enclin à dénoncer le système des grands corps de l'État.
un tel plaisir à rencontrer
des
Quand on a, comme Jacques Lesoume,
brillants cerveaux, on ne peut imaginer que ce système finit par engendrer
des effets aussi pervers pour l'économie et la société que ceux de la mafia.
J'ai d'autant moins abordé ce sujet que je sentais bien que lui-même n'était
pas complice du système. Son appui constant à mon égard ainsi que la disponibilité dont il a toujours fait preuve pour les jeunes cerveaux de tous horizons qui se tournaient vers lui, montrent que les origines des gens ont
toujours été à ses yeux secondaires. Pour JL seules comptent les têtes bien
faites et bien pleines et éventuellement
des idées. Pour JL la
l'originalité
reconnaissance
la
Il
a
horreur
des
médiocres
suffisants, ce
suppose
qualité.
va
souvent
de
Et
certains
l'ont
à
leurs
il
qui
pair.
appris
dépens :
y a des personnes qu'il n'a jamais saluées, enfin qu'il ne reconnaît pas, au sens propre
comme au figuré. À l'inverse, il peut s'arrêter dans la rue pour parler avec
chaleur et plaisir à un ancien étudiant ou collaborateur.
J'ai eu souvent le
sentiment que Jacques Lesoume rêvait d'un monde qui serait gouverné par
les sociétés savantes. L'action ne l'intéresse que dans la mesure où elle est
commandée par la réflexion.
Si, pour Jacques Lesourne, c'est d'abord la qualité des hommes et des idées
qui comptent, notre système social fonctionne sur des critères où les origines
et les codes d'appartenance
J'ai depuis longjouent un rôle déterminant.
200
.
PROSPECTIVE
temps remarqué que j'étais quasiment le seul universitaire dans mon environnement professionnel, un peu comme un mouton noir au sein d'un troupeau de moutons blancs. Et je sais qu'à plusieurs reprises la présence de
Jacques Lesourne à mes côtés, son soutien sans faille m'a fait prendre pour
un mouton blanc. Une anecdote en témoignera simplement. Lors de ma campagne auprès des professeurs du Conservatoire, plusieurs d'entre eux m'ont
avoué avoir été surpris par mon CV : ils pensaient spontanément que j'étais
X puisque Jacques Lesourne me soutenait. Ce jour de juillet 1987 où je me
présentais pour être élu sur la chaire de prospective industrielle, je me souviens aussi qu'au fond de la salle, exactement en face de moi, il a mis sa tête
dans ses mains, comme pour mieux écouter et surtout ne pas se trahir ou me
troubler par un regard. Dans les premières minutes pourtant, sans lever la
tête, mais seulement une main, il m'a fait comprendre qu'il fallait parler plus
fort.
Un peu plus de dix ans après, la majorité de ceux à qui je m'adressais à
l'époque sont partis en retraite (c'est inévitable dans un établissement où
l'on ne rentre guère avant 40 ans et souvent après 50 ans), je me sentais déjà
orphelin depuis le départ de Raymond Saint-Paul et les mots ne sont pas
assez forts pour traduire le vide que je ressens depuis l'été 1998 avec le
départ de Jacques Lesourne. À l'avenir, j'essaierai d'éviter de rentrer dans
son ancien bureau, forcément occupé par un autre, et de faire comme s'il
était toujours là ! Heureusement, il reste président de l'association Futuribles
et nous allons continuer à animer ensemble pendant de longues années ce
séminaire de recherche en prospective qui se tient depuis plus de quinze ans,
le premier jeudi de chaque mois dans la salle des conseils du Conservatoire.
Il suit aussi des thèses dans le cadre de la formation doctorale en prospective et stratégie que nous avons créée ensemble. Dommage que le
Conservatoire n'ait pas songé à lui réserver les mêmes faveurs que Maurice
Allais à l'École des mines ! De toute façon, il a seulement besoin d'un bloc
de papier et d'un stylo pour faire avancer les idées et je sais qu'il le fera jusqu'à son dernier souffle. Cet avenir-là, comme les autres, n'est pas écrit mais
reste à faire. Parions qu'il nous réserve à nouveau mille et un sentiers de
complicités. Et comme il n'y a pas de bonne prospective sans rétrospective,
relatons pour la mémoire et le plaisir quelques croisements passés de nos
deux sentiers de vie.
'
Tout a commencé un beau jour de printemps 1970, encore étudiant en économétrie et introduit par Patrick Cohendet alors stagiaire, je rentre dans les
bureaux de la Sema, avenue Georges Pitard, dans l'antichambre du maître
de la conjoncture de l'époque : Christian Goux. Je ne savais pas encore qu'il
m'initierait à la prospective et que bien plus tard en 1976 je soutiendrais ma
thèse d'État ès sciences économiques (« Crise de la prévision, essor de la
prospective ») sous sa direction. Par ces curieux retournements de l'histoire,
il avait quitté la Sema depuis plusieurs années et j'étais devenu responsable
de Sema-Prospective. De ce premier contact en 1970, je garde le souvenir
inaltéré d'un bouillonnement de l'esprit, la Sema de cette époque avec sa
Laraisontranquille
201
j
(
Î
direction scientifique d'une centaine de personnes dirigée par Bernard Roy
et Patrice Berthier était vraiment le temple de la matière grise en France, son
rayonnement était comparable à celui de la Rand Corporation aux ÉtatsUnis. J'ignorais aussi que le grand prêtre de ce temple s'appelait Jacques
Lesourne (le major de l'X de la promotion 1948, l'année de ma naissance)
et qu'il venait de publier avec Robert Lattès (normalien) et Richard Armand
(major de l'X, promotion 1957) : Matière grise année zéro. Je me souviens
seulement qu'on m'avait narré l'histoire du fondateur de ce temple, vénéré
par ses semblables à tel point que certains élèves des promotions ultérieures
de l'X faisaient le mur pour assister à ses conférences sur l'économie dans
les années cinquante et soixante. L'histoire est vraisemblable, et en tout cas
l'association Ecole polytechnique et Sema était très forte. À tel point que
lors de ma première mission aux États-Unis en 1975, j'ai rencontré un
Français du FMI, dont le nom m'échappe aujourd'hui, qui s'est présenté à
moi en me disant bonjour, je suis X 1928 et vous quelle année ? J'ai décliné
mes origines purement universitaires et il m'a répliqué, tout surpris, mais
que se passe-t-il donc à la Sema ? La Sema était effectivement en crise
depuis le début des années soixante-dix, le marché des études et du conseil
s'était retourné. Il fallait, fait nouveau pour des ingénieurs qui y étaient mal
préparés, chercher les clients et le premier choc pétrolier était venu balayer
les illusions et les croyances dans les vertus du calcul et de la prévision économique. C'est dans ce contexte de crise que je suis entré à la Sema comme
jeune ingénieur conseil en 1974. J'avais eu la chance de développer de nouvelles méthodes de prospective et d'analyse de systèmes sur les questions
énergétiques au Commissariat à l'énergie atomique et je m'étais retrouvé
très vite à la tête d'un îlot de profit dans une entreprise en difficulté. C'est
sans doute la raison pour laquelle le père du calcul économique m'a remarqué dès cette époque. Je me souviens lui avoir posé la question des années
après et sa réponse fut implacable : « La plupart des lumières étaient
éteintes, il n'était donc pas difficile de repérer une bougie. » Le contact avec
Jacques Lesourne rend forcément modeste. C'est d'ailleurs la première et la
plus forte impression que je garde de cet homme : les grands sont toujours
simples et limpides. C'est en pensant à sa référence que depuis, je me garde
de tous ces faux savants immodestes et compliqués qui encombrent les colloques.
)
)
`
)
)
)
)
1
:
)
:
Jacques Lesourne a quitté la présidence de la Sema en 1975 pour rejoindre
le Conservatoire national des arts et métiers et prendre la direction du programme Interfuturs à l'OCDE. De mon côté, je prenais la tête du département prospective de la Sema où il exerçait toujours un rôle de conseil
scientifique. C'est de cette époque que j'ai pris l'excellente habitude de lui
soumettre mes idées et de tester auprès de lui mes intuitions. En 1977,
Jacques Lesourne préface la publication de ma thèse Crise de la prévision,
essor de la prospective aux PUF ; il parle du sujet, ne dit pas grand-chose de
l'auteur encore en herbe, mais le reconnaît et c'est déjà immense. Je
découvre alors la curieuse relation de rivalité filiale entre celui qui m'avait
202
PROSPECTIVE
initié à la prospective (Christian Goux) et celui qui m'avait reconnu dans ce
domaine. Les deux hommes ne pouvaient pas s'entendre et pourtant je les
admirais chacun pour leurs qualités complémentaires. D'un côté, l'enthousiasme et la passion jusqu'à l'excès avec Christian Goux et, de l'autre, la
retenue et la raison jusqu'à la réserve avec Jacques Lesoume. La relation
avec le premier, devenu président de la commission des finances de
l'Assemblée nationale, s'est achevée brutalement à l'automne 1981. J'étais
demandeur d'un conseil et d'un appui pour me reconvertir après la suppression brutale de l'institut Auguste Comte, il m'a reçu, m'a parlé de lui et a
conclu : ne comptez pas sur moi pour aider ceux qui n'ont pas la carte !
Quelle claque pour l'ancien gauchiste jamais encarté de mai 1968 ! Quel
contraste aussi avec le comportement de Jacques Lesourne qui a agi de tout
son poids et de son autorité auprès de ses collègues et notamment du professeur Saint-Paul pour me faire venir au Conservatoire en tant que professeur associé sur une chaire spécialement créée de prospective industrielle.
Ces deux hommes, à l'époque réputés au centre droit, n'ont jamais prêté la
moindre attention à mes éventuelles sensibilités politiques. Ils m'ont soutenu uniquement sur des critères scientifiques. Dans le choix de mes collaborateurs, je me suis depuis attaché à respecter les mêmes critères quitte à
me retrouver entouré d'opinions plurielles.
Dès lors, notre collaboration n'a cessé de grandir. Nous nous sommes retrouvés comme consultants auprès des grandes entreprises et des organismes
internationaux à des niveaux et avec des styles différents. Comme d'autres
je peux dire que lui, c'est lui et moi, c'est moi. Une génération nous sépare,
c'était assez pour évacuer ces questions de rivalité qui empoisonnent trop
souvent les relations entre ceux qui ont le même âge. Il y a peu de cas où
nous sommes intervenus ensemble. En revanche, il m'est arrivé, plusieurs
fois, de retrouver Jacques Lesoume comme conseiller du président de la
société où j'intervenais. Il ne se montrait jamais surpris et plutôt content de
me voir là.
Au passage relevons un des traits les plus marquants de son caractère et sans
doute aussi de son extraordinaire efficacité intellectuelle : le cloisonnement.
Jacques Lesourne est capable de passer d'un sujet à l'autre, en évacuant le
précédent pour se consacrer au suivant avec la même fraîcheur d'esprit.
C'est ainsi que des visiteurs réguliers thésards, consultants, clients ou amis,
ont pu se succéder dans son bureau sans jamais entendre parler les uns des
autres, ni même le savoir. En établissant par recoupements la liste des
auteurs de ce collectif, nombreux sont ceux qui ont découvert tel ou tel qu'ils
fréquentaient par ailleurs, en ignorant ce lien commun fort mais de fait
caché. Je sais qu'il n'y a pas chez Jacques Lesourne de volonté de secret,
mais d'abord le souci des idées plus que des relations et certainement une
discrétion naturelle. Il n'y a pourtant pas de sujet tabou chez cet homme dont
la pudeur a pu intimider nombre de ses visiteurs et être perçue comme de la
froideur. Il n'a jamais esquivé les questions, mêmes les plus personnelles ou
taboues, mais tout simplement il ne les aborde jamais le premier. La réserve
;
La raison tranquille
203
de Jacques Lesourne, m'a paru parfois excessive. Ainsi, lorsqu'il dirigeait le
de
journal Le Monde, j'ai exprimé le souhait de rencontrer un journaliste
renom dont j'appréciais
les éditoriaux. Il a réagi sèchement en me disant : ne
comptez pas sur moi pour cela. J'ai eu plus de chance en décrochant tout
simplement mon téléphone. Le refus des jeux d'influence et l'aversion pour
les manoeuvres caractérisent aussi Jacques Lesoume. En ce qui me concerne,
je le soupçonne de s'être parfois gardé de suggérer mon nom dans les entrecomme consultants.
Nos liens étaient
prises où nous nous retrouvions
connus, cela suffisait. Cette grandeur dans la réserve est trop rare pour ne pas
être relevée.
Autant Jacques Lesourne est réservé dans son comportement
et mesuré dans
ses propos, autant je suis par nature passionné dans mes engagements
et
tranchant dans mes propos. Je crois que Jacques Lesourne fait partie de ceux
qui apprécient un certain bon sens et un sens certain de la formule quitte à
la calmer par une nuance bien choisie. Sur les grandes questions comme la
crise du système éducatif, nous étions d'accord à 100 % sur le fond, mais,
ce qu'il disait entre les lignes et en bas de page, je le contrastais par un titre
accrocheur comme « La France malade du diplôme » : lui, c'est lui et moi,
c'est moi. Relevant un jour cette différence de tempérament entre nous deux,
ce qui ne nous a pas empêchés de diriger ensemble un ouvrage collectif (1), >,
il m'a répondu comme un compliment :
vous avez fait des pas dans mon
sens et moi j'en ai fait dans le vôtre. Il est vrai que le principe de Carnot suppose pour son efficacité la réunion de deux sources : l'une froide et l'autre
chaude. Avec les années, j'ai l'impression
de m'être assagi dans mes propos
alors que Jaques Lesourne est devenu de plus en plus espiègle. Il suffit d'être
à ses côtés durant certaines réunions pour ne pas s'y ennuyer tant ses traits
d'humour parfois cinglants réjouissent l'esprit.
;
;
Je me souviens aussi de Jacques Lesourne après sa démission du journal
Le Monde. Il était certes fatigué par l'épreuve d'un choix personnel difficile,
mais il n'y avait pas chez lui l'aigreur ou l'effondrement
que l'on retrouve
chez les grands chênes que l'on abat et qui ne s'en relèvent jamais. Il reprit
racine dans le plaisir de la pensée et de l'écriture et
presque immédiatement
tout simplement ses familiers ont pu le voir comme avant. Pendant trois ans
j'avais dû me contenter de quelques rendez-vous du samedi matin au Monde.
À son retour au Conservatoire,
nous reprîmes nos habitudes d'échanges plus
fréquents et je fus frappé par la force de l'esprit et la supériorité de ceux qui
ont une vie intérieure et intellectuelle,
par rapport à ceux qui n'ont pas
d'autre flamme que l'ambition et le pouvoir pour s'animer.
Je pense avoir dit le plus important sur l'homme et les traits marquants de
il reste à parler de ses idées. Je serai plus bref car il est
son comportement,
difficile de résumer les dizaines de milliers de pages produites par cet esprit
( 1 )La.fin des habitudes, Seghers, 1986.
204
PROSPECTIVE
Le champ couvert est immense : du calcul économique à la
encyclopédique.
sans oublier la philosogéopolitique, de la prospective à l'auto-organisation
phie, l'éducation, l'emploi, l'entreprise, le changement technique, la société.
Il faudrait sans doute tout lire pour capter l'essentiel car si Jacques Lesourne
écrit beaucoup, il se répète rarement. Il se comporte comme s'il s'adressait
aux mêmes lecteurs depuis son premier livre. C'est en un sens dommage car
les lecteurs changent ou oublient, et une certaine forme de répétition participe à la pédagogie. Au-delà des idées forces déjà évoquées sur le marché du
travail, je dois à Jacques Lesoume beaucoup de repères intellectuels
qui
m'ont permis d'avancer plus vite. Commençons
par le spirituel : la question
de l'existence de Dieu est un problème sans fin, quasiment insoluble, il est
donc inutile d'y réfléchir éternellement.
Il est plus judicieux de mettre sa
au service de problèmes qui ont des chances d'avoir
capacité intellectuelle
des solutions. Je dois aussi à Jacques Lesourne de m'avoir aidé à faire le lien
entre la prospective où le projet, commandé par le désir, est force productive
d'avenir et l'auto-organisation
où tout se passe comme si la finalité était le
face
aux bruits de l'environnement.
Il m'a perpremier principe organisateur
mis de mieux faire la part des choses entre hasard, nécessité et volonté, et de
reconnaître l'intérêt des travaux de Prigogyne sur les points de bifurcations
sources des ruptures de la prospective. A ce point de bifurcations certains
acteurs peuvent faire dévier les trajectoires et changer le cours de l'histoire.
Certaines actions « infimes dans leur dimension présente » peuvent se transformer en faits porteurs d'avenir, c'est-à-dire, selon Pierre Massé, « immenses
virtuelles ».
par leurs conséquences
Mais c'est sur le lien entre réflexion et action que Jacques Lesourne m'a le
plus influencé. En tant que conseiller des princes, il a pu non seulement
observer les dirigeants politiques et économiques du monde occidental, mais
il a eu aussi la tentation de s'observer lui-même en tant que décideur, comme
dirigeant de la Sema puis du journal Le Monde. Peu d'hommes de réflexion
ont eu cette chance de se retrouver dans la peau de l'homme d'action. Chez
Jacques Lesoume la réflexion n'a jamais paralysé l'action, mais elle n'a
jamais cessé même au coeur de l'action. Le souci de mettre la raison au service de l'efficacité l'a ainsi toujours emporté sur les impulsions spontanées
et forcément irréfléchies.
Je vois dans cette force de caractère beaucoup
l'homme
de réflexion mais aussi quelque inconvénient
d'avantages
pour
l'homme
d'action.
Il
ne
suffit pas d'avoir la bonne décision en tête pour
pour
dans
les
faits.
L'homme de réflexion ne peut se contenter
qu'elle s'impose
d'éclairer les dirigeants, il doit aussi les convaincre que les meilleures idées
ne sont pas celles que l'on a, ni même celles que l'on donne, mais celles que
l'on suscite : l'appropriation
est indispensable pour passer de l'anticipation
à l'action. Le capitaine éclairé est aussi celui qui sait parler aux troupes et
provoquer l'adhésion et l'enthousiasme
pour des actions partagées. Un problème bien posé et collectivement
partagé par ceux qui sont concernés est
résolu.
Il
faut
savoir
marier
raison et passion pour réussir dans
déjà presque
l'action. Tout cela Jacques Lesourne le sait mieux que quiconque, ne serait-
La raison tranquille
205
ce que parce qu'il a continué à s'observer
lui-même dans l'action. Cette
extraordinaire
maîtrise de soi a sans doute conduit à un déficit de passion
dans l'action, mais elle a fourni aux sciences de l'action un précieux matériau. On retrouvera l'essentiel de cet apport dans le chapitre qu'il consacre à
« un art difficile pour l'entreprise :
réfléchir pour agir » (1). Mieux que des
laissons
paraphrases
parler Jacques Lesourne. Il rappelle que généralement
« l'homme est seul face à l'action et à la décision ». Il ne se fait pas non plus
« Les comportements
d'illusion :
la réflexion et
intégrant rationnellement
l'action ne sont adoptés que par certains dirigeants en certaines circonstances et à certaines étapes de leur vie. » Et même dans ces circonstances-là
« le processus de réflexion est-il rarement authentique, conscient et rationnel ». L'homme de raison n'ignore rien du rôle déterminant de l'inconscient
et ce n'est pas par hasard si la compagne de sa vie est psychanalyste.
Rien
de surprenant donc dans les propos suivants : « la décision résulte moins
d'une conviction rationnelle que de mobiles inconscients,
que seule l'histoire psychanalytique
du sujet permettrait de détecter : le besoin de puissance, la recherche de sécurité, la foi en un destin... » Le constat est plein
de réalisme : « aussi, la plupart du temps, les dirigeants qui réussissent commettent-ils de nombreuses erreurs et violent-ils les canons de la rationalité »
Jacques Lesourne se bat de toutes ses forces pour que la réflexion éclaire
l'action, tout en connaissant les limites de la raison. Ces dirigeants imparfaits car faits de chair et d'esprits comme tous les humains s'en sortent par
leur génie personnel, par la relativité des choses (« il y a plusieurs solutions
acceptables pour un même problème »),
par le temps qui dans un environles erreurs » ou qui permet
nement en croissance « corrige automatiquement
« à des adversaires plus médiocres » de faire davantage d'erreurs.
.
.
On l'a compris, pour Jacques Lesourne, la réflexion doit toujours précéder
l'action et il faut beaucoup d'études en amont d'une décision pour bien préparer celle-ci. Une grande partie sera finalement inutilisée, mais c'est le seul
moyen d'espérer que la partie utile sera disponible. Il n'y pas de création
sans transpiration,
le génie se cultive et ne s'épanouit vraiment qu'en étant
de
connaissance.
Pour Jacques Lesourne : « Il n'y a de tête bien
imprégné
faite que raisonnablement
pleine. » Il faut « faire coexister travail et partici«
»
sans
oublier
» et le temps long, c'est-à-dire
la
pation
l'imagination
mémoire du passé car « la vision du long terme est souvent trop influencée
par les vicissitudes du court terme ». Il y aussi de belles formules glanées à
l'oral et que je cite sans référence écrite. Ainsi, en 1980 devant les auditeurs
de l'institut Auguste Comte pour les sciences de l'action, il déclara : « Les
grandes décisions ne se prennent pas, elles deviennent de moins en moins
improbables. » Il y a ainsi une succession de petites décisions et de non-décisions que l'on prend sans réaliser leur accumulation et leur portée future. Il
serait certainement
plus judicieux de s'en rendre compte par des réflexions
de prospective
aussi rigoureuses
stratégique
que possible. Et pour cela,
(1) In La prospective stratégique d'entrepri.se, InterÉditions, 1996.
206
PROSPECTIVE
Jacques Lesoume sait qu'il y a des méthodes certes perfectibles mais tourassembler les données, interroger le passé et formuler
jours stimulantes :
écrit
ses
par
hypothèses et conjectures.
En effet, face à l'incertitude
et à la complexité des problèmes, les hommes
ne sont pas désarmés. Ils ont façonné hier des outils qui sont toujours utiles
Les outils de recherche opérationnelle,
aujourd'hui.
d'analyse systémique et
de prospective sont précieux pour stimuler l'imagination,
réduire les incohérences, créer un langage commun, structurer la réflexion collective et permettre l'appropriation.
Sans Jacques Lesourne la diffusion de ces outils dans
les grandes entreprises
comme EDF, la SNCF, Schneider
et quelques
autres..., serait restée confidentielle.
La prospective est un art, une indiscipline intellectuelle. Pour cet art, il faut
d'abord l'imagination
du poète et, en plus de la connaissance,
du bon sens
et une bonne dose de non-conformisme.
Si la prospective est une indiscipline intellectuelle, elle a aussi besoin de rigueur et de méthodes pour éclairer l'action des hommes et l'orienter vers un futur désiré. Si la passion sans
la raison est aveugle, la raison sans la passion est stérile, et je dois certainement à Jacques Lesoume de m'avoir appris à féconder la passion par la raison afin de mieux servir l'action.
Thierry
de Montbrial
LESTRATÉGISTE
ETL'ÉCONOMISTE
;
Î
j
)
'
)
)
j
[
[
)
)
Toute sa vie professionnelle, Jacques Lesoume s'est voulu chercheur et
homme d'action, penseur et acteur. Il est naturel, dans un ouvrage de
Mélanges publié en son honneur, de consacrer un article à la notion de stratégie. Pendant des siècles, sinon des millénaires, la pensée de l'action s'est
structurée dans le cadre de la guerre. Les stratégistes (je distingue ici les stratégistes et les stratèges : les premiers sont les théoriciens et les seconds les
étaient des militaires et des diplomates. Leurs
praticiens de la stratégie
réflexions se nourrissaient de l'étude des champs de bataille. Ce n'est que
très récemment que l'activité économique a commencé à être pensée en
termes stratégiques. Les fondateurs de la théorie économique moderne,
comme Adam Smith ou David Ricardo, s'intéressaient surtout au résultat
global de l'interaction entre une multitude d'agents supposés totalement
informés sur leur environnement et individuellement négligeables, ce qui a
engendré le paradigme de la concurrence pure et parfaite, radicalement
incompatible avec toute notion un peu riche de stratégie. Marx fut probablement le premier auteur à penser l'économie stratégiquement, en introduisant la notion de rapport de forces. Mais son programme était davantage
idéologique qu'intellectuel. Son accent trop exclusif sur le concept de la
lutte des classes limitait étroitement son champ analytique. Au xixl siècle
également, les auteurs comme Cournot qui s'intéressaient aux situations de
ce qu'on appelle aujourd'hui la concurrence imparfaite demeurèrent margi-
,
(1) VoirL. Poirier,Le chantierstratégique,Paris,HachetteLittératures,coll. Pluriel, 1997.
208
PROSPECTIVE
naux. Ils n'eurent guère d'influence immédiate, ni sur le développement
de
la pensée, ni sur les acteurs de la vie économique. Pour la question qui nous
occupe ici, la première moitié du xxe siècle est dominée par la figure de
Joseph Schumpeter (1883-1950). Dès son premier livre, Theory of Economic
Development,
rédigé à l'âge de 28 ans, ce grand esprit introduisit la figure
essentiellement
de l'entrepreneur,
acteur central du système
stratégique
capitaliste. L'entrepreneur
occupe également une place éminente dans les
deux volumes de Business Cycles (1939), où Schumpeter
interprète les
En substance,
cycles longs de Kondratieff en terme de vagues d'innovations.
il décrit ainsi les qualités de l'entrepreneur :
une vision d'un projet possible ;
un goût du risque suffisant pour l'entreprendre ; un pouvoir de conviction
(on pourrait ajouter dans certains cas : ou de coercition) pour rassembler les
ressources nécessaires à sa réalisation. Une telle description, originellement,
ne pouvait convenir qu'à des individus exceptionnels.
À notre époque, elle
au sein desquelles une culture
peut être pertinente pour des organisations
adéquate a pu s'épanouir, généralement sous l'impulsion initiale d'un leader
talentueux. Elle est infiniment éloignée de l'image de cette sorte d'automate
qu'est le « producteur » dans la théorie de la concurrence pure et parfaite, et
même dans la théorie du monopole à la Cournot - ainsi d'ailleurs que de la
caricature du capitaliste rapace, campée par Marx. L'entrepreneur
schumpétérien est un véritable stratège, dans le sens que la tradition militaire donne
à ce terme.
les travaux de Schumpeter sur la dynamique du capitaMalheureusement,
lisme furent éclipsés par ceux de Keynes, inspirés par un paradigme radicalement différent (particulièrement
dans la General Theory of Employment,
Interest and Money, 1936), et plus proche des préoccupations
politiques à
de
la
Grande
En
1942, Schumpeter publia son bestl'époque
Dépression.
seller et, selon certains, son chef-d'oeuvre :
Socialism and
Capitalism,
Mais
la
centrale
de
cet
est
Democracy.
perspective
ouvrage remarquable
différente (il s'agit de la survie du capitalisme),
même si le chapitre VII
en particulier, reprend certains
(« The Process of Creative Destruction »),
clés
de
ses
antérieures.
points
analyses
Après la seconde guerre mondiale, la
théorie économique évolua dans deux directions principales : l'approfondissement des idées keynésiennes et la reconstruction
du modèle de l'équilibre
et de l'optimum formulé initialement par Walras et Pareto. Des travaux qui
influencèrent
cette reconstruction,
nul n'a eu plus de poids que le livre
d'Oskar
et
John
Von
Neumann,
Morgenstern
Theory of Games and
Economic Behaviour, publié en 1944. Les problèmes auxquels s'intéresse la
théorie des jeux sont, par essence, stratégiques. Mais les hypothèses de base
de cette construction imposante, dans sa formulation originelle, restent fort
éloignées des faits - même « stylisés » - qui intéressent la stratégie militaire,
ou la stratégie d'entreprise au sens schumpétérien.
De fait, jusqu'aux années
les
courants
dominants
de
la
recherche économique ont ignoré
soixante-dix,
la pensée stratégique. Un auteur comme François Perroux
pour l'essentiel
est resté isolé. À l'inverse
la pensée stratégique
militaire a
cependant,
Le stratégiste et l'économiste
209
issus de la théorie des jeux, surtout
intégré certains modes de raisonnement
dans le domaine des armes nucléaires (voir, par exemple, l'oeuvre de l'économiste mathématicien
T.C. Schelling).
La suite de cet article est organisée de la façon suivante. Dans une première
les éléments fondamentaux
de la pensée
partie, je présente succinctement
issue
de
la
tradition
en
de
les
formuler de
militaire,
stratégique
essayant
à
en
tirer
des
utiles
dans
des
domaines
autres
façon
pouvoir
enseignements
l'art
la
Dans
tente
de
de
une
deuxième
que
guerre.
partie, je
dégager les
caractères essentiels de la découverte stratégique, telle qu'elle se manifeste
dans les développements
de la science économique
des trois dernières
décennies.
Dans son Introduction
de concision et de
à la Stratégie(') chef-d'oeuvre
clarté dont la première édition date de 1963, le général André Beaufre
explique que « notre civilisation a besoin d'une praxéologie, d'une science
de l'action. Dans cette science, la stratégie peut et doit jouer un rôle capital
pour conférer un caractère conscient et calculé aux décisions par lesquelles
on veut faire prévaloir une politique ». En fait - j'y reviendrai plus loin politique et stratégie sont inséparables, et Beaufre a tort de situer la politique
sur un plan différent et au-dessus de la stratégie, comme si la stratégie n'était
l'effet
Peut-être faut-il voir dans cette dichotomie
qu'un art d'exécution.
d'une tradition où l'armée était encore la « grande muette ». Beaufre utilise
donc le terme de praxéologie forgé, à ma connaissance,
par le philosophe
A. Espinas en 1897, repris en 1937 par le philosophe polonais Kotarbinski,
L. Von Mises dans son ouvrage Human Action publié
puis par l'économiste
en 1949, enfin par R. Aron dans Paix et Guerre entre les Nations ( l
n'est concevable que pluridisciplinaire.
Je
édition, 1962). La praxéologie
renvoie à l'un des grands livres de Jacques Lesourne, Les systèmes du destin
(1976), pour une illustration profonde de la nécessaire pluridisciplinarité
dans les sciences de l'action.
¡
:
¡
i
i
:
!
4
i
Il n'en reste pas moins que la stratégie joue le rôle central dans la praxéodes
logie. Beaufre définit la stratégie comme « l'art de la dialectique
volontés employant
la force pour résoudre leur conflit ». Son but est
d'« atteindre la décision en créant et en exploitant une situation entraînant
suffisante pour lui faire accepter
une désintégration
morale de l'adversaire
les conditions qu'on veut lui imposer ». Dans ces formules, Beaufre pense
à la guerre, mais leur domaine de validité est beaucoup plus
évidemment
large, à condition d'abord de donner au mot force le sens général de
ressources.
Toute unité active (État, entreprise, etc. - la locution a été
introduite par François Perroux
se caractérise en effet, du point de vue
( 1 )A. Beaufre, Introduction à la stratégie, Paris, Hachette, 1998.
(2) F. Perroux, Unités actives et mathématiques nouvelles, Paris, Dunod, 1 975. _
210
0
PROSPECTIVE
interne, par des ressources que l'on peut toujours répartir en trois grandes
catégories : humaines, morales et matérielles. La première correspond aux
au sens le plus large du terme - du
caractéristiques démographiques groupe constitutif de l'unité en question ; la seconde traduit le ciment
culturel et idéologique du groupe et donc son degré de cohésion ; la troisième se rattache à la terre (portion de volume terrestre et non pas de
surface, à cause du sous-sol et de l'espace) et aux forces productives. En
fait, ces trois catégories se recouvrent en partie, à la manière des trois catégories de « facteurs de production » distinguées par l'économie politique
classique et néoclassique (la terre, le travail et le capital). Comme celles-ci,
elles peuvent être plus ou moins substituables les unes aux autres.
Pour illustrer la maniabilité de cette classification que l'on pourra comparer
à celles d'auteurs comme Morgenthau ou Aron dans le cas particulier des
relations internationales, on prendra d'abord l'exemple de la ressource
« terre » pour un État, laquelle doit être comprise, au-delà de sa signification
économique et humaine habituelle, comme l'espace ou l'étendue (der Raum
dans la géographie politique de Ratzel). Selon la position de l'État (die Lage
chez Ratzel, notion à la fois géographique et historique) une vaste étendue
peut être un avantage (la Russie face à Napoléon ou à Hitler) ou un inconvénient (la Russie contemporaine face à la pression démographique
chinoise). Même type de raisonnement pour les petites étendues. Deuxième
exemple : les ressources morales sont à la base du sentiment national, et l'on
sait depuis longtemps qu'elles sont primordiales en matière de défense.
Lénine, s'inspirant de Clausewitz, fixait le but de la stratégie dans une
formule dont celle de Beaufre citée plus haut est une variante : « Retarder les
opérations jusqu'à ce que la désintégration morale de l'ennemi rende à la
fois possible et facile de porter le coup décisif. » Dans une unité active
comme une entreprise (au sens économique), on reconnaît aujourd'hui l'importance de la ressource morale, aussi bien pour la productivité que pour
l'exécution des stratégies.
L'art de la stratégie consiste souvent à identifier le « point décisif » permettant d'atteindre le résultat. Dans les relations internationales ou dans les
situations de maintien ou de rétablissement de l'ordre à l'intérieur d'un État,
la stratégie implique le recours à la force au sens usuel (militaire, policière)
et donc à la violence, ou tout au moins à l'éventualité du recours à la force,
laquelle est donc nécessaire. Dans les stratégies des agents économiques
privés, le recours à la violence est en principe légalement exclu puisque
l'État, selon la formule bien connue de Max Weber, dispose sur son territoire
du monopole de la « contrainte légitime ». Notons que, d'une manière générale, l'objectif du stratège est d'imposer une volonté, et non pas de gagner
des « batailles », lesquelles ne constituent en fait que des moyens plus ou
moins nécessaires. C'est bien aussi le sens des préceptes de Sun Zu (l'idéal
est que votre adversaire se plie à votre volonté sans que vous ayez à utiliser
effectivement la force) et - quoiqu'on en dise - cette idée se trouve également dans Clausewitz et chez beaucoup de grands penseurs militaires. La
Le stratégiste et l'économiste
guerre réelle ne saurait être une fin en soi et la gloire des faits d'armes
constitue jamais l'objectif ultime d'une stratégie.
2111
ne
Dans la définition de Beaufre, l'idée centrale est celle de désintégration
Elle n'est pas originale. On la trouve notamment,
morale de l'adversaire.
comme on l'a vu, chez Clausewitz et chez Lénine. Mais Beaufre lui donne
tout son relief en la plaçant au coeur de sa définition de la stratégie. Pour
gagner, il faut certainement préserver, tout au long de l'épreuve de volonté,
le lien moral qui fonde l'identité de sa propre organisation. Est-il cependant
toujours nécessaire d'obtenir la rupture ou la dissolution du lien moral qui
adverse ? Pareille exigence théorique me
fonde l'identité de l'organisation
comme
condition générale. On le voit par
en
tout
cas
excessive,
paraît
Pour gagner, il faut et il suffit que l'adexemple en stratégie d'entreprise.
versaire soit paralysé, ou encore mat, comme on dit aux échecs, c'est-à-dire
ne lui
contraintes
d'utilisation)
(quantités,
que l'état de ses ressources
tout dépend des
permette plus de refuser la loi de l'autre. Concrètement,
de tous ses
objectifs. Une entreprise a rarement intérêt à la destruction
de l'adverconcurrents. Dans le cas extrême où le but est l'anéantissement
saire (cf. « la guerre selon son concept » chez Clausewitz) il est effectivement nécessaire de briser son unité et donc le lien moral qui la conditionne.
les formules de Beaufre. On
Tout ceci me conduit à proposer d'amender
des volontés
définira donc la stratégie comme « l'art de la dialectique
but est
conflit
».
Son
résoudre
leur
des
ressources
pour
employant
des
sur l'exploitation
d'« atteindre la décision en créant des contraintes
suffisantes pour lui faire accepter les conditions
ressources de l'adversaire
qu'on veut lui imposer ». Ces contraintes peuvent porter sur les ressources
ou sur leurs modes de mobilisation.
elles-mêmes,
j
)
/
]
)
1
/
[
)
[
On pourrait, dans le même sens, modifier d'autres définitions de la stratégie
comme celle de Basil Liddell Hart : « The art of distributing and applying
military means to fulfill ends of policy » ou encore celle de T.C. Schelling :
« Strategy [...] is not concemed with the efficient application of force but
with the exploitation of potential force. » On rapprochera d'autre part toutes
straamendées de la définition suivante
ces formules éventuellement
ou
collective
d'une
organisation
tégie est l'art, pour la direction individuelle
ou
simple ou complexe, de préparer et de mettre en oeuvre, réellement
ou
réduire
les
nécessaires
les moyens
virtuellement,
pour surmonter
obstacles de toute nature (physiques, heurts de volontés) qui s'opposent à la
correcteréalisation d'un objectif atteignable et, ce faisant, d'anticiper
le
l'évolution
dans
continu,
ment, selon un processus d'ajustement
temps du
cette
de
voir, les
façon
rapport des forces physiques et morales en jeu. Selon
être
conçus
d'optimisation,
par exemple, peuvent
problèmes mathématiques
comme des cas particuliers de la démarche stratégique.
j
1
(1) T. de Montbrial, Que Faire ? Paris, La Manufacture, 1990, p. 378 et suivantes.
2122
PROSPECTIVE
Dans son Introduction, Beaufre présente cinq « modèles » stratégiques particulièrement
dans le champ diplomatico-militaire :
(1) la
caractéristiques
menace directe ; (2) la pression indirecte ; (3) la succession d'actions limitées combinant
menace directe et pression indirecte ;
(4) la lutte totale
prolongée de faible intensité militaire ; (5) le conflit violent visant la victoire
militaire. Par exemple, Mao Ze-Dong résumait sa stratégie de conquête du
pouvoir, apparentée au quatrième modèle, en six formules : repli devant
l'avance
ennemie par « retraites
centripètes », avance devant le retrait
ennemi, stratégie à un contre cinq, tactique à cinq contre un, ravitaillement
sur l'ennemi, cohésion intime entre l'armée et les populations.
Il convient d'expliciter,
au passage,
la distinction
fondamentale
entre
et
Celle-ci
n'est
Au
début
tactique
stratégie.
apparue que progressivement.
de son célèbre Essai général de tactique, publié en 1803, le Comte de
Guibert du « principe divisionnaire » et
que l'on crédite de l'invention
à
ce
aurait
influencé
titre,
qui,
Napoléon décompose la « tactique » en
deux parties : « L'une élémentaire et bornée, l'autre composée et sublime.
La première [la « tactique élémentaire »],
renferme tous les détails de formaet d'exercice,
d'un bataillon, d'un escadron, d'un régition, d'instruction
ment [...]. La seconde partie [la « grande tactique »] est à proprement parler,
la science des généraux. Elle embrasse toutes les grandes parties de la
ordres de marche,
ordres de
d'armées,
guerre, comme mouvements
batailles ; elle tient par là et s'identifie à la science du choix des positions et
de la connaissance du pays [...] elle tient à la science des fortifications
[...].
Elle est tout, en un mot, puisqu'elle
est l'art de faire agir les troupes, et
toutes les autres parties ne sont que des choses secondaires qui, sans elle,
n'auraient point d'objet, ou ne produiraient que de l'embarras. » En fait, la
grande tactique de Guibert n'est pas encore la stratégie. Elle correspond
la « stratégie opérationnelle
plutôt à ce qu'on appelle aujourd'hui
» qui « se
situe [à] la charnière entre la conception et l'exécution,
entre ce que l'on
veut ou doit faire et ce que les conditions techniques rendent possibles »
(Beaufre), ou à « l'art opératif » de la pensée militaire allemande et russe. La
binaire de Guibert peut naturellement
être raffinée pour
décomposition
former ce que l'on pourrait appeler un « spectre de l'action », à une extrémité duquel se situent la technique et la tactique, et à l'autre la stratégie et la
politique. Des auteurs comme le général suisse Jomini (dans son Précis de
l'art de la guerre, dont l'édition définitive date de 1855) et, de nos jours,
l'Américain
E. Luttwak, ont proposé des classifications
de ce genre. Plus
au début du livre II de vom Kriege, Clausewitz
définit la
sobrement,
«
comme
la
théorie
relative
à
des
forces
armées
dans
l'entactique
l'usage
»
«
et
la
comme
la
théorie
relative
à
des
gagement
stratégie
l'usage
engagements au service de la guerre ». Beaufre, pour sa part, note tout simplement
que « le choix des tactiques, c'est la stratégie ».
La distinction entre tactique et stratégie étant ainsi clarifiée, revenons aux
modèles de Beaufre, qui couvrent en effet une large gamme de situations
familières. À juste titre, l'auteur prend cependant soin de préciser que les
Le stratégiste et l'économiste
2133
et pour lesquelles je renvoie à son livre « constituent
règles correspondantes
l'idée
de
solutions particulières
plutôt
générale
que des lois générales ».
L'examen des phases successives de la stratégie militaire classique, depuis
montre comment les stratégies
l'Antiquité jusqu'à l'époque contemporaine,
concrètes sont liées aux caractéristiques
d'ensemble
d'une époque, de sorte
est
vain
de
les
à
une
autre.
On
qu'il
transposer
comprend ainsi que
prétendre
le génie de Napoléon consista avant tout à tirer le meilleur parti des possibilités techniques
de son temps, contre des adversaires
intellectuellement
l'a magistralement
démontré
fossilisés. Mais, comme Joseph Schumpeter
dans le domaine de l'économie
avec sa théorie des monopoles temporaires,
les meilleures idées finissent toujours par se diffuser, se banaliser. C'est ainsi
que, l'adversaire
ayant enfin compris les nouvelles
règles du jeu, la
manoeuvre napoléonienne
est devenue de plus en plus laborieuse, jusqu'au
des troupes françaises a entraîné la défaite. Ceux qui,
jour où l'infériorité
ont
commis l'erreur philosophique
de prétendre enfermer
après l'Empereur,
son secret dans des formes universelles et donc atemporelles se sont lourdedonne aussi des
ment trompés. L'analyse
des deux guerres mondiales
de
malheurs
résultant
d'erreurs
liées
à l'anachroexemples
conceptuelles
nisme.
'
On en vient ainsi à cette idée que l'essence de la stratégie tient dans un petit
nombre de principes très abstraits, mais éprouvés dans le réel, et inévitablement d'application
difficile au cas par cas. Le physicien Roger Balian
observe dans l'introduction
de son cours de Physique statistique à l'École
polytechnique,
que « plus la synthèse est vaste, et plus les principes sont
généraux, plus la déduction devient difficile ». Ainsi en va-t-il par exemple
pour la bonne utilisation par un ingénieur des deux premiers principes de la
En stratégie, les deux principes d'économie des forces et
thermodynamique.
de liberté d'action identifiés par Foch sont peut-être les plus universels que
l'on puisse formuler. Un bon stratège doit « atteindre le point décisif grâce
à la liberté d'action obtenue par une bonne économie des forces » (Beaufre).
Cela suppose généralement
une manoeuvre,
laquelle se déroule sur un
ou abstrait (par exemple, un
terrain
concret (un espace géographique),
on dira qu'un individu
à un groupe
champ relationnel :
appartenant
décommanoeuvre plus ou moins bien au sein de ce groupe), éventuellement
reliés à une base par des lignes
posable en plusieurs théâtres d'opération
de communication.
Une bonne stratégie suppose également une ligne de
retraite pour préserver la cohésion des forces (lien moral) en cas d'adversité. La manoeuvre consiste en des opérations en quelque sorte cinématiques
telles que « tourner, contourner,
envelopper » (termes
équivalents
qui se
une position, c'est
rattachent à l'idée de surprise) ou « déborder » (déborder
l'éviter), opérations d'autant plus aisées que l'on est davantage « mobile »
etc. Conserver
sa liberté d'action,
c'est conduire sa propre manoeuvre
ce
soit
tout
en empêchant la manoeuvre adverse
atteint,
jusqu'à
que l'objectif
de réussir. Garder l'initiative
en est le ressort principal. L'économie
des
efficace (au sens économique
du terme), réel ou
forces, c'est l'emploi
214
PROSPECTIVE
virtuel, de tous les moyens disponibles, y compris des réserves, un point sur
lequel Clausewitz insistait fortement. Les réserves sont en effet tout autre
dans un
chose que des ressources mortes, comme les objets abandonnés
dont
sont
des
ressources
oublie
l'existence.
Ce
et
dont
le
propriétaire
placard
à l'occurrence
de certains événements pré-idenconditionnelle
l'utilisation
tifiés comme possibles doit être pensée en fonction de la probabilité estimée
(probabilité subjective en général) de ces derniers.
la question de la découverte stratégique par la théorie éconodans la sphère diplomatico-militaire,
mique, je partirai d'une constatation :
la pensée de la « paix et guerre entre les nations » et la pensée de la stratégie
Le stratège participe à la définition des objectifs de
sont indissociables.
l'autorité polil'unité active dans laquelle il s'incarne, et réciproquement
Sur le plan
manière
de
les
atteindre.
se
désintéresser
de
la
ne
saurait
tique
il peut être licite de séparer les
intellectuel et en première approximation,
difficultés. En fonction des questions que l'on se pose, il peut donc être
les objectifs comme des
commode de penser la stratégie en considérant
données exogènes, ou même de penser la politique comme un processus de
production d'objectifs, l'exécution n'étant qu'une tâche subordonnée, voire
Les limites de pareille dichotomie
subalterne.
cependant
apparaissent
aussitôt. Par exemple, les armements et les tactiques sont logiquement déterminés en fonction de la stratégie, alors qu'en pratique on observe souvent,
une causalité inverse : d'une part, en raison des
au moins partiellement,
ou humain qui pèsent sur les premiers ; -,
d'ordre
contraintes
technique
de groupes de pression et du pouvoir
cause
de
d'autre part à
l'émergence
se
l'action diplomatico-stratégique
exercent.
Plus
profondément,
qu'ils
constamment.
fins
et
les
la
où
les
durée,
moyens interagissent
déploie dans
on peut dire qu'il n'y
En reprenant l'image de l'entrepreneur
schumpétérien,
des moyens permeta pas de vision d'un projet possible sans appréhension
instrument
de pouvoir sans
ni
maîtrise
d'un
de
le
réaliser
dans
le
tant
temps,
l'ensemble
du
il
servir.
Et
si
l'on
considère
ce
à
peut
conception de
quoi
« spectre de l'action », l'art d'un chef n'est pas seulement d'en contrôler
un segment, mais d'avoir suffisamment d'intuition et de jugeparfaitement
éclairer
la partie du spectre située au-dessus de la sienne, et d'exment pour
dominer
celle qui se trouve en dessous. Dans l'armée, on ne
périence pour
au
tour
extérieur. Pour les mêmes raisons, dans les entredevient pas général
«
»
sont de moins en moins tolérés. En temps de
les
prises,
parachutages
face
à
des
hommes
politiques médiocres ou peu avertis des choses
guerre,
dans les condimilitaires et donc incapables d'exercer leurs responsabilités
il
arrive
souvent
tions du moment,
qu'un grand général occupe tout naturelsommet du spectre de l'action. Ce genre
créneau
laissé
vacant
au
lement un
à
tous
les niveaux.
de substitution peut se produire
Pour introduire
auteur comme
On comprend donc, avec ce qui précède, que lorsqu'un
Clausewitz s'intéresse à la stratégie, il le fait à partir d'une réflexion fonda-
Le stratégiste et l'économiste
2155
mentale sur les raisons pour lesquelles le problème de la stratégie se pose en l'occurrence
les conflits interétatiques
susceptibles de déboucher sur la
guerre - puis sur le phénomène de la guerre lui-même. Ce faisant, il dégage
les quelques principes généraux de l'action, mais surtout, il les illustre à
travers l'étude de situations particulières qui sont autant de « modèles » ou,
dans le vocabulaire des Business Schools, de « cas ».
Il n'est pas injuste de dire que, jusqu'à
ce jour, aucun économiste
n'a
cherché à accomplir le programme d'un Clausewitz. Schumpeter lui-même
ne l'a pas fait parce qu'il ne regardait pas d'assez près l'intérieur de l'entrenée aux États-Unis,
prise. La discipline appelée Business Administration,
s'est développée en se voulant essentiellement
pratique, et donc initialement
sans aucun lien ou presque avec l'économie,
dont les modélisations
théoriques étaient trop abstraites pour ce qu'elles pouvaient avoir d'utile. En
revanche, elle a effectué quelques emprunts au moins analogiques à la stramais sans trop pousser le rapprochement.
Ainsi
tégie diplomatico-militaire,
la Business Administration
s'est-elle intéressée aux questions proprement
stratégiques qui se posent aux entreprises réelles, touchant à la fois aux buts
et aux moyens, telles que : choix des activités ou comme on dit aujourd'hui
des « métiers » ; degré d'intégration
verticale ;
part de la recherchecroissance interne, ou externe par fusions ou acquisitions développement ;
celles-ci pouvant se faire de façon « amicale » ou « hostile » ; conquêtes de
« parts de marché » et choix des « théâtres d'opération » ainsi que des « stra» correspondantes ;
modes d'organisation
interne effitégies opérationnelles
caces par rapport aux objectifs assignés, etc. Toutes ces questions n'ont
aucun sens dans le paradigme de la concurrence pure et parfaite.
Progressivement
cependant, la science économique a introduit des idées et
des concepts permettant de mieux comprendre les situations stratégiques et
même certaines questions proprement stratégiques dans le domaine de l'allocation
des ressources
dont les spécialistes
de la Business
rares,
Administration
ont pu tirer parti. Par situation stratégique, j'entends
des
situations obligeant les unités actives à élaborer une stratégie. Par question
la fixation de certains objectifs ou, un
proprement
stratégique, j'entends
étant
de
certains
fixé,
objectif
moyens en vue de l'atteindre. Ainsi la branche
intitulée Industrial Organization,
initiée par des auteurs comme Joe Bain et
Edith Penrose (1) dont l'objet est d'étudier la croissance de la firme et la
structure des marchés dans des situations de concurrence imparfaite, apparaîtelle comme une discipline charnière. Par exemple, une notion comme celle
de « prix limite » dans la théorie du monopole est proprement stratégique. Il
une rente de long terme aussi élevée
s'agit d'un prix assurant à l'entreprise
mais
suffisamment
bas
que possible,
pour dissuader les concurrents potentiels d'entrer dans le marché. Le concept de « marché contestable » introduit par Baumol, Panzar et Willig en 1982 procède de la même inspiration.
(1) Voir en particulier E. Penrose, Theory of the Growth of the Firm, Basil Blackwell
Publishers, 1959.
2166
PROSPECTIVE
Dans les situations d'information
imparfaite sur les prix liées, par exemple,
à la répartition spatiale des distributeurs
d'un produit, on peut analyser en
théorie les « bonnes » stratégies de manipulation des prix en vue d'empêcher
de découvrir une fois pour toutes le prix le plus faible.
les consommateurs
<> étudie aussi des
La théorie moderne
de l'Industrial
Organization
«
sur la qualité
problèmes comme la sélection adverse » en cas d'incertitude
des produits, les moyens susceptibles d'y remédier en particulier par l'acquisition d'une « réputation », l'intérêt de différencier les produits au sein
d'une même gamme ou par des gammes différentes, le rôle de la publicité,
etc. Parmi les sujets les plus anciens en la matière, on mentionnera la coordination des choix, illustrée par le « dilemme du prisonnier », qui permet de
comprendre par exemple que dans des cartels tels que l'OPEP, les situations
optimales (du point de vue des membres du cartel) sont instables tandis que
les situations stables sont inefficaces. Cet exemple permet d'observer
au
passage qu'en stratégie, la distinction entre objectifs et moyens peut être
délicate. Le choix des quotas de production pour les pays de l'OPEP est un
moyen par rapport à l'objectif de la maximisation de la rente conjointe, mais
on doit aussi considérer ces quotas comme des objectifs dont la réalisation
suppose également une stratégie. Cette remarque est, dans le cas d'espèce,
On utilise
une autre manière de formuler le problème de l'instabilité.
souvent le mot anglais Enforcement
caractériser
les
conditions
de
pour
d'un
accord
instable.
respect
potentiellement
Dans l'état actuel des choses cependant, la découverte stratégique par les
théoriciens de l'économie consiste moins à s'ouvrir sur la stratégie en tant
et dont
que telle qu'à se poser deux catégories de questions fondamentales
l'intérêt déborde, à l'évidence, le cadre économique proprement dit. Il s'agit
d'une part de l'analyse logique des choix, des contrats et des situations de
jeux ; d'autre part des raisons profondes qui font que les entreprises ne se
comportent
pas selon un modèle unique (« l'agent représentatif » de la
concurrence pure et parfaite) ce qui ouvre la voie à la compréhension
de la
diversité des buts et des moyens de les atteindre, et par conséquent à une
intelligence des situations stratégiques pouvant déboucher sur des typologies, à l'instar des cinq « modèles » du général Beaufre dans le cadre de l'action diplomatico-militaire.
Mais il reste à faire la synthèse avec les théories
de l'organisation
étudient
le fonctionnement
interne de l'entreprise
et
qui
de
ses
en
vue
d'atteindre
les
ressources,
morales,
y compris
l'optimisation
À ce niveau d'analyse se situent des questions
objectifs qu'elle se donne
sous l'angle du C4I des militaires :
d'organisation
pure (en particulier
la question
Command, Control, Communication,
Computing, Intelligence),
de l'autorité (les différents types de leaders), les conditions propres à mobiliser des hommes autour d'un objectif (problème de la motivation), etc. De
(1) Voir J. Tirole, The Theory <éf'Industrial Organization, Cambridge Massachusetts et
Londres, the MIT Press, 1988.
(2) Voir cependant P Milgrom, et J. Roberts, Economics, Organization & Management,
Prentice Hall, Englewood Cliffs, New Jersey, 1992.
Le stratégiste et l'économiste
ce point de vue, on notera la pertinence de certains concepts
nomie du travail, comme celui de salaire d'efficience.
2177
issus de l'éco-
des points de vue, des langages et des domaines (paix et
Le rapprochement
au sens diplomatico-militaire,
c'est-à-dire
classique
stratégie
guerre,
différentes branches de
science des organisations,
Business Administration,
ne peut qu'avoir d'heureux effets sur la recherche. Ce serait
l'économie...)
d'ailleurs un bon sujet d'étude que de démêler toutes les influences intellecdans ces domaines, au cours de la seconde moitié du
tuelles réciproques,
xxe siècle. En ce qui concerne le présent, nous nous proposons,
pour
la découverte
idées qui sous-tendent
les principales
terminer, d'identifier
concerne
et dont le caractère fondamental
stratégique par les économistes,
en fait la praxéologie au sens le plus large.
Elles partent de questions relatives aux notions de temps et d'information.
a toujours eu du mal avec la durée. Comment, par
La science économique
au-delà
de
la
théorie
atemporelle de l'équilibre général, formuler
exemple,
un concept pertinent d'équilibre au cours d'une « période » insérée entre un
« passé », révolu mais ayant laissé des traces, et un « futur » ouvert ?
Comment formuler une notion d'équilibre intertemporel traduisant l'idée de
successifs ?
cohérence entre des équilibres temporaires
Qu'est-ce
qu'une
« période » de référence (la « semaine » de Hicks ou la « séance de marché »
de Rueff) par rapport au temps physique (un autre découpage classique est
la division ternaire d'Alfred Marshall entre court, moyen et long terme, et
l'on a ultérieurement
ajouté une autre notion de temps long avec des auteurs
et Braudel), alors que les temps propres de chaque
comme Schumpeter
aux rythmes de formation, d'exécution et de révision
auteur - correspondant
de leurs projets - sont différents ? Comment les traces du passé se manifestelles
au sens juridique tent-elles sur la « période » actuelle (obligations les
éconoComment
effet
de
mémoire, etc.) ?
agents
que l'endettement,
l'incertitude
et comment forment-ils leurs anticipamiques appréhendent-ils
tions ? Comment prendre en compte les notions d'information
objective et
ne
font
les
mêmes
les
et
le
fait
pas
prévisions et
agents
que
subjective,
introduire
le fait que
Comment
a
des
priori incompatibles ?
conçoivent
plans
alors
du
Comment
se
modifient
au
cours
des
les préférences
temps ?
agents
et
de
aux
deux
donner sens
l'équilibre,
plus généralement,
problèmes
de leurs
le problème de la coordination
comment les agents résolvent-ils
décisions ?
.
.
Toutes ces questions ont engendré une littérature immense, particulièrement
dans les trente dernières années, souvent en exploitant des idées très robustes
trois particulièet beaucoup plus anciennes. J'en retiendrai essentiellement
la distinction entre risque et
rement fécondes et fortement interdépendantes :
incertitude ; la notion de coût de transaction ; la notion de rationalité limitée.
La distinction entre risque et incertitude remonte à Frank Knight (1885and Profit (dont la
1972). Dans son ouvrage majeur, Risk, Uncertainty
son Treatise on
l'année
où
date
de
1921
édition
Keynes
publia
première
2188
PROSPECTIVE
centré sur la notion de probabilité subjective) Knight introduit
Probability,
la distinction entre les risques mesurables par des probabilités
objectives
(comme celles qui résultent des tables de mortalité) et ceux pour lesquels
aucune mesure de ce genre n'est possible, auxquels il réserve le terme d'incertitude. Un entrepreneur, au sens schumpetérien,
est une personne qui, par
définition, se lance dans un projet original et pour lequel, par conséquent,
existe au moins une part d'incertitude
au sens précédent. Alors même que les
de
la
concurrence
et
hypothèses
pure
parfaite seraient satisfaites par ailleurs,
d'un
ouvre
la possibilité d'un profit, dans lequel
l'apparition
projet original
en cas de succès, contreKnight voit la rétribution propre de l'entrepreneur
de
son
audace.
Mais
il
a
aussi
la
partie
y
possibilité d'une perte, laquelle est
alors la sanction de l'échec. Le profit éventuel peut aussi s'analyser dans le
cadre du monopole temporaire de Schumpeter.
Sur le plan théorique, le
concept fondamental est celui de probabilité
subjective approfondi dans le
traité de Keynes et qui trouvera son cadre presque parfait dans la formulation de l'utilité des perspectives
incertaines
élaborée en 1944 par Von
Neumann et Morgenstern, au début de leur célèbre ouvrage sur la théorie des
jeux déjà mentionné. On remarquera incidemment, que toute cette approche
de l'incertitude
n'a fait que renouer avec les origines du calcul de probabilités
La notion de coût de transaction est familière depuis longtemps aux économistes, à travers la monnaie. Mais il leur a fallu beaucoup de temps pour
prendre conscience de son caractère infiniment plus général, que Ronald
Coase avait pourtant dégagé en 1937 dans un article intitulé « The Nature of
the Firm ». L'auteur se pose la question apparemment innocente : d'où vient
que les entreprises existent ? Sa réponse est en gros la suivante : l'achat ou
la location des facteurs de production requièrent dans la réalité l'élaboration
de contrats qui implique la recherche d'informations
notamment sur les prix.
Tout cela entraîne des coûts réels, qu'on appelle coûts de transaction. Audelà d'un certain point, il devient préférable de remplacer le marché par une
organisation centralisée opérant sur un mode hiérarchique, laquelle constitue
Coase remarque de plus que le coût de la coordination
des
l'entreprise.
facteurs augmente de telle sorte qu'au-delà d'une certaine taille, le recours
au marché - c'est-à-dire à d'autres entreprises - redevient avantageux. En ce
qui concerne la taille critique, tout dépend des modalités de l'organisation
une matière elle aussi sujette à des innovations
comme l'a
elle-même,
montré Alfred Chandler (2). C'est ainsi qu'au début des années vingt, un
certain nombre de grandes entreprises américaines (comme General Motors
sous la houlette d'Alfred Sloan) ont adopté un principe divisionnaire
(« the
celui
de
Guibert
les
») qui rappelle
armées, auquel
multidivisonal firm
pour
(1) L. Daston, Classical Probabilities in the Enlightenment, Princeton, New Jersey,
Princeton University Press, 1988.
(2) A. Chandler, Strategy and Structure : Chapters in the History of the American Industrial
Enterprise, Cambridge, Massachusetts, MIT Press, 1962.
Le stratégiste et l'économiste
2199
il a été fait allusion plus haut. La fécondité de la notion de coûts de transaction, c'est-à-dire de l'ensemble des coûts qui résultent de la relation contractuelle, n'a été comprise que beaucoup plus tard, grâce à des auteurs comme
Armen Alchian, Harold Demsetz et Oliver Williamson. Dans cette perspecen général est considérée comme une collection de
tive, une organisation
ou
contrats, explicites
implicites, liant ses membres individuels
(lesquels
être
eux-mêmes
des organisations).
D'où un paradigme extrêmepeuvent
ment gratifiant. Par exemple, si l'on s'interroge sur l'existence ou non d'une
« nationalité » pour une entreprise « multinationale
», on pourra examiner la
nature des liens contractuels entre ses membres en particulier sous l'angle
culturel. Le paradigme créé par Coase est également très utile pour réfléchir,
par exemple, sur la nature des alliances ou des coalitions dans le domaine
des relations internationales.
La troisième notion, par laquelle je terminerai,
est celle de rationalité
limitée (une mauvaise traduction de l'anglais bounded rationality) dégagée
par Herbert Simon en 1947. Il s'agit de l'idée que les « décideurs » dans les
ne connaissent
leur environnement,
d'une
organisations
pas parfaitement
part, et ont une faculté limitée à le comprendre (à cause de sa complexité)
d'autre part. Une première façon d'exploiter cette idée consiste à considérer
que, face à la complexité des choses, les agents se contentent de rechercher
une décision « satisfaisante
entre le temps
», résultant d'un compromis
des choix
disponible pour prendre cette décision et le coût d'identification
Une deuxième façon d'envisager
la rationalité
limitée est de
possibles.
considérer que les agents agissent selon des « routines » éprouvées,
qu'ils
modifient en fonction de l'expérience
acquise. Dans les deux cas, la décision
dépend des procédures retenues pour l'atteindre, d'où la locution « rationalité procédurale » que H. Simon a introduite ultérieurement.
Dans la mesure
où le phénomène de la rationalité limitée peut conduire à une certaine ankylose de l'esprit, on conçoit que, s'agissant des procédés de prise de décision,
il puisse y avoir - comme pour les combinaisons
de facteurs de production
ou pour les modes d'organisation matière à innovation et donc un terrain
Il n'y a pas jusqu'à la prise de décision ellepossible pour des entrepreneurs.
même qui ne soit matière à stratégie !
Rémi Barré
LAPROSPECTIVE
DELASCIENCE
ET DE LA TECHNOLOGIE
COMMEINTELLIGENCE
SOCIALE
DES« SYSTÈMES
DUDESTIN »
1. INTRODUCTION
Il y a historiquement une forte relation entre le développement de la prospective et le besoin d'anticiper les évolutions scientifiques et technologiques
(S & T). La prévision technologique a ainsi été une des préoccupations à
partir desquelles s'est constituée la démarche prospective 0. De fait,
plusieurs de ses méthodes parmi les plus connues, telles les enquêtes Delphi
ou les analyses morphologiques, ont été créées pour éclairer des questions
de prévision technologique. La prospective de la S & T a longtemps gardé
les traces de cette origine et on peut même suggérer qu'elle n'a longtemps
été qu'une sophistication méthodologique de la prévision.
Au cours des années 70, deux types d'approches émergent, qui vont modifier en profondeur les modèles conceptuels de l'évolution des sciences et des
techniques et, de là, la prospective S & T - à savoir les approches « évaluation technologique (2) et les approches par les « systèmes d'innovation ».
L'évaluation technologique vise à permettre le « contrôle social de la technologie » par l'analyse systématique des effets directs et indirects, souhaités
et non souhaités de l'introduction d'une nouvelle technologie. Il s'agit alors
d'identifier ces effets par rapport à l'ensemble des populations et acteurs
(1) Ceci,biensouvent,dansuncontextemilitaireoude défensenationale.
assessment
».
(2) Ausensde « technology
Prospectivede la scienceet de la technologie
2211
susceptibles d'être concernés. En principe, une analyse d'évaluation technologique propose des alternatives au projet initialement prévu, dont les effets
sont également mis en évidence. Il y a là une évidente similitude avec les
principes de la prospective.
Nous considérons que l'ouvrage de J. Lesoume Les systèmes du desiin (1? a
jeté les bases d'une conception à la fois systémique et institutionnelle du
changement technique, ce qui a permis le développement de l'approche par
Si
le « système national d'innovation », aujourd'hui
omniprésente.
R. Nelson (Z> et B.A. Lundvall (3> sont considérés comme les « pères » de
cette approche, nous considérons J. Lesourne comme celui des concepts qui
l'ont rendue possible.
Au total, nous suggérons que la prospective de la S & T telle qu'elle existe
effectuée depuis le début des
aujourd'hui, résulte de la convergence années 90 - entre :
- la tradition de la prévision technologique - occupée du long terme, mais
avec une conception restrictive des paramètres à prendre en compte ;
- l'approche par l'évaluation technologique - porteuse des concepts de jeux
d'acteurs et d'impacts sociaux, mais intégrant difficilement la dimension
temporelle ; -,
- l'approche systémique - permettant la prise en compte de nouvelles catégories d'interactions, notamment de type institutionnel et politique.
Le changement de paradigme relatif à la recherche et l'innovation du
déterminisme séquentiel à l'interaction entre réseaux d'acteurs - a induit un
changement tout aussi radical dans les processus de préparation des décisions. C'est pourquoi, aujourd'hui, la prospective de la S & T (4) telle qu'elle
se pratique renvoie à une problématique qui est largement celle des relations
entre science, technologie, économie et société.
Reconnues comme appartenant à la sphère où s'exerce la volonté collective
qui façonne les futurs possibles, les activités S & T sont ainsi véritablement
entrées, enfin, dans le champ de la démarche prospective. Ce passage ne
s'est complètement réalisé, en ce qui concerne la préparation des politiques
publiques, qu'au début des années 90. Depuis, le mouvement s'est accéléré,
(1) Lesourne,J., Les systèmesdu destin,Dalloz-Économie,Paris 1975.Dans cet ouvrage,J.
Lesournedécomposela nationen diverssous-systèmes,identifiantnotammentles soussystèmesscience,éducationet économie,dont il étudie les interactions(pp. 393-410) ;
c'est ce qu'on a appelépeu après,à l'OCDE, les « systèmesde recherche» et au début
des années90 les « systèmesnationauxd'innovation».
(2) Nelson, R., (ed) National Innovation Systems - A ComparativeAnalysis, Oxford
UniversityPress, 1993 ;Nelson,R. et Winter,S., An EvolutionaryTheoryof Economic
change,The BellknapPressof HarvardUniversityPress, 1982.
(3) Lundvall,B.A. (ed), NationalSy.rtemsof Innovation -Towardsa Theoryof Innovation
and InteractiveLearning,PinterPublisher,Londres,1992.
ou simplementtechnology
(4) En anglaisles expressionsscienceand technology foresight,
foresightont eu tendance,ces dernièresannées,à prévaloir.
PROSPECTIVE
222
et la plupart des pays européens ont mis en oeuvre des exercices
tive S & T, parfois de grande ampleur.
Cet article propose une synthèse des caractéristiques
exercices, tant dans leurs finalités que leurs méthodes
de prospec-
essentielles
>.
de ces
Dans une première partie, nous explicitons les finalités de travaux récents de
Nous proposons dans une
de la science et de la technologie.
prospective
de ces exercices.
seconde partie une synthèse des aspects méthodologiques
les tendances
indications
sur
Enfin, nous concluons en présentant quelques
de
la
science
et
de
la
récentes en matière de prospective
technologie.
RÉCENTS
DESTRAVAUX
2. CARACTÉRISATION
GÉNÉRALE
ETDELATECHNOLOGIE
DELASCIENCE
DEPROSPECTIVE
de la science
2.1. Lesfinalitésde travauxrécentsde prospective
et de la technologie
Les exercices de prospective S & T conduits depuis le début des années 1990
au Royaume-Uni,
en Allemagne, aux Pays-Bas et en France, ont pour objet
les évolutions possibles de la science et de la
d'examiner
systématiquement
technologie, de l'économie et de la société afin :
(1) L'exemple le plus achevé de ces exercices est celui conduit depuis 1994 au RoyaumeUni, présenté dans de multiples documents. Voir en particulier : B.R. Martin, « Foresight
in Science and Technology », TechnologyAnalysi.sand Strategic Management, vol. 7 (2),
1995 ; B.R. Martin, « Technology Foresight : Capturing the Benefits from ScienceRelated Technologies », Research Evaluation, vol. 6 (2), 1996, ainsi que la publication
régulière Foresight Link, publié par le DTI, voir aussi le site ww.foresight.gov.uk
Les activités de prospective S & T aux Pays-Bas sont également remarquables ; voir à ce
sujet : A Vital Knowledge System - Dutch Research with a Viewto the Future, Foresight
Steering Committee, Amsterdam, The Netherlands, 1996.
Les travaux allemands sur les technologies du futur sont présentés dans : H. Grupp,
« Technology at the Beginning of the 21st Century », TechnologyAnalysis and Strategic
Management, vol. 6 (4), 1994. Cela est à rapprocher de l'exercice français : Les 100 technologies clés pour l'industrie françaises, Ministère de l'Industrie, Paris, 1995. Par
ailleurs, toujours en France, mais au plan de l'énoncé des principes, deux ouvrages méritent attention : B. Dessus, Énergie 2010-2020, Rapport final de l'atelier « les défis du
long terme », Commissariat Général au Plan, octobre 1997. Globalisation, mondialisation, concurrence : la planification française a-t-elle encore un avenir ?, Commissariat
Général du Plan, La Documentation Française, Paris, 1997.
On pourra également se reporter à l'ouvrage de synthèse : « Numéro spécial sur les
enquêtes gouvernementales sur la prospective technologique », STI-Revue, n° 17,
OCDE, Paris, 1996.
Enfin, les travaux importants de prospective S & T conduits en Australie ces dernières
années ont donné lieu à des synthèses, par exemple : More about fore.sight,
www.dist.gov.au/science/astec/ astec/future/findings/.
Prospectivede lascienceet de la technologie
2233
- d'identifier les technologies génériques émergentes ayant le plus grand
potentiel ;
- de faire tomber les barrières entre institutions, disciplines et secteurs pour
améliorer la mise en réseau de collaborations ;
- de faire évoluer les structures de financement de la recherche publique ;
- de prendre en compte des risques que des politiques de court et de moyen
terme font peser sur le plus long terme du fait de l'irréversibilité de
certaines de leurs conséquences.
Le poids relatif de ces différents aspects est variable, mais il s'agit bien dans
tous les cas de s'intéresser aux tendances de la science et de la technologie
dans leurs relations aux besoins socio-économiques et de savoir comment
les interactions entre la S & T et la société peuvent créer différents futurs
possibles.
La prospective de la S & T est également reliée à « l'évaluation technologique » (technology assessment) puisque la réflexion sur le long terme est
également le point de départ de travaux de « contrôle social » de la technologie. C'est la question de l'acceptabilité sociale de certaines technologies
qui est en jeu, et qui est abordée à travers les exercices de prospective de la
S & T. Cette motivation, de plus en plus présente dès la conception des politiques de S & T, est un puissant facteur de développement de la dimension
participative des processus de décision. Cette tendance constitue ainsi un
renforcement du besoin de démarche prospective.
Les exercices de prospective de la S & T deviennent ainsi un processus
permettant d'articuler les perspectives des chercheurs avec celles de l'industrie, du public et de l'administration. Ils s'inscrivent profondément dans
une double dynamique, très forte dans le champ de la S & T :
- celle correspondant au nouveau rôle de l'État, axé sur la coordination des
acteurs et des marchés, à travers notamment les échanges sur les anticipations ;
- celle correspondant aux nouvelles conditions du développement de la
S & T et de l'innovation, liées aux capacités d'interactions entre les
acteurs, notamment publics et privés.
Dès lors, il n'est guère surprenant que la prospective tende à être de plus en
plus mobilisée dans le cadre de la préparation des politiques de la S & T, y
prenant même parfois une place centrale<' >.
La finalité de la démarche prospective de la S & T dont il est question ici est
de préparer des décisions de politique publique au vu de besoins et d'opportunités, et ceci en faisant interagir des chercheurs avec les autres acteurs
sociaux concernés. Il s'agit au fond d'un mécanisme permettant d'aller audelà du pur jugement par les pairs et du pur jugement politique.
(1) De ce point de vue, la Franceest nettementen retraitpar rapportau Royaume-Uniet aux
Pays-Bas, mais également,semble-t-il,par rapportà l'Allemagne.
PROSPECTIVE
224
2.2 Élémentsd'une typologiedes exercicesde prospective
'"
de 'a S & T
',,
Il reste que dans le cadre des finalités exposées ci-dessus, il existe une
de prospective de la S & T.
grande diversité de types possibles d'exercices
être
caractérisé
par :
Chaque type peut
- sa finalité : communication
entre acteurs de la recherche, construction
d'une plate-forme d'accord, choix de priorités... ;
- son échelle de focalisation :
macro (global, national), méso (sectoriel,
disciplinaire,
-
régional),
son objet principal :
tures et institutions,
leurs stratégies... ;
micro (thème fin, institution) ;
les strucla substance scientifique ou technologique,
et moyens d'action, les acteurs et
les mécanismes
- son référentiel principal :
internes à la S & T (science
les dynamiques
l'interaction
offre-demande
(push-pull),
push), les besoins (market pull),
les
et d'innovation,
le système de recherche
dynamiques
sociopolitiques... ;
- son
style : démarche normative ou démarche exploratoire ;
- son dimensionnement
de quelques dizaines à
(échelle de mobilisation) :
plusieurs
,
milliers de personnes
mobilisées
à un moment
directes
va avoir des implications
Le type de l'exercice
concentration,
processus, sur les méthodes d'extension phase finale.
ou à un autre.
sur le design du
ainsi que sur la
DESASPECTS
3. SYNTHÈSE
MÉTHODOLOGIQUES
DEPROSPECTIVE
S &T
DESEXERCICES
3.1 Vued'ensemble :les acteurset les phasesdu processus
de politique
Dans un exercice de prospective S & T à des fins d'éclairage
publique, il y a interaction entre un certain nombre d'acteurs qui ont chacun
un rôle bien défini :
- le commanditaire,
qui est souvent un « décideur
étant le « client » (maître d'ouvrage) ;
», parfois désigné comme
(1) Sur les aspects méthodologiques généraux, voir M. Godet, Manuel de prospective stratégique, tome 1, Une indiscipline intellectuelle, tome 2, L'art et la méthode, Dunod,
Paris, 1997 ; M. Godet, « La boîte à outils de la prospective stratégique », Cahiers du
LIPS, n° 5, oct. 1996.
Prospectivede la scienceet de la technologie
2255
- le comité de pilotage (steering committee), en général nommé par le
commanditaire, qui a la responsabilité de l'ensemble du processus (maître
d'oeuvre), et en particulier du rapport final de conclusions et/ou recommandations ;
- l'instance de support méthodologique et organisationnel, chargée aussi de
la mobilisation de l'information ;
- les instances de production d'éléments analytiques et quantitatifs : laboratoires, bureaux d'études, services spécialisés de l'administration... ;
- les groupes d'experts (« panels »), ou experts extérieurs, qui peuvent
avoir une grande diversité d'articulations au processus : auditions par le
comité de pilotage, destinataires d'une enquête Delphi, constitution officielle en groupes avec leur dynamique propre et leur autonomie.
L'exercice se déroule en plusieurs phases :
- la phase préliminaire : conception d'ensemble, dimensionnement,
du processus, délimitation du périmètre et choix des experts ;
design
- la phase centrale : mise en oeuvre des processus d'extension - concentration ; apport et génération de connaissances (extension) et synthèse
(concentration) avec allers et retours éventuels ;
- la phase de finalisation : aspects analyse des résultats, conclusions,
recommandations ; aspects communication et diffusion.
3.2 Laphase préliminaire le
- designdu processus
Le design du processus, c'est-à-dire la définition exacte des missions et des
modalités d'interactions entre les acteurs - notamment le comité de pilotage
(CP) et des groupes d'experts (GE) - est le point méthodologique majeur. Il
dépend du dimensionnement de l'exercice (durée, moyens disponibles),
mais aussi du style général voulu. L'exercice peut être en effet de style plutôt
normatif (« top-down ») ou plutôt exploratoire (« bottom-up »).
Les deux extrêmes sont les démarches normative et exploratoire pures, les
groupes d'experts étant purement au service du comité de pilotage dans le
premier cas, le comité de pilotage au service des groupes d'experts dans le
second ;
'
,
comité de pilotage (CP) - prééminence
service de CP ;
top-down -
normatif -
- prééminence groupes d'experts (GE) - bottom-up - exploratoire service de GE.
On peut avoir des situations intermédiaires,
tableau 1 ci-après.
GE au
CP au
telles que présentées dans le
226
PROSPECTIVE
Tableau 1 : Rôles possibles du comité de pilotage et des groupes d'expert
Qualification du style
correspondant
Décision
scénarios
ou axes
de travail
Travaux GE
structurent
scénarios
et axes
de travail
GE apportent
compléments
aux
scénarios
ou axes
A
CP (1 )
non
oui
Top down- scénarios a priori
- GE pour compléter ex post,
purement réactif
B
CP
oui
non
Top down partiel - scénarios
nourris et donc influencés
par GE ex ante
C
CP
oui
oui
mixte - aller-retour CP-GE
peut demander du temps
D
GE (2)
oui
oui
Bottom up pur - problème
convergence entre GE et CP
et avec problématique client
Style
.
(1)CP comitéde pilotage.
(2) GEgroupesd'experts.
Le type de design choisi aura des conséquences
sur les étapes d'extension sur le type et les modalités de nomination au comité de piloconcentration,
sur le mode travail et la nature des
tage et dans les groupes d'experts,
travaux du comité de pilotage et des groupes d'experts (ordre des interactions, traces des interactions, droits de réponse et de commentaires...).
3.3 Laphasecentrale -la miseen oeuvredes processus
d'extension -concentration
La phase centrale du processus est structurée par un double mouvement
d'extension
et accumulation
et de concentration
d'éléments)
(exploration
(choix et synthèse), chacun faisant l'objet de deux étapes. À chaque étape,
les rôles respectifs du comité de pilotage et des groupes d'experts, mais aussi
celui du commanditaire
et des instances d'appui méthodologique,
vont
largement dépendre du design du processus. Dans certains cas, il y aura en
plus des rétroactions et donc retour sur des étapes antérieures pour incorporer les résultats obtenus en aval.
227
Prospectivede la scienceet de la technologie
a) Le mouvement
d'extension
- Étape de génération
des variables (extension 1)
Objet :
- génération des variables pertinentes (« drivers ») ; ceci peut prendre la
forme de la préparation d'un questionnaire d'enquête Delphi, de liste de
variables pour une analyse structurelle ou d'un échange informel... ;
- préparation des hypothèses (ou assertions) sur le futur ;
- établissement de grilles de critères permettant de définir l'importance
la pertinence.
et
Techniques : .'
- synthèses bibliographiques ;
- auditions d'experts ou entretiens (« entretiens structurés », « questions
ouvertes liminaires ») ;
- analyse logique systématique (analyse morphologique,
nence).
. Étape d'analyse
et étude systématique
arbres de perti-
des variables (extension 2)
Objet : caractérisation de chaque variable en sorte de pouvoir juger son
importance par rapport au problème étudié (sélection) ainsi que sa proximité
avec les autres variables (regroupements). On s'intéressera aux dynamiques
et incertitudes relatives aux paramètres, aux relations entre paramètres, aux
stratégies d'acteurs. Il ne pourra s'agir en général que d'analyses systématiques, relativement rapides.
Techniques : .'
- auditions d'experts ou entretiens ;
- mise en oeuvre de l'analyse structurelle (pointage systématique des relations entre variables en vue de leur positionnement sur des axes d'influence - motricité - et incertitude) ;
- caractérisation de chaque variable par rapport à la grille de critères ;
- réalisation et traitement d'une enquête Delphi (1).>.
n
',
'
',
(1) Voirpar exemple :K. Cuhlset T. Kuwahara,Outlook forJapane,seand GermanFuture
Technology,Phisica-Verlag,
Heidelberg,1994 ;D. Loveridge,L. Georghiou,M. Nedeva,
UK TechnologyForesightProgramme -Delphisurvey,PREST,report to the Officeof
S & T, Manchester,1995 ;J.A. Héraudet al, « La méthodeDelphi», Futuribles,mars
1997.
PROSPECTIVE
228
b) Le mouvement de concentration
- Étape de regroupement - sélection - approfondissement des variables
'
clés (concentration 1)
et
(« clusterisation ») des variables, hiérarchisation
Objet : regroupement
de leur
de la compréhension
sélection des variables clés ; approfondissement
dynamique par retour sur leurs évolutions passées et étude de leurs condi:.
tions d'évolution.
Techniques : .'
exploitation des résultats de l'enquête Delphi, de l'analyse structurelle ou
de la grille critères/variables ;
des variables ;
groupe de travail pour effectuer le regroupement
évolutions, hypothèses
analyse ad hoc complémentaires :
positionnement,
mobilisation
sur des variables clés, éventuellement
par
d'expertise ou de
prestations.
. Étape
de construction
Objet : construction
du rapport.
des scénarios (1)
et développement
(concentration
des scénarios
2)
ou des axes structurants
La méthode des scénarios est souvent bien adaptée aux finalités des exercices de prospective et la plupart d'entre eux - mais pas tous - utilisent cette
méthode. Rappelons qu'un scénario est une « histoire » du futur, plausible et
identifiés et de tendances repérées.
cohérente, établie à partir d'événements
Techniques : .'
convergence de manière informelle au sein d'un groupe de travail ;
en temps
telles que le « mini-delphi
- mise
en oeuvre de techniques
conditionnelleou la combinatoire
de variables probabilisées
réel »
ment.
3.4
La phase finale - l'analyse des scénarios ou des résultats la diffusion
Objet : analyse des résultats, évaluation des stratégies dans le contexte de
des actions à entreprendre pour se placer sur
chaque scénario ; détermination
le scénario le plus intéressant ; exploration de la capacité des scénarios à
brutales des hypothèses et test de leur robusrépondre à des modifications
(1) Outre les ouvrages de méthodologie déjà cités, voir également : Scenario building Convergences and Differences, IPTS Technical Report Series, EUR 17298, Workshop
Organized by IPTS and LIPS, 1995
(2) Parfois appelé en France « abaque de Régnier ».
Prospectivede lascienceet de la technologie
229
tesse aux aléas ; identification des opportunités et menaces dans les différentes configurations possibles ; identification des scénarios autorisant le
plus aisément une réévaluation régulière des priorités ; mise en place d'un
monitoring des signaux faibles pour reconnaître le scénario en développement.
Techniques : .'
- convergence de manière informelle au sein d'un groupe de travail,
- mise en oeuvre de techniques telles que le « mini-delphi en temps réel ».
4. CONCLUSION
ETÉMERGENCES
TENDANCES
:
4.1
1 Unetendance la
: « société »au coeurdesdynamiques
de la scienceet de la technologie>(1)
Ce qui caractérise les exercices de prospective S & T, c'est leur centrage sur
la relation avec la société et ses « besoins ». Ceci renvoie directement à la
problématique actuelle des politiques de recherche et également aux questions posées à la recherche publique, notamment dans les pays anglo-saxons.
Ces « besoins » de la société peuvent se décliner selon trois grands axes :
- les besoins liés à des innovations de biens et services marchands : on
retrouve alors le débat classique sur la « compétitivité » de l'industrie
l'excellence technologique et l'innovation sur des marchés porteurs ;
- les besoins de nature plus collective ou liés à de grandes infrastructures :
les transports ; il
l'énergie, la santé, la qualité de l'environnement
s'agit alors d'analyser les rapports entre S & T et politiques sectorielles ;
- le besoin de sécurité, c'est-à-dire ici l'absence de risques liés aux
nouvelles technologies, ce qui renvoie à l'évaluation technologique.
4.2 Uneémergencela: controverse
commefacteur
scientifique
centralde l'incertitude,
doncdesscénarioset desstratégies
Les problèmes de société dans lesquels la S & T sont impliquées, sont bien
souvent caractérisés par l'insuffisance des connaissances scientifiques sur
.
(1) Voirpar exempleP. Caracostaset U. Muldur,La .société,ultime frontière,Commission
européenne,DG XII, études,EUR 17655,1998,ouvragedont le titre est révélateurde
cette tendancede fond.
(2) Voirpar exemple :Étudeprospectivede la demande« environnementp et .satraduction
en fMtermes
te ministèrechargé
fffmMS&T, rapportréalisépar CDC consultantset IPSOSpour le
de l'environnement,l'ADEMEet le CEA, Paris, 1997.
230
PROSPECTIVE
lesquelles le débat devrait s'appuyer. Aux incertitudes sur les risques s'ajoutent celles liées au manque de connaissances scientifiques sur ce risque.
Cette situation explique l'émergence du « principe de précaution » 0, qui
vise précisément à établir des guides pour la décision dans un contexte de
manque de connaissance. Il s'agit d'aboutir à un calendrier optimal des décisions, compte tenu d'hypothèses scientifiques et d'avancées des connaissances, susceptibles de donner lieu à des jeux d'influence inédits : « dans un
univers avec des controverses scientifiques, la compétition ne se joue plus
simplement sur les produits et les techniques, elle se joue également sur les
théories scientifiques et les visions du monde qui en découlent » (2).
Il y a là certainement un champ nouveau, à peine exploré, pour la prospective et les stratégies de long terme.
Les activités de prospective dans le champ de la S & T se caractérisent par
leur dynamisme, voire leur foisonnement, et leur position de plus en plus
centrale dans les processus sociopolitiques de l'interface S & T et société.
Des savoir-faire méthodologiques (y compris dans le design de processus) et
des résultats substantifs sont générés dans le monde entier, et particulièrement en Europe.
La prospective dans le champ de la S & T a donc parcouru un long chemin
depuis les temps - pas si lointains - de la prévision technologique. Un des
aspects majeurs de ce cheminement est l'intégration des dimensions sociales
et institutionnelles envisagées dans le cadre de l'analyse de système.
Ainsi, la prospective dans le champ de la S & T n'est-elle pas devenue, au
fond, une démarche d'intelligence collective de ce que Jacques Lesourne
avait si justement appelé les « systèmes du destin » ?
(1) Voir par exemple B. Dessus, op. cit, N. Treich, « Environnement :vers une théorie
économiquede la précaution», Risques, 32, oct.-déc. 1997, repris dans Problèmes
économiques,n° 2572,juin 1998.O. Godard,« Débatautourdu principede précaution»,
Natures,sciences,sociétés,vol. 6 (1), 1998.
(2) O. Godard,op.cit.
Hugues
de Jouvenel
POURUNERECHERCHE
ENPROSPECTIVE
Sans doute serait-il déplacé dans des « Mélanges » qui se veulent scientifiques de faire étalage de l'estime croissante que je porte à Jacques Lesoume
pour ses qualités humaines et pour son oeuvre.
Une certaine pudeur personnelle fait, du reste, que j'y suis peu porté. Je
m'intéresserai donc plutôt à quelques-unes des raisons qui ont amené cet
homme à quitter le territoire bien balisé d'une science dans laquelle il excellait pour s'intéresser à la prospective et y apporter une contribution que j'estime essentielle.
Cela constituera la première partie d'un chapitre que je consacrerai au développement de la recherche en prospective que Jacques Lesourne, depuis
une « discipline » qui, à mes yeux,
longtemps, appelle de ses voeux
aux
humaines
de ceux qui la pratiquent qu'aux
emprunte davantage
qualités
méthodes et aux outils. Après donc quelques mots sur Jacques Lesourne luimême, je m'intéresserai d'abord à notre conception du futur et à la philosophie qui sous-tend la démarche prospective, ensuite aux méthodes utilisées
pour explorer les futurs possibles et construire un avenir souhaitable.
Chemin faisant, j'essayerai d'esquisser quelques pistes nouvelles de
réflexion.
(1) LesourneJ. « Plaidoyerpour une rechercheen prospective», revueFuturibles,n° 137,
novembre1989.
232
PROSPECTIVE
La personnalité du prospectiviste
Sans prétendre un instant décrire la personnalité de Jacques Lesourne, il me
semble utile de souligner combien certains de ses traits ont pu jouer un rôle
essentiel dans son parcours professionnelatypique et dans son apport à la
prospective.
D'abord son intelligence exceptionnelle qui, mêlée à une grande honnêteté
intellectuelle, l'empêcha de rester campé dans une discipline qui, quelle
qu'elle soit, exige des membres de la corporation qu'ils adhèrent, sans trop de
réserve et de scrupules, à un système de pensée qui, inéluctablement, est très
réducteur au regard de la réalité, a fortiori des « systèmes humains » qui l'intéressent. Avant de rédiger cette contribution, j'ai relu ces dernières semaines
de très nombreux livres et articles de Jacques Lesoume. Les exemples sont
innombrables du recul critique qu'il garde toujours vis-à-vis des concepts et
théories intellectuels qu'il utilise. Son aspiration à faire preuve de « scientificité » n'a d'égal que son souci permanent de mieux saisir l'évolution des
sociétés humaines dans leur globalité et donc dans leur complexité.
Mais si Jacques Lesourne possède des qualités exemplaires pour nombre de
prospectivistes, c'est aussi et peut-être surtout parce qu'il n'hésite jamais à
se remettre lui-même en cause et à s'investir dans des champs nouveaux.
Épris de rigueur, il pourrait logiquement s'enfermer dans un système de pensée et ne retenir des évolutions en cours que ce qui vient conforter sa thèse
de départ. Mais, plus soucieux de comprendre que de vérifier ses convictions
premières, il ne cesse de s'investir dans des champs nouveaux : partant de
l'économie, il passe à la géopolitique puis intègre la dimension sociale, puis
la révolution technique... et, loin de sauter de l'un à l'autre par investigations successives, il intègre, avec un esprit de synthèse remarquable, tous ces
apports nouveaux dans une même pensée.
Il y a manifestement deux sortes de chercheurs : ceux qui s'enferment (ou
s'enferrent) et ceux qui s'ouvrent (les explorateurs). Il fait clairement partie de
la seconde catégorie. Et, comme il manie avec une grande aisance l'analyse de
système, plutôt que de s'égarer comme beaucoup risqueraient de le faire, il
intègre fort heureusement chaque nouvelle découverte dans un tout.
Soulignons cette capacité singulière que possède Jacques Lesoume de s'intéresser à des questions toujours nouvelles. Elle lui permet d'échapper à la
sclérose qui menace tant d'intellectuels et lui confère sans nul doute un atout
peu commun pour exceller dans une démarche prospective qui se veut
« intégrative » et cependant rigoureuse.
Il est vrai que Jacques Lesoume est un homme de grande culture appréciant
les arts autant que les sciences, ayant une connaissance de l'histoire des civilisations qui, certainement, en fait un observateur particulièrement averti du
monde contemporain et qui porte un intérêt tout particulier aux liens complexes qu'entretiennent la réflexion, la décision et l'action.
Pourune rechercheen prospective
233
D'un abord austère, comme beaucoup de scientifiques que l'on soupçonne
en conséquence d'être peu attentifs à l'humain, Jacques Lesourne est profondément généreux : générosité d'esprit qui va de pair avec l'ouverture que
j'évoquais précédemment ; générosité de coeur que, ayant le privilège de travailler à ses côtés, j'ai pu si souvent apprécier. Générosité qui explique sans
doute aussi son dévouement au bien collectif et l'importance qu'il accorde
aux personnes, celles qui font partie de ses proches, dont il ne parle guère
mais dont l'influence me semble forte, celles plus lointaines qui forment
l'espèce humaine dont le devenir est l'obsession du prospectiviste.
Sans ces qualités humaines, Jacques Lesourne n'aurait sans doute jamais
excellé à ce point dans le domaine de la prospective qui, avant d'être une
discipline, est davantage une philosophie et, avant d'exiger des aptitudes
intellectuelles, requiert une manière d'être, une tournure d'esprit et une posture qui relèvent plus de la psychologie que de la technique, exigeant plus
qu'un savoir-faire, une culture.
Ces quelques traits que je n'ai fait qu'évoquer rapidement viennent conforter l'image sans doute trop idyllique que je me fais du prospectiviste et donc
de la formation qu'exigerait la pratique d'une telle discipline. Que mes amis
enseignants ne m'en tiennent point rigueur et que leurs étudiants ne se
méprennent pas sur le message. Il est très utile que soient assurés des cours
de prospective comme du reste nous en organisons nous-mêmes au sein du
groupe Futuribles. Mais l'apprentissage et l'appropriation des concepts (ceci
étant le plus important) et des méthodes, pour utiles qu'ils soient, sont insuffisants pour former de « bons » prospectivistes. Au mieux, ils leur ouvrent
de nouveaux horizons, les mettent en appétit, leur confèrent quelques clefs.
Mais, en fait, tout reste à faire, à supposer qu'ils aient en cette matière
quelques prédispositions, sur le plan du savoir-être, de la culture générale et
du dévouement à une cause presque ingrate par définition.
Revenons cependant à des choses plus simples qui néanmoins exigeraient,
comme le souligne Jacques Lesourne lui-même, un effort de recherche plus
grand si nous ne voulons pas voir « la prospective se scléroser et s'appauvrir
à l'heure même où le succès de sa diffusion multiplie le nombre de ceux qui
la pratiquent avec une expérience limitée
Je veux parler des concepts
et des méthodes.
,
Sur la nature de l'avenir
Jacques Lesourne aime bien dire que l'avenir serait « le fruit du hasard, de
la nécessité et de la volonté ». Cette formule, quoique comportant une part
indéniable de vérité, me gêne dès lors qu'elle laisse aux individus la possibilité de se soustraire à leur responsabilité (donc à l'exercice de leur volonté)
au prétexte qu'ils seraient acculés par les circonstances (hasard ou nécessité)
à adopter tel ou tel comportement.
( I )LesourneJ.,
cit.
234
PROSPECTIVE
Loin
de moi l'idée que l'avenir
n'est qu'affaire
de volonté (quoiqu'il
en
la
matière
d'améliorer
notre
connaissance
des acteurs et de leur
importe
et
de
demain (1». Mais j'ai souvent eu envie
stratégie d'hier, d'aujourd'hui
de lui répondre que « c'est précisément la preuve de l'imprévoyance
que
l'on tombe sous l'empire de la nécessité ». Et que « le moyen qu'il n'en soit
des situations en formation tandis
pas ainsi est de prendre connaissance
sont
encore
avant
modelables,
qu'elles
qu'elles n'aient pris forme impérieu»
sement contraignante
J'entends de cette manière insister sur la nécessité de l'anticipation,
ellemême étant la meilleure garante de notre liberté qui, certes, n'est jamais
totale mais, bien souvent, se trouve réduite à néant de notre propre fait. Ainsi
en est-il quand, exclusivement
occupés à gérer les urgences, nous n'accordons pas d'attention suffisante aux situations en formation lorsque l'on peut
encore en infléchir le cours et, à défaut de disposer d'un tel pouvoir, lorsque
nous sommes encore en mesure de nous préparer à y faire face.
« Quand il est urgent, c'est déjà trop
Célèbre est la phrase de Talleyrand :
tard. » Il est clair que, à mesure que le changement s'accélère (est-ce en tout
domaine aussi vrai qu'on se plaît à le dire ?), se multiplient sur le bureau des
décideurs les dossiers appelant décisions et il est alors fort naturel que ceuxci soient traités dans l'ordre que dicte l'urgence.
Hélas, les problèmes ne se trouvent ainsi inscrits à l'agenda que lorsqu'ils
sont devenus « brûlants » et les décideurs ont alors tendance à justifier leurs
actes en arguant du fait qu'ils n'avaient pas le choix. Au jeu d'échecs, on
dirait que le coup est forcé. Les circonstances
imposent la décision qui ne
résulte plus d'aucun choix de la part de l'acteur désormais paralysé.
La vérité est qu'ils n'ont alors plus le choix, ayant, faute d'anticipation
sufet leurs marges
fisante, laissé la situation prendre une forme incontournable
de manoeuvre être réduites à néant.
Reconnaissons
est d'autant plus nécessaire
cependant que si l'anticipation
le
s'accélère
elle
devient
aussi
que
changement
plus difficile : l'exploration des futurs possibles est particulièrement
ardue lorsque, à la différence
du jeu d'échecs, la scène se déforme, le nombre d'acteurs évolue, la répartition de leur pouvoir et leurs comportements
changent en permanence. D'où
la nécessité d'améliorer nos instruments d'investigation
du futur et d'accorder au jeu des acteurs une attention au moins aussi grande que celle que l'on
porte aux tendances. D'où aussi l'importance
que revêt désormais la vigi(1) Regrettons à cet égard que si peu d'historiens se soient intéressés à l'analyse causale des
événements qu'ils relatent.
(2) Jouvenel B. de, L'art de la conjecture, Paris, Sedeis, coll. Futuribles, 1972, p. 338.
(3) D'où la métaphore du phare de Gaston Berger : « Sur une route bien connue, le conducteur d'une charrette qui se déplace au pas, la nuit, n'a besoin, pour éclairer sa route, que
d'une mauvaise lanterne. Par contre, l'automobile qui parcourt à vive allure une région
inconnue doit être munie de phares puissants. Rouler vite sans rien voir serait proprement
une folie. »
Pourune rechercheen prospective
2355
lance qui, seule, est de nature à fournir les éléments indispensables à une
analyse permanente des déformations que subit l'arborescence des futurs
possibles.
L'avenir n'est pas prédéterminé, n'est pas déjà fait. Il échappe donc par
essence au champ de la connaissance, ne peut en aucune manière être prévu
- quelles que soient les méthodes mises en oeuvre - de manière scientifique
et certaine. De grands progrès demeurent cependant à réaliser : d'abord au
plan culturel pour admettre l'incertitude et comprendre qu'elle constitue une
opportunité tout autant qu'une menace ; ensuite au plan des méthodes prospectives utilisées dans l'exploration de l'avenir.
Sur ce registre des méthodes, je suis particulièrement frappé de la faiblesse
de nos outils d'observation du présent, a fortiori de nos instruments de simulation.
Notre connaissance
du présent
L'avenir n'émerge pas du néant ; il prend racine dans le présent et le passé,
d'où l'existence de tendances plus ou moins lourdes et empreintes d'inertie.
La première tâche du prospectiviste est donc d'essayer de comprendre quelle
est la situation présente au travers de sa dynamique temporelle longue. Donc
en faisant le tri entre le conjoncturel et le structurel.
Se réclamant de l'analyse de système, il s'efforce de recenser les variables
de toute nature et leurs interdépendances en même temps que les acteurs,
leurs jeux d'alliance et de conflit, qui exercent ou peuvent exercer un rôle
important. L'intention est bonne même si le résultat n'est jamais garanti.
Mais il me semble qu'il faut aller beaucoup plus loin, d'une part dans l'analyse du système, d'autre part dans l'analyse des données.
Dans l'analyse du système, comment ne pas tenir compte davantage de la
position spécifique de l'observateur, des « lunettes » qu'inéluctablement il
porte sur le nez et qui introduisent un biais inévitable dans son regard, enfin
de l'objet observé, souvent tributaire lui-même du lieu d'où on l'observe et
de la manière de l'analyser ?
.
Le sujet à lui seul exigerait de longs commentaires et surtout de plus amples
recherches. Mais il me semble indispensable de tenir compte de la capacité
visuelle limitée qui est la nôtre, ne fût-ce qu'en raison du poids des habitudes, du refus souvent inconscient de voir, des tabous et de ce que Michel
Godet appelle les idées reçues. Cela renvoie à des questions de psychologie
individuelle et collective élémentaires aussi bien qu'à des problèmes d'éducation et de culture et à la recherche elle-même.
Je ne prendrai que deux exemples pour illustrer les difficultés que nous
éprouvons à bien saisir la situation présente : le premier concerne nos instruments d'observation et de mesure ; le second est relatif au poids des
concepts et théories régnants.
236
PROSPECTIVE
1. Il se trouve que nos instruments
des variables « dures » ont
d'analyse
fait l'objet d'une attention et d'un effort de recherche beaucoup plus grands
que ceux dont nous disposons sur les variables « molles » ; que ce qui peut
être aisément quantifié fût-ce à l'aide d'artefacts est autrement mieux
cerné que ce qui relève du qualitatif.
Mieux
saisir la réalité sociale constitue certes un pari immense. On comen
d'une science
prend
conséquence que Pigou, soucieux du développement
Lesourne
connaît
mieux
économique que Jacques
que quiconque -, invite
au début du siècle ses pairs à limiter leur discipline à l'examen des seuls faits
mesurables à l'aune monétaire. Cela était certes plus commode. Mais cela
excluait d'emblée que cette science puisse toute seule englober l'ensemble
des phénomènes sociaux et, d'entrée de jeu, disqualifiait le produit intérieur
brut comme indicateur synthétique
de bien-être ou l'assimilation
de ce
même PIB au concept médiéval de bien commun.
Rien d'étonnant en conséquence au fait que Denis de Rougemont s'exclame.
cinquante ans plus tard que « le PNB habitue les pouvoirs à donner tous
leurs soins au coûteux de l'existence, à ce qui coûte cher, mais à négliger le
précieux, ce qui nous est cher. Ou encore dans le conflit qui les oppose, à tricher systématiquement
en faveur de la technosphère
aux dépens de la biosphère ». Rien d'étonnant non plus à ce que la science économique ignore
les biens (l'oxygène, par exemple) et les services (le travail domestique) gratuits ou encore, pendant longtemps, les extemalités (pollutions et nuisances)
dont on ne prendra conscience de la valeur que beaucoup plus tard (sans
pour autant toujours trouver le moyen de l'intégrer dans notre comptabilité
nationale).
Les données économiques sont éminemment utiles. Mais elles n'ont qu'une
valeur toute relative et la science dont elles relèvent n'a donc point vocation
à rendre compte de la société tout entière.
Au demeurant, quoiqu'on l'oublie souvent, on sait bien qu'une même valeur
exprimée en monnaie ou en parité de pouvoir d'achat (PPA), dont l'évolution est retracée à l'aune du taux de croissance ou en valeur absolue, ne
confère pas du tout la même image de la réalité.
Que dire alors de ce que l'on appelait jadis les indicateurs sociaux qui firent
dans les années soixante l'objet de recherches fort intéressantes,
hélas très
largement abandonnées,
y compris en raison de querelles souvent stériles
entre les tenants des indicateurs multiples et ceux des indicateurs synthésur les budgets-temps
tiques. Pensons à l'enquête internationale
que pilotait
alors Alexander Szalai, à l'abandon
de ce type de travaux et, en conséquence, à notre piètre connaissance de l'usage du temps que font les individus, indicateurs dont l'utilité cependant peut difficilement être mise en doute
aussi bien aux modes de vie qu'à des propar tous ceux qui s'intéressent
blèmes plus globaux de mobilité, d'accès aux services...
Il est vrai que nous sommes très malhabiles pour pondérer des indicateurs
très hétérogènes et que ceux qui, dans les années plus récentes, se sont effor-
Pourune rechercheen prospective
237
cés de le faire - pensons à l'équipe du PNUD qui a échafaudé le concept
d'indice du développement humain (IDH) - font l'objet, non sans raison, de
sévères critiques (1).
Le fossé entre la réalité et sa perception est encore plus évident lorsque, par
exemple, on compare l'évolution du sentiment d'insécurité des Français, tel
que le mesure le CREDOC à l'aide d'enquêtes d'opinion, et le niveau « réel »
de risque, tel qu'il peut être appréhendé de manière du reste fort imparfaite
par les statistiques de la police nationale.
Que dire alors de la connaissance encore plus fragile que nous avons des
valeurs qui animent les individus, valeurs qui ne sauraient être confondues
avec les opinions qu'ils expriment, elles-mêmes très tributaires de la
conjoncture et, bien évidemment, de la formulation des questions.
Bref, nous sommes très ignorants des réalités contemporaines et encore plus
des évolutions passées ; très maladroits pour distinguer ce qui relève d'un
effet de période, d'âge ou de génération et, plus généralement, ce qui relève
de l'écume des jours et ce qui constitue de véritables tendances lourdes.
Beaucoup de progrès et donc de recherches devraient, à mon sens, être réalisés pour améliorer nos instruments d'observation et de mesure de la dynamique contemporaine qui forme la base nécessaire à tout exercice de
prospective. Je suis surpris du reste que nos meilleurs manuels de prospective et la plupart des formations à cette « indiscipline » soient si silencieux
sur la constitution d'une base de connaissance qui me semble indispensable.
2. J'en viens aux concepts et aux théories régnantes, en priant le lecteur de
me pardonner ces propos critiques à l'encontre d'une discipline à laquelle je
suis heureux de consacrer l'essentiel de mon temps.
:
1
Mais il est frappant de voir combien nous réfléchissons au futur à l'aide de
concepts et de théories hérités d'hier et, bien souvent, déjà dépassés. Aux
lycéens, plusieurs années après Hiroshima, on enseignait encore que l'atome
était insécable. J'observe régulièrement que l'on s'obstine à enseigner des
connaissances périmées, à user de concepts dont la pertinence me paraît douteuse, à propager des théories depuis longtemps démenties par les faits,
concepts et théories que l'on utilise sans vergogne pour construire ensuite
des scénarios sur l'avenir.
'
`
Il y aurait beaucoup à dire sur ce chapitre ; je ne prendrai que deux
exemples. Sur les concepts, est-il bien raisonnable de s'obstiner à distinguer
parmi les activités productives celles des secteurs dits primaire, secondaire
et tertiaire, laissant entendre que le développement se traduit par la transition d'une étape à l'autre ? L'agriculture s'est industrialisée à grands pas et
aujourd'hui, comme l'industrie, se tertiarise (voir la montée de l'immatériel
et des services incorporés dans les produits industriels et ce qu'ils représen-
'
;
(1) Voir,par exemple,l'article de BanethJ., « Les indicateurssynthétiquesde développement », RevueFuturibles,n° 231, mai 1998.
;
238
PROSPECTIVE
tent dans leur coût) alors que, simultanément, s'industrialisent nombre d'activités tertiaires (pensons hier à l'essor de la machine à laver et aujourd'hui
au développement des industries culturelles). Nos concepts n'auraient-ils
pas besoin d'une sérieuse révision sous réserve toutefois que, en changeant
trop souvent nos nomenclatures, nous ne nous privions pas de séries statistiques longues ?
Sur les théories, les exemples sont identiquement innombrables. Je ne suis
pas économiste mais n'enseigne-t-on pas toujours la loi de Philipps qui, si je
l'ai bien comprise, veut que le chômage et l'inflation évoluent en sens
contraire, loi démentie par les faits dans un grand nombre de nos pays ?
N'est-on pas extraordinairement réducteur dans l'explication des liens entre
la croissance et l'emploi ? Et je ne prends là que deux exemples issus d'une
des disciplines les plus rigoureuses parmi toutes les sciences dites humaines
truffées, me semble-t-il, de théories tenues pour acquises alors qu'elles mériteraient à tout le moins discussion...
L'exploration du futur
Il y aurait beaucoup à dire sur la démarche prospective, les méthodes et
outils du reste fort différents qu'utilisent ceux qui la pratiquent. Pour ne
point trop allonger cette modeste contribution, je me limiterai à trois observations : la première relative aux scénarios, la seconde à la prise en compte
de la dimension temporelle, la dernière afférente à l'analyse des jeux
d'acteurs.
1. Jacques Lesourne insiste fort à propos dans son « Plaidoyer pour une
recherche en prospective » (op. cit.) sur la nécessité de se doter d'un « système de représentation explicite de la réalité ». Il a infiniment raison.
Point ne suffit d'engranger des données en tout genre sur le monde actuel ni
d'effectuer une analyse structurelle. Il faut à un moment donné être capable
de se représenter le système et de comprendre ce qui détermine sa dynamique d'ensemble. Ici plus qu'à toute autre étape s'impose une réflexion de
nature systémique qui - les capacités de synthèse sont là indispensables permet de se forger une représentation de ce que j'appelle le système de référence - dont nous explorerons ensuite les évolutions possibles. « Mais,
comme chacun sait, le degré de formalisation de ce système reste largement
ouvert ; avec, à un extrême, des modèles mathématiques transparents et à
l'autre des constructions hétérogènes mêlant avec plus ou moins de cohérence acteurs, éléments et relations. Pour certains, le problème est simple :
ayant fait choix de la transparence, ils ne veulent connaître que la modélisation pure et dure. Malheureusement, dans l'état actuel de la connaissance,
cette décision engendre le plus souvent une telle mutilation du réel qu'elle
ne peut satisfaire le prospectiviste désireux de contribuer à la préparation de
stratégies » (J. Lesourne).
De surcroît, reconnaissons-le, un tel modèle n'est jamais qu'une représentation à l'aide d'un jeu d'équations d'un sous-système tel qu'on l'a vu fonc-
Pourune rechercheen prospective
239
tionner dans le passé qui permettra de faire des simulations qui ne valent,
toutefois, que sous réserve qu'il soit pérenne et que « tout demeure égal par
ailleurs ». Enfin, si les hypothèses d'entrée sont arbitraires, les prévisions,
en dépit de l'apparence de scientificité que confèrent et l'outil et leur précision, n'en seront pas moins arbitraires.
Rien n'est plus simple, par exemple, qu'un modèle de projection démographique. Mais les différentes variantes sont éminemment tributaires d'hypothèses d'entrée souvent définies de manière très arbitraire à partir des
derniers indices connus (au mépris de leur évolution sur une longue durée
passée) et sans véritable analyse causale permettant de raisonner sur les facteurs favorisant ou faisant obstacle à leur occurrence.
J'ai tendance à penser que le même reproche peut, à peu de choses près,
s'appliquer aux modèles dits dynamiques et à ceux qui reposent sur un principe d'équilibre général. Outre leur caractère inéluctablement réducteur, ils
reposent fondamentalement sur le principe de l'extrapolation et postulent la
pérennité, tout au long de la période, de la morphologie et de la physiologie
du système de référence.
Leurs auteurs évoquent souvent les résultats de telles simulations en parlant
de scénarios contrastés. L'expression me semble impropre : il s'agit au
mieux de différentes variantes souvent qualifiées d'ailleurs de faible,
moyenne ou forte si bien, du reste, que l'utilisateur de ces travaux se borne
paresseusement à ne prendre en compte que la variante moyenne qui apparaît comme un bon compromis. Cela peut conduire à de graves méprises. Je
n'en prendrai qu'un exemple : les travaux récents - comme d'ailleurs ceux
qui les ont précédés - menés par le Commissariat général du Plan sur l'avenir des retraites. Hormis le fait qu'ils reposent tous sur l'hypothèse d'une
société inchangée (est-ce crédible à l'horizon 2040 ?), ils ne retiennent que
la variante moyenne des projections démographiques qui ne nous renseigne
pas de manière satisfaisante sur l'ampleur incertaine du vieillissement.
)
j
)
[
>
]
1
/
t
/
1
De véritables scénarios contrastés sont des scénarios qui se différencient les
uns des autres en raison de la déformation, progressive ou brutale, de la morphologie du système, de sa dynamique d'ensemble, donc aussi de sa logique
d'évolution. Nous quittons le système socio-économique de référence (la
base) pour nous orienter vers des modes alternatifs d'organisation dont on
doit pouvoir se représenter la structure et le fonctionnement.
2. Mais nous n'arriverons à élaborer ainsi des scénarios contrastés que si
nous travaillons tout autant sur les cheminements
que sur les images
finales.
Il est curieux de voir que beaucoup d'exercices de prospective se bornent à
construire des instantanés sur une année souvent fortuitement choisie. « La
France de 2015 » dira la DATAR. Pourquoi 2015 plutôt que 2010 ou 2020 ?
À-t-on réfléchi aux marges de manoeuvre dont le commanditaire dispose et
aux délais nécessaires à la mise en oeuvre de sa politique ?
240
PROSPECTIVE
Le risque est grand de voir alors se télescoper artificiellement sur une année
donnée des évolutions qui s'inscrivent dans des temporalités différentes, des
phénomènes à cinq ans avec d'autres qui se situent plutôt sur une échelle de
cinquante ans. On surestime ou sous-estime les facteurs de changement et
d'inertie parce que, fondamentalement, la dimension du temps, comme trajectoire, est absente. Ou, autre exemple, on travaille sur les retraites à l'horizon 2040 en supposant que les évolutions seront lisses sur l'ensemble de la
période alors que, tout au contraire, il est fort à craindre qu'il y ait des creux
et des bosses qui, justement, seront à l'origine de ruptures structurelles.
Aussi étrange que cela puisse paraître, la dimension du temps est très
absente de beaucoup de réflexions prospectives : le temps passé qui, à défaut
de se répéter à l'identique peut, sous réserve d'analyse causale, nous renseigner sur les acteurs et les facteurs ayant entraîné les évolutions observées ;
le temps futur comme trajectoire et non comme un point isolé.
J'ai le sentiment que c'est en travaillant sur les cheminements que l'on peut
entrevoir des points de bifurcations, de discontinuités et intégrer véritablement des hypothèses sur le comportement des acteurs confrontés à telle ou
telle échéance ou tel ou tel défi.
:
,
3. Je terminerai en évoquant précisément le rôle des acteurs. Il y a dans
toute démarche prospective, du moins lorsqu'elle est destinée, comme il me
semble naturel, à orienter la stratégie, une dialectique nécessaire entre le
registre de l'anticipation des futurs possibles et celui de la construction d'un
futur souhaitable.
Comme aucun acteur n'est tout puissant, nous sommes toujours ramenés à
la problématique de l'acteur et du système qu'a si bien analysée Michel
Crozier. Nous sommes tous dans la position du navigateur qui doit simultanément s'interroger (exploration des futurs possibles) sur l'évolution de son
environnement stratégique composé de facteurs (le vent) et d'acteurs (les
autres navigateurs) et, en tant qu'acteur, sur la stratégie et les actions qui
peuvent être les siennes. Ce que Jacques Lesourne appelle fort justement «
le macrochoix commandant des décisions subordonnées » 0.>.
Dans l'exploration des futurs possibles, il faut s'intéresser plus que nous ne
l'avons fait jusqu'à présent à la stratégie des acteurs, donc à l'évolution de
leurs valeurs et de leurs comportements, en sachant du reste que les comportements ne sont point exclusivement dictés par les valeurs mais résultent
de compromis sans cesse évolutifs entre ce à quoi les personnes aspirent et
les circonstances dans lesquelles elles se trouvent.
Jacques Lesourne en a bien conscience lorsqu'il amorce une réflexion sur les
valeurs dans Les mille sentiers de l'avenir (2).Reconnaissons cependant que
(1) LesourneJ., « Dela réflexionà l'action», RevueFuturibles,n° 72,décembre1983.
(2) LesourneJ., Lesmillesentiersde l'avenir,Paris,Seghers,1981.
Pourune rechercheen prospective
2411
la prospective sur ce double registre des valeurs et des attitudes demeure à
un stade embryonnaire et que, ici également, un effort de recherche important s'impose.
La construction
du futur
Je terminerai par quelques mots sur la construction du futur car tenter de
l'explorer est une chose qui n'a vraiment de sens que si nous entendons
nous-mêmes en être aussi un peu artisans. La question « Que peut-il advenir ? »
ne m'intéresse que si elle contribue à m'assurer des marges de manoeuvre
(l'anticipation comme gage de liberté) pour réaliser un futur que j'estime
souhaitable (que puis-je faire ? qu'ai-je envie de faire ?).
Ici intervient un élément de désir personnel ; ici intervient la conception que
nous nous forgeons d'un avenir souhaitable qui prend racine dans les valeurs
et dans l'imaginaire individuel et collectif.
Je regrette que nombre de prospectivistes, soucieux de rigueur, notamment
lorsqu'il s'agit d'explorer le champ des possibles, mais en quête aussi d'une
légitimité académique, privilégient à l'excès l'esprit d'analyse au détriment
d'une part d'intuition et d'imaginaire, accordant parfois à la raison une place
plus importante que celle qu'elle exerce en réalité dans les comportements
humains. Sans doute serait-il utile de réhabiliter la notion de désir, de reconnaître enfin que les comportements individuels et collectifs sont mus par
d'autres facteurs, certes encore plus insaisissables que ceux qui entrent dans
la froide logique de la raison.
Célèbre est la formule de Sénèque affirmant qu'il « n'est de vent favorable
que pour celui qui sait où il va ». Dire que l'avenir est domaine de pouvoir
et de volonté n'a de sens que dès lors que ceux-ci sont mis au service d'une
intention, d'une vision, d'un projet, d'un dessein. Félibien écrivait : « Le
terme dessein est générique. C'est une expression apparente ou une image
visible des preuves de l'esprit et de ce qu'on s'est premièrement forgé dans
son imagination. »
Identiquement le projet (de pro-jacio), c'est jeter dans
un temps à venir le fruit d'un désir, le produit de notre imagination. C'est
une part de rêve passée au crible de la raison.
'
Méfions-nous de ne pas laisser se répandre l'idée qu'une étude prospective
- fût-elle stratégique - permettrait de désigner « scientifiquement » le but à
atteindre. Celui-ci résulte d'abord de nos valeurs, de ce que nous nous estimons souhaitable, de ce que nous éprouvons comme désirable. Sans doute
le démagogue aura-t-il essentiellement pour objectif de répondre à la
demande la plus immédiate de l'opinion et l'homme de marketing de satisfaire les besoins du marché qu'il prendra soin d'analyser le mieux possible
avant de définir sa stratégie.
( I Cité dans le Dictionnairede Richelet,éd. 1759,Tomel, p. 738.
242
PROSPECTIVE
Mais le stratège se doit d'être porteur d'une vision à plus long terme, à
charge bien sûr de s'assurer que l'objectif qu'il s'assigne n'est pas hors d'atteinte : une pure vue de l'esprit, voire une utopie. Entre donc dans sa comen même temps qu'une part d'analyse.
Et
position une part d'imaginaire
est
de
la
selon
la
de
Lesourne,
l'objet
méthodologie,
jolie expression
Jacques
double : « Renforcer les chances d'un bon équilibre entre la liberté de l'imagination et la prise en compte des contraintes du réel ; fournir une boîte à
outils permettant de tester des cohérences et de déduire des conséquences
compatibles avec les hypothèses
En d'autres
termes, évitons les excès : et de poursuivre un projet qui ne serait
qu'un pur produit de nos fantasmes individuels et/ou collectifs, et d'imaginer que l'objectif découlera logiquement d'une analyse purement rationnelle
des options possibles. Entrent dans la décision comme dans l'action stratédans
gique une part de rêve et une part de raison, de même qu'interviendront
leur mise en oeuvre d'un côté des opportunités et des contraintes qui s'imet de désir qui, pour s'acposent à nous, de l'autre une part d'imagination
et
volonté.
complir, exige courage
ici aux décideurs de la prospective
N'attendons
point - je m'adresse
qu'elle dicte nos choix et serve, le cas échéant, d'alibi aux décisions prises.
Sa fonction est autre : alerter le décideur sur des défis à venir, de sorte qu'il
reste maître de ses choix plutôt que les voir être imposés par les circonstances, l'éclairer sur ses marges de manoeuvre et sur les options qu'il peut
prendre tout en lui fournissant une évaluation ex ante de leurs conséquences
directes et indirectes, immédiates et à plus long terme. Sa véritable vertu est
de mettre chacun face à ses responsabilités
dans la construction d'un futur
davantage choisi que subi. Ce qui exige sans conteste que l'avenir devienne
l'affaire de tous et non d'une minorité de prospectivistes
qui prétendraient
détenir le monopole d'un savoir impossible.
Contrairement
à une idée très répandue, la démarche prospective comme
instrument d'exploration
des futurs possibles n'est point le préalable à
comme instrument
de construction
du futur -,
l'analyse
stratégique la
décision.
Si
du
futur
l'exploration
part du présent
laquelle précéderait
construire
une
arborescence
des
sentiers
de
alors
l'avenir,
pour
que la strasouhaitables
établir
le
à
rebours
des
tégie part d'objectifs
pour
compte
actions nécessaires à leur réalisation, les deux démarches, quoique très difet souvent simultanées,
l'une
férentes, sont éminemment
complémentaires
et l'autre s'enrichissant
mutuellement pourvu toutefois que l'on prenne soin
de bien distinguer l'exploratoire
du normatif, ce qui relève de la nécessité et
ce qui incombe à la volonté.
( 1 )Lesourne J., « De la réflexion à l'action », op. cit.
Pourune rechercheen prospective
243
Il y aurait certes beaucoup à faire sur le registre des concepts et des
méthodes - sans limiter l'effort à la seule production d'outils plus ou moins
formalisés -, sur le registre de la connaissance, des données et des systèmes
de représentation, sur le registre de la production de scénarios véritablement
dignes de ce nom permettant de balayer le champ des possibles en veillant
au fait que l'éventail ne soit ni trop large ni trop serré, sur le registre enfin
de nos conceptions heureusement diverses des futurs souhaitables et des
conditions à réunir pour qu'ils acquièrent quelque vraisemblance.
Je n'ai fait qu'esquisser quelques pistes de réflexion. Un programme de
recherche en prospective d'une tout autre ampleur et mieux structuré serait
assurément indispensable pour éviter que cette forme de pensée ne fasse
long feu. Gageons que si Jacques Lesourne voulait bien en être l'homme
orchestre, la prospective et tous ceux qui s'en réclament pourraient grandement progresser dans le domaine des idées et - sait-on jamais - sur le
registre de la gouvernance, donc des instances de contrôle dont il dénonce
l'insuffisance.
Christian
Schmidt
DESDÉCISIONS
INDIVIDUELLES
À LAPROSPECTIVE
SOCIALE
Une médiationpar la théorie des jeux
1. UNMÊMEPROGRAMME
DERECHERCHE
DIFFÉRENTS
POURDEUXCHANTIERS
Jacques Lesourne dit parfois de lui-même, non sans malice, qu'il n'échappe
pas à une certaine schizophrénie intellectuelle. Ses contributions à la
connaissance économique, principalement consacrées à la théorie de la décision individuelle et à l'analyse des systèmes auto-organisateurs sont marquées du sceau de la rigueur la plus exigeante. Lorsqu'il pratique simultanément la réflexion prospective, il recourt en revanche à des représentations partielles des systèmes sociaux et utilise des techniques qu'il qualifie
de « semi-formalisées ». Laissons à des personnes plus qualifiées le soin
d'une interprétation psychologique de cette boutade, pour nous interroger
plus avant sur l'existence d'une éventuelle rupture entre ces deux domaines
d'investigation.
L'énoncé des thèmes qui ont retenu l'attention de Jacques Lesoume et plus
encore l'angle sous lequel il les aborde plaide plutôt en faveur de l'unité.
Lorsqu'il étudie les décisions économiques individuelles, il s'emploie à élargir le domaine de la théorie classique : prise en compte des représentations
des autres comme argument dans les fonctions d'utilité individuelle, substitution d'une approche multicritère à la simple rationalité maximisatrice dans
la définition de leur objectif, intégration du rôle du temps grâce à un découpage en périodes introduisant la mémoire et l'adaptation par l'apprentissage
(Lesoume, 1975, 1977).
Desdécisionsindividuelles
à la prospectivesociale
245
On retrouve un écho direct de ces préoccupations dans son traitement des
jeux d'acteurs en prospective : constat de la variété des représentations,
insistance sur la complexité de la relation entre l'action et les processus de
décision qui le précèdent et/ou l'accompagnent faisant intervenir diverses
conceptions de la rationalité, distinction de sous-périodes afin d'identifier
les réactions des acteurs aux événements qu'ils ont vécus et d'appréhender
leurs éventuels changements de stratégie (Lesourne, 1981, 1994, 1996).
Très tôt sensible à une approche systémique des phénomènes économiques,
Jacques Lesourne a puissamment contribué à reconstruire sur cette base
l'analyse microéconomique à partir de trois idées directrices : les agents économiques ne disposent jamais que d'une information incomplète et imparfaite de l'univers dans lequel ils opèrent ; les processus d'interactions
économiques sont intrinsèquement dynamiques ; l'émergence d'institutions
marchandes dans leur acception la plus large s'effectue selon des procédures
auto-organisatrices (Lesourne, 1991, 1998).
Les traces de cette maturation ainsi que le langage des systèmes qui l'a
rendu possible sont également repérables dans ses travaux de prospective.
L'analyse systémique inspire l'exercice Interfuturs qui servira longtemps de
cadre référence à la réflexion prospective de l'OCDE (1979). Dès cette
époque, le fil d'Ariane qui guide sa démarche est la recherche de voies de
passage des systèmes à apprentissage aux systèmes à auto-organisation
(1981). Revenant plus tard sur le versant méthodologique des travaux de
prospective, il souligne l'impérieuse nécessité de définir un système de référence répondant à certaines conditions, au premier rang desquelles figure la
dynamique de l'évolution (Lesourne, 1989).
Si rupture il y a, elle ne porte donc ni sur l'orientation générale des recherches
de Jacques Lesourne dans ces deux domaines, ni, de manière plus précise,
sur les hypothèses majeures qui sous-tendent les unes et les autres. Leurs
voies bifurquent en raison de la nature propre du savoir dans les deux cas.
L'économie, quelle que soit la manière dont elle est présentée, se divise en
deux branches distinctes, dont l'une est théorique et l'autre appliquée.
'
'
Ce diptyque n'a pas d'équivalent en prospective. Toute réflexion sur les avenirs possibles prend sa source en deçà des théories formalisées dans un
registre qui relève de la philosophie, comme l'avait clairement conçu dès
l'origine Gaston Berger. D'un autre côté, la prospective ne fournit pas de
prophéties. Sa finalité principale, si ce n'est exclusive, est d'éclairer les
acteurs sociaux. Elle se doit donc d'aider les décideurs appartenant à un
environnement déterminé à répondre aux questions concrètes auxquelles ils
se trouvent confrontés, ou tout au moins à leur permettre de mieux les formuler. La réflexion prospective relève pour ces deux raisons de ce que
Bertrand de Jouvenel appelait joliment, l'Art de la conjecture. Un art qui
mobilise certes toutes les ressources mises aujourd'hui à sa disposition par
les pratiques scientifiques, mais un art tout de même. Ce grand écart entre
la réflexion philosophique, en amont des constructions scientifiques, et
246
PROSPECTIVE
l'accompagnement des décisions, en aval des modèles techniques au moyen
desquels sont formulées les théories, explique la position singulière qu'elle
occupe aux confins des objets plus traditionnels de notre connaissance.
Pour réduire cet écart, Jacques Lesourne juge inadaptés les emprunts directs
à un formalisme dur, comme on les trouve notamment dans le premier
modèle du Club de Rome ou dans le système dynamique de Forrester
(Lesourne, 1994). Les avantages tirés de la rigueur formelle s'y trouvent
contrebalancés par les inconvénients dus à la rigidité des relations retenues
et à la pauvreté sémantique du champ des possibles qui en découle. En prospective, en effet, la formalisation ne peut avoir pour objectif, ni de garantir
la cohérence d'une théorie qui serait antinomique au projet prospectif luimême, ni de permettre une représentation stylisée des phénomènes observés,
puisque les réalités dont nous entretiennent les prospectivistes sont encore
d'ordre virtuel. Jacques Lesourne préconise donc une utilisation souple de
techniques semi-formalisées.
Nous proposons ici d'explorer une piste quelque peu différente mise à notre
disposition par les développements récents de la théorie des jeux. La théorie
des jeux garde, certes, de ses origines mathématiques un appareil formel qui
peut sembler lourd, mais elle ne vise ni à expliquer des phénomènes relevant
d'un domaine particulier, comme la théorie économique, ni à décrire leurs
manifestations observables, comme l'économétrie. L'étendue potentielle de
ses utilisations lui confère sur ce terrain un avantage qu'il incombe au prospectiviste d'exploiter. En proposant cette voie nous ne faisons du reste que
suivre l'une des démarches assignées par Jacques Lesourne à la recherche en
prospective dans son « Plaidoyer » : partir des modes de représentation existants en vue de les adapter aux objectifs spécifiques poursuivis par les études
prospectives (Lesoume, 1989, p. 87).
2. LIBÉRER
LATHÉORIE
DESJEUX
La mise en oeuvrede ce programme se heurte toutefois à une critique préjudicielle des théoriciens et au scepticisme rampant des praticiens. Pour les
premiers, l'analyse du comportement des agents individuels serait en théorie des jeux plus réductrice encore que dans la théorie économique standard
de la décision. Pour les seconds, l'exigence du formalisme logique sur lequel
elle repose laisserait un trop faible degré de liberté au prospectiviste pour
l'utiliser comme grille d'interprétation des diverses informations recueillies
sur les questions posées.
La première de ces objections est paradoxalement imputable à la longue liaison de la théorie des jeux avec l'analyse économique qui frise aujourd'hui
le concubinage. Pour y répondre, il importe de distinguer soigneusement ce
Desdécisionsindividuelles
à la prospectivesociale
247
qui, dans la théorie des jeux, appartient à son noyau conceptuel irréductible
de ce qui relève seulement d'interprétations empruntées à l'économie et
transmises de manière routinière par la tradition.
Considérons le joueur de la théorie des jeux. On l'assimile volontiers à un
agent économique. Le terme de joueur doit cependant retenir notre attention,
car il ne désigne pas un individu, mais un rôle. Cette précision permet de le
distinguer de l'agent qui, dans une circonstance particulière définie par le
jeu, assume ce rôle. Le joueur et l'agent sont eux-mêmes différents du décideur concret qui se trouve en position d'observateur par rapport aux résultats que pourrait obtenir un agent s'il jouait ce rôle. Semblables subtilités
sont souvent négligées dans la théorie des jeux classique. Les recherches
contemporaines aboutissent aujourd'hui à les faire resurgir à la faveur d'une
analyse approfondie des hypothèses des connaissances des uns et des autres
sur le jeu.
Le joueur se trouve doté d'un ensemble de stratégies entre lesquelles il effectue son choix. À chaque stratégie est associée une valeur de paiement qui
traduit l'évaluation faite par le joueur de l'issue du jeu, compte tenu des
choix des autres joueurs. Pour des raisons d'uniformisation avec la théorie
économique classique des choix individuels, les théoriciens des jeux ont pris
l'habitude depuis la seconde édition de Theory of Games and Economic
Behaviour (1946) (1) de formuler cette évaluation en termes d'utilité espérée.
Il en résulte :
1 ) que chaque joueur ne prend en considération dans son calcul que ses
propres préférences, à l'exclusion de l'information dont il dispose sur
celles des autres,
2) que son calcul se ramène à la maximisation d'un seul critère.
Le caractère réducteur du traitement des comportements des joueurs qui a
été rappelé reste parfaitement contingent. L'histoire nous enseigne d'abord
que le théorème du minimax garantissant l'existence d'une solution à tout
jeu à deux joueurs à somme nulle est libre de toute référence à l'utilité. Dans
la première démonstration de Von Neumann (1928), les paiements des
joueurs sont évalués en unités conventionnelles (gains ou pertes monétaires).
Du point de vue de l'analyse, ensuite, rien ne s'oppose à ce que chaque
joueur prenne en compte dans sa propre évaluation les estimations des autres
joueurs, ou tout au moins l'idée qu'il peut s'en faire à la lumière des informations dont il dispose sur eux et de son jugement. Plusieurs voies ont été
explorées en ce sens. La plus classique consiste à définir des paiements
« contextuels » en dotant les joueurs de fonctions d'utilité interdépendantes
(Nicholson, 1990, 1994). Une autre direction s'attache à introduire l'empathie éprouvée par chaque joueur vis-à-vis des autres au moyen de « méta( l )La premièreéditionde cet ouvragea été publiéeen 1944sans l'appendicemathématique
consacréà l'axiomatiquede l'utilité.
248
PROSPECTIVE
préférences » (Binmore, 1994). Quant à la maximisation d'un critère unique,
on trouve une preuve indirecte du fait qu'elle ne constitue pas une partie
intégrante de la théorie des jeux dans son inaptitude à rendre compte du
comportement des joueurs dans certains types de jeux. Dans beaucoup de
jeux évolutionnistes, l'évolution prend la forme d'un replicateur dynamique
dont l'idée a été empruntée à la biologie (Maynard Smith, 1982). Les
joueurs individuels considérés dans cette perspective ne sont plus conçus
comme des maximisateurs. Ils tendent, par leurs choix stratégiques, d'atteindre un niveau donné de satisfaction dont la signification est inséparable
du.groupe auquel ils appartiennent. Ce comportement peut s'analyser, pour
cette raison, en termes de rationalité limitée au sens de Simon.
L'important est ici que les concepts fondateurs de la théorie des jeux (stratégies, solutions...) se révèlent compatibles avec des hypothèses alternatives
faites sur les paiements des joueurs et sur les ressorts de leurs comportements. Les jeux ainsi obtenus en sortent transformés et enrichis.
Restent les stratégies. Par analogie avec la théorie dominante de la décision
économique d'inspiration savagienne, la stratégie se trouve traditionnellement interprétée comme un plan complet d'actions couvrant l'ensemble des
séquences du jeu jusqu'à sa phase terminale. Ainsi entendu, le déroulement
du jeu n'apprend rien au joueur que celui-ci puisse utiliser dans le choix de
sa stratégie. Toute dimension temporelle se trouve donc absente du choix
stratégique.
Cette interprétation conventionnelle de la stratégie a toutefois été récemment
remise en cause. D'un point de vue logique tout d'abord. La stratégie ne peut
être valablement assimilée à un véritable plan d'actions, car elle formule
plutôt un plan d'actions contingentes du type : « Si le joueur... jouait sa stratégie... au coup précédent, alors je jouerais ma stratégie..., au coup suivant... »,
ce qui suppose que toutes les actions qui ne sont pas mises en oeuvre appartiennent à ce plan. En sens inverse, pour que le plan d'actions d'une stratégie se réalise, il faut, non seulement qu'il soit décidé par le joueur qui en a
la disposition au début du jeu, mais encore que les comportements des autres
joueurs coïncident avec la conjecture que le joueur qui décide a faite sur eux
(Rubinstein, 1991). Le problème se complique encore lorsque le jeu comporte plus de deux joueurs. Si maintenant on introduit la notion d'apprentissage, il est clair qu'il devient nécessaire, non seulement que les joueurs
puissent observer l'écart qui sépare les résultats qu'ils ont obtenus à la fin du
jeu de ceux qu'ils attendaient, mais encore qu'ils soient en mesure de
connaître comment les autres joueurs auraient joué à des séquences du jeu
qui n'ont pas été atteintes dans son déroulement réel (Weibull, 1995).
Une fois encore, rien ne s'oppose conceptuellement à étendre notre interprétation de la théorie des jeux dans cette direction (Osborne et Rubinstein,
1994).
Ce premier repérage confirme notre hypothèse liminaire. La théorie des jeux
a vocation à devenir un médiateur entre les deux chantiers de recherches
Desdécisionsindividuelles
à la prospectivesociale
249
auxquels s'est attaché Jacques Lesoume, pour autant qu'elle se soit victorieusement libérée des entraves qui la rattachent, souvent arbitrairement, à la
théorie économique standard.
3. UNUSAGE
KALÉIDOSCOPIQUE
Le bien fondé de recourir à la théorie des jeux en prospective ne peut être
définitivement établi que si l'on répond à la seconde objection soulevée par
les praticiens. À première vue, un jeu tel que l'entend la théorie, se présente
comme un système formel rigide. On devine sa prégnance en observant que
toutes les notions qui ont déjà été discutées (joueurs, paiements, stratégies...) ne prennent un sens que dans le cadre rigoureusement circonscrit du
jeu étudié. D'un autre côté, une situation de jeu peut faire l'objet d'un grand
nombre de modèles différents. Le rapprochement de ces deux observations
met sur la voie d'un usage de la théorie des jeux en prospective, à condition
de distinguer soigneusement la situation de jeu des modèles au moyen desquels la théorie permet de la représenter.
L'interprétation donnée aux comportements individuels est étroitement tributaire du modèle qui a été retenu pour décrire cette situation. La distinction
précédemment énoncée entre le joueur et l'agent en fournit une illustration
exemplaire. Supposons un jeu fini qui se déroule sur plusieurs séquences et
où les joueurs jouent alternativement. Deux idées différentes sont associées
aux centres de décision. D'une part, celle d'une permanence du début à la
fin du jeu. D'autre part, celle du changement des ensembles d'information
associés aux décideurs en fonction de leur position dans le déroulement des
séquences. On peut avec certains auteurs réserver l'appellation de « joueurs »
à l'entité qui assure la première fonction et qualifier d'« agents » les entités
correspondant à la seconde. Au terme de cette formulation, chaque joueur
disposera de plusieurs agents (Harsanyi et Selten, 1988). Cette interprétation
singulière de la distinction entre joueurs et agents permet de mieux comprendre les structures profondes qui organisent les informations du jeu. Mais
elle n'est évidemment pas transposable à tous les jeux et en particulier aux
jeux à un coup (one shot game).
On peut pousser plus loin dans cette direction l'analyse de ce qu'est un
joueur en considérant le cas de deux entités individuelles dont les intérêts et
les préférences sont rigoureusement identiques et qui disposent exactement
des mêmes stratégies pour les satisfaire. Faut-il les traiter comme un joueur
unique (coalition formant une équipe) ou comme deux joueurs distincts ? La
réponse dépend du contexte, c'est-à-dire du modèle de jeu dans lequel ils
évoluent. Ils seront assimilés à un joueur unique si le jeu est représenté sous
une forme coalitionnelle, mais demeureront irréductibles s'ils prennent place
250
PROSPECTIVE
dans un modèle non coopératif. L'analyse de leur comportement soulève
dans ce dernier cas un problème nouveau qui échappe à la théorie de la décision individuelle, puisqu'il leur faut coordonner leur action pour atteindre
leur objectif. C'est ainsi que le problème de la coordination a été mis en évidence pour la première fois par Schelling dans le cadre d'un jeu noncoopératif classique qui, précisément, n'était pas en mesure de le résoudre
(Schelling, 1960).
La théorie des jeux offre une grande variété de modèles. Mais, au-delà des
formules vagues désignant les interactions de décideurs individuels doués de
raison, on chercherait en vain dans toute la littérature consacrée aux jeux une
définition générale et précise du jeu. Ces modèles de jeu présentent pourtant
trois composantes communes : une forme, au moyen de laquelle la situation
est décrite ; une solution, qui résout le problème qu'elle pose et dont on
déduit les standards de comportement que doivent adopter les joueurs pour
l'atteindre ; une structure d'information, attachée à chaque joueur à toutes
les étapes du jeu. Ces trois composantes ont des expressions multiples et partiellement indépendantes. Ainsi, une solution très utilisée comme l'équilibre
de Nash peut prendre place dans des jeux de formes différentes (forme normale, forme extensive et même forme coalitionnelle en l'interprétant dans
une version dite « forte »)
auxquelles peuvent être associées des structures d'information très diverses (depuis l'information complète common
knowledge, jusqu'à des systèmes d'information comportant beaucoup de
lacunes).
Ces modèles de jeu sont des constructions dérivées d'une vaste combinatoire
entre les trois composantes qui ont été rappelées. Cela autorise à se servir de
la théorie des jeux à la manière d'un kaléidoscope. Il revient au prospectiviste de choisir les données qui serviront d'invariants au kaléidoscope qu'il
entend utiliser pour caractériser la situation qu'il étudie. En l'agitant selon
certaines règles, il obtiendra plusieurs configurations différentes, toutes
compatibles avec les données initiales dont il dispose. Chacune d'entre elles
renvoie à un modèle dont la théorie des jeux est en mesure de dégager les
propriétés logiques. Les modèles de jeux n'ont pas la prétention de décrire
de façon exhaustive la ou les situations sur lesquelles le prospectiviste est
interrogé. Ils peuvent, en revanche, l'aider à formuler avec plus de rigueur
les problèmes qu'elles posent. Il reste qu'un tel usage des enseignements de
la théorie des jeux laisse aux prospectivistes une plage de liberté conforme
aux impératifs de cet exercice de pensée particulier.
(1) On appelleéquilibrede Nash fort la solutiond'un jeu où les membresd'une coalition
n'ont aucunintérêtà s'éloignerensembled'une positiond'équilibre(Bernheim,Peleget
Whinston,1987).
à la prospectivesociale
Desdécisionsindividuelles
2511
4. DESMÉTAJEUX
AUXHYPERJEUX
Faute de définition générale, tous les jeux partagent une propriété formelle
remarquable. À partir de n'importe lequel d'entre eux, on peut toujours
construire un autre jeu qui l'englobe et le décomposer en un nombre infini
de sous-jeux. Ces opérations permettent d'associer au jeu initial une série de
métajeux. Ce qui n'est souvent qu'une facilité pour le théoricien des jeux
qui, de cette manière, repousse certaines difficultés plutôt qu'il ne les résout,
se révèle être une ressource précieuse pour le prospectiviste.
Précisons la procédure de construction des métajeux. À l'origine, une situation est représentée par un modèle de jeu. Le modèle est composé d'informations détenues par le modélisateur et (au moins en partie) par les joueurs.
En changeant le statut donné à certaines de ces informations, on obtient ce
que l'on appelle un métajeu. Imaginons, par exemple, une situation traitée
sous la forme d'un jeu non coopératif à deux joueurs dont l'équilibre de
Nash est le concept de solution. Ce modèle comporte deux solutions qui
avantagent respectivement l'un ou l'autre des deux joueurs. L'analyse du
modèle montre que le joueur qui joue le premier se trouve en mesure d'imposer à l'autre l'équilibre qui lui est le plus favorable. Mais le jeu initial ne
dit pas lequel des deux joueurs jouera le premier coup. Cette information
peut être considérée comme une question explorée par un métajeu qui prend
alors la forme d'un nouveau modèle, celui du jeu pour le premier coup.
Une autre voie suivie pour construire des métajeux consiste à dégager les
différents niveaux de connaissance que chaque joueur peut avoir sur les
informations qui lui sont transmises par le jeu initial. Le premier niveau correspond à ce modèle initial. Au second niveau, le joueur se place mentalement dans la situation où il connaîtrait la stratégie choisie par l'autre joueur
au moment où il décide de sa propre stratégie. En procédant ainsi, il élabore
un métajeu. Il peut évidemment prolonger cette procédure en construisant le
métajeu de ce nouveau jeu qui correspond à un troisième niveau de connaissance par rapport aux informations contenues dans le jeu initial, et cela jusqu'à l'infini. Cette démarche n'est pas nouvelle. On la rencontre déjà chez
Von Neumann et Morgenstern (1944) et elle a été systématisée par Howard
dans les années 70 (Howard, 1971). L'essentiel ici est de dégager les ressources qu'elle met à la disposition de la prospective.
Empruntons l'exemple suivant à Crawford (1991). Il s'agit d'une situation
bien connue, communément formalisée par un modèle simplifié de jeu de
l'ultimatum. Le joueur 1 fait une offre au joueur 2 qui peut soit l'accepter
soit la refuser. Une telle situation se rencontre fréquemment au cours de
négociations. Au début du jeu, le joueur 1 dispose d'un ensemble d'offres
possibles qui constituent ses stratégies. Elles sont limitées ici à deux pour
des raisons de simplicité. Cette situation est généralement décrite par un
252
PROSPECTIVE
modèle non coopératif dont la solution est un équilibre de Nash. Sa forme
normale est représentée par la matrice suivante :
r
a
A
3,2
B
2,3
1,1
1,1
Dans ce jeu élémentaire, une solution unique s'impose à l'évidence, qui correspond au seul équilibre de Nash (A,a). Cet équilibre est stable puisque les
paiements que pourrait obtenir chaque joueur en s'en écartant seraient inférieurs à ceux qu'il leur garantit. De plus, le choix de r par le joueur 2 serait
irrationnel puisque cette stratégie est fortement dominée. Quant au choix de
B par le joueur 1, sa rationalité demeure discutable, dès lors qu'il s'agit
d'une stratégie faiblement dominée qui ne correspond pas à un équilibre au
sens de Nash. La construction du métajeu de premier niveau du joueur 2
modifie profondément cette perspective comme le révèle l'analyse de sa
forme normale :
A
a/AVB
3,2
r/AVB
1,1
B
2,3
1,1
a/A,r/B
3,2
1
1,1
a/B, r/A
1'l1
2,3
Deux conclusions se dégagent de son examen. D'une part, la nature des possibilités auxquelles peut donner lieu cette situation dépasse celui des états du
jeu de son modèle initial. D'autre part, diverses solutions différentes de celle
du modèle initial apparaissent compatibles avec les données disponibles sur
cette situation sans que le concept de solution ait été changé. Outre l'équilibre déjà identifié, ce métajeu contient deux équilibres supplémentaires (A,
a/A, r/B) et (B, a/B, r/A).
Le premier d'entre eux semble difficile à interpréter sans introduire une
erreur du joueur 2. Le second, en revanche, ouvre la voie à une analyse intéressante. Le joueur 1, craignant que le joueur 2, refuse une offre qui le désavantagerait, se trouve conduit à opter pour la proposition B qui est pourtant
moins avantageuse pour lui que la proposition A. Une telle conduite n'a rien
d'irrationnelle dès lors que ce risque peut exister. Quant à la stratégie du
joueur 2, qui consiste maintenant à accepter B et à refuser A, elle n'est pas
non plus dénuée de fondement. Elle satisfait tout d'abord le sens commun.
De manière plus fondamentale, contrairement à la stratégie r dans le modèle
du jeu initial, elle n'est pas fortement dominée mais seulement faiblement
dominée par la stratégie qui le conduirait à accepter la proposition quelle
qu'elle soit. Comme, par ailleurs, cette stratégie coïncide avec un équilibre
de Nash, les deux joueurs sont supposés partager la rationalité qui sous-tend
leur acceptation de ce concept de solution.
Desdécisionsindividuelles
à la prospectivesociale
253
La théorie des jeux classique soutient que seul l'équilibre de Nash du jeu initial est une solution véritable (équilibre « parfait » au sens de Selten) sur la
base d'un argument d'indépendance de la solution par rapport à l'état d'origine de la situation décrite par le modèle. D'une manière plus générale, du
reste, la pluralité des solutions est considérée comme un handicap. Tel n'est
pas le souci du prospectiviste dont l'objectif est d'abord de mettre en évidence des états possibles. La théorie des jeux n'a pas pour lui vocation à prévoir l'avenir résultant de la situation qu'elle a modélisée. Son rôle est
d'identifier le plus grand nombre de possibilités compatibles avec les données recueillies sur la situation et de recenser celles qui répondent à une certaine cohérence logique au terme de critères explicitement définis. Il revient
ensuite à la prospective de les transformer en futurs, en élaborant sur cette
base un ensemble de scénarios.
L'avantage de la technique des métajeux réside dans la prise en compte
directe des différents niveaux de connaissance à partir desquels les décisions
peuvent être arrêtées. Mais ces niveaux de connaissance se rapportent tous à
un jeu unique. Or, d'une part, les décideurs concrets ne disposent pas, le plus
souvent, d'assez d'informations pour identifier le jeu dans lequel ils jouent.
Ils évoluent, d'autre part, simultanément dans des jeux différents mais interdépendants. Les hyperjeux permettent de telles extensions.
La situation initiale n'est plus cette fois décrite par un modèle unique.
Chacun de ses participants imagine plusieurs modèles possibles pour la
décrire en fonction des informations qu'il détient sur elle. Chaque modèle
représente un jeu différent compatible avec ce que chacun connaît de cette
situation. On peut alors utiliser la distinction entre joueur et agent dans une
acception différente de celle d'Harsanyi et Selten précédemment évoquée.
L'agent correspond ici au centre de décision et le joueur aux rôles de cet
agent dans chacun des jeux possibles. À chaque agent i correspond maintenant plusieurs joueurs, chaque joueur j de i étant identifié par le jeu dans
lequel opère l'agent i. Soit symboliquement Fi =
J2, ... Jn) où ri représente l'hyperjeu de l'agent i et Jp Jn ... les r jeux mentaux qu'il contient.
L'exemple suivant offre une application d'hyperjeu à un cas très simple où
interviennent seulement deux agents. Considérons l'agent 1. Il connaît l'ensemble des actions dont il dispose ainsi que celles dont dispose l'autre agent.
Il en déduit un ensemble d'états possibles correspondant à tous les couples
d'actions. Il est en outre capable de définir un ordre de préférence sur ces
états. Mais il ignore les préférences du joueur 2. Dans la terminologie de la
théorie des jeux, on dira qu'il connaît seulement les paiements associés à
l'ensemble des états terminaux de cette situation de jeu. Ces informations
demeurent insuffisantes pour lui permettre d'identifier cette situation à un
jeu précis. Il peut néanmoins introduire différentes hypothèses sur le profil
de préférences de l'autre agent, selon, par exemple, qu'il s'agit d'un « mou »
ou d'un « dur », d'un tempérament plus ou moins agressif ou bienveillant.
La représentation de l'hyperjeu du joueur 1 correspondant à cet exemple se
traduit par le schéma suivant :
254
PROSPECTIVE
2
1
1
4
3
1
Situation initiale
A
A
B
BAB
2,2
4,1
1,4 3,3
A
A
BAB
A
2,1 4,2
B 1,3 3,4
2,1 4,2
B 1,4 3,3
A
2,2 4,1
B 1,3 3,4
J,1
Supposons que le joueur 1 sache que la situation initiale est une situation
Nashienne. Les 4 jeux Jl,J2, J3, J4 partagent le même concept de solution,
des joueurs dans
qui détermine à son tour les standards de comportement
Le
1
utiliser
sa
connaissance
de
chaque jeu.
joueur
peut
l'équilibre dans chacun des jeux comme une information susceptible d'orienter son choix straEn l'espèce, chacun des jeux mentaux
tégique au niveau de l'hyperjeu.
à
un
seul équilibre qui correspond à la même
appartenant
l'hyperjeu possède
tous
les
stratégie jouée par
joueurs associés à l'agent 1 dans les différents
Il
en
résulte
sa stratégie
jeux.
que l'agent 1 peut ici choisir rationnellement
A sans savoir pourtant par quel joueur et dans quel jeu elle sera mise en
oeuvre,.
Construisons de la même manière l'hyperjeu de l'agent 2 confronté à cette
situation mais manifestant des préférences différentes. On peut le représenter par le schéma suivant :
1
1
4
2
3
1
1
Situation initiale
A
A
B
BAB
4,2
2,11
1,4 3,3
J21
A
A
B
1,1 3,2
2,4 4,3
J22
A
B
1,1 4,2
2,4 3,3
J23
B
A
A
B
B
2,1
3,2
1,4 4,3
J24
Le même type de connaissances
sur la situation initiale que celle dont dis1
n'est
suffisante
cette fois pour permettre à l'agent 2 de
pose l'agent
pas
choisir rationnellement
sa stratégie. La réponse dictée par la théorie des jeux
varie en effet avec le jeu considéré (exemple : A, dans J21 et B dans J22).
L'agent 2 peut, dans ces conditions, attendre que l'agent 1 ait mis en oeuvre
sa stratégie. En apprenant que le joueur 2 a opté pour sa stratégie A, l'agent 2
en déduit qu'il ne joue ni dans J22, ni dans J24, puisque la stratégie A de
Desdécisionsindividuelles
à la prospectivesociale
2555
l'agent 1 n'est une stratégie d'équilibre dans aucun de ces deux jeux. Il reste
donc
et J23 comme jeux possibles.
Le couple de stratégies (A, B) conduit à la solution d'un équilibre du « vrai »
jeu qui correspond à J i pour l'agent 1 et à J21pour l'agent 2. Ce vrai jeu
appartient donc aux hyperjeux mentaux des deux agents. Partant d'une situation initiale interprétée au moyen de préférences différentes, les deux agents
parviennent à la solution d'un jeu dont ni l'un ni l'autre ne sait s'il est un
joueur. La procédure décrite ici est très simplifiée en raison de la réduction
des jeux mentaux à leur forme normale. On peut la développer en prenant en
compte leurs différentes séquences. Le déroulement du jeu enrichit dans
cette perspective l'information de chaque agent. Cela entraîne une révision
du concept de choix stratégique comme nous l'avons déjà indiqué.
La notion d'hyperjeu ainsi présentée peut être étendue dans diverses directions. Dans notre exemple, les jeux mentaux qui constituent les hyperjeux
des deux agents relèvent de la même catégorie (jeux non coopératifs dont la
solution est un équilibre de Nash). Rien n'empêche d'inclure dans ces
hyperjeux des jeux d'autres catégories, comme, par exemple, certains jeux
coopératifs. Le traitement de l'ensemble gagne évidemment en complexité.
De
manière
plus
fondamentale,
notre
présentation
suppose
que
Fjm
rz 7:- 0.
Cette hypothèse justifie l'idée d'un « vrai » jeu auquel renvoie l'ensemble
du raisonnement. On peut également imaginer que Fin r2 = 0, soit parce
que l'un ou l'autre des agents (voire tous les deux) n'ont pas été exhaustifs
dans le relevé des préférences possibles de l'autre, soit, plus radicalement,
parce que leurs représentations mentales de la situation de jeu à la lumière
des croyances de chacun sur l'autre sont mutuellement irréductibles. L'idée
d'un vrai jeu, au sens où elle a été introduite, perd alors sa pertinence et la
référence à la théorie des jeux devient très lâche. C'est dans le cadre de cette
seconde hypothèse que les hyperjeux ont été initialement développés
(Bennet, 1977 ; Bennet et Hoxham, 1982).
La voie des hyperjeux n'a guère été exploitée par les théoriciens des jeux qui
préfèrent traiter les situations de jeu en information incomplète au moyen de
probabilités subjectives interprétées de manière bayesienne. Une fois
encore, le point de vue des prospectivistes est différent. Le problème est
moins pour eux d'aboutir à une solution que de pouvoir exploiter toutes les
potentialités d'une situation. Les hyperjeux présentent sur ce terrain deux
avantages. Ils offrent à travers les jeux mentaux un cadre systématique pour
étudier les différentes représentations que les acteurs peuvent avoir d'une
même situation de jeu, en intégrant leur croyance sur les autres. Or, les avenirs possibles dépendent d'abord des représentations mentales que s'en font
les décideurs au moment où ils prennent leur décision. Les hyperjeux permettent, en outre, de distinguer des degrés de stabilité dans les états résultant de décisions prises par des agents qui, pour une raison ou une autre,
n'ont pas exactement la même représentation de leur interaction. La stabilité
la plus grande s'observe dans l'exemple présenté où les décisions des agents
256
PROSPECTIV
coïncident avec les stratégies d'équilibre des joueurs dans le vrai jeu. À l'opposé, des décisions arrêtées sur la base d'hyperjeux complètement déconnectés ont peu de chances d'être stables. Entre ces deux extrêmes figurent
les cas où, bien que le vrai jeu soit présent dans les hyperjeux de tous les
agents, aucune procédure ne leur permet à coup sûr de faire coïncider leur
décision avec les stratégies de sa solution. Cette distinction s'applique avec
profit aux scénarios construits par les prospectivistes.
5. STABILITÉ
DESJEUXETROBUSTESSE
DESSCÉNARIOS
PROSPECTIFS
Avec la stabilité, la théorie des jeux passe du rôle de système de référence
utilisé pour aborder les problèmes de prospective à celui plus opératoire
d'outil dans la construction de scénarios prospectifs. Cette contribution
s'inscrit dans le second volet du programme de recherche que Jacques
Lesoume assigne à la prospective (Lesourne, 1989). D'une certaine manière,
du reste, toute la réflexion prospective tourne autour de la stabilité. Ainsi, les
phénomènes de rupture qui préoccupent légitimement les prospectivistes
peuvent s'interpréter comme des passages plus ou moins brutaux d'un état
stable à un autre, parfois très éloigné de l'état initial.
La stabilité d'un modèle de jeu s'entend selon deux perspectives différentes
et partiellement complémentaires. D'un point de vue statique, le critère
sous-jacent de la plupart des concepts de solution réside dans la stabilité de
l'état du jeu correspondant. On qualifie ce point de vue de statique, parce
que ces solutions sont définies indépendamment de toute référence dynamique concernant les jeux auxquels elles s'appliquent (1). D'un point de vue
dynamique, la stabilité désigne la convergence des trajectoires possibles du
jeu vers un état et la propriété d'attraction exercée par lui sur les comportements des joueurs. La stabilité entendue en ce sens porte moins sur la solution du jeu que sur sa dynamique. On montrera quel usage peut être fait de
chacune de ces deux acceptions de la stabilité lorsque l'on construit des scénarios prospectifs.
Pour passer des scénarios prospectifs aux jeux, le concept de situation
sociale forgée par Greenberg (1990) se révèle efficace. Par situation sociale,
Greenberg entend une description de toutes les possibilités offertes aux
agents qui s'y trouvent confrontés, compte tenu des contraintes de l'envi.
d'unjeuoùsontdistinguées
sesdifférentes
nedoitpasêtre
(1) Laformeextensive
séquences
confondueavecune véritabledynamique,
puisqueselonla théoriedesjeux classique
l'ordrede cesséquences
faitpartiede la définition
desstratégies
desjoueursdéfiniesau
momentoùcommence
lejeu.
257
Desdécisionsindividuelles
à la prospectivesociale
ronnement dans lequel ils opèrent. Les possibilités prennent ici un sens précis, puisque sont éliminés de cette description les états sociaux qui seraient
« autodestructeurs » (se(f-defeating). Cette approche par les situations sociales
conduit Greenberg à inverser la démarche traditionnelle des théoriciens des
jeux. Au lieu de partir de jeux qui modélisent imparfaitement une situation
pour leur appliquer ensuite un concept de solution, on part des concepts de
solution proposés par la théorie des jeux pour en déduire les situations
sociales auxquelles elles s'appliquent. En procédant ainsi, on est presque
toujours assuré que la situation décrite renvoie à une organisation sociale
« stable » au sens de la première acception de la stabilité
Greenberg
retrouve de cette manière la notion d'ordre social associée dès Von Neumann
et Morgenstern aux standards de comportement des joueurs.
Beaucoup de scénarios prospectifs ne sont rien d'autre que des situations
hypothétiques mettant en scène plusieurs acteurs sociaux qui interagissent
dans un environnement déterminé. À ce stade, il revient au prospectiviste de
confronter les hypothèses sur lesquelles sont construits les scénarios avec
celles qui sous-tendent les situations sociales associées aux concepts de
solution de la théorie des jeux. C'est là qu'intervient l'art du prospectiviste.
Au terme de cette confrontation et moyennant certaines concessions et adaptations, le prospectiviste choisira le modèle de jeu le plus proche de chaque
scénario sur la base du concept de solution dont la situation sociale est la
plus voisine du scénario imaginé.
Un
exemple
illustre
cette
procédure.
Imaginons
deux
scénarios
SI et
où
plusieurs acteurs interagissent dans un environnement différent. L'environnement de SI est caractérisé par un état de droit très exigeant sanctionnant avec sévérité tout manquement aux engagements individuels.
L'environnement de S, correspond à un régime juridique respectueux des
libertés individuelles au point de ne pas intervenir dans les engagements qui
accompagnent les transactions privées. On suppose, par simplification, que
les deux scénarios concernent les mêmes acteurs. S sera traité comme une
situation associée à la solution d'un jeu coopératif (le coeur par exemple) et
S2 comme une situation associée à la solution d'un jeu non coopératif, (par
exemple l'équilibre de Nash). On peut affiner cette procédure en précisant,
par exemple, la nature de la confrontation entre les acteurs ce qui permet au
prospectiviste d'identifier à l'intérieur d'une famille de jeux, le concept de
solution le mieux adapté au scénario qu'il se propose de construire.
Traiter les scénarios prospectifs en ces termes chaque fois que c'est possible
paraît très fécond. En premier lieu, l'introduction du concept de solution permet un contrôle interne de la cohérence de chaque scénario. À l'issue de ce
contrôle trois cas sont possibles :
(1) Sauf un conceptde solution,la valeurde Shapleyqui, sans être stable,peut néanmoins
s'interprétercommeun ordre socialacceptépar les joueurs sur la base d'une considération d'équité (Schmidt,1999).
258
PROSPECTIVE
1) la solution est un ensemble vide ; le scénario doit alors être abandonné
raison de son instabilité par construction ;
2) la solution est unique ; le scénario possède
convient d'en privilégier l'analyse ;
en
un état stable et un seul et il
3) plusieurs solutions sont compatibles avec la situation, il faut alors considérer chacune d'elles comme une variante du scénario initial et comparer la stabilité des états auxquels renvoie chacune de ces variantes.
L'existence d'une ou de plusieurs solutions associées aux scénarios ne dit
sont atteints par les
pas si et comment les états stables correspondants
acteurs dans le scénario. Bien que la théorie des jeux ne permette pas encore
de répondre à cette question, elle fournit néanmoins quelques indications
intéressantes en ce sens. Tout concept de solution définit, comme on l'a vu,
des « standards de comportement
» qui, si les joueurs acceptent de s'y
les
conduisent
à
la
à
l'une
conformer,
(ou
des) solution(s) du jeu, lorsqu'elle
existe. Ces standards ne sont pas des normes. Les acteurs restent libres de les
accepter ou de les refuser, c'est-à-dire de devenir ou non des joueurs du jeu
au scénario. Le prospectiviste
doit légitimement
correspondant
s'interroger
à ce niveau sur les chances que les acteurs qu'il a retenus se conforment aux
standards de comportement
identifiés par la théorie. Mais le principal problème concerne ici les informations dont disposent les acteurs des scénarios
et leur niveau de connaissance qui peuvent ne pas être suffisants pour faire
d'eux des joueurs au sens de la théorie. Il est clair que les informations
requises par la théorie des jeux classique peuvent souvent sembler trop exigeantes à ce stade. C'est pour cette raison que le recours aux enseignements
livrés par les métajeux et les hyperjeux, tels que nous les avons présentés se
révèle précieux pour permettre de franchir cet obstacle.
Rappelons à ce sujet que les jeux sont des systèmes complexes transformables en métajeux et en hyperjeux. Si cette propriété des jeux offre presque
toujours une voie pour résoudre cette difficulté rencontrée dans le traitement
d'un scénario en jeu, elle implique en contrepartie que différentes versions
peuvent, en règle générale, être proposées
pour un même scénario. Il
incombe là encore au prospectiviste
de trancher.
Considérons maintenant la stabilité dynamique. On remarquera que la stabilité dynamique d'un jeu ne coïncide pas nécessairement
avec la stabilité stade
sa
Les
deux
(ou
ses)
solution(s).
tique
exemples suivants, bien connus
dans la littérature des jeux, illustrent cette différence :
A
B
M
A
1,11
0,0
1/2,1/2
A
0,0
1,-1
-1,11
B
0,11
1,11
1/2,1/2
B
-1,11
0,0
1,-1
1/2,1/2
C
1,-1
-1,11
0,0
M
'/2,'/2
1/2,1/2
1
ABC
2
Desdécisionsindividuelles
à la prospectivesociale
259
La matrice du jeu 1 dépeint un jeu de pure coordination. S'agissant d'un jeu
non coopératif, il possède trois équilibres de Nash, dont deux sont des équilibres de stratégies pures (A,A) et (B,B) et le troisième un équilibre de stratégie mixte (M,M). D'un point de vue statique, (A,A) et (B,B) sont des
solutions plus stables que (M,M). Supposons que le joueur 1 ait choisi sa
stratégie pure A, le joueur 2, s'il y répondait par sa stratégie B, obtiendrait
un paiement inférieur à celui que lui assure sa stratégie A (et de même symétriquement pour le joueur 2, si le joueur 1 avait choisi sa stratégie A). Un raisonnement identique sur les choix de la stratégie B conduit au même résultat
pour l'équilibre (B,B). Tout incite donc les deux joueurs à rester à l'état
d'équilibre (A,A) dès lors qu'il est atteint et il en va de même pour l'équilibre (B,B). Tel n'est pas le cas pour l'équilibre de stratégie mixte (M,M) où,
lorsque l'un des joueurs a choisi M, l'autre obtient le même paiement quelle
que soit l'une des trois stratégies dont il peut faire usage. Si aucun joueur
n'est incité à sortir de l'état d'équilibre (M,M), aucun non plus n'est poussé
à y rester. Cette discussion sur la stabilité respective de ces trois solutions
reste logiquement indépendante des conditions de leur accessibilité par les
joueurs.
Les choses changent lorsque l'on adopte une perspective dynamique et que
l'on regarde le jeu autrement. Supposons qu'il représente l'interaction de
nombreux individus appartenant à une population statistique dont chacun
peut choisir de jouer A ou B et modifier son choix au cours du temps.
Comme rien ne permet de justifier a priori le choix de A ou de B par l'ensemble des membres de cette population, c'est l'équilibre de stratégie mixte
qui s'impose. Les stratégies mixtes signifient seulement ici que
la moitié de cette population opte pour la stratégie A et l'autre pour la stratégie B. On démontre que cette solution est a-symptotiquement stable
(Fudenberg et Levine, 1998), ce qui signifie que cette proportion de stratégies fonctionne comme un « attracteur » qui tend à faire converger sur elle
les trajectoires du système au voisinage de cette position. Il n'est pas nécessaire à ce niveau d'analyse de distinguer cette interprétation des stratégies
mixtes, en termes de proportions des stratégies pures retenue par la population dans son ensemble, de l'interprétation traditionnelle d'un individu qui
joue A ou B selon certaines probabilités. L'important est de souligner que cet
équilibre ( 1/2A, 1/28)dont on a montré la très faible stabilité « statique » présente, cette fois, une forte stabilité dynamique. Ce qui pour des individus
rationnels constituait un état instable devient pour une population en mouvement un état de référence tendanciellement stable.
La matrice de paiements du jeu 2 a d'abord été utilisée pour représenter le
jeu « Pierre », « Ciseaux », « Feuille », mais sa portée est beaucoup plus
générale que ce jeu pour enfants. Elle s'applique à toutes les situations de
jeux symétriques à plus de deux stratégies pures où il existe une relation de
dominance entre ces stratégies qui conduit à un cycle. Appelons D cette relation de dominance, dans le jeu considéré ADB, BDC et CDA. Ce jeu possède un seul équilibre de Nash (1/3A, 1/3B, 113C)dont la stabilité statique est
260
PROSPECTIVE
est aussi faible que celle de l'équilibre de stratégie mixte (1/2A,1/2B) du jeu
stable. Toute perprécédent. Mais il n'est pas cette fois a-symptotiquement
turbation du système E > 0 met en défaut la propriété de convergence de ses
trajectoires présente dans le jeu précédent (Hofbauer et Sigmund, 1988 ;
Boylan, 1994). L'origine de cette instabilité dynamique réside dans le cycle
qui relie les trois stratégies pures de telle sorte que A-B-C-A-...
Interprété dans les mêmes termes dynamiques que le modèle précédent, cela
signifie que la proportion ('/3A, 1/3B, 1/3C) ne représente pas ici une proportion tendanciellement
stable pour l'évolution de la population. Par-delà leur
similitude statique, les équilibres de stratégies mixtes ne possèdent pas les
mêmes propriétés dynamiques dans les deux jeux.
Ce double constat conduit à pousser plus loin l'analyse. Les concepts classiques de solution d'un jeu et leur dynamique renvoient à des objets différents, même lorsque l'un et l'autre sont appliqués à des jeux caractérisés par
des stratégies et des paiements identiques. La définition des solutions associe les stratégies à des joueurs individuels dont les choix résultent d'un calcul rationnel, même dans les cas des jeux coopératifs. La dynamique des
mais
jeux ne dépend pas des choix de chaque joueur pris individuellement,
de la répartition de ces choix sur l'évolution d'une (ou de plusieurs) populaTandis que l'ordre social défini par un jeu repose exclution(s) d'individus.
sivement sur des standards de comportement
et sur la rationalité individuelle
de chaque joueur, son évolution fait intervenir des processus statistiques
dont les manifestations
se présentent à un niveau agrégé. On retrouve ainsi,
sous un angle particulier, la partition bien connue en économie entre les
perspectives micro et macroéconomiques.
De même qu'en économie, il apparaît bien difficile aujourd'hui de relier ces
deux perspectives
sur les jeux. Ainsi, par exemple, le « réplicateur dynamique » emprunté à la biologie, qui constitue le formalisme le plus utilisé
pour représenter la dynamique d'un jeu, a donné lieu dans ses différentes
versions à plusieurs interprétations
lorsque l'on cherche le sens qu'il peut
avoir au niveau du comportement
des joueurs individuels :
- modèle d'imitation afin
en observant le comd'acquérir de l'information
portement des autres (Bjornerstedt et Weibull, 1995) ;
- modèle de rationalité limitée fondé sur la
comparaison entre le niveau de
satisfaction obtenu par un échantillon observable et une aspiration prédéterminée (Binmore et Samuelson, 1997) ;
- modèle
d'un mécanisme
d'apprentissage
stochastique par l'intermédiaire
de « renforcement
» des stratégies dont les résultats sont jugés satisfaisants par le joueur qui les a mises en oeuvre (Borgers et Salin, 1995).
tirer de ces observations pour l'élaboration
de scénaQuels enseignements
rios prospectifs ?
Elles invitent d'abord le prospectiviste
à réfléchir sur la
nature des phénomènes
dont les scénarios s'efforcent
de représenter
les
issues possibles. Deux catégories de phénomènes susceptibles de retenir son
Desdécisionsindividuelles
à la prospectivesociale
-
2611
attention doivent ainsi être distinguées. D'un côté, le résultat de décisions
arrêtées et mises en oeuvre par un petit nombre de centres de décision
(acteurs ou groupes d'acteurs) précisément identifiés. Les décisions sont
préparées sur la base d'un calcul effectué par ces centres et leurs conséquences se trouvent appréhendées sur un horizon déterminé choisi par le
prospectiviste. D'un autre côté, l'aboutissement de l'évolution d'un système
de plus large dimension où intervient un très grand nombre d'acteurs dont
certains sont connus du prospectiviste et d'autres ne le sont pas au moment
où il entreprend son exercice. Ce ne sont pas les mêmes personnes qui sont
aux commandes durant la période explorée, en raison de la longueur de l'horizon temporel balayé.
L'analyse prospective du premier type de phénomène est appréhendée au
moyen de scénarios qui se prêtent à un traitement en termes de jeux statiques
dans les limites qui ont été dessinées. On parlera à cet effet d'une microprospective, dont le domaine coïncide assez largement avec celui de la prospective stratégique. Cette microprospective intéresse principalement les
entreprises. Pour le second type de phénomène, l'accent est placé sur la
dynamique, d'où l'intérêt de traiter leurs scénarios en recourant aux jeux
évolutionnistes dont on vient d'évoquer les contours. Il s'agit alors d'une
macroprospective. Elle concerne des domaines très vastes comme l'économie mondiale ou les relations internationales.
'
Un autre élément enrichit la prospective. Les jeux qui sont utilisés pour traiter les scénarios peuvent être considérés d'un point de vue « statique » et/ou
d'un point de vue dynamique. Tel est le cas de beaucoup de jeux non coopératifs dont la (les) solution(s) est (sont) des équilibres de Nash. Le prospectiviste peut se servir de cette propriété pour tester la solidité des scénarios en
analysant séparément leur stabilité statique et dynamique, car chacune est
détentrice d'une information différente. La stabilité statique d'une solution,
au sens où nous l'avons définie, met en évidence l'existence d'un ordre
social possible qui permet de caractériser chaque scénario ou chaque
variante de scénarios lorsque le jeu possède plusieurs solutions. La stabilité
dynamique d'un jeu révèle la robustesse du scénario, c'est-à-dire l'aptitude
de l'ordre social correspondant à résister à des perturbations. De telles perturbations peuvent provenir de chocs extérieurs (modifications de l'environnement) comme de transformations dans les comportements lorsque, par
exemple, des changements de personnes sont intervenus dans les mêmes
rôles. Tels ordres sociaux associés à des standards de comportement facilement acceptés par les acteurs et qui pourraient, pour cette raison, apparaître
très stables sont en réalité fragilisés par leur faible résistance à des chocs
perturbateurs. Tels autres ordres, plus flous parce que déduits d'équilibres
plus fragiles au niveau de leur définition, se révèlent, en revanche, beaucoup
plus résistants à ces perturbations. Cette illustration prospective de la fable
du chêne et du roseau, est ici rendue tangible par l'intervention de la théorie
des jeux.
262
PROSPECTIVE
BIBLIOGRAPHIE
BENNETP.G., « Towards a Theory of Hypergames », Omega, 5, 1977.
BENNET P.G. & HOXHAM C.S., « Hypergames and What They Do: A Soft O.R.
Approach », Journal of the Operational Society, Vol. 33, 1, 1982.
BERNHEIMB.D., PELEG B. & WHINSTONM.D., « Coalition-Proof
1 : Concepts », Journal of Economic Theory, 42, 1987.
Nash equilibria
BINMOREK., Game and the Theory of Contract: Playing Fair, Cambridge, MIT
Press, 1994.
BINMOREK. & SAMUELSONL., « Muddling Through: Noisy Equilibrium Selection »,
Journal of Economic Theory, 74, 1997.
BJORNERSTEDTJ. & WEIBULLJ., « Nash Equilibrium and Evolutionary Imitation »,
in Arrow K., Schmidt C., Perlmann M. & Colombatto E. eds. The Rational
Foundations of Economic Behaviour, London MacMillan, 1995.
BORGERS T & SARIN R., « Learning through Reinforcement
Dynamics », Mimeo, University College, London, 1995.
and Replicator
BOYLAN R.T., « Evolutionary
Economic Behaviour, 7, 1994.
», Games and
Equilibria Resistant to Mutations
CRAWFORDV.P., « Thomas Schellling and the Analysis of Strategic Behaviour », in
Zechauser R.J. ed., Strategy and Choice, Cambridge, MIT Press, 1991.
FUDENBERGG.D. & LEVINE D.K., The Theory of Learning in Games, Cambridge,
MIT Press, 1998.
GREENBERGJ., The Theory of Social Situations, Cambridge, Cambridge University
Press, 1990.
HARSANYIJ.C. & SELTENR., A General Theory of Equilibrium Selection in Games,
Cambridge, the MIT Press, 1988.
HOFBAUERJ. & SIGMUNDK., The Theory of Evolution and Dynamical Systems,
Cambridge, Cambridge University Press, 1988.
HOWARD N., Paradoxes of Rationality:
Behaviour, Cambridge, MIT Press, 1971.
Theory of Metagames
and Political
Face aux Futurs, Paris, OCDE, 1979.
INTERFUTURS,
LESOURNEJ., « Esquisse d'une théorie de l'individu », Revue d'économie politique,
3, 1975.
LESOURNEJ., A Theory of the Individual for Economic Analysis, Amsterdam, North
Holland, 1977.
LESOURNEJ., Les mille sentiers de l'avenir, Paris, Seghers, 1981.
LESOURNEJ., « Le marché et l'auto-organisation
1985.
», Économie appliquée, n° 34,
Desdécisionsindividuelles
à la prospectivesociale
263
LESOURNE
J., « Plaidoyer pour une recherche en prospective », Futuribles, novembre, 1989.
de l'ordre
et du désordre,
LESOURNE
J., Économie
LESOURNE
J., « La prospective
en France
LESOURNE
J., « Un art difficile
C., La prospective
pour
J. & Stoffaes
LESOURNE
J.
&
ORLEAN
A.,
Paris,
», La Revue
d'entreprise,
Advances
in
vol. XV,
Tocqueville,
Réfléchir
l'entreprise,
stratégique
1991.
Economica,
pour
Paris,
1, 1994.
agir », in Lesourne
1996.
Dunod,
Paris,
Self-Organization,
Londres,
1998.
Economica,
MAYNARD
SMITH
University
Press,
NEUMANN
J. von,
and
J., Evolution
1982.
« Zur
theorie
the
der
Theory
of Games,
Cambridge,
Cambridge
», Mathematical
Gesellschaftsspiel
Annalen,
100, 1928.
NEUMANN
J. VON & MORGENSTERN
Princeton,
Princeton
M.
NICHOLSON
Cambridge,
(1992)
O., Theory
1946.
and
Rationality
Cambridge
and
Relations,
the
and Utility
M., « Interdependent
Conflict
P. & Schmidt
», in Allan
E. Elgar,
1994.
Adelshot,
OSBORNE
Press,
M.J.
and
analysis
of
Economic
Behaviour,
& RUBINSTEIN
international
conflict,
Press.
University
Functions:
NICHOLSON
tion
of Game.s
Press,
University
A., A
C.,
Course
Game
Implications
and
Theory
in Game
Theory,
for Co-operaInternational
Cambridge,
RUBINSTEIN
metrica,
59,
SCHELLING
A., « Comments
1991.
T.C.,
The
on
Strategy
the
Interpretation
of Conflict,
of
Game
Theory
Harvard
Cambridge,
i
SCHMIDT
C., « Prospective
WEIBULL
J.W.,
Evolutionary
et théorie
Game
des jeux
Theory,
», Futuribles,
Cambridge,
MIT
», Econo-
University
1960.
,
MIT
1994.
avril,
Press,
1999.
1995.
Press,
Claude
Berlioz,
Jacques
Biais
À LASNCF
LAPROSPECTIVE
La démarche prospective existe depuis plus de 15 ans à la SNCF mais sous
des formes qui ont évolué dans le temps, notamment en fonction de la
personnalité des (nombreux !) présidents qui s'y sont succédés.
La mission de base de la prospective est néanmoins restée constante :
éclairer, provoquer la réflexion du président, du directeur général, du comité
exécutif. Rien d'original a priori pour une entreprise, mais peut être pas si
évident à la SNCF dont l'état-major est littéralement absorbé par le quotidien, les aléas de l'exploitation, la pression médiatique à l'affût du moindre
dysfonctionnement ; en effet, le transport n'étant pas stockable et le train
étant par définition prisonnier des voies ferrées, le moindre défaut ou arrêt
de production, en bloquant tout le système, peut prendre rapidement des
proportions gigantesques, en particulier sur les lignes saturées, et nécessiter
la mise en place en urgence d'une procédure de gestion de crise à haut
niveau. Malgré cette pression événementielle qui s'accentue depuis plusieurs
années, il reste heureusement encore quelques plages de sérénité dont peut
profiter l'état-major pour mener des réflexions prospectives.
Et cette démarche prospective est indispensable : la SNCF engage en effet
des milliards de francs d'investissements sur un outil lourd, d'une durée de
vie très longue, en regard d'un environnement économique de plus en plus
changeant et instable.
Ainsi, de par ses exigences de sécurité et de solidité, le matériel ferroviaire
« dure » au minimum une trentaine d'années. De même, les cheminots qui
Laprospectiveà la SNCF
265
sont recrutés sont censés faire une carrière de trente à quarante ans ; quant
aux infrastructures, l'unité de temps est, pour certains ouvrages, le siècle.
Cette rigidité de l'outil ferroviaire n'est évidemment pas compatible avec les
exigences de souplesse et de réactivité manifestées par les voyageurs, les
entreprises, les aménageurs, les collectivités locales. Face à une telle échelle
de temps, la visibilité des décideurs est faible et les erreurs d'appréciation qui n'en fait pas ? - peuvent coûter très cher à terme, parce que conduisant
à des offres inadaptées voire obsolètes ou à des coûts d'exploitation démesurés enlevant toute compétitivité aux projets d'origine. C'est pourquoi, à
défaut de savoir où l'on se situe à un horizon de dix ans, de quinze ans, il est
primordial d'avoir en tête des scénarios possibles, contrastés, permettant
d'anticiper et de réduire les risques.
Les thèmes de prospective étudiés sont extrêmement variés. Ils concernent
ainsi :
- le devenir
régionaux
les trains
rôle futur
de certaines activités ferroviaires, comme le fret, les transports
de voyageurs, les transports internationaux au sein de l'Europe,
de voyageurs sur moyennes et longues distances, ainsi que le
des gares ;
- l'environnement immédiat de la SNCF, comme les phénomènes d'insécurité, d'incivilité et de fraude, l'évolution de l'habitat et des habitudes de
travail, l'évolution des modes concurrents du fer, air et route, et son
impact sur les besoins futurs de la clientèle ;
- le jeu des acteurs côtoyant la SNCF, comme les collectivités locales, les
défenseurs de l'environnement, les constructeurs ferroviaires ;
- le paysage institutionnel européen, avec les conséquences prévisibles de
la dérégulation ferroviaire et des alliances entre compagnies ferroviaires ;
- les structures et les modes de fonctionnement possibles de la SNCF, avec
leur effet sur le management, la politique de recrutement, les équilibres
financiers.
;
;
.
;
''
i
;
La structure de fonctionnement de la prospective mise en place à la SNCF
depuis cinq ans se veut très simple et très légère :
- animation
de la démarche par une petite cellule, la « mission
prospective », intégrée à la direction de la stratégie, elle-même rattachée
au président. Cette cellule, composée de deux membres, bénéficie de l'assistance et du conseil de Jacques Lesourne ;
- mise en place d'un comité de la prospective composé des sept membres
du comité exécutif, de sept directeurs représentant les directions techniques et les directions d'activité, de Jacques Lesourne, du directeur de la
stratégie et du responsable de la mission prospective ; ce comité se réunit
en principe huit fois par an, chacune des réunions correspondant à la
présentation d'une étude prospective ;
266
PROSPECTIVE
- choix, chaque année, d'un programme d'études par le comité de la prospective parmi des propositions présentées par la mission prospective, soit
6 à 8 thèmes nouveaux qui donnent lieu à une présentation au comité six
à douze mois plus tard.
Il est très important que la démarche prospective soit impulsée, validée et
légitimée à haut niveau - comité exécutif élargi -, car cette approche ne doit
pas rester seulement celle de quelques spécialistes isolés dans leur laboratoire. C'est à cette condition que des dirigeants de l'entreprise acceptent de
se dégager du quotidien pour se tourner vers l'avenir lointain.
Chaque étude est conduite par un chef de projet qui anime un petit groupe
de travail. Ce chef de projet, qui accepte cette responsabilité en plus de ses
missions normales, appartient en général à la SNCF et doit avoir une
connaissance minimum du thème de l'étude, sans être toutefois un expert du
sujet et sans appartenir au service directement concerné par l'étude : il y va
de sa créativité et de sa liberté de penser. Il constitue son groupe en s'entourant des compétences internes et externes utiles et bénéficie de l'appui
méthodologique et créatif de la mission prospective et bien sûr des conseils
de Jacques Lesourne qui participe à toutes les réunions d'orientation.
Le chef de projet rédige le rapport d'étude et le présente lui-même au cours
d'une réunion du comité de la prospective. Il ne produit pas de plan d'action
mais plutôt des recommandations : sur tel ou tel sujet, voici les points-clés
identifiés par le groupe de travail et sur lesquels il est indispensable que les
membres du comité de la prospective réfléchissent et se prononcent, par
exemple :
- les gares du futur : centres commerciaux ou centres d'échanges pour les
voyageurs ?
- l'activité fret : commissionnaire de transport, ou simple tractionnaire
ferroviaire, ou bien opérateur européen à dominante ferroviaire ?
Quelques réflexions...
Faire de la prospective à la SNCF est une activité passionnante et très
instructive. D'abord parce que l'environnement dans lequel évolue la SNCF
est très large et concerne à la fois l'habitat, les loisirs, les habitudes de
consommation, l'évolution de la société, les activités économiques et industrielles, l'aménagement du territoire, les acteurs institutionnels, la mise en
place de l'Europe. Ensuite parce que bâtir des scénarios d'évolution de la
SNCF sur des sujets plus ou moins tabous s'avère très fructueux : les discussions et échanges qui en découlent sont très constructifs et servent souvent
de révélateur à des courants de pensée différents, voire inavoués, au sein des
états-majors. La pratique de la prospective fait évoluer les esprits : les certitudes du présent s'estompent et laissent la place à une nouvelle vision, en
quelque sorte à la fois en relief et en dynamique.
La prospective à la SNCF
267
Une limite importante cependant : l'impossibilité de partager dans la sérénité
les différentes problématiques prospectives avec l'ensemble des salariés de
l'entreprise. En effet les études recèlent généralement des données stratégiques exigeant un minimum de confidentialité. De plus, certains scénarios
sont pessimistes par construction, pour anticiper les risques, et par là-même
susceptibles de briser l'enthousiasme des acteurs d'aujourd'hui, un peu
comme si l'on confrontait une personne bien portante et dynamique à la perspective d'une maladie grave ou d'un handicap lourd.
Dans la démarche prospective adoptée par la SNCF depuis plus de quinze
ans, l'apport de Jacques Lesourne est double.
De manière irremplaçable, il apporte son talent, son oeil toujours neuf, ses
visions stratégiques, son esprit de synthèse, son impertinence, avec ses
critiques et ses questions qui dérangent le « présent », et son expertise à la
fois économique et industrielle. Il allie de façon remarquable les qualités
pédagogiques et l'aptitude à faire émerger les idées nouvelles.
Il est aussi la mémoire à haut niveau de l'entreprise. Il a accompagné la
SNCF dans ses réflexions, dans ses réformes, dans ses soubresauts sociaux.
Il connaît mieux cette entreprise que la plupart des cheminots et il en a
acquis une véritable vision stratégique.
.
j
2
Christian Stoffaës
LEROLE
DEJACQUES
LESOURNE
DEFRANCE
AUPRÈS
D'ÉLECTRICITÉ
Depuis plus de di.r ans, Jacgues Lesourne est le conseiller d'EDF pour la prospective.
1. EDFENTRANSITION
UN:CASD'ÉCOLE
Pour la prospective stratégique d'entreprise,
EDF offre un terrain d'élection,
et ce pour au moins deux raisons :
- EDF est en effet
plus qu'une entreprise. Elle est une institution sui generis,
sans équivalent en France et dans le monde : la plus grande compagnie
d'électricité
celle qui recourt le plus, de très loin, à l'énergie
mondiale ;
à long terme des investissenucléaire ; une référence pour la planification
ments ; le modèle le plus achevé de la conception
française du service
public ; le corps social de ses agents, doté d'une forte culture d'entreprise,
encadré par des organisations
syndicales, qui plonge ses racines sur tout le
territoire national.
dans son secteur, EDF n'est donc pas qu'un objet passif
Entreprise-leader
serait
soumis
aux évolutions du monde extérieur sans autre choix que
qui
mais un sujet actif, ayant la capacité d'exercer
celui de s'adapter :
une
influence sur l'environnement
où il évolue, sur son image dans l'opinion
Lerôle de JacquesLesourneauprèsd'Électricitéde France
269
publique et auprès des décideurs, sur son positionnement international.
Quelques exemples de ses marges de manoeuvre face à un monde qui
change : influence sur les législations électriques, nationale et communautaire ; la diversification de ses métiers et l'élargissement de son champ d'expansion ; la conception moderne de l'intérêt général ; l'acceptabilité des
choix énergétiques par la société française, etc. Qu'elle soit admirée et
imitée (pour ses méthodes de planification, pour ses résultats économiques,
pour son statut social, etc.), parfois critiquée (l'État dans l'État, le choix du
tout nucléaire, etc.), l'institution EDF fut longtemps et est encore une valeur
de référence, dans la société française comme dans le monde international
de l'électricité.
- Alors qu'elle s'est développée pendant un demi-siècle dans un cadre réglementaire stable - celui du monopole national institué par la loi de 1946 -,
EDF fait face à un futur en pleine mutation. L'ère des certitudes appartient
au passé : l'avenir apparaît au contraire rempli d'incertitudes, les mutations
se précipitent. Cette constatation ne veut pas dire que le cheminement
d'EDF fut toujours celui d'un « long fleuve tranquille ». On s'en convaincra
si l'on se souvient, entre autres phases troublées, des grands mouvements de
grèves des années 1950, de la contestation du nucléaire des années 1970, etc.
Significativement, Marcel Boiteux n'intitula-t-il pas Haute Tension son
remarquable livre de mémoires ?
EDF est engagée dans une grande transition : pour elle, le changement de
siècle s'identifie comme une ère nouvelle. Ainsi, entre tant d'autres multiples
facteurs de changement, une réécriture de la loi fondamentale qui régit le
secteur électrique vient d'intervenir, après un demi-siècle de stabilité institutionnelle. La croissance forte et régulière d'hier - qu'on appela longtemps
« loi » du doublement tous les dix ans, comme si la croissance pouvait relever
d'une quelconque loi naturelle... - s'est muée en une croissance ralentie et
fluctuante. L'ère de l'énergie fait place à la société d'information. Le monopole de service public a laissé la place au marché concurrentiel, avec l'apparition de nouveaux entrants. Le principe de spécialité, tant sectoriel (la
restriction du métier à la production et à la distribution d'électricité) que territorial (l'espace géographique national), s'efface devant les perspectives de la
diversification et du développement international. Dans ces domaines,
comme dans bien d'autres, les points de repère familiers s'effacent. Pour une
entité qui s'est longtemps pensée comme immuable et intangible, ayant pour
elle le long terme, cela fait beaucoup de changements à affronter.
,
2. RECONQUÉRIR L'IDENTITÉ
Le secteur électrique a été étroitement associé aux grands débats politico-idéologiques du siècle finissant, incarnant successivement le capitalisme innovateur
des entrepreneurs schumpeteriens ; le capitalisme rentier des trusts ; les natio-
270
PROSPECTIVE
nalisations et le service public ; l'indépendance nationale énergétique ;
en finir avec le xxe siècle, la dérégulation et la globalisation.
et, pour
À sa fondation, au lendemain de la Seconde Guerre mondiale, EDF incarnait toutes les valeurs positives de la France nouvelle de la Libération et de
comme elle symbolise plus tard l'expansion
des Trente
la reconstruction
les nationalisations,
le dirigisme industriel d'État, le service
Glorieuses :
public, les investissements
productifs dans les secteurs de base, l'indépendance nationale, les personnels à statuts codifiés comme ceux de la Fonction
publique, etc.
EDF apparaît en
Mais le modèle d'hier est devenu aujourd'hui l'exception.
celles
aux
tendances
contemporaines :
qui privilégient
décalage par rapport
immapar exemple les services sur l'industrie lourde ; les investissements
tériels sur les investissements
sur
le
techniques ; l'écologie
productivisme ;
les petites unités, la flexibilité et le management décentralisé sur la planifiles conventions
colleccation centrale et sur l'organisation
hiérarchisée ;
tives et la négociation sociale flexible sur les statuts sociaux inscrits dans
loi ; le global sur le national ; l'Europe et le local sur l'État national, etc.
EDF serait-elle une sorte d'« Union soviétique qui aurait réussi ? », pour
reprendre la métaphore de Jacques Lesoume à propos de « grandeur et décadence du modèle français ».
Certes, les modes et autres « pensées uniques » sont parfois passagères.
Certes, cette image ne correspond pas à la réalité d'une entreprise engagée
Mais elle est parfois complaisamment
dans de profonds changements.
dans
comme
dans
les regards étrangers. Et pourtant,
l'opinion
répandue
EDF ne saurait en rien être réduite au seul héritage d'une époque glorieuse,
mais révolue. Car elle est non seulement la plus grande entreprise de son
en termes de compétitivité
secteur mais aussi une des plus performantes :
tarif
du
kilowattheure
comme par son
(le
hydro-nucléaire),
économique
dynamisme à conquérir des domaines nouveaux (tels que l'investissement
international
et le redéploiement
vers de nouveaux métiers). Le monopole
d'État d'hier fait déjà partie de la catégorie des global players de l'économie énergétique en mutation. Elle n'est pas un dinosaure condamné à ne
pas survivre au changement d'ère qui est en cours : elle a la capacité de
changer. Elle dispose pour cela de puissants moyens financiers et des
ressources humaines et techniques nécessaires pour investir massivement
dans de nouveaux domaines.
majeure du xxe siècle, en laquelle s'incarnent beaucoup des
grandes options économiques,
techniques, sociales et politiques de notre
époque, survivra-t-elle au passage au xxi' siècle, dans son intégrité et dans la
pérennité de ses valeurs ? La guerre est finie : la « bataille du kilowatt » n'est
plus une « valeur d'entraînement », alors que l'équipement énergétique national
est achevé, alors que les enjeux traditionnels de l'investissement de productiontransport, qui ont mobilisé son ambition pendant un demi-siècle, s'affaiblissent
aujourd'hui du fait du ralentissement de la demande d'électricité.
Cette institution
Lerôle de JacquesLesourneauprèsd'Électricitéde France
2711
Confrontée à un contexte changeant et à des enjeux très différents de ceux du
passé, engagée dans de profondes réformes de structures, EDF n'a pas seulement besoin de nouvelles stratégies : elle a aussi besoin de sens, dans une perspective de long terme. Elle est un enjeu national, intimement associée à l'histoire
économique et sociale du pays, un capital considérable ( 1 000 milliards de
francs d'actifs techniques accumulés) porteuse d'intérêts stratégiques fondamentaux pour l'avenir du pays au sein de l'économie globalisée.
Dernier des Mohicans, mouton de Panurge, ou pionnier de la conquête de
nouvelles frontières ? Tel est le paradoxe : l'avenir d'EDF n'est ni totalement autonome - camper dans une superbe indifférence, appuyée sur des
positions qui n'ont au fond pas si mal réussi - ni totalement déterminé s'adapter au contexte, de manière purement réactive, sans autre choix que
d'accepter des évolutions imposées de l'extérieur. EDF n'est ni une citadelle
imprenable, ni un fétu de paille soumis aux caprices des vents. Alors que
certains la voient comme un archaïsme, crispé dans des positions défensives,
ou aimeraient bien la voir se plier à la pensée unique de la « dérégulation à
l'anglo-saxonne », EDF se doit de réinventer l'avenir. Grande réussite française, elle en a les moyens. À la condition toutefois de positionner clairement son identité, de questionner ses stratégies à partir de repères
prospectifs, de mesurer ses forces et ses faiblesses face aux risques et aux
opportunités, d'évaluer ses concurrents et de choisir ses partenaires. En bref,
de réinventer un sens, pour construire un projet qui soit à la fois conforme à
son identité, ouvert sur le monde extérieur, orienté vers l'avenir.
Les grandes organisations ont besoin d'ambitions partagées, pour mobiliser
leur ressource humaine : faute de quoi, elles courent le risque de sombrer
dans la morosité, la division, le marasme. Pendant les années de forte croissance, le.« corps social » d'EDF s'est rassemblé derrière l'impératif d'investissement pour la production d'énergie et la construction des réseaux de
distribution : vision, identité, projet, coïncidaient alors idéalement. Il faut
aujourd'hui réinventer l'ambition : faire rêver pour rassembler et pour agir.
DELAPROSPECTIVE
À EDF
3. LAMISEENŒUVRE
La prospective a été érigée en fonction de direction générale en 1987.
'
'
Cette date - on le perçoit clairement avec le recul du temps - marque pour
EDF l'entrée dans une ère nouvelle, quarante ans après sa création. Le ralentissement irrémédiable de la demande d'électricité ; les derniers grands
investissements électronucléaires ; les débuts de la mise en route du marché
unique européen, dont la dynamique juridique allait conduire progressivement à la dérégulation de tous les secteurs de service public, notamment
celui de l'électricité ; les origines de la révolution thatchérienne dans le
secteur électrique ; la fin de la polarisation du monde entre le bloc de l'éco-
272
PROSPECTIVE
nomie planifiée et le bloc de l'économie
du marché, dans le sillage de la
la
montée
des
d'environnement
global dans les
perestroïka ;
préoccupations
milieux internationaux,
etc. : toutes ces mutations
de l'environnement
l'end'EDF se révèlent clairement à partir de 1987, date qui coïncide,,pour
avec
un
de
ses
de
lié
au
direction,
treprise,
profond changement
équipes
renouvellement
des générations.
Jean
son directeur
La direction
d'EDF,
général
principalement
a alors clairement perçu le besoin d'une réflexion nouvelle et
Bergougnoux,
d'une pédagogie attentive et organisée pour conduire le changement interne.
La planification
des investissements
par la méthode du calcul économique
avait acquis une grande légitimité, interne et externe. Mais la fin des invesen même temps que les changements
tissements de production s'annonçait,
institutionnels.
Il fallait préparer les méthodes stratégiques à cette mutation.
Sont alors mis en place : un comité de prospective, composé des principaux
directeurs d'EDF et se réunissant chaque mois ; un service de prospective,
unité légère constituée d'un nombre réduit d'experts ayant pour mission
d'animer des groupes de travail internes et de gérer un réseau dense de
connexions externes avec des conseillers indépendants
et des instituts de
une
direction
nouvelle
en
de
de la prospecl'économie,
recherche ;
charge
tive et de la stratégie couvrant, en même temps que la prospective, le prestioù s'élabore
la
des études
gieux service
économiques
générales,
des
tarifs.
des
investissements
et
programmation
Jacques Lesourne assure la fonction de conseiller du comité de prospective
et, à ce titre, participe à toutes ses réunions. Le comité de la prospective a
comme débouché le comité de gestion stratégique, qu'il alimente de ses
études, cette instance ayant pour fonction de débattre des grandes orientaet d'arrêter des stratégies.
tions de l'entreprise
Depuis son installation officielle en 1988, le comité de la prospective aura
fait réaliser une cinquantaine
d'études prospectives touchant aux sujets les
plus divers concernant l'avenir d'EDF. Les thèmes sont sélectionnés par le
comité comme étant ceux qui posent les questions les plus sensibles. Des
groupes de travail ad hoc, présidés chacun par un cadre dirigeant appartenant
et réunissant dix à quinze cadres et
au secteur concerné de l'entreprise
sont mandatés
experts des différentes directions intéressées de l'entreprise,
à raison de cinq à dix chaque année - par un cahier des
successivement les thèmes retenus, avec un
charges détaillé pour étudier en profondeur
mandat de travail sur plusieurs mois, parfois un an et plus. Et ce avec comme
commun :
seule contrainte d'appliquer le guide méthodologique
- construire les scénarios, c'est-à-dire
des visions des avenirs possibles,
cohérentes entre elles, en nombre
constituées d'ensembles
d'hypothèses
réduit par rapport à la complexité des combinatoires possibles, qui forgent
et pédagogiques
des futurs possibles ;
des images compréhensibles
Lerôle de JacquesLesourneauprèsd'Électricitéde France
273
- imaginer les options stratégiques, c'est-à-dire les choix qui sont ouverts
pour tracer les orientations à prendre, les cibles à viser, les alliances à
nouer, les conflits à surmonter ; et ce en apprenant à découvrir ses marges
de manoeuvre, à concilier le souhaitable et le possible ;
- évaluer les conséquences des choix stratégiques dans l'occurrence où tel
scénario se réalise, identifier les avantages et les inconvénients, les
chances de réussite, les probabilités d'échec, mesurer les forces et les
faiblesses en réfléchissant sur les buts que l'on poursuit, sur les conditions
de la pérennité ; sur l'identité essentielle que l'on veut préserver ; sur l'accessoire qui peut être abandonné ou sacrifié.
Est aussi encouragé afin d'introduire des manières de voir nouvelles, voire
dissidentes, le recours systématique à des experts et consultants extérieurs,
qui sont le plus souvent choisis parmi des personnalités de haut niveau,
académique, administratif ou industriel, et bénéficiant d'une expérience
approfondie et d'une réflexion personnelle sur le sujet traité.
Les sujets ont été abordés sans tabous ni restrictions mentales, touchant
parfois à des thèmes très sensibles ou dérangeant les idées reçues : par
exemple EDF face au risque d'accident nucléaire ; l'émergence du gaz
naturel dans la production d'électricité ; la dynamique du modèle britannique de dérégulation, etc. Ce qui paraissait hier à la limite du saugrenu est
devenu aujourd'hui monnaie courante, voire sujet rebattu et démodé... Des
thèmes majeurs structurant l'avenir d'EDF ont pu être identifiés - comme le
développement durable et le changement climatique ; le service public européen - qui ont donné lieu ultérieurement à des actions en profondeur d'influence et de présence de la part de l'entreprise.
;
,
4
;
',
Plus de deux cents cadres de l'entreprise, au total, auront été mobilisés au sein
de ces groupes de travail ainsi que dans une série de séminaires, sessions de
formation et colloques organisés dans la mouvance de la prospective pour
diffuser une culture commune : par exemple dans des domaines tels que
géopolitique de l'électricité, les relations entre électricité et société, etc.
Quel a été l'impact de ces travaux sur les orientations stratégiques et sur les
grandes décisions d'EDF ? L'exercice de l'influence est difficilement quantifiable : il est donc malaisé de tracer une filiation directe entre les conclusions des études prospectives et les décisions stratégiques qu'a pu prendre
EDF au cours de cette période. On peut néanmoins avancer que la prospective a contribué, principalement par imprégnation progressive des structures
décisionnelles - et parfois très directement dans les relevés de décision du
comité de gestion stratégique - à convaincre EDF par exemple de l'inéluctabilité du mouvement de dérégulation des monopoles de l'électricité ; de la
montée en puissance de l'Europe comme instance de référence au détriment
de l'État national ; de la nécessité du développement international et des
investissements à l'étranger ; du rôle croissant des collectivités locales et de
274
PROSPECTIVE
l'utilité de réactualiser les traités de concessions de distribution électrique ;
de l'importance d'ouvrir le dialogue avec les défenseurs de l'environnement, etc.
Ces travaux, ciblés sur des questions stratégiques particulières, ont été encadrés par des études transverses de mise en cohérence de prospective à long
terme. En 1985, EDF avait mené une étude « EDF dans vingt ans » en modélisant les scénarios de la traditionnelle EPMT (étude prévisionnelle à moyen
terme) qui servait de base à la programmation des investissements. En 1987,
changement de méthode : l'étude « EDF en 2025 : interrogation sur les
avenirs possibles » n'est plus fondée sur la modélisaton mathématique, avec
variantes. Elle se relit très bien aujourd'hui. Elle annonce, dans ses scénarios, beaucoup d'événements qui sont effectivement arrivés depuis lors et
qu'il n'était pas évident non seulement de prévoir mais seulement d'imaginer.dans le contexte de l'époque, où le monde paraissait encore très stable.
La seconde étude d'ensemble conduite en 1998 et 1999, intitulée
« Potentiels 2010-2025 », vise à imaginer l'identité d'EDF au xxle siècle
sous ses divers visages : producteur d'énergie, groupe industriel et de
services, entreprise multinationale, service public. Avec le concours d'éminentes personnalités issues du monde politique et du monde industriel, ces
travaux ont contribué à repositionner le sens et la place d'EDF dans le
monde de demain.
4. LAMÉTHODE
PROSPECTIVE
Face à cet « objet prospectif » qu'est EDF, digne de figurer dans les manuels
de prospective stratégique, Jacques Lesourne avec sa vaste expérience dans
le management d'entreprise comme dans les sciences de la décision, a fait
bénéficier EDF d'un apport méthodologique décisif, mais aussi - et surtout
sans doute - en expliquant à quoi sert la prospective et en diffusant la culture
prospective : c'est-à-dire en légitimant la démarche.
Tirant un bilan de son mandat en 1994, au moment de quitter la direction
générale d'EDF pour la présidence de la SNCF, Jean Bergougnoux souligna
dans son discours que la vertu de la prospective était « d'avoir persuadé EDF
qu'elle était mortelle ». Lorsqu'il prit ses fonctions à la SNCF, il y créa
d'ailleurs une structure prospective analogue à celle qu'il avait mise en
oeuvre à EDF. Et il est bien vrai que la vraie pression en faveur du changement est la crainte de la disparition. Pourquoi changer ce qui va bien ?
Voici quelques-uns des enseignements philosophiques importants tirés de
notre expérience d'une décennie de prospective stratégique au sein d'EDF.
- La prospective est une méthode de réflexion, un
processus cognitif :
explorer ce qui pourrait advenir (les futurs possibles) et prendre conscience
Lerôle de JacquesLesourneauprèsd'Électricitéde France
2755
de ce qui pourrait être fait (les options stratégiques). Mais la prospective stratégique d'entreprise n'est pas un exercice académique : elle a une finalité
utilitaire, celle d'aider à l'élaboration de la stratégie, c'est-à-dire à préparer
les orientations qui guident l'institution qu'elle sert.
- Il y a des points communs entre les actes de « conduire l'armée » (selon la
racine étymologique de la stratégie) ou bien une entreprise ou une nation, une
association, un syndicat ou un parti politique, la vie d'une famille ou la
carrière d'un individu ; comme il en est de la prose, chacun fait de la stratégie,
parfois sans le savoir... Mais il vaut mieux en faire méthodiquement plutôt
qu'implicitement : c'est la fonction de la prospective que de fournir l'assistance d'une méthodologie rationnelle et, il faut oser le dire, scientifique à la
préparation de la stratégie en avenir incertain.
Plus précisément, comme le Kriegspiel des militaires, la méthode prospective fournit des instruments d'imagination et d'évaluation qui permettent de
mesurer l'impact positif ou négatif sur l'institution, sur ses intérêts, sur les
valeurs dont elle est porteuse du choix, de telle ou telle option stratégique,
et ce dans l'occurrence de tel ou tel scénario.
- La prospective n'est pas le café du commerce où l'on glose sur l'avenir :
elle est une science, s'appuyant sur une méthodologie désormais codifiée,
qui occupe toute sa place dans la discipline des méthodes scientifiques
d'aide à la décision, aux côtés de prédécesseurs qui eurent leur heure de
gloire, tels que la recherche opérationnelle, le calcul économique, etc.
- La prospective est une anticipation, qui invite à la flexibilité. C'est quand
les changements sont rapides, c'est quand l'avenir devient flou, que la prospective est le plus nécessaire.
e La prospective est une vigilance : elle est tout à la fois l'évaluation permanente des tendances lourdes et des invariants de l'ordre naturel et la veille
attentive des « signaux faibles », le repérage des « détails révélateurs », qui
annoncent les temps nouveaux, qui amorcent les tournants, qui préparent les
révolutions : « ces idées et ces faits porteurs d'avenir, dont parlait Pierre
Massé, infimes par leurs dimensions présentes mais immenses par leurs
conséquences virtuelles ».
,
L
· L'image de l'avenir se déforme continuellement : des scénarios s'estompent disparaissent pendant que d'autres émergent. La prospective n'est pas
faite une fois pour toutes : il faut l'actualiser en permanence. Le problème
de la stratégie, c'est de savoir quand on en change. La prospective c'est se
préparer à faire face.
À défaut d'y voir clair, il faut se mettre en position de s'adapter à toute éventualité. « Quand il est urgent, c'est déjà trop tard » disait Talleyrand. L'enjeu
de la stratégie, c'est précisément d'identifier le moment où il faut changer de
stratégie. Déclarer a posteriori qu'on n'avait pas le choix, c'est reconnaître
en fait qu'on n'avait plus le choix, parce que l'on n'a pas su anticiper : cela
276
PROSPECTIVE
revient à avouer qu'on a laissé dériver la situation jusqu'au
point où il
n'existe plus de liberté d'action pour infléchir le cours des événements.
- La
à l'égard des menaces qui
prospective est une méfiance systématique
sur
l'ordre
établi.
Andrew
la
Grove,
pèsent
patron et fondateur d'Intel sucess
de
la
a
révolutionné
le
monde
story
grande
microélectronique
qui
est aujourd'hui chargé, à temps plein, d'identifier les périls et d'y adapter la
survistratégie, après avoir écrit un ouvrage intitulé Seuls les paranoïaques
vent...
- La
et l'action : rendre
prospective est une dialectique entre l'anticipation
ce
est
souhaitable.
Entre
trois
attitudes
possible
qui
possibles face aux chanla réactivité (attendre
gements - à savoir la passivité (subir le changement) ;
le changement
(se préparer à un
pour réagir) ; la pré-activité/pro-activité
changement anticipé ; agir pour provoquer ou pour accélérer le changement
souhaitable) - la
prospective invite à faire le bon choix, celui de l'anticipation.
- La
prospective est une imagination : il faut savoir s'abstraire des dogmes et
des normes ; penser l'impensable ;
se désengager des visions a priori de l'obet des théories ; identifier l'éventail
servateur, du poids des idéologies
des
futurs
même
et
surtout les moins probables et les plus
complet
possibles,
marginaux ; sortir des sentiers battus ; s'écarter des rails tout tracés ; regarder
en avant ; ne pas conduire en regardant le rétroviseur. Et ce alors qu'il est si
rassurant de refuser de voir en face tout ce qui dérange.
- La
la pensée qui dérange
prospective est une dissidence : l'anticonformisme,
ne rendent guère populaire tant il est vrai que toute institution a besoin d'une
armature intellectuelle stable qu'il n'est pas aisé de mettre en cause.
- La
prospective est un état d'esprit d'écoute, une humilité intellectuelle :
accepter le relativisme des convictions les mieux enracinées ; apprendre à
et l'éphémère,
le temps long et l'effet de mode, l'indistinguer l'immuable
variant et le fluctuant ; faire l'apprentissage
de l'incertitude,
d'autant plus
douloureux et difficile qu'on a été élevé dans le culte de la vérité absolue.
une
L'éthique de la prospective est de ne pas conclure, en recommandant
option stratégique plutôt qu'une autre, qui serait valable en tout temps et en
tout lieu, mais d'évaluer, de douter systématiquement.
- La
prospective est une pédagogie : la prospective ne prédit pas l'avenir - au
sens où il s'agirait de percer le mystère caché - mais elle nous aide à le
construire. Anticiper les mutations du contexte et les initiatives stratégiques
des acteurs, concurrents et partenaires ; apprendre à changer ; changer quand
il le faut, c'est-à-dire quand la nécessité en devient impérative et quand le
terrain est prêt. Et surtout, faire partager la conscience des évolutions. La
pédagogie du changement, c'est aussi de rassembler le consensus : convaincre
les troupes comme les officiers ; les personnels et les cadres ; les militants et
les dirigeants ; l'environnement
externe et les partenaires. « Le seul vrai avantage comparatif durable, c'est d'avoir la capacité d'apprendre plus vite que
Lerôle de JacquesLesourneauprèsd'Électricitéde France
277
les autres » souligne Arie de Geus, un des pères de la prospective de Shell,
professeur de management et auteur d'une recherche sur les secrets de la
longévité des entreprises pluriséculaires.
- Très profondément pour l'institution qu'elle sert, la prospective est le
fondement de la responsabilité et de la liberté d'action. Elle établit la
maîtrise de l'acteur dans la conduite de son destin par rapport aux systèmes
mécanistes autorégulés, où l'acteur n'est qu'un sujet dont la voie est entièrement guidée par un déterminisme tout tracé. La prospective, c'est l'antidestin. Face à la tyrannie du fatalisme, face aux effets de domination de
toutes sortes qui cherchent à réduire les marges de liberté, à enfermer dans
des impasses, la prospective permet de comprendre que l'avenir n'est pas
écrit, de penser le futur comme champ de potentialités qu'il faut
mais
aussi de
il
faut
se
et
de
contre
prémunir ;
risques
lesquels
exploiter à
ses
choix
sont
ouvertes
stratégiques et
prendre conscience des options qui
ou
à
inventer.
des marges de manoeuvre existantes
- Enfin, la prospective est une invitation à réfléchir sur ses propres buts, sur
son projet, sur sa mission, sur son identité. « Il n'est pas de bon vent pour
celui qui ne connaît point le cap » disait Sénèque. Penser l'avenir conduit
nécessairement à réfléchir sur ce que l'on est, et sur ce que l'on veut - en
d'autres termes la recherche du sens. Le but de la stratégie, pour l'armée,
c'est de gagner la guerre afin de conquérir de nouveaux domaines, d'assurer
l'avenir de la nation. On ne peut pas planifier sa propre destruction : tel est
l'unique interdit de la démarche prospective. Le but ultime de la prospective,
c'est la survie dans un monde qui change. La prospective vise à permettre de
distinguer l'essentiel - qu'il faut conserver - de l'accessoire - qu'il faut
changer en cas de besoin. Car à quoi bon changer, si c'est pour se renier ?
Attention à ne pas mourir pour une idée dont on s'apercevra qu'elle n'était
pas la bonne. Pour toute institution, le but suprême c'est la pérennité dans
l'être : comment assurer son développement durable, comment maintenir
son identité distinctive, face aux changements du contexte et des enjeux,
face aux adversaires et aux concurrents qui veulent votre disparition ? Pour
survivre il faut changer tout en préservant l'essentiel. Mais qu'est-ce que
l'essentiel ? Au bout de la démarche prospective, c'est soi-même que l'on
découvre.
L'enjeu majeur de l'introduction de la prospective à EDF était de faire
bouger l'entreprise, de relativiser les certitudes enracinées, de mettre en état
d'éveil et de vigilance pour s'ouvrir aux impératifs du monde contemporain.
Et ce alors qu'EDF avait mis au point une puissante armature intellectuelle,
parfaitement adaptée aux enjeux de la période de pénurie électrique, de
croissance stable et d'investissements massifs de production.
La rigueur et la cohérence sont essentielles pour une entreprise comme EDF,
qui a besoin de convaincre pour pouvoir agir : convaincre ses tutelles administratives qui détiennent la plupart des leviers de commande de par leurs
278
PROSPECTIVE
convaincre ses personnels et
pouvoirs tarifaires, financiers, réglementaires ;
d'un rôle d'influence
leurs organisations
représentatives,
qui disposent
l'opinion publique, car beaucoup de choix stratégiques
majeur ; convaincre
d'EDF sont de véritables choix de société. Le calcul économique fonda jadis
la légitimité d'EDF au regard de ces puissants partenaires quant au choix des
de la structure et du niveau des tarifs. Pour légitimer l'apinvestissements,
il fallait une personnalité
proche prospective,
respectée. Nul autre que
Jacques Lesourne ne pouvait remplir cette fonction.
sont à
nationales où les méthodes économiques
Les grandes entreprises
constituent
son
milieu
ses
débuts
de
carrière
l'honneur,
d'origine, depuis
des études économiques
et de la planification
des
comme responsable
de
France.
Il
bénéficie
dans
ces
d'une
donc,
secteurs,
grande
Charbonnages
à participer activement à la
légitimité qui le prédisposait tout naturellement
réorientation
de leurs outils stratégiques. Il a d'ailleurs été, ou est encore,
conseiller pour la prospective d'établissements
publics comme La Poste, la
SNCF et d'autres encore.
Faire école : la légitimité se gagne non seulement par la rigueur et la cohérence des méthodes mais par leur diffusion dans les milieux décideurs. EDF
fut le meilleur élève du Plan et contribua puissamment dans les années 1950
en
et 1960 à la généralisation
des méthodes de planification
économique
France. Elle fut un modèle de réactivité stratégique à la crise pétrolière des
années 1970, en planifiant le programme électronucléaire.
Prenant la suite
des initiatives pionnières de Shell en matière de scenario building, EDF
en France - et peut-être aussi dans le monde - comme
apparaît aujourd'hui
l'entreprise qui a entrepris le plus de travaux d'études prospectives et celle
le rôle le plus élevé dans son
qui a conféré à la fonction prospective
processus décisionnel. Mais il faut se garder de la tentation d'avoir raison
externe a fait
tout seul. Nul n'est prophète en son pays : le rayonnement
partie intégrante de la démarche suivie en interne. Sans relais et sans partenaires, il y a peu de chance de faire entendre ses messages.
En 1992, EDF prit l'initiative de susciter un club de prospective des grandes
en premier lieu de grandes entreprises nationales de service
entreprises aux
public
enjeux similaires aux siens - pour diffuser la méthodologie, pour
entreprendre des études communes. Ce groupe apporta un soutien décisif à la
le réseau fondé par
International,
poursuite des activités de Futuribles
Bertrand de Jouvenel, qui est une référence mondiale en la matière - pour
développer les conceptions d'intérêt général en Europe, en complément de la
dérégulation, la prospective EDF suscite initiative pour des Services d'Utilité
Publique en Europe ; puis le groupe E7 qui rassemble les plus grandes entredurable.
prises d'électricité du monde autour des enjeux du développement
Changer sans se renier. La conviction
partagée est le préalable à toute
réforme réussie et à tout mouvement de repositionnement.
La hauteur de
et la légitimité intellectuelle
de Jacques
vue, la culture interdisciplinaire
à la réussite.
Lesoume constituaient des éléments indispensables
Assaad
E. Saab
DELAPROSPECTIVE
DUBONUSAGE
DANSLESENTREPRISES
Tout le parcours que j'ai pu faire avec Jacques Lesoume depuis 1985 à EDF
a été un apprentissage quasi continu à la prospective, perçue et mise en
oeuvre comme un art de réfléchir pour éclairer l'action des dirigeants de l'entreprise. La prospective n'ayant rien d'une anti-histoire qui se proposerait de
raconter la chronique imaginée des événements futurs, elle est plutôt une
discipline active permettant à un groupe d'hommes et de femmes ou à une
nation d'exprimer leur volonté, de définir leur stratégie et de construire leur
avenir.
De ma première rencontre avec Jacques Lesoume j'ai retenu la définition
très simple mais très éclairante qu'il m'a donnée de la prospective : la vision
de l'avenir est le fruit de la nécessité, du hasard et de la volonté. La nécessité parce qu'il y a des tendances lourdes qu'on ne modifie pas facilement
comme par exemple la démographie mondiale à une ou deux décennies. Le
hasard parce que l'avenir peut prendre des formes différentes selon les
hommes, les événements et les ruptures qui marquent certaines périodes de
l'histoire comme par exemple des personnalités exceptionnelles ou providentielles ou des innovations technologiques majeures. La volonté enfin,
parce que l'avenir dépend ainsi et surtout de la résolution de conflits entre
des individus ou des groupes qui ont des projets d'avenirs différents.
À ceci, Jacques Lesoume ajoutait une grande importance de certains points
relatifs au rôle et à la mise en oeuvre de la prospective dans les entreprises :
- la prospective d'entreprises n'est pas un exercice académique consistant
à se poser des questions sur le futur. Elle vise à éclairer les décisions qui
engagent l'avenir, au moyen d'une réflexion ouverte sur les futurs pos-
280
PROSPECTIVE
sibles et d'une interrogation sur leurs implications en intégrant l'analyse
des jeux d'acteurs. Elle se différencie ainsi des méthodes de prévision et
de calcul économique souvent fondées sur l'extrapolation du passé ;
.
- elle opère par condensation de l'information émanant de la base de l'entreprise et de son environnement externe en visant à alerter à temps les
centres de décisions des opportunités et des menaces ;
- elle contribue à faire partager à l'équipe dirigeante une même vision des
futurs possibles, notamment le traitement de l'imprévu dans la mise en
oeuvre des stratégies ;
- elle suppose une grande discrétion au cours de la conduite des réflexions
afin de permettre une liberté de pensée au niveau des interrogations sur
l'avenir ;
- elle suppose une politique de communication pour alimenter le dialogue
entre les dirigeants et le personnel ;
- le succès de sa mise en oeuvre repose sur un engagement fort de la direction générale d'une entreprise agissant en tant que catalyseur de la
réflexion collective ;
- une attention particulière doit être accordée aux profils des personnes
engagées dans les travaux prospectifs en privilégiant ceux des « stratégistes » ;;
- les méthodes et les outils de la prospective sont moins homogènes et
moins élaborés que ceux du calcul économique. Ils doivent être considérés comme des supports à la réflexion prospective, mais ne se confondent
pas avec elle.
La pratique de la prospective en liaison étroite avec Jacques Lesourne m'a,
depuis, appris qu'au-delà de cette énumération très analytique et très rationnelle, il cultive avec passion l'art de la mise en oeuvre de la prospective afin
de répondre à trois objectifs :
- la combinaison optimale de l'imagination et de la rigueur intellectuelle ;
- la prospective comme levier du changement mais au service d'une
éthique forte ;
- une discipline au service de l'action.
C'est à ces ambitions, surtout, que je souhaite rendre hommage dans ces
mélanges.
La combinaison
de l'imagination
et de la rigueur intellectuelle
L'emploi pur et simple des outils de l'analyse prospective et des techniques
complexes de la décision ne conduit pas automatiquement à explorer les
futurs possibles les plus pertinents, à construire des scénarios globaux, à
analyser leurs conséquences et à identifier les meilleures options. Pour ce
Dubon usagede laprospectivedansles entreprises
2811
faire, les dirigeants doivent développer des capacités d'observation et d'analyse pour identifier les variables imprévues, les jeux d'acteurs de leur environnement et les influences inattendues qui ne cadrent manifestement pas
avec les modèles mentaux actuels qu'ils ont du monde.
En procédant à l'évaluation des environnements externe (opportunités et
menaces) et interne (forces et faiblesses) par une vision partagée et une priorité suffisante, les dirigeants font de ces travaux un cadre de référence et de
préparation des décisions au sein duquel l'aptitude à apprendre constitue le
meilleur indicateur du succès de l'entreprise pour faire face à des évolutions
et des mutations profondes de son environnement.
À ce titre, l'analyse des scénarios globaux ne doit pas avoir pour but principal de développer des ensembles distincts de prévisions, mais doit viser surtout à mettre en évidence les différentes classes de problèmes auxquels une
entreprise peut avoir à faire face et à initier la réflexion sur les classes de
réponse à apporter et sur leurs implications.
Ainsi, la première étude de prospective globale, « EDF dans le futur », réalisée dès 1986 sous la direction de Jacques Lesoume, jetait les bases d'un
nouveau cadre de référence aux travaux de planification stratégique.
Trois familles de scénarios contrastés d'environnement étaient proposées :
- des scénarios de changement continu, correspondant à une évolution sans
heurt, de l'environnement institutionnel et structurel de l'entreprise ;
- des scénarios, dits « stratégiques », de remise en cause de la structure de
l'entreprise, liés à la pression des prédateurs externes, à l'ouverture à la
concurrence et à la déréglementation sur le marché de l'énergie ;
- des scénarios de surprise intégrant des événements de déstabilisation de
l'environnement, tels que la remise en cause de la filière nucléaire.
L'impact de ce travail fut double. D'une part, ces scénarios globaux allaient
fournir un cadre de référence aux dirigeants sur les évolutions possibles de
l'entreprise et de son environnement. D'autre part, ils allaient permettre
d'identifier une première liste de questions stratégiques, c'est-à-dire les
domaines sensibles où EDF devrait prioritairement redéfinir sa position.
Cela a constitué un programme de travail de plusieurs années du Comité de
la prospective d'EDF mobilisant plus de deux cent cinquante experts et
cadres supérieurs d'EDF autour de cinq pôles d'intérêt :
- un pôle international, regroupant les études de prospective du secteur
électrique communautaire, du système électrique britannique et des secteurs électriques d'Europe de l'Est, ainsi que celles concernant l'internationalisation de l'électricité, le rôle d'acteur européen qu'EDF est amené
de plus en plus à jouer, jusqu'à ses relations avec le grand Maghreb ;
- le pôle technico-économique
concernant directement l'électricité et
études
sur
la production thermique décentralisée,
les
regroupant
portant
282
PROSPECTIV
sur le partenariat entre EDF et les industries de bases, sur l'évolution des
prix des combustibles et des moyens de productions sur le nucléaire et
incluant le devenir des combustibles irradiés, les stratégies de veille technologique dans l'électronucléaire et la prévention des accidents
nucléaires. Il s'intéresse également à l'étude de l'effet de serre, fortement
liée à la technologie, que ce soit l'étude du rôle du C02 ou celle des
moyens d'éviter sa libération dans l'atmosphère grâce à l'électricité d'origine nucléaire. Enfin, il explore les effets de la technologie sur la distribution, à travers des études sur l'avenir de la clientèle et sur les interfaces
clientèle communicantes, notamment les compteurs intelligents ;
- un pôle technologique général, analysant principalement les problématiques d'EDF en tant qu'acteur des télécommunications et face aux évolutions de l'informatique, ainsi que l'avenir de l'industrie nucléaire ;
- un pôle institutionnel, analysant les rapports d'EDF avec ses différents
partenaires, avec la puissance publique et avec les collectivités locales,
l'espace rural et son avenir, la législation de l'eau et la gestion des ressources hydrauliques, et s'intéressant aux industries de l'équipement électrique, actuellement en pleine mutation. Dans un registre un peu différent,
il analyse la situation d'EDF en tant qu'acteur commercial ainsi que
l'avenir de la mixité EDF-GDF. Enfin il entreprend des études sur les évolutions idéologiques en rapport avec l'électricité ;
- un pôle interne « management » et social, étudiant à la fois la prospective
sociale, le rôle du contrôle de gestion, et l'avenir du personnel à l'horizon
2010.
Pour chacune de ces questions stratégiques, le comité de la prospective s'est
attaché à formuler précisément sa problématique. Les réflexions ont été
menées autour de projets, qui ont mis en oeuvre des outils et des méthodes
rigoureuses (analyse structurelle, impacts croisés, méthodes des scénarios)
et ont débouché sur des études et des conclusions. L'ensemble de ces
réflexions a contribué utilement aux activités de veille et de planification par
scénarios ainsi qu'à la préparation des plans stratégiques d'EDF.
La prospective comme levier du changement
L'histoire récente du développement de la prospective stratégique va du
développement de la planification par scénarios à l'intégration de la prospective en entreprise pour déboucher sur de nouveaux horizons :
- ainsi, une première phase, dans les années 70, a vu la planification par
scénarios s'imposer comme outil de management et mode de pensée en
avenir incertain permettant de composer avec l'incertitude et d'anticiper
les adaptations aux futurs possibles et à leurs enjeux ;
- une deuxième phase, plus récente, répond à des besoins exprimés par les
dirigeants pour une meilleure intégration de la prospective et de la straté-
Dubon usagede la prospectivedansles entreprises
283
gie. Il s'agit d'identifier les moyens d'exercer un contrôle sur les événements et les jeux d'acteurs et de se préparer aux discontinuités. Face à la
complexité et à l'incertitude de l'environnement, la nécessité d'ouvrir la
réflexion sur de nouveaux champs, d'identifier les marges de manoeuvre
et les ruptures et de développer une pédagogie de changement s'impose,
à mesure que des évolutions culturelles et organisationnelles se développent ;
- une troisième phase, nécessaire pour l'avenir, devra s'intéresser aux
moyens d'immuniser l'entreprise contre l'incertitude en accroissant sa
flexibilité structurelle et sa capacité d'anticiper face à des événements
incertains sur lesquels l'entreprise ne peut exercer aucun contrôle. L'entreprise devra désormais être envisagée comme une entité organique au sein
de laquelle l'aptitude à apprendre constitue le meilleur indicateur de son
succès.
Les travaux de prospective menés depuis 1986 sous l'égide de Jacques
Lesourne ont largement permis à EDF de se préparer à cette troisième phase
en développant une pédagogie du changement et en contribuant à l'évolution
des esprits à l'intérieur comme à l'extérieur d'EDF sur de nombreux enjeux
stratégiques.
Cela a conduit, conjointement avec d'autres travaux et d'autres approches, à
la révision ou à la validation d'un certain nombre d'orientations stratégiques
et à l'éclairage du système de décision de la direction générale d'EDF, en
contribuant par ailleurs à changer l'image externe d'EDF perçue désormais
comme une entreprise plus ouverte.
Il reste maintenant à mieux inscrire ce processus dans une démarche d'entreprise « apprenante », car des approfondissements restent à conduire. De
nouveaux thèmes seront à aborder demain face à un environnement qui
continuera à évoluer, où les rails bien tracés des Trente Glorieuses ne se
retrouveront pas. Dans un tel processus, la culture d'entreprise ne peut que
s'enrichir, et l'aptitude à préparer l'avenir devient une préoccupation collective. C'est là la fonction que la prospective stratégique doit remplir à l'intérieur de l'organisation.
La prospective, si elle ne veut pas rester morte, doit aussi être diffusée à l'intérieur de l'entreprise. Cette diffusion doit être participative afin que ses destinataires s'approprient son esprit et ses résultats. Il ne sert à rien d'avoir vu
juste si, d'une part, les décisions n'ont tenu aucun compte des possibles évoqués et si, d'autre part, la préparation à des décisions résultant de la réalisation de tels possibles n'a même pas été esquissée. Le travail de diffusion et
de sensibilisation à la pluralité des avenirs est donc aussi important que le
travail d'exploration des possibles et d'élaboration de scénarios.
Jacques Lesourne a apporté, en tant que conseiller permanent du Comité de
la prospective, un consensus décisif à la mise en oeuvre de cette pédagogie
du changement en l'accompagnant d'une forte sensibilisation permanente
284
PROSPECTIVE
aux valeurs
des critères
et à l'éthique de l'entreprise
qui suggèrent une vision partagée
au niveau des objectifs poursuivis par l'entreprise
d'arbitrage
et accomplir les changements
nécespour s'adapter à son environnement
saires sur le plan interne.
Une discipline
au service
de l'action
Dans son parcours d'économiste
Jacques Lesourne a toujours privilégié
l'orientation
vers la recherche appliquée qui lui permettait, tout en cultivant
sa passion pour les phénomènes
de société et l'innovation
scientifique, de
rester en relation avec l'action. Ceci explique en grande partie son parcours
en tant que créateur et développeur
de sociétés et
parallèle professionnel
conseiller
des équipes dirigeantes
sur des stratégies d'entreprise.
Cette
démarche a trouvé une forme de synthèse dans son engagement
comme
prospectiviste
pour promouvoir et intégrer la prospective dans le processus
stratégique
d'entreprise.
Sur le plan conceptuel, les démarches sont plutôt simples : une fois les scénarios construits, il convient d'identifier les options stratégiques et d'évaluer
leurs conséquences
à la lumière de la réalisation de tel ou tel scénarios ;
multicritère
l'analyse
permet cette évaluation en fonction de la grille d'obde
tels sa mission, ses intérêts fondamentaux,
sa pérenjectifs
l'entreprise,
nité. La déontologie implique de ne pas conclure et de se limiter à fournir
aux décideurs une grille d'évaluation
et des instruments destinés à les aider
à prendre les bonnes décisions stratégiques. Toutefois la pratique est beaucoup plus délicate et complexe pour deux raisons :
- d'une
part, les options retenues doivent garder un niveau
suffisant permettant une adaptation aux différents scénarios
ment ;
de flexibilité
d'environne-
- d'autre
des conséquences
des options stratégiques ne
part, l'évaluation
résulte pas d'une seule grille d'analyse. Très souvent des études complémentaires faisant appel à d'autres outils de prévision, de calcul économique ou de gestion sont nécessaires. À ceci, s'ajoute la prise en compte
des profils des décisionnaires,
de leur attitude face aux risques et de leurs
relations avec les autres acteurs.
Là, réside l'art de Jacques Lesourne dans la mise en oeuvre de cette articulation entre réflexion et action en apportant une attention particulière à ces
difficultés dont le niveau de perception n'est pas le même selon les niveaux
hiérarchiques des personnes impliquées dans les réflexions prospectives. En
sur la signification
effet, il est essentiel que les prospectivistes
s'interrogent
des
soulevées
et
sur la nature des politiques suscepstratégique
questions
tibles de répondre à ces questions. Sinon, le risque est grand de voir se développer la prospective pour elle-même, en oubliant qu'elle n'a de sens que par
d'une stratégie suivie de plans d'actions.
rapport à l'élaboration
Dubon usagede la prospectivedansles entreprises
285
Pour autant, la prospective stratégique n'a certainement pas atteint un état
complet de maturité et de stabilité, ni dans ses méthodes et techniques, ni
dans sa philosophie - la brièveté de son histoire suffirait à le démontrer. Sans
se risquer à une prospective de la prospective, on peut avancer, puisqu'il
s'agit d'un art concret de la participation, que c'est la demande des entreprises qui la fera évoluer et qu'elle se redéfinira au point de rencontre et
d'échange de leurs expériences.
C'est ainsi, qu'avec le concours de Jacques Lesoume, EDF a suscité la création d'un club de prospective des grandes entreprises visant à promouvoir et
à enrichir ces ambitions pour faire de la prospective une discipline ouverte
et participative au service de l'action.
Fabrice
Roubelat
LAPROSPECTIVE
STRATÉGIQUE
Deshommeset des organisationsen réseaux
S'articulant autour de dirigeants d'entreprises, de pôles de développement
(entreprises, associations, institutions), de groupes d'experts et de managers,
la prospective stratégique peut être définie comme une activité d'animation
de réseaux visant à remettre en cause, à travers une réflexion collective sur
les futurs possibles, les représentations des différents acteurs qui forment
l'entreprise et son environnement, en vue d'orienter la stratégie de l'organisation.
Par la constitution de réseaux d'hommes, experts et décideurs, la prospective stratégique a dans ce cadre pour objectif de faire interagir de nombreuses dimensions à partir de vastes réseaux d'information et d'expertise
(Lesourne, 1996). Par l'hétérogénéité des réseaux qu'elle permet de constituer et d'utiliser en fonction des circonstances, la prospective contribue ainsi
à couvrir des dimensions portant tant sur l'environnement général que sur
l'environnement concurrentiel ou sectoriel des organisations. Aussi les perspectives d'avenir de la prospective stratégique reposent-elles sur l'interconnexion des pôles de développement et sur de nouveaux réseaux.
Laprospectivestratégique
287
ETCONSTRUCTION
1.. RÉSEAUX
D'EXPERTS
DEREPRÉSENTATIONS
ALTERNATIVES
DUFUTUR
1.1
1 L'expert,le stratège,le manager
Se définissant comme une démarche pluridisciplinaire d'inspiration systémique (H. de Jouvenel, 1993 ; Godet, 1997), la prospective met d'emblée
l'accent sur la mise en relation de savoirs à la fois différenciés et complémentaires en vue d'une réflexion concernant l'avenir. Il s'agit d'intégrer
dans une même vision à caractère global des travaux d'experts de différents
domaines, bref de faire travailler ensemble « un philosophe, un psychologue,
un sociologue, un économiste, un pédagogue, un ou plusieurs ingénieurs, un
médecin, un statisticien, un démographe » pour reprendre l'objectif initial de
Gaston Berger (1957). De même le forum prévisionnel (B. de Jouvenel,
1964) se conçoit comme une institution destinée à combiner en prévisions
générales les prévisions spécifiques d'experts d'horizons différents.
Pour l'entreprise, l'exercice de prospective se traduit par des scénarios de
différents niveaux : scénarios concernant l'environnement général, l'environnement concurrentiel et l'entreprise elle-même. Les différentes catégories de scénarios sont recombinées dans des scénarios globaux. À travers la
construction de scénarios globaux, il s'agit donc de croiser des dimensions
multiples concernant aussi bien l'environnement général que l'environnement concurrentiel de l'entreprise et de faire appel à des connaissances et
compétences elles-mêmes hétérogènes. Il s'avère ainsi fondamental de disposer, à travers différents réseaux (académiques, institutionnels, professionnels) auxquels l'entreprise est connectée, d'une base d'experts susceptibles
d'être consultés, voire mobilisés dans des groupes de travail en vue de la
construction de ces scénarios. En premier lieu, l'expert sera donc une ressource en termes d'informations rétrospectives et prévisionnelles. Cependant,
on ne rentrera véritablement dans le champ de la prospective qu'à partir du
moment où l'on quittera le domaine de la connaissance pour celui des représentations alternatives de l'avenir. En second lieu, l'expert contribuera à un
réseau de communication en vue de produire des représentations collectives.
Ainsi, la méthodologie prospective conduira à mettre en place un système
plus ou moins formel mettant en relation des hommes en vue de recueillir
des croyances et des visions sur l'avenir, qui seront ensuite utilisées pour la
construction de grilles de lecture alternatives, et en particulier de scénarios.
Afin de construire ces grilles de lecture alternatives concernant le futur, la
première étape de la méthodologie prospective conduira à constituer soit un
groupe, soit un panel d'experts internes ou externes à l'organisation. Au sein
d'un groupe, les experts travailleront ensemble à la production de ces grilles
de représentations, tandis que dans le cas d'un panel les experts seront interrogés individuellement comme dans les enquêtes delphi. Groupes et panels
288
peuvent cependant être combinés, un groupe pouvant
des experts qui lui sont extérieurs ou faire réaliser
groupe discutera ensuite les résultats.
PROSPECTIVE
décider d'auditionner
une enquête dont le
En fonction du cadre dans lequel se déroulera l'étude prospective (la prosle groupe ou le panel
pective d'une entreprise, d'un secteur industriel...),
être
soit
internes
à une organisation,
d'experts pourront
composés
d'experts
soit d'experts internes et d'experts externes (groupe mixte) ou être encore
différentes. Il en résulte
composé exclusivement
d'experts d'organisations
les
ou
les
seront
ou
moins
que
groupes
panels
plus
hétérogènes, ce qui n'est
sans
sur
la
nature
de
l'information
pas
conséquences
produite. En effet, plus
le groupe ou le panel sera homogène, plus grand sera le risque d'aboutir à
une vision unique de l'avenir, alors que l'objectif de la prospective est au
contraire de construire des visions différenciées. Ainsi, sur des sujets pointus ou politiquement
délicats comme par exemple les questions de gestion
des ressources humaines ou de prospective technologique,
le degré d'expertise des membres d'un groupe de travail ne garantit pas la qualité d'une
réflexion prospective,
les croyances de ceux-ci pouvant être toutes idenCette
nécessité
de
faire apparaître des avis divergents autant que des
tiques.
consensus conduira aussi à transformer les modalités d'utilisation
de certaines techniques comme la méthode delphi en recherchant une distribution
multimodale
normale des réponses des experts
plutôt qu'une distribution
(Roubelat, 1994).
À ce stade, on s'interrogera
aussi sur ce que l'on entend par expert. Sous le
vocable générique
on regroupe en effet généralement
(et de
d'expert,
manière circulaire) tous ceux dont les opinions peuvent être utiles à la
réflexion prospective, le terme « expert » étant en fait une commodité de langage qualifiant tous ceux qui participent à la réflexion prospective et contribuent, d'une manière ou d'une autre, à la construction des grilles de lectures
alternatives de l'avenir. Il convient alors de dissocier ceux qui sont consultés en raison de leur connaissance
de type scientifique
du sujet de ceux
consultés en raison de leur rôle dans les processus de décision liés à la problématique. On distinguera donc les experts des décideurs et, parmi les décila stratégie de l'organisation
des
deurs, les dirigeants
qui définissent
managers qui gèrent les unités opérationnelles.
Dans le cas d'une prospective
réalisée dans le cadre d'une organisation,
l'exercice de prospective conduira ainsi bien souvent à constituer un groupe
de réflexion composé de fonctionnels et d'opérationnels,
c'est-à-dire
d'exet
de
D'un
de
vue
ce
perts
managers.
point
organisationnel,
groupe de
réflexion travaillera souvent pour un comité composé de dirigeants de l'entreprise, qui pourront d'ailleurs être auditionnés en tant qu'experts-stratèges,
ainsi que parfois d'experts extérieurs.
De même, il sera également intéressant
de distinguer ceux qui ont une
connaissance directe du sujet de ceux qui en ont une connaissance indirecte
car travaillant soit sur des domaines connexes, soit dans des domaines qui
289
Laprospectivestratégique
par analogie peuvent intéresser la problématique. Ainsi, les enquêtes delphi
demandent aux experts consultés d'évaluer leur compétence par rapport aux
questions posées, ce qui permet de séparer les « grands experts » des
« experts ». On pourra enfin comparer les résultats de différents panels pour
relativiser certains résultats, ce qu'illustrent les divergences d'appréciation
entre « experts » allemands, français et japonais sur certains développements
technologiques futurs comme la supraconductivité ambiante (voir Héraud et
alii, 1997).
Tableau 1 : L'expertprospectif : typologie
Lien avec le processus
de décision
- direction
- management
Connaissance scientifique
du sujet
Dans le domaine
de la prospective
Dans un domaine
connexe
expert-stratège
expert-manager
candide-stratège
candide-manager
expert-expert
candide-expert
Autant qu'à une connaissance experte, c'est donc aux croyances, en termes
d'anticipations et de conjectures (Munier, 1994), implicites et explicites visà-vis de l'avenir que s'intéresse la prospective. Ces croyances sont celles des
différents acteurs liés soit à la problématique de l'étude prospective, soit à
l'organisation et son environnement, ce qui conduit le prospectiviste à considérer avec prudence la notion d'expertise et à discuter dans un processus
interactif les représentations individuelles et collectives qu'il a contribué à
produire. En effet, autant qu'un instrument d'analyse, la prospective est
devenue un exercice de création de sens, de mobilisation autour d'un projet
(Lesourne, 1985) où l'appropriation des réflexions prospectives par l'ensemble des acteurs de l'entreprise, considérée en tant que système social
(Ackoff, 1994), compte autant que le résultat de l'exercice en termes d'aide
à la décision (Godet, 1997) et où les experts (au sens classique du terme)
doivent « s'abstenir » (Thiétart et Bergadaà, 1990) pour devenir des acteurs
parmi d'autres de la réflexion prospective.
1.2 Lescontrainteset enjeuxde la remiseen cause
des paradigmesstratégiques
À partir de cette fonction de création de sens, l'accent a été progressivement
mis sur l'intérêt non seulement de la prospective, mais aussi du processus de
planification dans son ensemble, en termes d'apprentissage (Michael, 1973 ;
Senge, 1990), de pédagogie collective (Monod, 1974 ; Stoffaës, 1996) et de
290
PROSPECTIVE
coévolution
(Schwartz et Van der Heijden, 1996). Dans un tel cadre, les
études prospectives n'ont pas pour objectif de s'inscrire directement dans un
mais de servir à remettre
processus linéaire de type réflexion/décision/action
en cause les croyances non seulement des décideurs mais aussi des différents
acteurs de l'entreprise et de son environnement.
La diversité des grilles de lecture proposées par la prospective,
tant en
termes de scénarios que d'options
ainsi
les
remises
en
stratégiques,
que
cause qu'elles suscitent, pose néanmoins le problème des luttes de pouvoir
qu'elles peuvent révéler et de la réaction de rejet qu'elles peuvent susciter
(Leban, 1992) parmi les différents acteurs impliqués dans la réflexion prospective et stratégique, qu'il s'agisse des experts, des managers ou des stratèges. Ce risque est encore plus grand lorsque la prospective passe d'une
fonction d'explicitation
et de discussion des représentations
à une fonction
être
aussi
bien
plus idéologique (Barel, 1971) qui peut
explicite (recherche
de consensus, mobilisation) que détournée (manipulation ou utilisation à des
fins personnelles).
Les travaux sur l'application
des cartes cognitives à la gestion (Calori et alii,
1995), ainsi que ceux concernant leurs implications en termes de paradigmes
au sens de représentations
(Laroche et Nioche,
stratégiques,
partagées
1994), mettent justement en évidence l'intérêt porté au problème de la représentation de l'environnement
par les différents acteurs du processus stratégique. Dans le cadre d'un exercice de prospective, il ne s'agit cependant pas
seulement d'expliciter les cartes cognitives des décideurs mais de construire
des représentations
collectives (par exemple les plans influence/dépendance
d'une analyse structurelle ou les graphes de convergences et de divergences
d'une analyse de jeux d'acteurs). S'appuyant sur les décalages existant entre
ces représentations
et les logiques dominantes, la prospective constitue un
exercice de remise en cause des paradigmes stratégiques.
Cependant, les structures des organisations ne sont le plus souvent pas adaptées à la remise en cause de la logique dominante et encore moins à la production de représentations
ce qui nécessite la mise en place
alternatives,
d'une organisation en réseau de la réflexion prospective, c'est-à-dire
située
en dehors des structures classiques de ces dernières par l'intermédiaire
de
connexions, sinon informelles, du moins sortant du cadre des relations hiéelle-même. En confrontant les reprérarchiques et même de l'organisation
sentations de chacun aux visions de multiples acteurs (experts, managers et
stratèges, internes comme externes), la prospective
n'apparaît plus seulement comme un facteur de remise en cause mais permet la construction de
sinon partagées du moins discutées, des évolutions posreprésentations,
sibles de l'entreprise
et de son environnement,
c'est-à-dire
de scénarios et
Elle
devient
dès
lors
un
facteur
de
mise
en cohérence
d'options stratégiques.
et de remise en ordre qui nécessite que l'ensemble des acteurs qui y participent accepte de se livrer à cet exercice consistant à aller au-delà de l'horizon
et de l'espace habituel des décisions et des compétences de chacun.
Laprospectivestratégique
2911
Pour l'entreprise, le « voir loin et voir large » de la prospective (Berger, 1959)
signifie ainsi remettre en cause les frontières internes comme externes de
l'organisation. Cette transgression des frontières et ce regard par-delà l'organisation ressortent d'ailleurs comme des caractéristiques principales de la
prospective, telle qu'elle apparaît à partir de l'étude diachronique des pôles
de développement de la prospective en France d'une part et du développement de la prospective stratégique au sein de grandes organisations d'autre
part (Roubelat, 1996). La dynamique de la prospective stratégique montre
ainsi que la question de la recherche de sens non seulement dans l'organisation mais aussi dans son environnement est précisément une des préoccupations centrales des dirigeants d'entreprise ayant contribué au développement
de la prospective. Par là même apparaît le lien entre l'attitude prospective de
ces dirigeants et le développement de l'activité de prospective, c'est-à-dire
entre les réseaux d'hommes et les réseaux d'organisations.
2.. L'ORGANISATION
DE LA
PROSPECTIVE
STRATÉGIQUE
ENFRANCE
2.1
1 Desréseauxd'hommes
et despôlesde développement
L'étude de la genèse de la prospective en France fait apparaître que c'est à
l'extérieur de leurs organisations que naît l'intérêt de chefs d'entreprise pour
la prospective. Avec la création en 1957 du Centre international de prospective, Gaston Berger met en effet en réseau, selon la règle non écrite des
« trois tiers », des chefs d'entreprises (comme Georges Villiers, président du
CNPF, Arnaud de Voguë, président de Saint-Gobain et Marcel Demonque,
vice-président et directeur général des Ciments Lafarge), des hauts fonctionnaires et des universitaires en vue de réfléchir sur l'avenir. Autant que
l'intérêt que suscitent ces travaux sur l'avenir, c'est d'ailleurs cette composition hétérogène, ce lieu d'échanges qui semble important au sortir d'une
époque où chefs d'entreprise et hauts fonctionnaires se méfiaient quelque
peu les uns des autres. L'activité de ce centre témoigne aussi du passage de
l'attitude à l'activité de prospective puisqu'au départ il publie des « vues
prospectives » individuelles avant de progressivement déboucher sur des travaux collectifs, participatifs, en particulier en entreprise.
L'une des premières expériences de « prospective appliquée », telle qu'elle
se diffuse à partir du Centre international de prospective, date de 1961. Elle
concerne la Snecma, sous l'impulsion de son président, Henri Desbruères,
avec le concours de membres du centre comme Pierre Massé. L'objet de
cette application n'apparaît pas seulement comme le fruit de l'intérêt d'un
dirigeant pour la prospective mais également comme une nécessité pour la
292
PROSPECTIVE
ainsi que le souligne Desbruères.
En effet, dès le début des
SNECMA,
années soixante émerge un nouveau type d'industrie
le projet
qu'esquisse
visant la construction
d'un avion supersonique,
le futur Concorde. Elle se
situe dans le cadre d'un processus à la fois industriel et politique, auquel
Pierre Massé n'est pas étranger en tant que Commissaire
au Plan. En particulier, quelques mois plus tard, la question du supersonique fait l'objet de
débats intenses au sein des commissions
du Plan, autre lieu de développement de la prospective.
La prospective
apparaît ici comme un vecteur de
mutation culturelle, non seulement interne mais aussi externe, visant en particulier « toutes les sphères qui forment le contexte de la SNECMA », selon
de Desbruères
lui-même. Par le discours qu'elle permet de
l'expression
des pervéhiculer, elle cherche donc à être un instrument de transformation
non seulement au sein de l'entreprise,
mais
ceptions de l'environnement
également à l'extérieur de cette dernière, en particulier en associant au processus des personnalités extérieures.
Tableau 2 : Réseaux et prospective d'entreprise en France
Période/
entreprise
Dirigeant/
conseiller
Changement stratégique
Réseaux externes
1961
SNECMA
Henri Desbruères/
André Gros
Constitution de l'industrie
aéronautique européenne
Centre d'études
prospectives, CGP
1969
Elf
Pierre Guillaumat/
Bernard Delapalme
Transformation du marché
pétrolier
CGP, prospective
de défense
1987
EDF
Jean Bergougnoux/
Jacques Lesourne
Déréglementation
européenne
Entreprises et
prospective,
Futuribles
1
À la fin des années soixante, la prospective commence à se développer au
sein d'entreprises
énergétiques telles Elf et Shell, et en particulier la filiale
de
cette
dernière. Là encore, une relation nette peut être établie
française
entre les exercices de prospective internes et externes dans une période où la
du marché
plupart des acteurs énergétiques
anticipent la transformation
pétrolier.
En 1969, Pierre Guillaumat, qui dirige l'ERAP et la SNPA, les deux sociétés constitutrices
de ce qui deviendra Elf au milieu des années 70, commande à Bemard Delapalme, son directeur de la recherche, du développement
et de l'innovation,
une étude sur Elf à l'horizon
1985. Pour les deux
hommes, il s'agit donc de réaliser un travail similaire à celui de « réflexions
pour 1985 » du Commissariat
général du Plan (que Pierre Guillaumat avait
présidé et dont Delapalme avait été le rapporteur). Ce n'est cependant pas de
manière fortuite que Pierre Guillaumat lance un tel exercice de prospective
globale, près de cinq années après la fin des travaux du groupe « réflexions
La prospective stratégique
293
de temps entre les deux études est en effet trop
pour 1985 ». L'intervalle
En fait, l'animportant pour qu'il puisse s'agir d'une simple transposition.
née 1969 apparaît comme une année charnière pour l'ensemble du secteur
de l'énergie. C'est par exemple au cours de cette année qu'est décidé le proélectronucléaire
et que les premiers gisegramme français d'équipement
ments pétroliers sont découverts en mer du Nord. Or ce que deviendra Elf
dépend alors à 70 % de son pétrole algérien. Le groupe de travail composé
par Bernard Delapalme comporte d'une part des membres de l'ERAP et de
la SNPA, six au total, mobilisés à temps partiel pour l'occasion, et d'autre
part des membres extérieurs à l'entreprise dont Hugues de l'Estoile, le chef
du centre de prospective et d'évaluation
du ministère des Armées, et Michel
Pecqueur, alors directeur délégué pour l'uranium enrichi au CEA. Il constitue donc une ouverture sur des réseaux extérieurs certes, mais en territoire
connu, Pierre Guillaumat ayant été administrateur
général délégué du CEA
et ministre des Armées.
À la même époque, l'ensemble des acteurs du secteur énergétique se retrouve
dans la commission
de prospective
de l'énergie du Plan. On y retrouve
Bernard Delapalme, Michel Pecqueur, Jacques Lacoste des études éconode la planification
miques d'EDF et Pierre Wack, l'initiateur
par scénarios
au sein de la Shell française, puis de la cellule de planification du groupe à
Londres. À travers cet exemple, prospective publique et prospective stratéinterconnectées.
Ainsi, la prospective contribue à relier
gique apparaissent
les centres de préparation des décisions de l'époque, tant au niveau public
confronter les visions des princiqu'au niveau des entreprises, c'est-à-dire
acteurs
d'un
le
souvent
des experts appartenant aux serdomaine,
paux
plus
vices fonctionnels des entreprises et administrations.
L
La prospective publique est aussi un vecteur de diffusion de la prospective
Ainsi, le parcours des membres de la commission de la prosd'entreprise.
de
pective
l'énergie du Plan est révélateur de la relation forte entre l'attitude
prospective des dirigeants et de leurs conseillers et l'activité de prospective
au sein des organisations. C'est ainsi que Michel Pecqueur, devenu président
la troisième grande étude de prospective du groupe au
d'Elf, commandera
milieu des années quatre-vingt,
tandis que Bernard Delapalme deviendra
conseiller de Jérôme Monod (qui avait travaillé avec Bernard Delapalme
lors de l'exercice « réflexions pour 1985 » du Plan et mis en place le dispositif de prospective de la Datar) à la Lyonnaise des Eaux au début des années
et que Jacques Lacoste sera l'un des conseillers de Jean
quatre-vingt-dix,
lors
de la mise sur pied du management
Bergougnoux
stratégique intégré
d'EDF à la fin des années quatre-vingt.
Depuis le milieu des années quatre-vingt, avec notamment les entreprises de
service public, la prospective devient plus explicitement
un outil d'accomen contribuant à l'anticipation
et à la comprépagnement du changement
Les entreprises publiques ont
hension des évolutions de l'environnement.
de réseaux
joué (et jouent toujours) un rôle particulier dans le développement
294
PROSPECTIVE
cette implication des entreprises publiques peut
prospectifs. Historiquement,
être divisée en deux phases. La première, de la fin de la guerre aux années
quatre-vingt, est liée au processus de conception puis de mise en oeuvre par
des entreprises publiques de lourds programmes d'équipement
à long terme
notamment) nécessi(électricité, transport ferroviaire, télécommunications
tant une vision prospective non seulement sectorielle et technologique,
mais
et géopolitique (en particulier dans le cas de l'éneraussi macroéconomique
n'est plus
gie). La deuxième phase, depuis la fin des années quatre-vingt,
seulement liée à cet effort de programmation
mais à une mutation de l'environnement institutionnel de ces entreprises publiques. Ainsi, ces entreprises
se sont trouvées dans une période de changement de phase (Marchais, 1993)
d'autant plus difficile à opérer que les consensus étaient anciens et les intensités capitalistiques
importantes.
Pour des entreprises dont le statut, la forme juridique et les domaines d'activités sont réglementés,
ce processus de changement de paradigme stratéest
complexe et s'appuie sur des décalages dans le
gique
particulièrement
ces
Ne
maîtrisant
leur aptitude au changement,
temps.
que partiellement
alors
trouvé
dans
la
un
outil
à
la
adapté
prospective
préparaentreprises ont
tion de celui-ci. Il s'agit ainsi pour ces entreprises d'anticiper et de préparer
tant dans l'entreprise qu'à l'extérieur des changements de règles du jeu.
La caractéristique
de règle du jeu est son
principale d'un tel changement
caractère irréversible à l'échelle de l'organisation,
ce qui signifie que l'enest concerné, ainsi que l'ensemble
des
semble des niveaux de l'entreprise
dimensions
s'intéresse
la
réflexion
et
stratégique.
auxquelles
prospective
diffusés, les changeLorsque les scénarios sont construits et éventuellement
de
ments qu'ils évoquent restent virtuels et n'impliquent
pas nécessairement
de l'activité de
décision à court terme. Dans un tel cadre, le développement
du changement des règles du jeu par
prospective participe à l'anticipation
l'ensemble des acteurs qui forment l'entreprise et son environnement,
dans
et de négociation de scénarios possibles. Ce
un processus de construction
processus coopératif engage un nombre important d'acteurs tant internes
individus et organisations.
qu'externes,
Ainsi, ces travaux débordent le cadre des entreprises elles-mêmes. Au début
sous l'impulsion
et de
des années quatre-vingt-dix,
de Jean Bergougnoux
« Entreprises et prospective », comJacques Lesourne, un club d'entreprises
de service public, est constitué afin de
posé principalement
d'entreprises
mener en commun, dans un cadre non formel, des travaux de prospective,
par exemple sur les régimes spéciaux de retraite ou sur les questions liées au
concept de service public européen. Dans un tel cadre, la prospective stratégique n'apparaît pas seulement comme un processus interne de création de
sens mais aussi comme une occasion de confrontation des visions propres à
avec celles d'organisations
rencontrant
des problèmes
simil'entreprise
laires. Dans ce processus, l'implication
des dirigeants est essentielle pour
permettre la transgression des frontières tant internes qu'externes de l'orga-
Laprospectivestratégique
295
nisation, et donc permettre à la prospective de se développer. Réseau informel sans existence juridique, le club « Entreprises et prospective » fonctionne
donc d'une part autour de groupes de travail coordonnés par les responsables
de la prospective des différentes entreprises, et d'autre part autour de la
réunion des présidents des entreprises du club. Cependant, si dans sa phase
initiale le club était plus un réseau d'individus que d'organisations, il a bénéficié d'un noeud de réseau (en l'occurrence EDF) qui a contribué à sa permanence.
2.2 Desgroupesaux réseaux :le cas EDF
Depuis la seconde moitié des années quatre-vingt, EDF est devenu un cas
d'école pour la prospective stratégique. Pour EDF, le changement de paradigme, mis en évidence au milieu des années quatre-vingt par l'étude « EDF
en 2025 », réalisée par les experts des études économiques générales, reposait d'une part sur le changement de comportement des pouvoirs publics
(État, collectivités locales) vis-à-vis de l'entreprise et d'autre part sur l'émergence d'un nouvel acteur (l'Europe) dans le jeu institutionnel. Dix ans plus
tard, les scénarios de surprise sont devenus réalité et la prospective a contribué à diffuser tant dans l'entreprise qu'à l'extérieur de celle-ci l'idée de
telles évolutions. Entre temps, la réflexion s'est déplacée des experts des
études économiques générales vers un comité composé des directeurs fonctionnels de l'entreprise et de quelques grands experts, définissant des thèmes
d'études prospectives approfondis par des groupes de travail composés d'experts et de managers internes, et parfois d'experts externes.
Dans ce nouveau cadre, le développement de l'activité de prospective dans
l'entreprise implique la création d'une structure de pilotage et de coordination du processus, apportant notamment un soutien logistique et jouant le
rôle d'interface entre les différents acteurs, de l'activité de prospective ainsi
qu'avec les réseaux de prospective externes. Ainsi cette structure contribue
à la composition des groupes de travail, selon que la création du groupe
découlera de la mise en oeuvre du programme de travail défini par le comité
de prospective ou que le sujet se sera imposé de manière émergente.
'
La constitution d'un groupe de travail interne obéit dans tous les cas à la
nécessité d'impliquer l'ensemble des acteurs concernés, c'est-à-dire, s'agissant de problèmes globaux, l'ensemble des niveaux et des directions de l'entreprise. Elle implique alors les experts et managers internes, et parfois
externes, du domaine concerné. Cependant, l'expert n'est qu'un des membres
parmi d'autres du groupe de travail prospectif, au même titre que le manager qui contribuera également à appliquer et diffuser les enseignements de
la prospective. La prospective apparaît alors comme un exercice d'apprentissage collectif au niveau des groupes et du comité de prospective, susceptible de s'étendre dans l'organisation.
296
PROSPECTIVE
En tant que processus, ces exercices de prospective conduisent à élargir l'audience de la prospective dans l'entreprise
par la constitution de groupes de
travail impliquant l'ensemble des directions de l'entreprise,
qu'elles soient
fonctionnelles
ou opérationnelles.
Par leur hétérogénéité,
les groupes de travail apparaissent comme des éléments constitutifs de la mise en réseau d'experts surtout, de managers parfois, sur des chantiers stratégiques. Cette mise
en réseau est néanmoins temporaire et s'apparente
à une gestion par projet
puisque le groupe disparaît une fois l'étude terminée.
En confrontant les caractéristiques
des groupes de prospective ayant contribué à la réflexion de prospective stratégique d'EDF depuis 1989 à la grille
d'analyse proposée par Rojot et Bergman (1989), il apparaît qu'il s'agit là
de groupes semi-formels. En effet, leurs caractéristiques
les rapprochent des
dont
ils
se
toutefois
leur
formels,
groupes
distinguent
par
grande flexibilité.
Tableau 3 : Caractéristiques des groupes de prospective d'EDF
(À partir de la grille de Rojotet Bergman, 1989)
Groupes
Appartenance
Caractéristiques
des groupes de prospective
Naturels
Formels
Volontaire
Désignation
ou élection
Cooptation plus que désignation
Possibilité de désignation sur
des sujets sensibles
Structures
Changeantes
Stables
Type think tank avec secrétariat
+ membres
Direction
Émergente
Désignée
Un facilitateur ou un président
qui pilote plus qu'il ne dirige
Tâche
Indéterminée
Bien délimitée
Une problématique souvent
large + une grande latitude
dans la méthodologie mais
presque toujours production
de scénarios
Durée
Variable
Indéterminée
Prédéterminée
Variable, souvent déterminée
mais avec une longue durée
(6 à 18 mois)
En premier lieu, les membres d'un groupe de prospective sont plus souvent
cooptés qu'ils ne sont désignés. Ainsi, la composition du groupe est le résultat d'un processus heuristique et peut même évoluer durant le processus.
Cherchant à mettre en évidence des futurs possibles contrastés, la composition du groupe ne suit cependant pas toujours des critères d'hétérogénéité
choisies, en particulier sur des sujets sensibles
quant aux personnalités
comme la prospective
des personnels.
Dans de tels cas, le choix des
Laprospectivestratégique
297
membres est alors guidé par le souci de représentation de telle ou telle direction ou fonction. Lorsque cette règle n'est pas suivie, l'exercice s'expose
cependant à une trop grande homogénéité susceptible de freiner sa créativité
par un phénomène de type groupthink (Janis, 1971). Il peut aussi se former
un consensus, ainsi que des phénomènes d'autocensure, pour écarter certains
scénarios ou certaines hypothèses qui ne semblent pas acceptables du point
de vue du paradigme dominant. On aboutit alors à un échec de la réflexion
prospective par un rétrécissement de la perspective aux seules hypothèses
consensuelles.
La structure des groupes apparaît quant à elle particulièrement flexible,
organisée en réseau. Cette organisation en réseau signifie en fait que l'activité du groupe est coordonnée par un noeud de pilotage (composé du responsable du groupe et de membres de la structure de coordination de
l'ensemble des études) mais que les différents membres proviennent de différentes organisations ou de différentes parties de l'organisation. En outre, il
n'y a pas de relation hiérarchique entre les différents membres du groupe, y
compris le responsable qui à l'occasion de la réflexion devient un membre
du groupe comme les autres. Néanmoins, le groupe de prospective peut se
trouver perturbé par des problèmes de pouvoir qui lui sont extérieurs ou par
la prééminence d'un membre hiérarchiquement supérieur (effet de leadership). Pour fonctionner, il doit donc être clairement dissocié de l'organisation existante et bénéficier d'une légitimité au plus haut niveau. Lorsque
cette légitimité fait défaut, les membres du groupe de travail arbitreront en
défaveur de l'exercice de prospective, ce qui pose alors des problèmes d'assiduité et montre la limite du modèle du réseau.
,
'
',
',
I,
',
',
,
,'
Le responsable du groupe est le plus souvent désigné par le comité de direction chargé de la prospective. Il choisit les membres du groupe, il est plus
considéré comme un animateur (on emploiera aussi le mot de facilitateur) de
la réflexion prospective. La direction du groupe pourra dans certains cas
revêtir la forme d'un binôme composé d'un expert/manager faisant le lien
avec le processus de décision que la réflexion prospective est chargée
d'éclairer et d'un expert/expert qui apportera soit une connaissance scientifique du domaine étudié, soit une méthodologie pour la conduite de l'exercice. Ce dernier pourra d'ailleurs être un consultant externe. In fcne cependant,
le lien avec le processus de décision, notamment par l'intermédiaire de la
présentation des travaux devant les instances de décision, sera toujours de la
responsabilité d'un membre de l'entreprise.
Par rapport au processus de décision, la tâche à accomplir est relativement
bien déterminée puisqu'il s'agit d'éclairer un processus de réflexion stratégique, de mettre en évidence des tendances lourdes, des incertitudes, les stratégies des acteurs sur des domaines précis. Néanmoins, le choix des
dimensions d'analyse et des horizons peut varier en cours d'analyse. De
même, la méthodologie varie d'une étude à l'autre mais se conclut presque
systématiquement par la construction de scénarios. Sa durée est extrême-
298
PROSPECTIVE
ment variable (6 à 18 mois), mais une durée longue est souvent accordée à
ce type d'exercice afin de permettre une grande latitude dans la réflexion et
éviter que le groupe n'écarte a priori certains scénarios du fait d'un manque
de temps.
Une fois la tâche terminée, c'est-à-dire
l'étude thématique
réalisée, les
membres du groupe ont toutefois la possibilité de rester en relation avec
l'ensemble des membres de l'entreprise ayant participé à de tels travaux. Audelà des projets que sont les études thématiques,
il s'agit en effet de développer une activité permanente à laquelle contribue l'ensemble des membres
de l'entreprise ayant contribué à la réflexion prospective. De membres d'un
groupe de travail, les experts et managers concernés deviennent membres
d'une communauté
réfléchissant
prospective
plus largement à l'ensemble
des évolutions de l'entreprise
et de son environnement.
Cette communauté
forme le réseau de prospective
interne à l'entreprise,
que la structure de
coordination des études, véritable noeud de réseau, s'efforce de faire vivre et
d'interconnecter
avec les réseaux externes. Ces réseaux externes, comme le
club « Entreprises et prospective », permettent de poursuivre dans un cadre
plus large certaines réflexions et dans certains cas de jouer un rôle précurseur pour des réflexions qui ne pourraient se développer dans l'entreprise.
Ils permettent également d'étendre géographiquement
le cadre de la réflexion
à des « think tanks » et des
prospective et stratégique, avec la participation
réseaux internationaux
comme le Global Business Network ou européens
comme le CEPS (Centre for European Policy Studies), même si ces réseaux
regroupent plus souvent des experts chargés d'animer la réflexion prospective des entreprises que des décideurs. Ainsi, la participation au processus de
prospective ne se limite ni dans le temps, ni dans l'espace, ce qui est une
dénotant son fonctionnement
en réseau.
caractéristique
3. LESRÉSEAUX
DELAPROSPECTIVE
FUTURS
STRATÉGIQUE
3.1 L'interconnexion
et l'expansion
desréseaux
Comme
le montre l'analyse de l'interaction
entre les différents pôles de
de
la
en
la
France,
développement
prospective
dynamique de la prospective
se fonde principalement
sur l'interconnexion
d'hommes,
experts, stratèges
et managers. Le premier de ces pôles, le Centre international de prospective
apparaissait d'ailleurs comme un réseau d'hommes, qui, à travers leurs fonctions, ont permis à la prospective de se diffuser dans un certain nombre d'orce centre peut ainsi être
ganisations. Par la diversité de ses composantes,
considéré comme la matrice des pôles de développements
qui l'ont suivi en
contribuant à l'essaimage
de la prospective.
Laprospectivestratégique
299
Le Commissariat général du Plan et la Datar ont également joué un rôle
important dans la genèse de la prospective. Si on ne peut complètement lier
le développement de la prospective d'entreprise à celui de la prospective
publique, l'influence de cette dernière est néanmoins loin d'être négligeable.
En effet, les hommes qui ont développé les activités de prospective au sein
des organisations ont le plus souvent participé à des travaux de prospective
publique. Une première rupture pour la prospective stratégique pourrait
alors résider dans le fait que les actuels décideurs et leurs conseillers ont été
marqués par les travaux de prospective publique, dont ils ont appliqué les
principes aux organisations qu'ils dirigent, et que leurs successeurs ne le
seront peut-être pas. Avec le déclin de la planification publique, on peut penser qu'un des pôles de développement de la prospective pourrait à terme disparaître, à moins que les institutions de prospective publique ne connaissent
un nouvel essor. Cependant, pour qu'elles puissent vraiment oeuvrer au
développement de la prospective stratégique, il conviendrait par exemple
que des forums comme le Commissariat général du Plan ne soient pas uniquement des lieux de réflexion mais redeviennent des lieux de pouvoir et
d'influence. Sur ce dernier point, le niveau national n'est d'ailleurs pas le
seul niveau pertinent de décision. Ainsi sont apparus au niveau européen des
lieux de réflexions prospectives comme le CEPS où se rencontrent entreprises, fonctionnaires européens, organisations non gouvernementales en
vue de confronter leurs réflexions sur l'avenir.
',
',,
',
',
_
Dans le prolongement des travaux de la Datar, l'émergence récente d'une
prospective territoriale, en liaison avec les processus de définition des
contrats de plan État-régions, constitue quant à elle non seulement une évolution pour une partie de la prospective publique mais offre aussi des perspectives nouvelles à la prospective stratégique. S'appuyant sur un processus
de concertation entre les acteurs locaux, voire entre les différents niveaux de
décision (conseils généraux, conseils régionaux, communes notamment),
cette prospective territoriale pourrait favoriser la constitution d'une prospective stratégique appliquée aux PME, dans la mesure où les scénarios issus de
ces travaux de prospective territoriale constituent pour ces dernières des éléments pour la construction de scénarios portant sur leur environnement général. Cette question de la possible diffusion de la prospective du monde des
grandes organisations à celui des PME constitue d'ailleurs une interrogation
récurrente (Godet et Roubelat, 1994). Il s'agit ici de se demander comment la
prospective stratégique, activité presque exclusivement réservée aux grandes
entreprises, peut être adoptée par de plus petites structures. Le coût pour des
entreprises qui ne disposent que rarement de directions fonctionnelles serait
tel qu'une transposition des pratiques de prospective des grandes organisations serait impossible. Là encore pourrait être émise l'idée d'une organisation en réseau d'une telle activité, autour par exemple des chambres de
métiers ou encore des chambres de commerce et de l'industrie.
Du côté des grandes entreprises, la constitution de pôles de développement
externes aux organisations est susceptible de répondre à une grande diver-
.
300
PROSPECTIVE
sité de besoins et de permettre à des entreprises qui ne souhaiteraient, ou ne
pourraient pas abriter de structures propres, de poursuivre des activités de
prospective. Se pose cependant dans ce cas le problème de l'interface entre
l'entreprise et ces réseaux externes, car en l'absence de relais internes, seuls
quelques cadres dirigeants ou experts des services fonctionnels peuvent
bénéficier de telles activités. Ces dernières constituent en outre un prolongement de la réflexion prospective des organisations, que celles-ci souhaitent effectuer avec d'autres entreprises des analyses globales ou sectorielles,
organiser une veille concurrentielle ou soutenir des opérations de lobbying.
L'un des tout premiers clubs d'entreprises explicitement consacré à la prospective, « Prospective et santé publique », réunissant des entreprises du secteur pharmaceutique, remplissait d'ailleurs cette dernière fonction au cours
des années quatre-vingt.
Regroupant des entreprises pouvant appartenir à un même secteur, et même
des entreprises concurrentes, ces groupes ne peuvent cependant faire porter
leur activité que sur des scénarios globaux ou des scénarios d'environnement, et en aucun cas sur des options stratégiques. En quelque sorte, il
s'agit donc d'une prospective préstratégique qui peut prendre plusieurs
formes. En effet, une telle prospective peut se développer dans le cadre de
structures communes, comme des filiales de recherche du type de l'ECRC,
centre de recherche commun des groupes ICL, Bull et Siemens, qui a organisé en 1992 une réflexion prospective sur les scénarios globaux à l'horizon 2000 et sur des scénarios sectoriels concernant le développement des
technologies de l'information et de la communication. Il peut aussi s'agir
pour une entreprise de regrouper autour d'elle les entreprises de sa filière
comme l'a fait depuis quelques années BASF Agriculture sur la problématique de la sécurité alimentaire. Ainsi que nous l'avons déjà souligné, certaines entreprises ayant des caractéristiques proches, telles celles du club
« Entreprises et prospective », conduisent régulièrement ensemble des
études prospectives sur des problématiques communes. Dans le cadre du
Global Business Network, qu'anime Peter Schwartz, les entreprises
membres bâtissent avec les experts membres du réseau des scénarios globaux, ainsi que, pour certaines d'entre elles, des scénarios sectoriels comme
dans le secteur de l'énergie. De même, les membres du club CRIN (clubs
Recherche-Industrie) spécialisé dans la « prospective scientifique et technique » constituent également des groupes de travail interentreprises dans
le domaine de la prospective technologique.
Nombre de ces regroupements d'entreprises sont cependant par nature limités dans le temps, car organisés autour de projets, tels ceux constitués dans
le cadre d'études multi-clients de cabinets de conseil ou liés à une évolution
particulière d'un secteur. Plus difficile est de maintenir des structures permanentes de prospective et seules peuvent se pérenniser quelques interfaces
organisées en noeud de réseau comme l'association Futuribles, le Global
Business Network, le club Entreprises et prospective. Pour maintenir une
telle activité, ces réseaux doivent cependant atteindre ce que les économistes
Laprospectivestratégique
3011
des réseaux de télécommunication appellent l'effet de club (Curien, 1987),
selon lequel le réseau ne peut subsister et se développer qu'au-delà d'un certain nombre de membres. En effet, seule la variété des thèmes traités et des
interlocuteurs permet de maintenir l'intérêt des membres existants et d'attirer de nouveaux membres. C'est cependant par l'intermédiaire de membres
communs, entreprises ou individus, que peut émerger et se développer une
interconnexion de réseaux, c'est-à-dire un « réseau de réseaux », qui permet,
en fonction des problématiques, de construire des projets de prospective utilisant les ressources de différents réseaux. Pour les interfaces que constituent
les noeuds de réseaux, il s'agit donc de construire des « trous structuraux »
(Burt, 1995) de manière à offrir à leurs membres des contacts non redondants avec ceux qu'ils peuvent avoir par ailleurs, ainsi que de leur proposer
des thématiques innovantes.
3.2 Uneméthodologierenouveléepar de nouveauxréseaux
Avec la métaphore du « réseau de réseaux », l'on songe immanquablement
à l'intérêt pour la prospective des réseaux d'information et de communication qui se sont développés depuis une dizaine d'années autour d'internet.
Pour la prospective cependant, cet intérêt va au-delà de la métaphore. Dès
les années soixante-dix, un certain nombre de recherches se sont portées sur
la définition de procédures permettant de structurer un processus de communication de type delphi pour animer des panels d'experts. Ainsi, les prospectivistes figuraient parmi les pionniers d'Arpanet, l'ancêtre d'internet,
avec le projet de Murray Turoff qui concernait la mise en place d'un delphi
informatisé (Linstone et Turoff, 1975). Ce projet s'élargit rapidement à un
système de téléconférences entre experts puis s'inséra dans un programme
plus large de constitution par l'administration Nixon d'un réseau permettant
de collecter des informations en provenance de bureaux géographiquement
dispersés (Rheingold, 1993).
'
Avec l'avènement des groupwares (Johansen et alii, 1991), outils d'aide au
travail coopératif, ces différentes recherches permettent non seulement la
consultation d'un réseau d'experts physiquement dispersés mais aussi la
constitution de groupes de travail virtuels, susceptibles de se former et de se
défaire au gré des besoins de l'organisation. Le groupe de travail est également virtuel au sens de non-actuel (Granger, 1995), car le réseau préexiste à
la formation du groupe de travail et porte en lui les éléments (experts
connectés) permettant de le mettre en oeuvre. Ainsi, la création de réseaux
interentreprises vise l'interconnexion d'experts et de planificateurs d'entreprises, notamment par le réseau internet ou par la constitution de réseaux
plus sélectifs (extranet). Au sein de l'entreprise elle-même, on parlera d'intranet pour qualifier le réseau interne à l'entreprise d'information et de communication contribuant à faire circuler l'information et à créer des modèles
collectifs de représentation de l'environnement. Par le biais des réseaux
302
PROSPECTIVE
d'information
et de communication,
on retrouve les dichotomies
réseaux
internes/réseaux
externes et réseaux d'hommes/réseaux
la
d'organisations,
ressource mobilisée par les réseaux d'information
et de communication
restant principalement
ici une ressource humaine.
Concernant la généralisation
de ces réseaux, on fera cependant remarquer
les
réseaux
d'information
et de communication
ne portent pas nécessaique
rement des fonctionnalités
leur conférant un caractère prospectif. Quelques
comme le Millenium project de l'Université
des
expériences intéressantes
les
scénarios
réalisés
dans
le
cadre
du
MBA
de
l'Université
Nations-Unies,
de Rotterdam ou encore les travaux du Global Business Network méritent
d'être soulignées. Dans ce dernier cas cependant, en dépit des forums de discussion supportant les « conversations
» (Van der Heijden,
stratégiques
les
de
travail
virtuels
sont
loin
d'avoir
1996),
groupes
remplacé les réunions
bien réelles qui rythment le processus de construction de scénarios auquel
de telles technoloparticipent les membres du réseau. Ainsi, si l'utilisation
semble
concevable
l'ensemble
des
de
gies
pour
étapes du processus
construction
de scénarios (Noonan et Tenaglia, 1998), leur diffusion n'est
dans un premier temps envisageable que pour les étapes de préparation des
réunions et de communication
sur les scénarios eux-mêmes. Cette contribution est cependant radicalement différente selon que l'on se trouve dans un
réseau fermé ou dans un réseau ouvert. Dans le premier, il s'agit en effet de
faciliter l'interaction
avec des experts présélectionnés.
Dans le second cas,
l'effet de club peut permettre d'accroître la variété des membres du groupe
et donc recruter de nouveaux membres en cours de processus, de faire parde managers, de stratèges. On
ticiper une plus grande variété d'experts,
ici
l'idée
du
forum
de
Bertrand
de Jouvenel. Pour une
rejoint
prévisionnel
de
tels
forums
de
discussion
organisation,
peuvent également être une occasion de diffuser les résultats d'études de prospective, en particulier les scénarios, et de tester les réactions des visiteurs de leur site sur ce sujet.
Contrairement
aux autres étapes qui constituent
une exploration
faisant
différents
futurs
on
entre
alors
dans
une
de
créaémerger
possibles,
stratégie
tion intentionnelle
de sens dans l'environnement
de
stratégique
l'organisation.
4. CONCLUSION
ETPERSPECTIVES
DERECHERCHE
À travers l'analyse du rôle des hommes, des groupes et des réseaux caractérisant l'activité de prospective, la contribution de cette dernière au processus
stratégique de l'entreprise apparaît complexe. À partir de la dialectique scénarios globaux/options
de la prospective dans et
stratégiques, l'organisation
hors de l'entreprise autour de réseaux internes et externes conduit en effet à
considérer
la dialectique
réflexion
sous
stratégique/action
stratégique
Laprospectivestratégique
303
l'angle de processus d'apprentissage et plus seulement sous l'angle de l'expertise. Il découle de cette analyse que le cadre de l'activité de prospective
stratégique ne saurait être un cadre stable mais au contraire un cadre mouvant qui ne peut être restreint à la seule entreprise, ce qu'offre précisément
une organisation en réseaux.
Cette caractéristique de la prospective, telle qu'elle se développe dans et
autour des organisations, positionne les recherches et perspectives en la
matière dans deux domaines : celui de l'apprentissage organisationnel afin
de mieux comprendre les comportements individuels et collectifs vis-à-vis
de l'avenir, celui des technologies de l'information et de la communication
comme support des techniques utilisées en prospective. Pour la prospective
en effet, la création de représentations alternatives s'appuie principalement
sur des données subjectives, issues de la mise en relation d'experts et de
décideurs, que les technologies de l'information et de la communication
peuvent faciliter. Dans le cadre d'un changement de paradigme, la prospective, en tant que processus s'appuyant sur des réseaux d'hommes, contribue
ainsi à modifier les représentations collectives dans l'organisation et son
environnement. La prospective apparaît ainsi non seulement comme un processus de réflexion, mais aussi, à travers la création de sens, comme un processus d'action.
,
BIBLIOGRAPHIE
ACKOFFR., The Democratic Corporation, Oxford University Press, New York,
1994.
j
j
;'
/
§
>
>
j
]
(
j
/
)
BARELY., « Prospective et analyse de systèmes », Travaux et recherches de prospective, n° 14, La documentation française, 1971.
BERGER
G., « L'attitude prospective », L'encyclopédie française, 1959 ; repris dans
Berger G., Phénoménologie du temps et prospective, PUF, Paris, 1964.
BERGERG., « Sciences humaines et prévision », La revue des deux mondes, n° 3,
février 1957 ;repris dans Berger G., Phénoménologie du temps et prospective, op. cit.
BURTR., « Le capital social, les trous structuraux et l'entrepreneur », Revue française de sociologie, XXXVI-4, p. 599-628, octobre-décembre 1995.
CALORI
G. & SARNIN
R., JOHNSON
P., « CEO's Cognitive Maps and the Scope of the
Oorganization », Strategic Management Journal, vol. 15, n° 6, p. 437-457, 1995.
CURIENN. « L'accès et l'usage téléphonique : modélisation conjointe et tarification
optimale », Revue économique, vol. 38, n° 2, mars 1987.
GODETM., Manuel de prospective stratégique, 2 tomes, Dunod, Paris, 1997.
GODETM. & RouBEt,ATF., « Prospective de la prospective d'entreprise », Revue
française de gestion, n° 100, p. 91-96, septembre 1994.
304
PROSPECTIVE
GRANGER
G.G., Le probable, le possible et le virtuel, Editions Odile Jacob, Paris,
1995.
HÉRAUD
J.A., MUNIERF. & Na,NOPOULOS
K., « Méthode Delphi : une étude de cas
sur les technologies du futur », Futuribles, n° 218, p. 33-53, mars 1997.
JANISI., « Groupthink », Psychology Today Magazine, pp. 43-46, novembre 1971.
JoHArvsEN
R. et alii, Leading business teams, Addison Wesley, Reading (Ma), 1991.
JOUVENEL
B. de, L'art de la conjecture, Éditions du Rocher, Monaco, 1964.
JOUVENEL
H. de, « Sur la démarche prospective : un bref guide méthodologique »,
Futuribles, n° 179, p. 51-69, septembre 1993.
LAROCHE
H. & NIOCHEJ.-P., « L'approche cognitive de la stratégie d'entreprise »,
Revue française de gestion, na 99, pp. 64-78, juin-août 1994.
LEBANR., « Prospective et stratégie d'entreprise », Encyclopédie du management,
tome 2, Vuibert, Paris, p. 534-548, 1992.
LESOURNE
J., « Vers un retour en grâce de la prévision et de la prospective », Revue
de
gestion, n° 54, p. 14-18, septembre-décembre 1985.
française
LESOURNE
J., « Plaidoyer pour une recherche en prospective », Futuribles, n° 137,
p. 85-89, novembre 1989.
LESOURNE
J. & STOFFAËS
C. (ed.), La prospective stratégique d'entreprise : concepts
et études de cas, InterÉditions, Paris, 1996 ; réédition Dunod, 1997.
LESOURNE
J., « Un art difficile pour l'entreprise : réfléchir pour agir », in J. Lesourne
& C. Stoffaës (ed.), op. cit., p. 51-75, 1996.
LINSTONE
H. & TUROFFM., The Delphi Method: Techniques and Applications,
Addison-Wesley, Reading (Ma.), 1975.
MARCHAIS
A., Décision et action, proposition de concepts et analyses de cas, thèse
de doctorat en sciences de gestion, CNAM, 1993.
MICHAELD., On Learning to Plan and Planning to Learn, Jossey-Bass, San
Francisco, 1973.
MONODJ., Transformation d'un pays, pour une géographie de la liberté, Fayard,
Paris, 1974.
MUNIERB., « Décision et cognition », Revue française de gestion, n° 99, p. 79-90,
juin-août 1994.
« How Information Technology Helps Scenarios
NOONANP. & M. TENAGLIA,
Advance from Consensus to Deciseveness », in Fahey L. & Randall M. (eds),
Learning from the Future, Wiley, Chichester, p. 384-401, 1998.
RHEINGOLD
H., The Virtual Community,Addison Wesley, Reading (Ma), 1993.
ROJOTJ. & BERGMANN
A., Comportement et organisation, Vuibert, 1989.
RousELA'rF., « Les méthodes de consultation d'experts », in Hatem F., La prospective :pratiques et méthodes, Économica, p. 279-296, 1994.
ROUBELAT
F., La prospective stratégique en perspective : genèse, études de cas,
prospective, thèse de doctorat en sciences de gestion, CNAM, 1996.
Laprospectivestratégique
305
SCHWARTZ
P. & VANDERHEIJDEN
K., « Culture d'entreprise et planification par scénarios : une relation de coévolution », in J. Lesourne & C. Stoffaës, op. cit., p. 117-134,
1996.
SENGEP., The Fifth Discipline, Doubleday, New York, 1990.
STOFFAËS
C., « La prospective stratégique : les logiciels de la pérennité », in
Lesoume J., C. Stoffaës, op. cit., p. 11 -47,1996.
THIÉTART
R.A. & BERGADAÀ
M., « Experts s'abstenir », Harvard L'Expansion,
été
1990.
p. 98-105,
VAN DER HEIJDENK., Scenarios, The Art of Strategic Conversation, Wiley,
Chichester, 1996.
)
Michel
.
Albert
IINTERFUTURS
VINGT
NTERFUTU
RSVINGT
ANSAPRÈS
APRES
Q
y
En 1975, l'OCDE a demandé à une équipe internationale spécialement
constituée à cet effet et dirigée par Jacques Lesourne, d'étudier « l'évolution
future des sociétés industrielles avancées en harmonie avec celle des pays en
développement ».
Pendant trois années, cette équipe permanente, composée d'une vingtaine de
chercheurs et de conseillers a travaillé intensément avec l'aide d'une quarantaine de consultants en provenance de nombreux pays ainsi que des observateurs d'un groupe consultatif formé de personnalités éminentes et d'un
comité de direction auquel presque tous les gouvernements de l'OCDE dont certains étaient au départ quelque peu réticents - se sont progressivement associés.
Au total, c'est près d'une centaine de responsables et d'experts aux origines
les plus diverses qui ont contribué plus ou moins directement à la préparation de cette réflexion dont le sous-titre est : « Pour une maîtrise du vraisemblable et une gestion de l'imprévisible » et qui, par l'ambition de son
propos comme par l'importance des moyens mis en oeuvre n'a eu ni précédent ni suite : Interfuturs est en quelque sorte, à la prospective, ce que l'opération Overlord est à l'histoire militaire.
Une autre analogie avec le débarquement de juin 1944 en Normandie est
l'importance exceptionnelle, dans les deux cas, de l'investissement logiciel
et méthodologique d'amont. Cependant, l'essentiel est ailleurs. Le rapport
Interfuturs a été déposé il y a tout juste vingt ans, à la fin de 1978 et, à la
Interfutursvingtans après
307
veille de l'an 2000, nous sommes tout près du point visé par sa ligne de mire.
Sa relecture, aujourd'hui, est un exercice encore plus passionnant si, comme
je viens de le faire, on l'associe à celle des « Mille sentiers de l'avenir » que
trois ans plus tard, qui vise le même
Jacques Lesourne a publié fin
horizon qu'Interfuturs
et en reprend la démarche générale, mais sous sa
seule responsabilité, et donc avec une liberté de réflexion et d'expression qui
en vivifie le contenu. Les liens sont d'ailleurs le plus souvent si intimes entre
le rapport collectif et le témoignage personnel que j'ai pu aisément me
référer à l'un ou à l'autre dans les pages qui suivent.
Il n'aurait guère été possible à l'OCDE de trouver une autre personnalité
aussi bien préparée que Jacques Lesoume à animer le plus grand « think
tank » de prospective internationale de tous les temps.
Né en 1928, il est major de l'X de la promotion 1948 - voici exactement
50 ans. Cet ingénieur des Mines, qui traverse la vie toujours équipé de sa
lampe frontale, a la passion d'explorer pour éclairer et d'éclairer pour
avancer. Ses compétences, à la fois macro et microéconomiques, sont rapidement reconnues. En 1975, il bénéficie de l'autorité que lui ont conférée,
en Europe et aux États-Unis, son activité de président de la SEMA (Société
d'économie et de mathématique appliquées) et, au Japon
le séjour de six
mois fait pour le compte de la Banque mondiale en 1956. Sa formation est
donc multipolaire, à l'instar du monde qu'il anticipe, et son expérience est
appréciée dans l'ensemble de la Triade, c'est-à-dire de la zone OCDE.
Tout l'oeuvre de J. Lesourne est de portée prospective, implicitement ou
explicitement. Il se caractérise par un étonnant alliage entre la rigueur et l'intuition, la discipline de la pensée et la fécondité de l'imagination : une
personnalité intellectuelle qui associe en quelque sorte l'ardente sobriété
d'Hubert Beuve-Méry dont J. Lesourne a été le successeur à la direction du
Monde, la puissance visionnaire de Gaston Berger - fondateur du Centre
international de prospective en 1957 - et l'intuition culturelle de Bertrand de
Jouvenel.
Quant au néologisme « Interfuturs », il apparaît prédestiné à l'époque qui le
voit naître. Son premier terme inter traduit la montée de l'interdépendance,
thème central des deux ouvrages. Or, c'est dans les années de leur publication que la France, par exemple, a découvert que la croissance à moyen
terme de son économie dépendait étroitement de sa compétitivité interna-
.
(1) Paris,Seghers.Ce titre prendle lecteurà contre-pied.Il faut moinsde millesentierspour
se perdredans la complexitédu mondecontemporain.Cela ne donneguère envie d'entrer dans le labyrinthe.En fait, le paysageest fort vaste,mais bien balisé.
(2) Le Japon venait d'entrer depuisdix ans à l'OCDE,jusque là réservéeà des pays occidentaux.C'est en l'honneurde cet anniversaireque le Japona été le premierpromoteur
du projetInterfuturs.
.
308
;
;
tionale. Auparavant, on pensait qu'un judicieux usage
les marges d'action internes.
augmenter durablement
c'est seulement après le premier
croire aujourd'hui politique économique de la France a progressivement
la « contrainte extérieure ».
PROSPECTIVE
de l'inflation pouvait
Oui - on a peine à le
choc pétrolier que la
accepté de reconnaître
Le second
terme futurs se réfère évidemment
au caractère prospectif de
Contrairement
à
la
cette
nôtre,
l'entreprise.
époque réfléchissait beaucoup à
son propre avenir.
En 1970, un comité créé par le président Nixon et animé par son conseiller
Daniel Moynihan avait publié un rapport intitulé vers une croissance équi« La nécessité dans une société complexe
aux
librée, qui soulignait :
multiples interactions, de prendre une vue globale des problèmes au lieu de
les aborder au coup par coup ; l'utilité qu'il y avait à fournir à l'avance au
public les données essentielles sur lesquelles se prennent les grandes déciEn 1975, la chambre des représentants
décidait de
sions publiques.
généraliser les travaux de prospective de ses commissions
pour « faciliter
l'identification
précoce des problèmes qui pourraient appeler une action de
la part du législateur ».
Mais, surtout, le Club de Rome avait publié en 1972 son fameux rapport Les
limites de la croissance (2), un extraordinaire
succès d'édition qui s'était
vendu à trois millions d'exemplaires
et prophétisait à l'horizon d'un siècle
une insupportable
combinaison
des ressources
naturelles,
d'épuisement
d'insuffisance
des denrées alimentaires
et de pollutions
insoutenables.
Aussitôt après, fin 1973, le premier choc pétrolier paraissait la plus saisissante vérification concevable des thèses du Club de Rome et entraînait une
récession internationale dès 1975. Le glas des Trente Glorieuses avait retenti
jusqu'aux États-Unis où le président Carter décidait, en 1977, plus d'un an
avant la publication d'Interfuturs,
de confier à l'administration
fédérale un
rapport Global 2000 encore plus alarmiste que celui du Club de Rome et qui
commençait ainsi : « Si les tendances actuelles se maintiennent, le monde de
l'an 2000 sera plus surpeuplé, plus pollué, moins stable d'un point de vue
écologique, et plus exposé à des bouleversements
que le monde dans lequel
» (-3)
nous vivons aujourd'hui.
Ainsi, dès 1975, c'en était fini du « grand espoir du xxe siècle (4). La
fécondité du progrès technique au service du développement
économique et
de la justice sociale paraissait brutalement
mise en cause, la crise avait
remplacé l'espoir dans l'ensemble des pays industrialisés et l'avenir, devenu
incertain, devait désormais se conjuguer au pluriel. L'avenir au pluriel,
(1) Bernard Cazes, Hi.stoiredes futur.s, Paris, Seghers, 1986.
(2) D.H. Meadows et divers, The limit.sto growth, Earth Island Ltd, Londres, 1972.
(3) Bernard Cazes, op. cit.
(4) Jean Fourastié, Paris, Gallimard, 1 949.
Interfutursvingtans après
309
autrement dit les futuribles, c'est bien ce que, sur la ligne philosophique
illustrée par Bertrand de Jouvenel, J. Lesourne pensait depuis longtemps et
cela, indépendamment du contexte conjoncturel.
Dans un tel contexte, ce néologisme Interfuturs était particulièrement bien
adapté à la mission qui consistait à « présenter aux gouvernements membres
de l'OCDE une évaluation de différents schémas possibles d'évolution à
long terme de l'économie mondiale » dans le cadre de l'interdépendance des
pays et des « interactions entre la croissance, l'adaptation des structures et
l'évolution des valeurs
». Le mot valeur mérite d'être relevé. En effet,
l'une des originalités les plus marquantes d'Interfuturs est d'embrasser une
matière qui va des limites physiques de la croissance jusqu'à l'évolution des
valeurs et aspirations des sociétés et des individus, et de dépasser les fractionnements corporatistes des sciences sociales établies, pour proposer des
représentations synthétiques intégrant la richesse d'une grande variété de
recherches analytiques. En somme, un vrai travail d'« honnête homme », qui
a distillé méthodiquement des connaissances encyclopédiques.
À plusieurs reprises, J. Lesourne a décrit avec grand soin la méthode prosCe n'est pas ici le lieu de l'analyser. Je me
pective dont il est l'architecte
bornerai à en marquer la validité confirmée par le temps, notamment sur
trois points :
- le concept central de la prospective propose, à la place des probabilités
recherchées par les exercices de prévision, une recherche des futurs
possibles en vue d'éclairer les décideurs et notamment les gouvernements
sur leurs stratégies ;
- il s'inspire d'une vision qui fait de l'avenir le fruit de la nécessité issue de
tendances lourdes telles que la démographie, du hasard concernant les
hommes ou les événements, et enfin de la volonté des individus et des
groupes de réaliser les projets dont ils sont porteurs ;
- l'architecture générale de la démarche suivie a été résumée comme
présenté dans le schéma page suivante.
On voit bien la position centrale des scénarios. Ils n'ont été définis qu'après
dix-huit mois de recherche et traduisent la systématisation nécessaire de
(1) À l'époque,ce termeétait beaucoupmoinscourantqu'aujourd'hui.C'est l'une des innovationssignificativesd'Interfuturs que de prendreen compte« les aspirationsnon satisfaites capablesde trouverdes moyensd'expressionpolitique(qui) sont d'une ampleur
plus grandeque par le passé ».
(2) En particulier,dans la deuxièmepartie du rapportInterfuturs ; dans deux numérosde
Futuribles2000 (septembreet octobre 1979),avec DanielMalkin ;dans le chapitresur
la prospectivede l'Encyclopédieéconomiquepubliéepar Économicaen 1990.Enfin,il
est significatifque le premierchapitredes Millesentiersen rendecompte.
310
0
PROSPECTIVE
Phases A et B
_________________
Construction
de la base
analytique et historique
l
Phases C
Études
complémentaires
Prospective partielle
j
Scénarios
modèle
Cadre macroéconomique
mondial
Politiques -–––––––––-)t
L
––––"
Rapport
final
"*–––––––––
Futuribles,octobre 1979
l'approche multiple des futuribles selon quatre combinaisons d'hypothèses
à la fois plausibles et ouvertes à un large éventail d'avenirs :
- scénario A : une croissance
vigoureuse qui prolongerait en quelque sorte
les Trente Glorieuses en faisant une large part au Tiers-Monde ;
- scénario B : la « croissance douce ». Parce
qu'il est le plus probable, il
trois
variantes.
La
1
variante
est
la plus intéressante, car le
comporte
ralentissement de la croissance fait ici l'objet d'un consensus. C'était à
l'époque d'autant plus vraisemblable que ce concept avait été valorisé par
le président Giscard d'Estaing, inventeur de l'expression « croissance
douce ». Mais il est apparu à l'expérience que la croissance douce peut
être dure à supporter politiquement et socialement. Aussi bien, dans les
variantes 2 et 3, le ralentissement de la croissance n'est-il pas consenti,
mais subi, et résulte-t-il principalement de difficultés d'adaptation structurelles encore largement hypothétiques à l'époque, mais aujourd'hui si
avérées qu'elles sont passées dans le langage courant, notamment en
Europe continentale ;
- scénario C : la rupture Nord/Sud. Alors que les pays du Nord accentuent
la libéralisation interne de leurs échanges, une majorité de pays en développement opte pour le découplage et leur développement économique
s'en trouve freiné ;
- scénario D : le règne du protectionnisme. Il s'agit d'un protectionnisme
modéré, de caractère inter-régional, fondé sur la constitution de zones
d'influence autour des États-Unis, de la CEE et du Japon, lequel renforce
3111
Interfuturs vingt ans après
sa coopération avec l'Asie du sud et du sud-est.
négatifs que dans le scénario C.
Les résultats
sont moins
si souvent aléatoire des bouleversements
Ainsi, malgré l'entrecroisement
technologiques,
stratégiques,
politiques et sociaux qui ont caractérisé les
deux dernières décennies, la validation globale de cette partie centrale de
l'exercice paraît peu discutable.
Non moins pertinentes
sont les réponses à l'époque fort audacieuses à
la
des
limites physiques à la croisapportées
question préalable :
quid
sance ? En effet, depuis 1974, l'opinion mondiale était obsédée par la crise
pétrolière et hantée par la crainte de toutes sortes de limites physiques à la
croissance de l'économie,
en matière agroalimentaire,
face
particulièrement
au déferlement démographique
si bien prévu. Les punks inventaient le « no
de
comme un enchaînement
future ». Le chemin de l'an 2000 s'annonçait
aura été de faire la lumière dans
malheurs. Le premier mérite d'Interfuturs
tout ce méli-mélo de ténébreuses angoisses, de distinguer, sur l'océan de nos
les vagues (surtout les « nouvelles vagues ») des marées, de
incertitudes,
faire le point et de proposer de nouveaux départs.
Sur l'un des problèmes les plus controversés, J. Lesourne n'hésite pas, pour
une fois, à poser une prévision univoque : il n'y aura pas « de pénurie générale pour les minerais ». Il était encore plus courageux de conclure en ce
temps-là que nous n'étions pas voués à faire la queue devant les pompes à
essence. N'empêche que la situation de l'économie mondiale était présentée
comme précaire aussi longtemps que la part du pétrole n'aurait pas été
substantiellement
réduite dans l'approvisionnement
mondial.
énergétique
Économies d'énergie, nucléaire, charbon, sont les trois voies qu'il importe,
était-il précisé, de poursuivre avec vigueur et simultanément.
Aujourd'hui,
cette conclusion. Nous sommes devenus beaucoup
beaucoup contesteraient
plus optimistes sur la plupart des limites physiques à long terme. Raison de
avec l'écosphère
plus pour nous souvenir que les relations de l'humanité
à l'horizon d'une génération. C'est
sont, elles, de plus en plus préoccupantes
dire qu'après les résultats décevants des conférences de Rio de Janeiro, de
de J. Lesourne est plus que jamais
Kyoto et de Buenos Aires, l'avertissement
actuel : les problèmes d'environnement
physique risquent d'être de plus en
difficiles
à
résoudre
dans
un
monde
d'États souverains en concurrence,
plus
où l'activité de chacun inflige des dommages écologiques aux autres.
'
Cette contradiction
entre le caractère mondial des problèmes d'environnement et la multiplicité des États souverains constitue ce que J. Lesourne
appelle « la troisième déficience de contrôle ». Nous sommes ici en présence
d'une pensée fondamentale,
d'une
qu'il a naturellement
pu exprimer
manière plus radicale dans les Mille sentiers que dans Interfuturs :
« La
troisième déficience de contrôle est la conséquence
des trois propriétés du
c'est un système hiérarchisé sans régulation globale.
système international :
3122
PROSPECTIVE
C'est un système où, pour cette raison, la recherche de la sécurité est une
nécessité constante, aucun exécutif national n'osant mettre en péril l'existence territoriale. C'est un système qui n'offre aucune protection contre la
fait peser sur
guerre [...]. » Ainsi, la déficience de contrôle supranational
l'humanité
les plus grands risques : « Ces risques ne s'éloigneront
probablement que lorsque l'intégration
politique aura donné le jour à une organisation hiérarchique du système mondial. » Faute de quoi, le monde risque de
devenir une « colonie de hérissons ».
Ce n'est évidemment pas avec des propos de ce type que l'on séduit ni les
foules, ni les médias, ni les pouvoirs en place. Mais, qui contesterait que ces
constats ne sont guère moins actuels qu'il y a vingt ans, en dépit de l'effondrement du communisme ?
À ce propos, il convient de noter que l'URSS et les pays de l'Est n'entraient
dans la mission confiée au groupe Lesourne. Aussi bien
pas spécifiquement
n'a-t-il pas étudié qu'une seule hypothèse quant à leur évolution,
Interfuturs
celle selon laquelle « la rigidité structurelle du contrôle politique interne
éliminera les changements
radicaux de l'organisation
économique » des
Tenons-nous là, enfin, la belle et bonne erreur d'anticipays communistes.
ceux qui regardent l'avenir dans
pation propre à remplir d'autosatisfaction
leur rétroviseur ?
Non, car sur ce sujet Les mille sentiers se sont écartés d'Interfuturs.
Après
avoir rappelé que l'histoire de l'URSS avait été un bloc de continuité depuis
1950, et tout en notant comme un fait essentiel que l'URSS soit devenue la
première puissance militaire mondiale, tant pour les forces nucléaires stratégiques que pour les forces classiques, J. Lesourne estime cependant que la
« rupture » n'est pas exclue. Il conclut même que la puissance soviétique
devrait atteindre le sommet de sa puissance relative vers 1990. Or, comme
on le sait, la chute du mur de Berlin a eu lieu le 9 novembre 1989...
En dehors des développements
consacrés à la montée des interdépendances,
c'est évidemment l'évolution des sociétés industrielles avancées qui a prinretenu l'attention
de J. Lesourne.
Le plus important
des
cipalement
nouveaux problèmes qu'elles doivent affronter est celui de la deuxième déficience '> de contrôle : « Rien n'assure dans un monde de plus en plus
(1) Quant à la première déficience, elle illustre la diversité des disciplines maniées par
J. Lesourne : « La déficience individuelle naît des relations entre l'affectivité et les
facultés intellectuelles (...).Dirigée par l'affectivité, le dragon de l'intelligence n'est libre
que lorsqu'il la sert, et s'il a le pouvoir d'explorer le monde, sa capacité d'anticipation
est insuffisante pour lui permettre en retour de canaliser l'agressivité affective. » Il est
beau - et probablement dû à son entourage familial - que ce macroéconomiste, de
surcroît conseil en stratégie industrielle, soit également capable de montrer de manière
aussi aiguë comment les processus de néo-cortex peuvent brider l'imagination et limiter
les capacités intellectuelles.
Interfuturs vingt ans après
3133
complexe et changeant que les systèmes nationaux soient capables d'engendrer des réponses leur permettant de faire face à long terme aux pressions
extérieures et intérieures qu'ils subissent [...]. Le défi interne de la supersociales traditionnelles
et de demandes
sociales
position de demandes
nouvelles résultant d'une évolution des valeurs, demandes aussi difficiles à
satisfaire les unes que les autres, est susceptible de remettre en cause les
institutions économiques et politiques. »
Il est frappant que dans ce rapport consacré principalement
à l'économie,
le
discriminant
essentiel en ce qui concerne l'évolution
des pays développés
soit celui des valeurs. Ce concept était à l'époque beaucoup moins courant
C'est l'une des innovations significatives d'Interfuturs
que
qu'aujourd'hui.
de prendre en compte « les aspirations non satisfaites capables de trouver
des moyens d'expression
politique ». Ne disons pas trop vite qu'il ne s'agit
de 68. Mais n'oublions pas,
que d'une onde venue du choc psychologique
allemand
par ailleurs, que la tendance dominante du nouveau gouvernement
élu en septembre
1998 est à tonalité soixante-huitarde,
avec un fort accent
» reposant sur des
mis sur l'expression
de valeurs « post-matérialistes
concepts de libération individuelle et de respect de la nature.
À l'inverse, on est aujourd'hui
frappé de voir que l'État et le marché sont
et également
« D'un côté, le
placés en position symétrique
critiqués :
marché, aux yeux de certains, semble escompter l'avenir de manière inadéquate, négliger les économies externes et ne pas s'adapter à la diffusion de
nombreux services non marchands. De l'autre, l'État protecteur est critiqué
de ses mécanismes régulateurs qui se traduit,
par d'autres pour l'insuffisance
selon eux, par un développement
excessif
de certains
services
non
» Aujourd'hui,
les critiques adressées au marché se sont bien
marchands...
estompées par rapport à celles dont l'État est l'objet !
Le rapport souligne que les sociétés industrielles avancées ont été marquées
depuis un quart de siècle par la croissance du rôle de l'État protecteur qui
des dépenses publiques, lesquelles
explique pour l'essentiel l'augmentation
sont passées de 28 % du PIB en moyenne vers le milieu des années 50 à
45 % au milieu des années 70. Cette évolution s'explique par un phénomène
» de la vie sociale par
que J. Lesourne désigne comme « l'oligopolisation
des groupes sociaux abrités de la concurrence internationale
et capables de
ce fait, d'obtenir des privilèges par rapport aux plus exposés. Il est remaret que les représenquable que ce terme ait pu être repris dans Interfuturs
tants des gouvernements
n'aient pas fait trop d'objections
à une image qui
les
institutions
comme
un
de
lobbies sociaux
présente
jouet
démocratiques
«
à
leurs
droits
».
agrippés
acquis
Quelques mois après la publication d'Interfuturs,
Margaret Thatcher arrivait au pouvoir et, l'année suivante, en 1980, Ronald Reagan. La déferlante
de la révolution conservatrice
qui en est résultée était-elle extérieure aux
limites de l'épure des futurs étudiés ?
3144
PROSPECTIVE
Certes, la position symétrique du marché et de l'État paraissait encore, selon
Les mille sentiers, en voie de stabilisation : « Les deux institutions majeures
de régulation de la production et de la distribution de biens et de services, le
marché et l'État Protecteur(')
se heurteront toutes deux à des difficultés :
elles verront leurs relations se modifier profondément,
tant sur le plan
national que sur le plan international,
sans que l'on puisse déceler un sens
unique à cette évolution. Tout au plus peut-on avancer que la croissance de
dépense publique qui a caractérisé les trente dernières années devrait tendre
à se modifier et que la distinction entre secteurs productifs public et privé
pourrait devenir plus floue. » Cette dernière nuance n'empêche que globalement, l'extension du rôle de l'État soit présentée d'une manière plutôt positive, de même que son rôle de redistribution des richesses. À l'appui de cette
mentionne une étude alors récente de l'OCDE (mai
philosophie, Interfuturs
1978) qui aurait pu faire sourire depuis lors : « Un niveau de richesses moins
élevé rend moins tolérable les inégalités relatives. » Au total, ni le succès des
thèses de Milton Friedman (prix Nobel 1976), ni la popularité des économistes de l'offre, ni le stupéfiant essor des marchés financiers, ni le triomphe
ne s'inscrit vraiment dans le « cône
politique et social du néo-libéralisme
des futurs esquissés ».
Mais ce nouveau
pées pourraient
suivantes :
-
courant en tangente la périphérie : les sociétés dévelopévoluer vers l'une ou l'autre des deux situations extrêmes
« la combinaison
d'un marché du travail très flexible, très concurrentiel et
très
par conséquent
anxiogène pour les demandeurs
d'emploi et d'une
étendue
des
et sociales déshéritées.
protection
catégories économiques
le rejet de ces catégories dans une classe de
Avec, pour conséquence,
désaeuvrés exclus du système économique ; -,
- une sclérose
de
progressive du marché du travail avec un resserrement
l'éventail
des rémunérations
très forte et des
nettes, une protection
mesures assurant un niveau élevé mais factice de l'emploi. »
Qui disait mieux à l'époque ?
back n'est pas envisagé. Au contraire :
Malgré tout, le fameux America is
« Devenus seulement la première puissance mondiale parmi d'autres, détenant une part régulièrement
décroissante du revenu mondial, n'ayant plus de
supériorité indiscutable
quant à la productivité,
ayant besoin d'adapter à
l'ère de l'interdépendance
des attitudes individuelles et des formes d'organisation développées
dans un contexte différent, bref, ayant cessé d'être
(1) J. Lesoume a été président de la commission de l'emploi du 81 Plan au moment où il
préparait Interfuturs. Il a été le premier à mettre l'accent, en France, sur l'importance
du coût du travail comme facteur de chômage. Il aura fallu vingt ans pour que sa
démonstration soit admise. Interfuturs, pourtant, y faisait aussi référence, ce qui
constitue la présomption d'un certain consensus international.
Interfutursvingtans après
3155
exceptionnels, les États-Unis [...] » Dans Les mille sentiers, le chapitre
consacré aux États-Unis est intitulé « Le début du déclin ». On y lit : « Nous
avons été la génération du défi américain [...]. J'abats mes cartes : le monde
vit la fin de ce que Daniel Bell a appelé « l'exceptionnalisme américain ».
Des risques de sclérose se font jour dans la société américaine au moment
même où sa puissance relative fléchit. »
Je peux sans doute d'autant mieux me permettre de noter ces écarts que moimême, en 1991, dix ans après J. Lesourne, j'ai commis la même erreur dans
Capitalisme contre capitalisme (1). Il est vrai que nous n'en avons pas eu le
monopole, puisque le MIT avait dit la même chose et que la préface de l'édition américaine de mon livre était signée par l'actuel ambassadeur des
ÉtatsUnis en France, Félix Rohatyn lui-même !
Qui pourrait d'ailleurs affirmer avec certitude que les succès actuels de la
révolution conservatrice et de l'économie New Age sont durables ?
Beaucoup de ceux qui ont vécu de l'intérieur la crise financière de l'automne
1998 en doutent. Et pense-t-on vraiment qu'il sera, en démocratie, indéfinisans inconvénient majeur les inégalités
ment possible d'augmenter
sociales ? Les Américains pourront-ils continuer à oublier que, vers 1970, la
pauvreté était encore considérée comme une survivance « inadmissible » du
passé, en Amérique tout autant qu'en Europe ?
Le sujet central d'Interfuturs est l'évolution des sociétés industrielles avancées et la montée de leurs interdépendances. On est frappé, dans ce contexte,
par l'importance des développements consacrés au Tiers-Monde. Ce parti
s'inscrit dans une véritable vision : « La civilisation occidentale a, dans l'ensemble, réussi dans les cent cinquante dernières années à intégrer son prolétariat interne grâce au développement d'une classe moyenne toujours
croissante. Mais cette civilisation est maintenant confrontée à son prolétariat
externe : plus de cent vingt pays avec une population rapidement croissante,
représentant déjà les trois quarts de l'humanité », à l'égard desquels les
nations industrielles ont une responsabilité collective.
C'est pourquoi, comme on l'a vu, deux sur quatre des scénarios présentés
constituent en quelque sorte des repoussoirs face à ce défi majeur que
constitue le Tiers-Monde dans son ensemble :
- le scénario C de rupture Nord/Sud, fondé sur l'hypothèse qu'une majorité
des pays en développement optera pour des stratégies de « découplage »
par rapport au Nord ;
- le scénario D qui explore une fragmentation protectionniste avec constitution de zones d'influence Nord/Sud animées par les États-Unis, la CEE
et le Japon.
(1) Paris,Le Seuil.
3166
PROSPECTIVE
Dans ces deux scénarios, mais aussi dans les scénarios A et B centrés sur les
sociétés industrielles avancées, le Tiers-Monde perd son unité. Interfuturs
a
été, semble-t-il, la première étude prospective à avoir aussi bien montré l'hétérogénéité croissante des pays du Tiers-Monde fondée sur la différenciation
des rythmes de développement.
font l'hypothèse
Néanmoins, Les mille sentiers comme Interfuturs
qu'un
consensus social devrait pouvoir s'organiser
dans les pays développés en
faveur d'efforts communs accrus de coopération internationale
au profit du
du Tiers-Monde.
Ainsi, il fallait « augmenter les transferts
développement
destinés à la satisfaction des besoins essentiels et notamment ceux au profit
des pays les plus pauvres [...] ; permettre
aux pays en développement
d'avoir accès à des prêts » et envisager « l'établissement
de caisses de
compensation
pour protéger les agriculteurs contre la montée des prix des
tout ce volontarisme
est
engrais en période de pénurie ». Aujourd'hui,
Plus nous parlons de mondialisation (2)
et plus grandit notre
disqualifié.
indifférence
à l'égard des « pays moins avancés ». Le trade not aid se
substitue de plus en plus à la politique des transferts publics au Tiers-Monde.
Ceux-ci, il y a vingt ans, ne devaient pas être inférieurs à 1 % du PIB des
pays riches. Michel Camdessus constatait récemment que ce ratio est tombé
de 0.3 à 0.2 % depuis cinq ans, soit le taux le plus bas depuis un demisiècle (2).
N'y a-t-il pas dans cette évolution comme une ombre portée de la nouvelle
révolution conservatrice ?
Il semblerait que oui, à en juger par le rôle si puissamment positif joué par la dérégulation
des marchés, et particulièrement
des marchés financiers, pour l'essor des dragons d'Asie - que la crise financière de 1997 ne doit pas faire oublier. Pour le reste, notre vocabulaire a
au sous-développement,
nous les désichangé. Ces pays qui s'arrachent
désormais
non
comme
des
mais
comme
des
marchés, les
gnons
pays,
« marchés émergents ». Les autres ont tendance à perdre leur identité jusque
dans la conscience collective internationale.
Ce sont en quelque sorte des
innommés.
Un autre facteur d'affaiblissement
des solidarités
internationales
est
constitué par les conséquences
du passage du régime des taux de change
fixes aux taux de change flottants au début des années 1970. Interfuturs
consacre
trois pages seulement
à ce sujet et sous un titre prudent :
« L'adaptation
du système monétaire ». Il n'évoque pas le projet d'Union
monétaire européenne sans évoquer les préventions américaines concernant
la constitution
de sous-ensembles
monétaires régionaux :
« Son principal
(1) À noter que ni « mondialisation », ni « globalisation » ne figure, semble-t-il, dans nos
deux textes.
(2) Conférence du 22 octobre 1998 à l'Université de South Orange, NJ.
Interfutursvingtans après
3177
danger est évidemment, si les précautions ne sont pas prises, de cristalliser
les forces protectionnistes latentes par une fragmentation institutionnelle des
relations internationales. » Allusion
évidente au mythe évanoui de
« l'Europe forteresse ».
Dans Les mille sentiers, au contraire, un chapitre de huit pages est intitulé
« Le désordre monétaire jusqu'à quand ? ». Ce texte est d'une puissance et
d'une actualité telles qu'il mérite toujours d'être recommandé aux étudiants.
Il relève en particulier les fausses promesses du régime des taux de change
flottants qui a « substitué à la recherche d'une solution coopérative, des politiques nationales où chacun s'efforce de trouver la stratégie la meilleure à
comportement donné des autres [...]. Ainsi les conflits s'aggravent entre les
impératifs de politique intérieure et les nécessités internationales » (ce qui a
notamment favorisé l'indépendance d'un nombre croissant de banques
centrales). Partant de là, il est particulièrement intéressant de voir comment
J. Lesourne montre la nécessité d'aller vers « l'écu » en attendant « de créer
une sorte de banque centrale mondiale, munie de pouvoirs étendus en
matière d'émission de monnaie internationale, de surveillance des taux de
change, d'octroi de crédits aux gouvernements en difficulté de paiement... ».
Ne croirait-on pas cette phrase datée précisément de l'automne 1998, après
la crise financière qui a suivi le défaut de la dette russe ? Et, plus précisément encore, son plaidoyer en faveur de « l'écu », relu au moment même où
l'euro va être créé ?
Wolfgang
Michalski 1
THEOECDINTERFUTURES
PROJECT
REVISITED
20 YEARS
LATER (1)
The OECD Interfutures Project, launched in 1976 on the initiative of the
Japanese government and directed by Jacques Lesourne, was the
Organisation's first major exercise involving a more global approach to the
longer-term future. The purpose of the Project was "to provide OECD
Member govemments with an assessment of alternative patterns of longerterm world economic development in order to clarify their implications for
the strategic policy choices open to them in the management of their own
economies, in relationships among them, and in their relationships with
developing countries".
The results of the project were centred around the following four main issues
areas:
- Limits to growth: the
comparative irrelevance of the physical scarcity of
resources compared to political, economic and social constraints;
- Long-term prospects for economic growth and
employment in the
industrialised countries: with special reference to the need for, and
(1) The author,formerDeputyDirectorof the OECDInterfuturesproject,is today Director
of the AdvisoryUnitto the OECDSecretary-General.
This unit acts as secretariatfor the
OECDInternationalFuturesProgrammeand assiststhe Secretary-General
in identifying
and analysing - from a mediumand long-termperspective - emergingdomesticand
internationalpolicyissueslikelyto confrontOECDMembergovernmentsand the world
at largein the yearsto come.The viewsexpressedin this articleare those of the author
and do not necessarilyrepresenta positionof the organisationto whichhe is affiliated.
TheOECDInterfuturesProjectRevisited20 YearsLater
consequences of structural change and the resulting implications
economic and social policy;
319
9
for
- Future aspects of relations between advanced and developing countries:
political alternatives for the North-South Dialogue in the light of
progressive economic diversification of the Third World;
- Global interdependence: the increasing need for, and possibilities of,
international
arising from future world economic
co-operation
development.
In terms of its underlying research philosophy and methodological
approaches, Interfutures was far ahead of most other attempts pursued in the
1970s to address longer-term future economic and social development.
From the outset it was acknowledged that it is impossible to forecast the
future. Thus the emphasis was on the identification of fundamental trends,
on the evaluation of past, present and perhaps new driving forces, and on the
analysis of possible trend breaks.
A centrepiece of Interfutures was a series of six global scenarios which, on
the basis of explicit assumptions about certain major geopolitical, economic
and social trends, provided a coherent framework for the analysis of process
and policy implications in an increasingly interdependent world economy
and society. The principle dimensions of these scenarios were the internai
dynamics of developed societies; the relationships between the advanced
countries; the evolution of relative productivities in the world; and the
relationships between the industrialised and the developing countries as well
as those within the developing world.
From the outset it was recognised that the images of the world which these
scenarios proposed were not complete, that future reality could be a
composite of elements of different scenarios, and that trend breaks and other
surprise factors could lead to quite different outcomes. Moreover, and this
was another aspect that distinguished Interfutures from most other studies,
Interfutures did not restrict prospective analysis just to the scenario
of different
approach. The analysis was based on a multiplicity
methodologies, including more direct and sectoral approaches, which were
all used simultaneously to examine and shed additional light on the various
options for economic and social development and possible related policy
issues in the future.
This careful and innovative approach was well received and understood in
the academic world. However, appreciation by OECD Member governments
was less enthusiastic. Interfutures was a salient illustration of the
fundamental
dilemma facing a government-financed
international
whose
is
vocation
centred
around
organisation
forward-looking analysis,
policy dialogue and intellectual persuasion. If such an organisation contents
itself with telling governments what they want to hear, it is a waste of
taxpayers' money. If, conversely, its analysis and advice are too far ahead of
320
PROSPECTIVE
conventional
wisdom, then it runs the risk either of not being listened
of creating resentment.
to or
In many Member govemments,
Interfutures generated suspicions from the
outset. A time horizon of 25 Years (from 1976 until the end of century, and
some parts beyond) was not and still is not the customary reference period
for reflection in and design of economic and social policies. The horizontal
nature of the problematique
and the interdisciplinary
approach chosen had,
in most cases, no corresponding
centre of responsibility
in governments.
the
which
a
of
with
Finally,
project,
enjoyed
very high degree
independence
little direct government
was
carried
out
an
international
supervision,
by
team whose members were practically
all recruited from the academic
world.
it was not surprising that the messages of Interfutures were
in careful diplomatic language; that the analysis touched upon
of great political or ideological
and that the
sensitivity;
many areas was not confined to the narrow band of more or less
opinion. These attributes generated some discomfort, not only
but within some parts of the OECD Secretariat as
amongst govemments
well. The sources of this dissonance can be found by looking at each of the
four major problem areas on which Interfutures was focused: the limits to
growth, the prospects for economic growth and employment in the OECD
and the management
of
area, the relations with developing
countries,
Consequently,
not wrapped
many areas
reasoning in
conventional
interdependence.
1. THEPHYSICAL
LIMITS
TOGROWTH
The main conclusion of Interfutures was that the overall physical scarcity of
resources (energy, raw materials, food and land) was a non-issue. Even
though mankind was seen as having increasingly to cope with the effects of
economic activity on the environment in the widest possible sense, the study
concluded that the process of world-wide economic growth could continue
over a 50 year horizon without running up against any absolute physical
limits. It was however emphasised,
first, that transitional
problems and
also
difficulties
could
that in many
second,
probably
regional
appear;
countries economic growth would have to undergo qualitative changes; and
third, that political, economic and social obstacles to growth would become
increasingly
important.
Although there were wide differences between individual countries and the
different social groups within them, even in what was then called the Third
in population growth rates seemed to be appearing.
World, a deceleration
The divergence between the demographic
situation in the North and the
InterfuturesProjectRevisited20 YearsLater
TheOECD
3211
South was nevertheless so significant that it was considered a cause of
possible tension. Examples include differences of behaviours and attitudes
between societies with different age structures, pressure of migration from
South to North and the consequences of continuous high birth surpluses,
particularly among the poorest population groups in the least developed
countries.
It was assumed that world population would reach around 12 billion by the
year 2075 and stabilise at this level in the long term. At the same time
potential world agricultural production appeared adequate to feed this
population, even on the assumption that per capita food consumption in the
Third World would reach levels prevailing in middle income countries. It
was thought that three circumstances could give rise to serious problems:
first, a serious deterioration in the climate; second, if it were impossible to
prevent the further extensive loss of arable land, e.g., due to soil erosion or
urban development; and third, in the event of the Third World adopting diets
similar to those of the OECD countries in terms of quantity and quality.
Interfutures considered that in the long term, there need be no limits to world
energy production in terms of the physical availability of resources. In the
transition period from oil to new forms of energy it was seen as being
possible to place increased reliance on other fossil fuels, notably coal, and
on nuclear energy. Aside from such global economic considerations, geopolitical issues would of course be critical in this connection. This refers on
the one hand to political developments in the oil-producing countries (events
in Iran at that time were an example). On the other hand, attention had to be
paid to the differing availability of energy resources in the various consumer
countries. In this respect Japan in particular and to a large extent Western
Europe clearly seemed to be at a comparative disadvantage.
'
As concems other mineral resources such as ferrous and non-ferrous metals,
it was thought that no problems would arise from any overall limits to
physical resources. The critical issues here were also - as in the case of
energy - political, economic and social. The key factors identified were: the
danger of short- and medium-term interruptions of deliveries as a result of
political crises in the main producing countries for particular metals; the
problem of the introduction of direct or indirect restrictions on exports;
resistance to the expansion of mining on environmental and other social
grounds, particularly in the advanced countries; and insufficient investment
in the development of raw material supplies in the medium term in the light
of low profit expectations and unacceptably high political risks.
As far as environmental problems were concerned, global aspects such as
relations between human activity and the climate were viewed as being of
far greater significance than the local problems (however important in their
own right). In particular the provision of adequate finance for research on
the climate seemed a matter of urgency, not merely to improve knowledge
in this field, but so as to lose no time in introducing appropriate,
322
PROSPECTIVE
scientifically based measures to counteract deep-seated harmful trends at an
early stage, before remedial measures might become too expensive or even
inadequate.
_
Looking at the evolution of the real world since the publication of the
Interfutures report in 1979, the record of the Interfutures team in identifying
the pertinent issues and discounting the others is quite good. Even if current
population projections for 2075 are somewhat different from what they were
at the end of the 1970s, the real issues are not about the absolute carrying
capacity of the earth. They are about: demographic tensions such as
migration; famine arising from unresolved access and distribution problems;
and global environmental concerns. These problems are not rooted in any
absolute limits to growth, but in inadequate policies and human behaviour.
Finally, in the absence of any politically induced supply interruptions such
as the two oil crises, there is no prospect of scarcity regarding energy and
mineral resources such as ferrous and non-ferrous metals. On the contrary,
oil and mineral raw material prices are at their lowest level since the early
1970s - an evolution which Interfutures failed to anticipate.
It is interesting to note that the position of Interfutures was regarded by large
parts of the broader public and by quite a few OECD governments, who
were impressed at the time by the "limits to growth" study of the Club of
Rome, as an unacceptable provocation. The fact that Interfutures implicitly
considered the possibility of a second oil-shock was generally not welcome
on political grounds. With respect to the environment, some governments
found the statements made on the primary importance of the climate issue
exaggerated, while others found the warning against precipitous activism
and the plea for intensified research and assessment in this field misplaced.
2. PROSPECTS
FORGROWTH
ANDEMPLOYMENT
INTHEOECDAREA
The Interfutures team argued that apart from temporary bottlenecks,
particularly in the energy field in the event of further supply interruptions of
a political nature, economic growth in the industrialised countries would not
encounter any extemal limits within the foreseeable future. This applied, as
already mentioned, to the availability of natural resources, but also to the
possibilities of continued technological and organisational innovation. At
the same time, however, it was stressed that certain intrinsically politicoeconomic obstacles to growth would gain increasing importance. This led to
the proposition that the period of high growth in the 1950s and 1960s was
exceptional; that OECD economies would move onto a more moderate
growth path; that conflicts over income distribution, market rigidities and
TheOECD
lnterfuturesProjectRevisited20 YearsLater
323
budget deficits would fuel inflationary trends; that a major new thrust in
economic policy would be needed to cope with structural adjustment; and
that unemployment could be a major problem in Europe at least until the
mid-1990s.
It was significant for the multidisciplinary approach of Interfutures that the
analysis went beyond the purely economic realm to include fundamental
affecting modern industrial society as such. A first
developments
observation in this context was that the economy and society in the advanced
countries were expected to show an increasing potential for social conflicts.
This would be expressed on the one hand by a growing social
oligopolisation and confrontation over income distribution. On the other
hand, the situation would be characterised by the appearance of an evergrowing number of minorities promoting particular interests on the basis of
differing (and partly newly-emerging) values. Since at the same time
economic growth would become less able than in the past to resolve social
conflicts, it would be increasingly difficult for governments to maintain the
balance between traditional economic policy objectives and the new, more
quality-related values.
A second observation was that the two basic institutions for co-ordinating
production and solving distribution problems as regards both goods and
services, i.e., the market and the welfare state, would encounter increasing
difficulties. This was expected to be true of the market because it is partially
unable satisfactorily to discount future needs, can internalise extemal effects
only imperfectly, and is by its very nature unable to assume those coordinating functions which do not lend themselves to market-based
solutions. The problems of the welfare state arise from a serious lack of any
self-regulating mechanism to prevent excessive growth of its services, from
its inability to adapt flexibly enough to provide for individual needs, and
from an inherent tendency to be more sensitive to the expressed interests of
organised groups than to the unexpressed needs of the unorganised majority.
Structural change in the economies of the advanced countries was viewed by
Interfutures as a continuous process. However, the need and pressure for
adjustment, would, unlike in the past, result less from the process of
economic growth than from prevailing social conditions and international
interdependence. On the whole, the tension between the needs of structural
adjustment and the actual capacity and motivation of the economy and
society to meet this challenge was likely to increase rather than decrease.
The factors exerting continuing and in some cases increased pressure for
structural change included the following elements: demographic trends and
changes in the size and composition of the labour force; new patterns in the
structure of overall demand; an upward trend in the cost of using natural
resources such as energy, industrial raw materials and the environment;
significant variations in the international competitive positions of major
industries; and new trends in international technology and capital transfers.
324
It is of special significance
structural adjustment not
variables, but are also to
influence of differing rates
an illustration.
PROSPECTIVE
in this connection that the forces which compel
only affect the economic process as external
a considerable extent internally induced. The
of increase of labour unit costs was presented as
Other factors that were considered crucial concerned trends towards greater
structural rigidity. Prominent examples of these were the growing
inflexibility and qualitative mis-matches in the labour market; negative
effects of the increasing influence of the state on the economic process, as a
result of both rapidly expending regulatory activities and as a consequence
of direct state intervention in certain sectors; rigidity due to capital-intensive
not only of the
increasing protectionism,
large-scale technologies;
traditional kind, but also, and especially, in the form of various types of
subsidies and export promotion measures, the introduction of voluntary
export restraints and other attempts at the closer control of international
trade. Moreover, economic decisions were seen as becoming increasingly
political in nature - not only in government administration but also in
relations between workers and employers and in initiatives by consumers
and environmental groups.
For Interfutures it was essential that the factors referred to above as
influencing the process of structural change in the economy should not be
seen in isolation. The multiplicity of interactions often results in a reciprocal
strengthening of negative effects. In this connection low rates of economic
growth make structural adjustments more difficult in a number of ways. For
instance increasing tensions between the need for structural adjustment and
the ability of the economy and society to respond in a positive manner tend
to impede the achievement of higher growth rates together with both high
employment and price stability. This interaction between structural change
and economic growth was, according to Interfutures, of paramount
importance. Taken together it was thought that the cumulative impact of the
factors mentioned above involved the risk that the relatively slow growth of
the world economy (e.g., an annual rate of real GNP growth of 3.5 % or less
for the OECD area as a whole) would be a distinct possibility even in the
longer term.
This idea of the probability of a more moderate growth path was in total
contradiction to the views of most of the OECD Member governments and
of experts in the Organisation's Secretariat. Only a few months earlier the
OECD had published a report "Towards Full Employment and Price
Stability" by the so-called McCracken Group and "A Growth Scenario for
the 1980s" in a supplement to the Economic Outlook, both suggesting a
recovery path which would lead the OECD economies back to a sustained
increase in real incomes in the order of 5.5 %. Interfutures adopted a rate of
4.3 % for its high growth scenario, and a rate of 3.4 % for its moderate
growth scenarios. The actual average rate of economic growth for the OECD
area between 1978 and 1998 turned out to be no more than 2.3 %.
TheOECD
InterfuturesProjectRevisited20 YearsLater
3255
Moreover, the prospect that the combination of high increases in the labour
force, moderate economic growth and structural rigidities in the labour
market could lead to persistent and high structural unemployment, in
particular in Europe, was for most European governments unacceptable at
that time. Apparently there was a lack of institutional memory when in 1994
Member countries accused the OECD Secretariat of having neglected to
draw their attention sufficiently early to the possibility of long-standing and
unacceptably high rates of unemployment.
Another issue area where the warnings expressed in Interfutures may have
come several years too early to be taken seriously by OECD Member
governments as a basis for early action, was the economic and social
implications of ageing populations. Interfutures not only dealt with the
possible impact of the increasing share of the elderly on the composition of
final demand, on the labour market and on societal values, it also clearly
spelt out the expenditure consequences of ageing populations on pension
and health care systems. It is interesting to note that despite the fact that
OECD work on this problem, partly as a follow-up to Interfutures, started in
the early 1980s, the necessary fundamental reforms of health care and
pension systems are still at a beginning stage in many Member countries,
even though early action would have greatly facilitated the task.
Finally, the emphasis which Interfutures put on the need for structural
adjustment in order to overcome fundamental constraints on noninflationary, job-creating growth was viewed with great scepticism.
Government experts in many Member countries had the greatest difficulties
with the Interfutures plea for policies favouring positive adjustment. With
hindsight, it nevertheless seems fairly safe to say that the call for positive
adjustment policies was perhaps the most important contribution of
Interfutures to the international policy debate of the 1980s. As a follow-up
to Interfutures, the OECD embarked on a four-year exercise to investigate
the interactions between macro-economic performance and structural
adjustment and the optimal design of policies for structural adaptation. The
highlight of this OECD activity was a 1982 Ministerial Statement on
Positive Adjustment Policies and a groundbreaking publication one year
later. Both represented a major contribution to the shift in the economic
policy paradigm in OECD countries in the mid-1980s.
COUNTRIES
WITHDEVELOPING
3. RELATIONS
North-South relations were seen by Interfutures as increasingly important,
not only for political, economic and social development in the Third World,
but also for OECD countries. Beyond the areas of energy and raw materials,
this was because of the expected globalisation of industry and technology as
326
PROSPECTIVE
well as an increase in international
financial flows. The attitude of the
advanced countries vis-à-vis the South would therefore have to undergo a
fundamental
change. In the 1960s and 1970s the OECD countries all too
in North-South
to the developing
often left the initiative
negotiations
countries and in most cases reacted to their proposals more or less in concert,
with small, and only rarely with major, concessions.
Interfutures
clearly
stated that this would not be good enough in the future. The industrialised
countries would themselves have to work out active, global strategies for the
of world-wide
maintenance
political and economic stability which took
account of their relations with the Third World.
Even if population growth rates in less developed countries were to fall
sharply over the following 20 years as already expected at that time, by the
end of the century 75 to 80 % of the world's population would be living in
the Third World. Provision for the basic needs of an additional 2 billion
a problem
human beings by the year 2000 was according to Interfutures
which could scarcely be resolved through the strategies applied in manyy
countries until the 1970s and through the then prevailing type of NorthAside from the need to reduce existing
underSouth co-operation.
in
least
million
new
would
have
to
the
Third
at
700
World,
employment
jobs
be created to give work to the expected addition to the labour force. Here
again prospects were not promising and by the year 2000, Interfutures
stated, some 350 million people would in all probability be suffering from
hunger, not due to the impossibility of producing sufficient food but due to
the inability of those countries concerned
to purchase or produce the
foodstuffs.
the
considerable
necessary
Despite
progress in the developing
world this figure is not 350, but about 800 million today.
Another important message of Interfutures was that the policies of OECD
countries vis-à-vis the South would have to take into account the growing
of the Third World and the likely widening of the differences
heterogeneity
in terms of income, degree of industrialisation,
health and
nutrition,
education. Already in the 1970s, Interfutures noted that per capita income in
a number of smaller, industrialising
countries had reached the level of the
less industrialised
countries of the OECD. It was thought probable that by
the year 2000 a number of developing countries with a total population of
more than 500 million would have caught up with many of the advanced
countries. In less than 50 years those countries would have attained a level
of income which the old industrialised
countries took some 100 years or
more to reach.
Interfutures argued that it was essential, in order to support this process, that
OECD countries accepted the newly industrialising
countries as full partners
in the international
division of labour and trade. This meant that they must
and particularly
be given the possibility of further economic diversification
of continuing to increase exports to the industrialised
countries. Only by
removing import restrictions and accepting the resulting structural changes,
countries to introduce
could OECD countries expect the industrialising
TheOECD
InterfuturesProjectRevisited20 YearsLater
327
similar measures. Interfutures demonstrated that this was not only in the
interest of the advanced countries but of great benefit for the entire world
economy, since, among other things, new export markets would thereby also
be created for those developing countries which were only just embarking
on the process of industrialisation.
Apart from paying special and separate attention to the problems of and the
relationships with the OPEC states and the raw-material producing
developing countries, Interfutures also highlighted the needs of the least
developed countries. With respect to the poorest countries, situated
predominantly in South Asia and Black Africa and only to a lesser extent in
Latin America and South-East Asia, the conclusion was that selective aid
had to be provided to cover basic needs. In particular it seemed meaningful,
in addition to direct food aid, to give effective support for the development
of agriculture. The advantages of such action were then and still are
multiple, ranging from direct orientation towards the needs of the majority
of the population, through comparatively favourable effects on employment
and the balance of payments, to a slower process of change in traditional
social structures. The key aspects of implementing such a programme
include: adequate training of the labour force, development of appropriate
technologies, less emphasis on capital-intensive large-scale water supply
projects for limited areas in favour of simple rain water supply systems, and
longer-term planning of development programmes accompanied by
corresponding long-term financial commitments on the part of the OECD
countries.
Aside from such special propositions with regards to particular groups of
countries, Interfutures also advanced some general conclusions concerning
the overall relationships between OECD and developing countries. The
three most important of these were the following: First, if the advanced
countries were in the long term to refute successfully the constantly
reiterated demands of the Third World for a structural policy of central
controls and anticipatory reform, it had to be emphasised that the mere
statement of the advantages of the free market system was not sufficient, and
not credible unless the OECD countries themselves refrained from
suspending the market economy in favour of domestic industries where
competition from newly industrialising and other developing countries
became too intense. Second, and in this same context, the decisive factor
would not simply involve the rejection of any proposal for world-wide
bureaucratic structural planning but rather the convincing presentation of a
constructive, future-oriented alternative. Only in this way would it be
possible to prevent the involuntary emergence of a world-wide controlled
economy following continuous partial and uncoordinated concessions.
And third, in view of the difficulties and the limited success of global NorthSouth negotiations, it seemed important at the time that, wherever possible,
greater emphasis be placed on solutions through functional agreements
specific to given regions or countries. This did not mean that the advanced
328
PROSPECTIVE
countries should attempt to call into question or undermine the unity of the
Third World. The issue was merely one of paying greater attention to the
different problems and interests of individual developing countries and
groups of developing countries and - on the basis of an overall strategy entering into concrete negotiations on a set of clear-cut objectives.
In dealing with the future of the developing world, the Interfutures team ran
into trouble once again. There was, at the time the report was written, a tacit
understanding that the OECD should deal with the economic prospects and
policy issues of its Member countries, but (with the exception of the
Development Centre) not with the economic evolution and problems of
non-Members. Interfutures did not and could not stick to this rule. The
message of Interfutures, that the Third World was in the process of
increasing differentiation, was in sharp contrast to the simplified view of the
world that corresponded to the North-South divide represented by the
industrialised countries on one side and the Group of 77 on the other. The
consequence of an increasingly heterogeneous Third World, in terms of the
need for differentiated approaches in North-South relations, was in 1979 for
many OECD Member governments still extremely problematic.
4. MANAGING
GLOBAL
INTERDEPENDENCE
International interdependence has many facets. They range from global
environmental problems and global information systems, through more
narrow economic issues such as international trade, investment and capital
such as the evolution of
flows, to new institutional developments
multinational enterprises and the related deepening and widening of the
international division of labour. The speed and intensity with which the
process of increasing global interdependence has progressed over the past 20
years has had a number of significant process and policy implications, many
of which were already addressed by Interfutures.
Regarding process implications, Interfutures emphasised in particular two:
first the higher intensity of competition not only in the markets for products
and services, but also in capital and labour markets; and second an
acceleration of structural change both between and within the various
sectors of economic activity as well as within individual companies. For the
OECD countries these developments were expected - at least in those parts
of the economy exposed to international competition - to result in a shift
toward high-value added business with a growing emphasis on technology
and high quality service content.
With respect to the policy implications of increasing global interdependence
two effects were viewed as being of particular importance. The first was the
loss of effectiveness of national policies. This applied on the one hand to
TheOECD
InterfuturesProjectRevisited20 YearsLater
329
fiscal and monetary policy and on the other to certain micro-economic
policies, for instance in the area of competition. The second effect was a
reduction of the room for manoeuvre. Should tax burdens be pushed too high
or environmental standards set at too ambitious a level, the competitiveness
of a country or a location could be easily undermined. Another limitation for
the design of national policy in an increasingly interdependent world was
expected to arise from the fact that certain policy approaches such as
subsidies for industries in difficulty tend to shift the adjustment burden to
other countries, which are usually unwilling to accept this reallocation.
Taking into account this new environment for policy making, Interfutures
left no doubt that in order to support non-inflationary growth and higher
employment, well designed economic and social policies at the national and
international levels were as important as ever. Responding to the anti-growth
ideology propagated at the time for instance by the Club of Rome,
Interfutures clearly stated the necessity of rehabilitating the idea of
economic growth - not as an aim in itself, but as an instrument to achieving
other social goals; that in so doing the quality of growth must be taken into
consideration alongside the rate of increase in production, was not a matter
of dispute. Interfutures also highlighted the need to accept structural change,
not at any price, but through the most efficient form of socially acceptable
and politically feasible adjustment; this also means that measures to alleviate
the social consequences of structural change must be temporary in nature, at
least as far as individual cases are concerned. Furthermore, and again this
has not lost any of its relevance today, Interfutures cautions against a form
of development
which would exclude specific social groups from
in
participation
increasing welfare over long periods; it was considered
in
necessary,
particular in the field of employment policy, to work out
specific programmes for young people, women, older workers and the
handicapped.
,
.
Although the debate about "globalisation with a human face" took off
around twenty years later, the policy recommendations of Interfutures
already clearly recognised such concerns. The Interfutures team also warned
against the temptation to limit interdependence, already expressed at the end
of the 1970s by some countries, as a way to regain policy autonomy or
reduce uncertainty. The consequence of raising the barriers to international
trade, investment, technology and capital flows - probably the only way to
reduce interdependence would be enormous losses in efficiency of the
world economic system. And empirical evidence suggests that those
countries who introduce protectionist measures end up the greatest losers at least in the longer-term. Interfutures recommended a forward-looking
strategy, namely improving international co-operation.
In order to ensure the success of international policies, usually conceived
with reference to national objectives, four approaches were considered to be
of particular
First, the political will to co-operate
importance.
330
PROSPECTIVE
internationally, with the implication above all of a readiness to accept and
share responsibility for future world political and economic development both among the OECD countries themselves and between industrial and
developing countries. Second a definition of the main problem areas where
international co-operation would be necessary and likely to be successful.
Third, a minimum consensus concerning guidelines for action would have to
be established. For example, agreement that national strategies should be
designed so that they do not result in burden-shifting from one country to
another. Fourth and finally, Interfutures concluded that the institutional
consequences of increasing global interdependence have to be made explicit
at both national and international levels. National governments must reflect
on how to co-ordinate and reconcile national and international policy. For
international organisations it was considered important to constantly review
areas of activity and organisational structures in the light of emerging
problems. Furthermore, it seemed important at both levels to orient shortterm programmes more intensively than had hitherto been the case towards
longer-term concerns and in general to ensure greater consideration of the
process and policy implications of increasing global interdependence.
5. SOMECONCLUDING
REMARKS
Today many academics and government officials still see Interfutures as one
of the most thought-provoking reports the OECD has ever produced.
However, twenty years ago views were more mixed since quite a few of the
messages appeared too provocative. The project's high degree of intellectual
independence greatly benefited both the analysis and the conclusions, but it
also left governments on the sidelines, thereby failing to help prepare the
ground for the new ideas that were to emerge. Comprehension and
appreciation of Interfutures was also impeded by its departure from the
traditional segmented approach to policy analysis. Instead the project
touched upon nearly every field of government responsibility, and its
method was in every respect horizontal and interdisciplinary. The result was
that there was no single Ministry or government agency which ultimately
felt that it was in charge of evaluating the many insights, conclusions and
policy recommendations.
Nor was the Steering Committee of Interfutures, which was composed of
high-level government officials, able to overcome the conceptual and
political unreadiness which the final report met. The Steering Committee
made significant contributions by providing critical and constructive
comments on initial drafts and in particular in making the project policyrelevant ; but most members came from specialised Ministries and
government agencies and not from the Prime Minister's office. As a result
TheOECD
InterfuturesProjectRevisited20 YearsLater
3311
there was little chance that the various messages of Interfutures could be
conveyed to the most appropriate operational structures of government.
The OECD has taken these lessons to heart. Nearly all the subsequent work
on longer-term economic, social and related policy issues has been carefully
focused on specific topics and prepared for clearly defined constituencies.
This applies, for example, to the various studies on the implications of
ageing populations for health care and pension systems; long-term demand
and supply projections in the energy field; and recent work on
environmental sustainability. The experience of both Interfutures and the
more specialised studies of long-run issues shows clearly that an
international organisation such as the OECD is well placed to fulfil a kind
of long-term "radar" function - that serves as both an early warning of
poorly understood risks and as a catalyst for identifying hidden
opportunities.
By the early 1990s, in recognition of the importance of identifying and
taking into account long-term opportunities and risks in today's decision
making, the OECD embarked on a permanent, interdisciplinary effort - the
OECD International Futures Programme. The Programme upholds the
legacy of Interfutures in its long-term time horizons, interdisciplinary
approach, policy relevance and a high degree of intellectual independence.
But the Programme avoids some of the difficulties faced by Interfutures
because it is an on-going activity centred around a series of major
conferences; it examines one important future relevant topic at a time; and
key constituencies like government ministers and company chief executives
are involved extensively throughout the process. In retrospect, Interfutures
not only provided a legacy of analytical and policy insights, but also a useful
precedent for finding a better way to ensure that long-term issues are more
effectively integrated into the decisions that will shape tomorrow's world.
BIBLIOGRAPHY
INTERFUTURES,
Facing the Future: Mastering the Probable and Managing the
Unpredictable, OECD, Paris, 1979.
Face aux futurs: Pour une maîtrise du vraisemblable et une gestion
INTERFUTURES,
de l'imprévisible, OCDE, Paris, 1979.
.
De Cara Al Futuro: Par un control de lo probable y una gestién de
INTERFUTUROS,
lo imprevisible, Madrid, 1980.
INTERFUTURES,
Japanese translation, Tokyo 1980.
OECD INTERFUTURES,
Herausforderungen der Zukunft, Hamburg 1981.
Robert Dautray
PROSPECTIVE
ENÉNERGIE
NUCLÉAIRE
Je suis heureux d'avoir pu, en rédigeant ces quelques pages, apporter mon tribut en
l'hommage qui est dû au grand esprit, à l'excellence et à la lucidité exceptionnelles
de Jacques Lesourne. Grâce à la limpidité de ses exposés, issue d'une maîtrise
totale des sujets les plus ardus de ses spécialités si complexes, il ouvre des champs
de compréhension et d'action inexplorés.
1.. L'IMPORTANCE
DEL'ÉNERGIE DANS
LESCIVILISATIONS
de l'une des sources d'Énergie de notre siècle, le pétrole, dans
L'importance
tous les conflits des hommes, a été souvent citée depuis la dernière guerre
mondiale inclusivement.
L'offensive allemande vers le Caucase (avec pour
but le pétrole de Bakou et plus loin de l'Iran) en 1942, dont le flanc gauche
devait être protégé par la prise de Stalingrad,
en a été un exemple. Le
des chars allemands lors de l'offensive
allemande des
manque d'essence
Ardennes, fin 1944, en a été un autre. La montée de l'importance
planétaire
d'un certain nombre de pays producteurs de pétrole en témoigne également.
Elle a conduit à des épreuves de force et même à des guerres lourdes en
enjeux, en moyens mis en oeuvre et en malheurs humains.
Dans les périodes précédentes, le charbon avait déjà cette importance. Il faut
évoquer le charbon de la Ruhr, de la Sarre en Allemagne au x,xe siècle et
Prospectiveen énergie nucléaire
pendant la première
Bretagne.
moitié du xxe siècle, ainsi que le charbon
333
de la Grande-
Rappelons d'autre part que la révolution industrielle est née au xvili' siècle
en Grande-Bretagne
avec l'invention et la mise au point pratique, au long du
siècle, de la machine à vapeur, qui, au départ, avait pour mission de faire
fonctionner les pompes destinées à dénoyer les fonds des mines de charbon,
quand elles étaient infiltrées et inondées par les eaux souterraines. Tout cela
se fit par le seul jeu des créateurs de ces machines à vapeur industrielles et
les besoins des industriels des mines, sans que l'État intervienne si ce n'est
par des dispositifs de protection légale des inventions. De progrès pratique
en progrès pratique, on aboutira à des machines
à vapeur (mues par la
combustion
du charbon produisant l'ébullition
de l'eau) qui feront foncet ses
tionner les usines (textiles, métallurgiques,
chimiques, mécaniques
machines outils), qu'on pourra
bientôt
placer sur des plates formes
mobiles. D'où les chemins de fer et les bateaux à vapeur, c'est-à-dire
tout
l'essor industriel du xixc siècle en Europe occidentale et aux États-Unis.
La mise au point au x,xe siècle de la maîtrise de l'électricité,
qui procède de
la machine à vapeur pour faire tourner les génératrices de courant électrique,
aboutira au xxe siècle à un réseau de transport amenant l'électricité à chacun
(particulier, artisan, industriel) et va lui donner la maîtrise de ce dont il a
besoin comme Énergie sous une forme simple, adaptable à de nombreux
besoins.
la maîtrise de l'extraction, du raffinage et de la distribution du
Parallèlement,
pétrole fournira à chacun une Énergie stockable, aisément transportable (car
c'est un liquide), et utilisable dans des moteurs
de plus en plus légers (en
kW/kg) pour les usages divers, dont les transports et les machines agricoles.
Cette maîtrise de l'Énergie,
donnée à chacun dans les pays concernés,
contribuera à la transformation
de la société vers de plus en plus d'indépendance des bénéficiaires
(par exemple aux agriculteurs à la ferme, ou encore
aux femmes pour les travaux ménagers...).
.
,
C'est bien dire que la disponibilité de l'Énergie est un des aspects essentiels
pour comprendre les sociétés humaines. On pourrait aller plus loin en disant
(le néolithique, au huitième millénaire
que, depuis les débuts de l'agriculture
avant Jésus-Christ)
au Proche Orient, en Chine, dans la civilisation
de
chez
les
et
toute
l'Indus,
», l'Énergie
Amérindiens,
pendant
« l'Antiquité
nécessaire aux travaux de cette agriculture est essentiellement
celle produite
par les muscles des hommes, depuis les travaux des champs à la mise en
oeuvre de l'irrigation,
des rotations de meules aux transports, même si les
des
apports
attelages de boeufs s'y ajoutent (le cheval pendant cette
« Antiquité », est encore un instrument de guerre). Maîtriser l'Énergie à
cette époque, c'est donc maîtriser les hommes : d'où le fait que ces sociétés
(1) Grâce à la mise au point des moteurs à explosion et des diesels.
334
« agricoles » s'appuient
bien souvent sur l'esclavage.
des fleuves, ne sont qu'un apport à cet immense
hommes.
PROSPECTIVE
Les Énergies du vent,
effort musculaire
des
Même si le Moyen Âge va perfectionner
et développer l'utilisation
du vent
et des rivières (moulins, bateaux à voile), même si le cheval va apporter une
aide substantielle,
la force et l'endurance
des hommes sera toujours au
centre de ces sociétés, fondées sur le servage ou l'esclavage.
Pendant
bien longtemps,
et quand elles en sortiront localement
sur la
les
nouvelles
sociétés
planète,
changeront les statuts, mais pas la condition
voués à l'ef(et de l'artisanat),
quotidienne de ces hommes de l'agriculture
fort musculaire écrasant de chaque jour. Même les transports seront basés
sur des rameurs, des haleurs ou des coolies...
Tout cela pour dire que les problèmes de l'Énergie sont très graves pour les
sociétés humaines, que l'éclaircie (sur le plan du travail des muscles) de ce
xxe siècle est une courte partie de l'histoire de la peine des hommes et qu'il
faut les traiter avec d'infinies
en essayant d'abord
de les
précautions
comprendre.
2. QUELLE
ESTLASOURCE
DECESÉNERGIES ?
PHYSIQUE
Pour l'effort musculaire, après cueillette et chasse, digestion et assimilation,
il provient donc de la photosynthèse
produisant les tissus des végétaux à
directe ou via les herbipartir de l'Énergie solaire et de leur consommation,
vores ou/et leurs prédateurs (avec un cycle parallèle dans l'océan, partant
avec un rendement
de l'ordre de
presque toujours de la photosynthèse
1/10000).
Cette photosynthèse
met en ouvre le rayonnement
solaire issu de la région
de la « surface » du Soleil. L'Énergie y est amenée en cheminant à partir de
la région centrale du Soleil '
où elle a été produite par les réactions thermonucléaires
de fusion des éléments légers et au premier chef, issus de la
transformation
de l'hydrogène en deutérium, réaction nucléaire d'interaction
faible qui donne sa constante de temps (se comptant en plusieurs milliards
d'années) au Soleil et aux étoiles « moyennes » de même type.
En un mot, notre Énergie biologique est issue des réactions nucléaires basées
sur l'hydrogène
qui formait 76 % de la matière de l'univers. Depuis leur
allumage, dans notre galaxie par exemple, environ 6 % de cet hydrogène
aurait déjà été consommé par ces réactions nucléaires.
(1) Ce cheminement se fait d'abord sous forme radiative, par les photons X qui « diffusent »
(avec aussi : absorption et émission, bremsstrahlung et effet photoélectrique qui s'ajoutent à l'effet Compton), puis par convection dans les parties les plus extérieures. Le
« voyage » de l'Energie du centre à la périphérie du soleil dure de 105 à 106 ans.
Prospectiveen énergienucléaire
335
Pour le charbon, il provient de la végétation du permien, du carbonifère et
du début du trias, donc essentiellement entre il y a trois cents et deux cent
quarante millions d'années. Ces végétaux enterrés durant l'évolution de la
Terre (évitant leur oxydation en étant relativement rapidement enterrés) ont
conduit par des réactions chimiques et physico-chimiques
lentes, au
charbon. La source de ces végétaux, donc du charbon, est encore le rayonnement du soleil, par l'intermédiaire de la photosynthèse, donc la lumière du
soleil et donc encore, en fin de compte, les réactions nucléaires au centre du
Soleil.
On ferait une histoire analogue pour le pétrole, en montrant par exemple que
les dépôts pétroliers de l'Afrique septentrionale, de l'Arabie et du MoyenOrient proviennent des marges océaniques de la mer qui a précédé la
Méditerranée, la mer Thétis. Là encore, l'Énergie stockée provient de la
photosynthèse (à l'époque du Jurassique et du Crétacé, il y a 180 à
90 millions d'années, pour les gisements cités ci-dessus), elle-même ayant
pour source les réactions nucléaires au centre du Soleil.
En somme, les combustibles fossiles, charbon, pétrole (et on dirait la même
chose du gaz naturel), proviennent de l'Énergie solaire et sont par conséquent des produits de réactions nucléaires « stockées ».
Nous n'irons pas plus loin dans cette analyse, mais le lecteur verrait par une
autre analyse, que la « lumière (1) solaire met en mouvement l'atmosphère,
les océans et les eaux « suspendues » dans l'atmosphère de la Terre (et donc
les rivières), comme une immense machine thermique avec une source
chaude décroissant à partir de l'Équateur et des sources froides dans les
régions polaires. On voit ainsi que les Énergies hydraulique, éolienne, etc.,
sont issues du rayonnement solaire et donc encore des réactions nucléaires
du centre du Soleil.
Quant au carbone présent sous forme d'élément, ou combiné dans les hydrocarbures de ces réserves fossiles, la photosynthèse et l'enfouissement l'ont
transformé ainsi à partir du gaz carbonique de l'atmosphère. Les hommes
d'aujourd'hui le renvoient dans l'atmosphère en brûlant des combustibles
fossiles. De là, il se répartira dans d'autres « puits », océan, biosphère... La
contribution à l'effet de serre qui en découlera (3) avait donc déjà lieu quand
ce carbone était présent dans l'atmosphère. Il ne faut pas d'ailleurs le consi; dérer comme un stock constant dans l'histoire de la Terre puisqu'il
s s'échange avec le gaz carbonique stocké dans l'eau des océans (bien plus
abondant) et aussi, pour de si longues périodes, le carbone contenu dans les
;
; carbonates (encore plus abondants) déposés sur le fond des océans, ce fond
,.i étant mis en mouvement par la tectonique des plaques. Une partie de ce gaz
ID carbonique remonte des plaques en subduction par les volcans, etc.
i
:
¡
(1) Le visible,l'infrarougeet l'ultraviolet.
(2) Depuis4,5 milliardsd'années, le Soleil aurait ainsi consommé6 % de son hydrogène ,
commeon l'a dit plus haut.
(3) Et qui sera différentede celle du passé.
336
PROSPECTIVE
Le point essentiel (pour les hommes) de ce qui précède, est que notre époque
a mis à la disposition
de chaque individu
de l'Énergie
sous diverses
formes (électricité sur réseau, gaz sur réseau ou bouteille livrée, essence sur
parc de stations-service,
piles pour appareils isolés : radios, téléphone, GPS,
lampes, etc.).
3. L'ÉNERGIE
NUCLÉAIRE
Le dernier demi-siècle a vu la montée de l'Énergie nucléaire pour la production d'électricité
au programme
(effort supplémentaire
par rapport
Manhattan, dû aux suites des pénuries de la dernière guerre mondiale, puis
aux chocs pétroliers) et dans certains pays, la stagnation ou le reflux de cette
et techniques
Énergie nucléaire. Quels en sont les aspects scientifiques
dominants au point de vue français et plus globalement, européen ?
Du côté des réacteurs nucléaires, le succès des réacteurs à eau (et parmi
est devenu le
ceux-ci, au premier rang de ceux à eau sous pression,
fait de base tant pour le renouvellement
des parcs que pour la référence de
des autres filières. Ce succès a rendu caducs et risqués les
comparaison
de filières envisagés encore il y a une à deux décennies,
changements
donnant à ces nouvelles (et futures) filières un niveau de comparaison
trop
difficile à égaler. Grâce à cette filière à eau, la centrale nucléaire est devenue
un équipement
de maintenance,
de
industriel, susceptible d'exploitation,
rentabilité, de sécurité, de fiabilité, de prévisions exemplaires ;
pour tout
dire, un équipement technique de pointe fabriqué en quantités notables ; ce
dernier aspect (équipement de pointe) a son importance puisque l'expérience
a montré qu'en dehors des pays d'un niveau technique élevé et constamment
la maintenance
(et les divers services) de ces
rigoureux, l'exploitation,
centrales nucléaires n'avaient pas le niveau de qualité requis et constituaient
même un équipement potentiellement
dangereux.
Du côté du cycle du combustible,
certains
aspects sont à mentionner :
minières reconnues
sont inférieures
aux
1) Les ressources
aujourd'hui
ressources réelles car la prospection
a cessé depuis longsystématique
minières
temps à cause de l'absence de marché suffisant. Les ressources
en uranium aujourd'hui
avec la technologie
des
prouvées permettent,
suffisamment
de « combustible
» fissile
la
REP, d'avoir
jusqu'à
deuxième moitié du xxle siècle (voir figure 1 page suivante), c'est-à-dire
en « brûlant » en partie seulement (par fission) l'uranium 235 (235U) qui
forme 0,720 % de cet uranium naturel et une portion du plutonium
(surtout le 239pu) formé (2) par capture des neutrons sur le reste de l'ura(I) Toutefois, ceux à « ébullition utilisée » ont aussi montré des qualités.
(2)
Par
la réaction
nucléaire
238U + n -+
239U + fJ -+
337
Prospectiveen énergie nucléaire
Uranium
Gaz
Pétrole
Charbon
Gigatep
Conv.
Non-conv.
Con
Non-conv.
REP
RNR
Réserves
606
150
145
140
192
57
0
810
Ressource
2794
145
380
280
258
203
3390
Total
3400
295
525
420
450
260
4200
15 540 Gtep
Gtep
4 000 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
78%
_
3 4M Gtep -----------'"
3000
___
-------------------------------------
82% -----------------------------------
22000
000 -
1000 --
j
82% ------------------------------------
-
-------------------------------------
------295 Gtep
18%
49%
525
Gtep
420
Gtep
66%
450 GtepP
260
Gtep
–––
57%°
' E
0 51 °l0 28°l0 34°l0 43°!0
Nucléaire
Gaz
Pétrole
Charbon
/
e
RNR
REP
Non-conv.
Non-conv. Conv.
Conv.
)
* 19/48
* 69/168
* 67/124 * 93/178
/
**21/72
** 75/215
5
** 85/207 ** 114/265
j
O Ressources
;
"/(:1 Réserves
)
. Valeurs inférieures
:1
cumu!ée(en GP)
!a productioncumulée
>.
Gtep) :1990-2020/1990-2050
}jde la
* Valeurs
inférieures
Valeurs
supérieures
de
j
Source:CEA/SEE
i
)
Figure 1 : Réserves et ressources de base d'énergie dans le monde
(d'après CME-95)
338
PROSPECTIVE
nium (essentiellement
le U
99,27 % de l'uranium
qui constitue
naturel). Il est possible de « fissionner » également cet
par la techoù la réaction nucléaire :
nologie des surgénérateurs,
z39pu
a un très bon rendement.
Le rapport des teneurs en 238U et 235U (c'est-à-dire
des atomes à
« consommer ») est de 99,2/0,72 soit de l'ordre de 138. En fait, à cause des
pertes, on ne gagne qu'un facteur 40. C'est dire que les réserves actuellement connues d'uranium permettraient des millénaires de consommation
de
combustible fissile au taux actuel si elles étaient utilisées avec les technoloon vient de dire que ces technologies
sont celles des
gies nécessaires ;
où les problèmes actuels sont surtout ceux liés au refroisurgénérateurs,
dissement par métal liquide mais où la très grande majorité des problèmes
restent pour l'utitechniques a été résolue. C'est dire que les surgénérateurs
lisation de l'uranium naturel une technologie nécessaire qu'il faudra tôt ou
tard avoir mise totalement au point, en un mot, maîtrisée (à l'échelle du
demi-siècle).
Les déchets miniers relatifs à l'extraction
du minerai et à la séparation de
l'uranium
des
à ceux des autres déchets
posent
problèmes
analogues
miniers (1). >.
de l'uranium provient de
2) La teneur naturelle relativement faible en
la désintégration
plus rapide pour l' 235U (vie moyenne de 7.10g années)
(vie moyenne de 4,4.109 années). À leur formation dans
que pour
une supernova, avant leur intégration dans le système solaire,
on estime
1,16.
que leur rapport isotopique était de l'ordre de
Il y a environ 2 milliards d'années, à l'époque du fonctionnement
des
réacteurs naturels d'Oklo, en Afrique,
à
faisait,
qui
l'époque, partie de
ce qui précéda le supercontinent
nommé la « Rodinia »,
la teneur en
235U¡238U était de l'ordre de 4 %. La décroissance
radioactive naturelle
à cette teneur de 0,720 %.
depuis, nous a amenés aujourd'hui
Mais pour ce qui est du maintien d'une réaction en chaîne dans le milieu
formé d'uranium
et d'eau, c'est bien cette teneur de 3,5 à 4 % qui est
souhaitable. Il faut donc aujourd'hui enrichir l'uranium en l'isotope
si on veut l'utiliser comme « combustible
» des REP. Des procédés industriels ont été mis au point depuis les débuts des technologies
nucléaires
les
années
et
ont
et
donné
toute
satisfaction
(dans
quarante
cinquante)
par
(1)
(2)
(3)
(4)
Avec toutefois, de plus le problème des très faibles radioactivités (TFA).
Donc, il y a plus de 4,5. l0y années.
Dans ce qui est aujourd'hui le Gabon.
On estime aujourd'hui que ce supercontinent « Rodinia » précède le Gondwana, formé il
y a environ 600 millions d'années.
Prospectiveen énergienucléaire
339
rapport à tous les critères industriels, économiques, d'exploitation, de
maintenance, basés d'abord sur la diffusion gazeuse à travers des parois
poreuses (comme au Tricastin), puis ensuite par l'ultracentrifugation
(dans le cadre, par exemple, d'une association d'industriels, allemand,
britannique et hollandais).
Un procédé plus sélectif, la séparation par laser, est en cours de mise au
point, en France et aux États-Unis. La faisabilité scientifique et technique
en a été démontrée. On étudie actuellement les aspects industriels qui
permettront d'en évaluer l'économie. Cela sera un progrès très important
permettant, de plus, de séparer isotopiquement d'une manière massive
d'autres corps que l'uranium.
Les procédés comme celui de la diffusion conduisent, pour une production recherchée d'une tonne d'uranium enrichi (à 3,5 %), à environ 6 à
7 tonnes d'uranium à faible teneur en 235U (de 0,2 à 0,3 %) à stocker pour
un usage futur, quand on aura mis au point la technologie des surgénérateurs. L'entreposage pour de longues durées de ces matériaux ayant un
flux annuel de l'ordre de 7 000 t pour le seul élément uranium est aujourd'hui une réalité industrielle.
3) La fabrication d'un combustible ayant la tenue en irradiation souhaitée a
été une longue aventure industrielle. Elle est aujourd'hui une réalité
industrielle, tant pour le cas de l'oxyde d'uranium que pour celui des
mélanges d'oxyde de plutonium et d'oxyde d'uranium (dit MOX pour
« Mixtes OXydes »). À ce jour, la réalisation et la tenue en irradiation des
MOX constituent une grande réussite technique.
4) Après que les éléments combustibles ont été irradiés, sortis, puis refroidis
suffisamment pour que leur manutention et leur entreposage ne posent pas
problème, deux voies sont envisageables :
a) entreposer, puis stocker définitivement ces éléments combustibles, plus
ou moins démantelés. C'est la solution suivie aux États-Unis, en Suède,
en Finlande, au Canada par exemple. En tout, près des deux tiers du
flux massique mondial de combustibles suit cette voie ;
b) après refroidissement, les parties fissiles des éléments combustibles
sont traitées par des réactifs chimiques aux températures nécessaires
pour en séparer le plutonium, les autres actinides (dits mineurs), les
produits de fission et le reste d'uranium. C'est ce qu'on appelle le
retraitement.
C'est ce que font les électriciens possédant des
centrales nucléaires, en France, en Belgique, en Grande-Bretagne, en
Allemagne, en Russie >, au Japon. Cela représente en tout environ le
,
(1) Les deux facteurs,températureproche de la températureambianteet procédéaqueux
relativementdilué, sont essentielspour la réussitetechniquede ce procédé(dit PUREX,
et déjà étudiépar Seaborg,à Berkeley,dans les années40).
(2) En Allemagneet en Russie,les électriciensont le choixentre les solutionsa) et b).
340
PROSPECTIVE
tiers du flux massique mondial. Le retraitement
par voie aqueuse à
de
l'ambiante
est, par exemple, mis en oeuvre à
température
proche
l'usine de La Hague (COGEMA)
et à celle de Sellafield (BNFL,
avec
un
succès
industriel et économique.
Grande-Bretagne)
grand
dans
le
cas
de
La
a
très
bien
fonctionné. Aucun détriL'usine,
Hague,
ment de sûreté et de radioprotection
n'est intervenu, ni envers les
travailleurs, ni envers les riverains, de manière prouvée.
5) Le devenir des corps radioactifs. Les problèmes relatifs à ce devenir sont
étudiés dans toutes les nations concernées et certains organismes comme
l'AIEA (Agence internationale
de l'énergie
sise à Vienne,
nucléaire,
à l'ONU),
l'AEN
de l'énergie
nucléaire
de
appartenant
(l'Agence
et très
l'OCDE) et l'UE (Union européenne) confrontent, régulièrement
en détail, les résultats des travaux des pays concernés.
En France, la loi du 30 décembre 1991 a dessiné, précisé et organisé en
trois axes parallèles un programme d'études de quinze ans, devant donc
aboutir en 2006, pour permettre au Parlement français de prendre les décisions nécessaires
à cette date pour le devenir des corps radioactifs
en
France.
produits
Ce programme étant en cours, il est évidemment trop tôt pour en dire les
résultats. Une étape importante de l'un des axes en sera la réalisation de
laboratoires
souterrains
dans des formations
géologiques
appropriées,
leur
et
des résultats expérimentaux.
S'il
puis
exploitation
l'interprétation
est permis à mi-parcours de dire les orientations qui semblent aujourd'hui
se dégager, et sous toutes réserves, ce serait pour penser que des solutions
diverses vont permettre de traiter efficacement des problèmes différents,
ces déchets étant extrêmement hétérogènes.
Pour ce qui est des études internationales (1),
elles montrent que
chements à la surface du sol de stockages souterrains dans des
étudiés avec précision (études PAGIS, EVEREST) ne dépassent
doses admissibles de rayonnement d'après les normes acceptées
tionalement.
L'idée générale
de ce concept de stockage
souterrain
les relâterrains
pas les
interna-
est :
a) qu'il faudra un délai de temps très élevé (de l'ordre de 105 à 107
années) pour que les corps contenus dans les stockages en sortent et
migrent ;
b) quand ces corps auront ainsi migré, ils se dilueront
parties du sous-sol ;
dans de très grandes
(1) Signalons, en outre, les études de transmutation par irradiation avec des faisceaux de
neutrons dans le but d'arriver à des noyaux stables à Los Alamos (Etats-Unis), au Japon
(projet Omega), en Europe (assemblages sous-critiques avec source de neutrons puissante, créés par des protons de l'ordre de 1 à 1,5 Gev convenablement accélérés, etc.).
Prospectiveen énergienucléaire
341
c) au bout de ce temps si long, la radioactivité des corps radioactifs aura
fortement (suivant les périodes radioactives) diminué.
De plus, leur dilution les rendra moins concentrés en chaque point de
la surface de la Terre. Ainsi, on pense protéger, avec un large facteur de
sécurité, toute personne vivant à la surface de la Terre, buvant et se
nourrissant sur des comestibles où ces corps (ou leurs « descendants
nucléaires ») auront pénétré.
Cela peut être encore affiné en faisant une hiérarchie des corps apportant la dose d'effet des radiations ionisantes. On parle alors de doses en
Sievert par an par exemple. Un certain nombre de pays ont établi de
telles hiérarchies (y apparaissent alors dans tel exemple par ordre de
nuisance : l'iode 129,
de vie moyenne 1 ,7. 1 0 années ; le césium
135, 135Cs, de vie moyenne 3.106 années ; le technétium 99, 99Tc, de
vie moyenne 2,1.105 années ; le sélénium 79,
de vie moyenne
6.104 années ; l'étain 126,
et certains descendants des actinides,
23aU,
qui désignent les corps présentant les nuisances les plus
grandes. On envisage actuellement l'intérêt éventuel de les ôter des
déchets, et de les transmuter au lieu de les enfouir.
Enfin, certains corps radioactifs émettent de la chaleur d'une manière
plus intense que d'autres, ce qui conduirait à des perturbations trop
grandes des régimes thermiques et de mécanique des milieux où on les
aurait enfouis. On pense donc à les entreposer (1). Ce peut être également le sort des corps dont l'avenir est incertain.
Finalement, on est conduit à trier et à adapter le sort des corps radioactifs
selon leurs propriétés plus spécifiques.
Le plutonium produit par le retraitement, s'il est replacé dans des éléments
combustibles MOX, conduit en France à un flux de combustible de l'ordre
de 100 à 200 tonnes par an contenant ce plutonium ; ce qui donnerait donc,
après irradiation, la quantité à entreposer chaque année, au lieu du flux
annuel de combustible irradié et déchargé du parc de centrales nucléaires de
France de 1 200 tonnes par an sans utilisation du procédé MOX, ce qui
gagne un facteur 10 à 5, ce qui est considérable.
Ce plutonium entreposé ou inclus dans les MOX conduit-il à des dangers de
prolifération ? Signalons à ce sujet une étude de la National Academy of
Sciences des États-Unis et une de la Royal Society en Grande-Bretagne qui
concluent dans ce sens. Le point de vue opposé a été également étudié, mais
n'a pas fait l'objet de publication, par souci de non-prolifération. Ce sont les
termes de référence de ces études qui permettraient une analyse équitable.
Ces termes, le plus souvent implicites et non écrits dans les textes et les
(1) Pendantcet entreposage,c'est le conteneurqui garantitla sécuritédes travailleurset du
public :c'est dire son importance.
342
PROSPECTIVE
réunions internationales, ne permettent donc pas une vraie comparaison des
divers risques. Chacun a raison, mais par rapport à ses hypothèses, qu'il ne
précise pas suffisamment, et cela pour des raisons, légitimes à ses yeux, qui
sont justement liées au voeude non-prolifération.
De ce tour d'horizon scientifique et technique, nous souhaitons que le
lecteur tire ses propres conclusions. Pour notre part, nous pensons avoir
montré que les solutions classiques (au sens qu'elles sont démontrées par de
longues et nombreuses expérimentations) sont encore susceptibles de
fournir pour la première moitié du prochain siècle, la part substantielle
d'Énergie qu'elles ont donné durant les dernières décennies. Cela nous
semble indiquer que le renouvellement du parc de centrales peut se faire sur
les mêmes concepts, avec des mises en oeuvre convenablement améliorées pour certains de leurs composants en tenant compte des progrès
scientifiques, techniques, d'exploitation, de maintenance et de maîtrise de
l'aval du cycle. Cela repousse l'utilisation de nouveaux concepts vers la fin
du xxle siècle. Cela laisse le temps au progrès de la Science et de la
Technique de faire son oeuvre bien souvent inattendue et imprévisible,
comme dans le passé. Cela sera-t-il dans le domaine des réacteurs nucléaires
(réacteurs à neutrons rapides, réacteurs à combustible fluide, réacteurs à
haute température, réacteurs sous critique...) ? Les progrès seront-ils dans la
fusion thermonucléaire (avec ses diverses voies, TOKOMAK, lasers, puissance pulsée, striction axiale...) ? Va-t-on innover dans le domaine de la
séparation des déchets, dans celui de la matière première (uranium,
thorium...) ? La radiobiologie (réparation de l'ADN, et épidémiologie,
notamment des travailleurs du nucléaire), et donc l'évaluation à partir de
bases scientifiques comprises des nuisances éventuelles des faibles doses
des rayonnements ionisants va-t-elle mieux nous éclairer ? Le champ du
possible reste très vaste.
Dans les années trente, avant la fission, avant les calculateurs électroniques,
avant la biologie moléculaire, qui aurait pu prévoir les bases scientifiques
des problèmes d'aujourd'hui ? C'est dire les difficultés des aspects scientifiques de cette prospective technique et industrielle à laquelle nous nous
sommes essayé ici. L'immensité des résultats obtenus en un peu plus d'un
demi-siècle démontre l'importance de l'effort accompli et l'espérance
soulevée par sa continuation.
Reactor(EPR)quireprésente
unenouvellegéné( l )Ceciconduità l'EuropeanPressurized
rationintégranttouslesperfectionnements
intéressants
à notreépoqueet marquantune
sûretétrèssupérieure
à cellede la génération
précédente.
Jean-Jacques
Salomon
DECASSANDRE
LATRISTESSE
Je ne sais pas s'il est de bon ton, dans une contribution au genre solennel et
académique des Festschrifte, de commencer par parler de soi plutôt que de
celui auquel on est heureux de rendre hommage. Si je n'hésite pas à le faire,
c'est que ma rencontre avec la prospective n'a pas été indifférente à ma rencontre avec Jacques Lesourne, et donc à mes liens de profonde estime et
amitié pour lui. Quitte à céder à des anecdotes, on me pardonnera d'évoquer
d'abord des souvenirs.
,
,
C'est à travers la lecture des livres de Gaston Berger et de Bertrand de
Jouvenel que je me suis intéressé très tôt à la réflexion sur la prospective.
Mais c'est surtout auprès d'Erich Jantsch, dont je partageais un bureau lors
de mes débuts à l'OCDE, que je me suis familiarisé avec les institutions et
les méthodes de ce qui, dans les années soixante, devenait une véritable
vogue sous l'influence des think tanks américains. Retour de son enquête à
travers le monde, Jantsch rédigeait le rapport qui devait devenir La prévision
technologique, le plus grand best-seller, je crois, de toutes les publications
de l'OCDE : un livre plein d'informations et d'enthousiasme pour ce domaine,
livre aussi touffu que tout fou, reconnaissons-le, à l'image du personnage
fascinant qu'était Jantsch, mélange d'ingénieur et de philosophe sorti tout
droit du roman de son compatriote autrichien Musil, L'homme sans qualités.
Dans le tourbillon des espoirs que levait alors la prospective, son livre offrait
une sorte de manuel où la plupart des pays européens, administrations et universités, découvraient tout simplement une terre nouvelle.
Jantsch avait interviewé un nombre ahurissant de spécialistes et une foule de
non spécialistes, scientifiques pour la plupart : il suffit de se reporter à la
liste des « contacts établis » en vue de la préparation de son rapport et de sa
344
PROSPECTIVE
bibliographie pour se rendre compte de la richesse de son enquête. Au point
sans doute de donner le vertige à ses lecteurs comme à son auteur, qui n'était
pas loin de voir dans la prévision technologique la clé scientifiquement fondée des voies non seulement du succès industriel, mais encore du destin des
sociétés occidentales. Quand son livre a été publié, il n'était question dans
les débats dont se nourrissaient alors les deux bords de l'Atlantique que du
technology gap : Jantsch n'hésitait pas à écrire que l'écart tenait précisément
au fait que les entreprises américaines s'appuyaient sur les méthodes de la
prévision technologique, alors que la plupart des entreprises européennes en
ignoraient jusqu'à l'existence.
Grâce à Gaston Berger, à Bertrand de Jouvenel et à tous ceux qui, praticiens
à des titres divers de la recherche opérationnelle, tenaient l'étude probabiliste des voies du futur pour un enjeu majeur des processus de décision au
sein des entreprises comme du gouvernement, la France n'était d'aucune
façon en retard par rapport aux Etats-Unis. Le domaine était même l'un de
ceux, très rares certes à l'époque, où nous leur tenions tête plus qu'honorablement, où nous passions même aux yeux de certains pour un modèle grâce
aux travaux du Commissariat général au Plan et à la place que celui-ci occupait dans l'appareil gouvernemental. Le Plan était par vocation l'institution
qui produisait et consommait le plus grand nombre d'études prospectives, et
nul n'était plus convaincu que Pierre Massé, qui l'animait depuis 1959, que
les décisions devaient se fonder sur la mesure des « espérances optimales »,
d'où l'idée du Plan comme « l'anti-hasard ». C'est à son initiative que fut
lancé le Groupe 1985 auquel j'ai été associé, chargé « d'étudier, sous l'angle
des faits porteurs d'avenir, ce qu'il serait utile de connaître dès à présent de
la France de 1985 pour éclairer les orientations générales du Ve plan ». Mais
déjà le ministère des finances, à l'initiative de Jean Saint-Geours et celui de
la défense, à l'initiative du futur général de l'Estoile, avaient multiplié
enquêtes et séminaires sur la prévision technologique, tout comme le BIPE
et, bien sûr, les sociétés de conseil semi-publiques semi-privées, constituées
autour des économètres, mathématiciens et spécialistes de la recherche opérationnelle, dont la SEMA fondée en 1957 et dirigée par Jacques Lesourne.
Grâce à la direction des affaires scientifiques, à la tête de laquelle se trouvaient Alexander King et son adjoint Ron J. Gass qui avaient soutenu l'enquête de Jantsch, l'OCDE était bien placée en apparence pour tirer parti de
ces recherches et de ces méthodes. En apparence seulement : le précédent de
cette enquête menée sous les auspices du Comité de la politique de la
science et de la technologie, loin d'inciter d'autres départements de l'organisation à institutionnaliser ces travaux de prospective, suscitait plutôt la
méfiance des économistes qui s'en tenaient à l'approche quantitative des
projections macroéconomiques. Pensez donc : introduire une réflexion qualitative sur l'avenir supposait que les « examens » des politiques économiques menés par les pays et les analyses de leurs interactions sur le plan
international ne fussent pas du seul ressort, de la seule compétence des économistes ! La direction des affaires scientifiques était la seule à faire appel
Latristessede Cassandre
345
à des consultants venus d'autres disciplines, historiens, sociologues, politologues, ce qui faisait passer tous ses membres, aux yeux des autres départements et du Conseil, pour « les enfants terribles » de la maison, d'autant plus
hétérodoxes que ceux-ci se réclamaient tous, d'une manière ou d'une autre,
de Schumpeter - sinon méconnu à l'époque, du moins résolument récusé au
sein de l'Organisation.
L'aventure d'Interfuturs
Il n'a pas fallu moins que la crise du pétrole au début des années 1970 pour
introduire le vilain petit canard dans la basse-cour. Non sans mal, car de
toutes parts les résistances ne manquèrent pas, du côté des délégations
comme des directions économiques. Les Perspectives publiées en 1970 par
l'OCDE pour célébrer ses dix d'existence prévoyaient tout simplement un
taux de croissance très semblable à celui de la décennie précédente. Avant
même la guerre du Kippour, les signes s'accumulaient, depuis la fin de la
convertibilité du dollar, d'un ordre économique mondial qui ne ressemblerait en rien à l'expansion de la décennie précédente, mais l'Organisation se
contentait d'extrapoler à partir du succès des « Trente Glorieuses » un taux
de croissance tel que le produit de l'ensemble de la zone serait automatiquement doublé ! Autant l'Organisation semblait faite pour surfer sur les
vagues connues d'une croissance sans chômage ni trop d'inflation, autant
elle semblait et se montra peu en mesure de faire face aux contraintes d'une
croissance modérée, accompagnée de taux d'inflation élevés et de la montée
du chômage. L'Organisation décida de créer un groupe d'experts, sous la
présidence de l'ancien conseiller du président des États-Unis McCracken,
dont la mission essentielle était de rassurer : tous ces troubles étaient éphémères, une parenthèse de peu de durée dans la continuité d'une croissance
irrésistiblement soutenue. Le fine tuning devrait suffire à remettre de l'ordre
dans les économies occidentales et, suivant le titre même de son rapport,
rétablir « le plein emploi et la stabilité des prix ».
'
Peu convaincu par cette démarche, conscient tout au contraire du vent de turbulences qui s'annonçaient, le Dr Alexander King pressa le secrétaire général de constituer auprès de lui une unité chargée de la prospective, qui ne
serait pas faite exclusivement d'économistes et dont le statut serait permanent. Et c'est encore le Dr Alexander King qui obtint des autorités japonaises
les ressources financières permettant de lancer le programme Interfuturs :
une occasion pour elles de célébrer l'entrée du Japon au sein du club des
pays les plus riches que constituait l'OCDE. C'est ainsi que la prospective à
l'échelle mondiale a fait son entrée à l'OCDE, malgré les réticences des
autres directions et de plusieurs délégations, dont celle des États-Unis. Un
programme d'une grande ambition, qui ne visait à rien moins que l'étude de
« l'évolution des sociétés industrielles avancées en harmonie avec celle des
pays en développement », en évaluant non seulement les possibilités et les
contraintes liées aux facteurs matériels tels que l'énergie, les matières pre-
346
PROSPECTIVE
mières et l'environnement,
mais aussi « l'évolution future des structures et
en fonction de l'interdépendance
internationaux,
systèmes économiques
croissante », bref en abordant des sujets, institutions, comportements,
valeurs,
participation politique, qui conduisaient à penser les problèmes des peuples,
des nations et du monde dans d'autres termes que ceux de l'économie stricto
sensu.
Tout naturellement,
le nom de Jacques Lesourne s'est imposé en premier
les
Et de fait le
parmi
spécialistes qui pourraient mener à bien Interfuturs.
fut
mené
à
bon
mal
tous
les
efforts
de
terme,
projet
gré
gré malgré
torpillage
des uns et des autres. Bien entendu, il n'eut aucune suite institutionnelle
au
sein de l'Organisation.
« L'incitation
à la prise de conscience et à l'action »,
que le rapport final revendiquait par sa vision et ses scénarios des futurs possibles, déboucha sur un objet de librairie parmi d'autres, ce qui favorisait le
retour de l'Organisation
à une lecture et à une gestion essentiellement
écoà
court
terme
et
donc
à
courte
vue
des
et
des évolunomiques,
problèmes
tions. Business as usual, comme si rien ne s'était passé, ni l'exceptionnel
effort de prospective alertant sur les menaces et les décisions à prendre ni à
plus forte raison la succession de déboires que les économies de l'OCDE
allaient affronter dans la décennie qui suivit.
La perspective du long terme adoptée par Interfuturs, tout autant que les difficultés rencontrées par le projet au sein de l'Organisation,
m'ont rendu plus
de
Lesourne
alors
travaillais
de
mon
côté au rapport
proche
Jacques
que je
sur « la science et la technologie dans le nouveau contexte socio-économique », publié en 1980 sous le titre de Changement technique et politique
économique. Loin qu'il y eût entre les deux projets concurrence et encore
moins rivalité, une forme de coopération
s'établit
tout naturellement,
certains
membres
de
mon
ont
nourri
les réflexions
puisque
groupe d'experts
de l'équipe d'lnterfuturs
sur l'avenir des activités de recherche-développement, les promesses d'innovations
grâce aux nouvelles technologies et leurs
dans
le
domaine
et social. De plus,
possibles répercussions
économique
cherchant à fuir les pressions quotidiennes du château de la Muette quand je
m'attelais à la rédaction des premières versions du rapport, j'ai
été accueilli
à Neuilly.
par Jacques Lesourne dans les bureaux d'Interfuturs
C'est Christopher Freeman qui avait attiré mon attention sur ce que lui et
Carlotta Peres allaient appeler le « nouveau paradigme
techno-éconodans l'hismique », en bref, le démarrage d'un cycle nouveau d'innovations
toire du changement technique, cycle « révolutionnaire
», analogue par la
diffusion de ses effets dans toute l'économie à ce que furent la révolution de
la machine à vapeur et celle de l'électricité.
La prise en compte de cette
vision schumpetérienne,
héritée des cycles de Kondratiev, était alors aux
de l'OCDE. Seuls les membres
antipodes des perspectives néo-keynésiennes
du Comité de la politique scientifique et technique, pour la plupart des scientifiques ou des gestionnaires de la recherche, plus attentifs aux conséquences
du changement technique sur l'économie et la société qu'ils n'étaient (et ne
La tristesse de Cassandre
347
se revendiquaient)
soucieux d'étudier
praticiens de l'économie, se sont montrés immédiatement
d'un «biais» prole problème, en partant de l'hypothèse
des
nouvelles
voqué par l'explosion
technologies (information, communicanouveaux
matériaux,
tion, biotechnologies,
etc.) tendant à substituer le
au
travail.
À
la
même
le
capital
époque,
rapport McCracken rassurait les
membres du Comité de la politique économique
et les gouvernements
en
la
crise
n'était
court
mauvais
moment
à
Obsédé
passer.
expliquant que
qu'un
par la persistance de l'inflation, on ne jurait que par la « courbe de Philips »
instituant une relation inverse entre inflation et chômage - qui est d'ailleurs
aujourd'hui contestée. L'inflation maîtrisée, les difficultés du marché du travail devaient « naturellement
» se résoudre avec la croissance revenue. Ni la
croissance n'est revenue au rythme qu'on espérait ni la montée du chômage
n'a été jugulée en Europe.
À l'époque, ce qui frappait les économistes,
c'était le spectacle contradictoire (renversement du « paradoxe » actuel) qu'offrait l'économie américaine
caractérisée par un investissement
massif dans la recherche-développement,
un niveau d'innovation
mais un taux de croissance de la probouillonnant,
ductivité stagnant dans la durée (aux yeux de certains, déclinant). Au-delà
des interrogations
la question posée, assuque soulevait cette contradiction,
rément prématurée compte tenu du fait que les nouvelles technologies
étaient très loin encore de se propager dans l'économie -, revenait à demander si la théorie et l'expérience
du passé pouvaient confirmer que la révolution technique en cours se traduirait par un nombre d'emplois
supérieur à
comme l'agricelui des emplois supprimés. Si l'industrie
manufacturière,
culture, est vouée à produire de plus en plus avec une main d'oeuvre de plus
en plus réduite, le secteur des services sera-t-il en mesure, une fois exposé à
son tour aux effets de la révolution de l'information,
de « compenser » les
Les réponses données furent, comme on pouvait s'y
emplois supprimés ?
crainte de trop anticiper sur un avenir
attendre, nuancées et prudentes,
imprévisible. Elles soulignaient en particulier qu'il n'y avait pas d'échappatoire à la nécessité d'accroître la productivité pour surmonter la crise, mais
qu'une ombre demeurait sur la nature des politiques à suivre pour remédier
aux dommages
sociaux qu'entraînerait
fatalement la « période de transition
Le spectre
,
.
des robots
Si j'évoque ce rapport, ce n'est pas pour insister sur ce qu'il avait à l'époque
face au conformisme
des spécialistes de la macroéconomie,
et
d'original
encore moins pour le comparer à l'horizon plus lointain et aux enjeux plus
nombreux dont traitait l'équipe d'Interfuturs,
mais parce que, d'entrée de
jeu, Jacques Lesourne a pris au sérieux les questions qu'il soulevait et dont,
(1 ) J'en parle plus précisément dans Survivre à la science. Une certaine idée du futur, Albin
Michel, Paris, 1999.
348
PROSPECTIVE
bien sûr, nous nous entretenions. Ces questions sont celles-là même qu'affrontent aujourd'hui les économies occidentales dans un contexte qui ne
peut plus ignorer l'impact de la nouvelle révolution technique, des questions
qui sont au coeur même de plusieurs des livres qu'il a publiés par la suite. Le
ralentissement du taux de croissance de la productivité dans les années 1970
n'empêchait ni une croissance économique ni un rythme de changement
technique importants. Davantage, si le taux de croissance de la productivité
était inférieur à celui de la période précédente, surtout aux États-Unis, son
niveau ne continuait pas moins à s'élever, de sorte que les économies occidentales devenaient substantiellement plus riches dans l'absolu (de 1970
à 1990, le revenu réel par tête a augmenté de 38 % aux États-Unis, de 53 %
en France). Mais, simultanément, ces économies étaient confrontées à un
accroissement de la misère, aux États-Unis sous forme de la baisse des
salaires des plus mal payés et d'une diminution des revenus des « cols
blancs », en Europe sous forme d'un chômage massif frappant peu à peu
toutes les catégories sociales.
Si différentes que soient les réponses institutionnelles en Europe et aux
États-Unis, on espère qu'au terme de l'ajustement au choc des nouvelles
technologies, l'augmentation de la production et l'accroissement de richesse
qui doit s'en suivre permettront de rééquilibrer les dysfonctionnements du
système économique, ici réduction du chômage et là reprise en hausse des
salaires moyens. L'exemple américain des dernières années de ce siècle
montre assurément que la diffusion de la révolution de l'information entraîne
l'accroissement de la productivité et que le cycle du chômage et du tassement des salaires des classes moyennes peut se renverser. Mais, d'une part,
l'appauvrissement des classes défavorisées, des minorités, des jeunes et des
femmes sans compétence technique n'est pas pour autant en recul. Et d'autre
part, la création d'emplois n'a manifestement plus rien à voir avec celle des
révolutions techniques précédentes. La mécanisation du travail tendait à
soulager l'homme des travaux physiques pénibles en multipliant la quantité
d'énergie disponible. Aujourd'hui, si la « société digitale » le soulage des
travaux de routine, elle tend aussi à le remplacer dans la maîtrise des activités non seulement de production, mais encore de service, activités directement gérées par les machines.
Point n'est besoin d'être devin pour percevoir qu'il s'agit d'une véritable
mutation des sociétés industrielles, dont les répercussions commencent à
peine à se manifester dans tous les domaines de la vie économique, sociale,
politique et culturelle : du télétravail à la guerre électronique, des activités
menées en réseaux au cybermonde virtuel, les repères du processus d'industrialisation fondés sur l'énergie, les matières premières et le travail salarié à
la chaîne sont tout simplement effacés par un paysage nouveau dont nous
n'identifions que les premiers contours. Les pages que Jacques Lesourne
consacre dans le Modèle français au « tremblement de terre de la société
d'information » sont à cet égard parfaitement explicites : le plein d'emploi
n'a d'avenir que si l'on accepte le « bouleversement de la hiérarchie des
Latristessede Cassandre
349
coûts du travail des diverses compétences ». Les comportements, les habitudes et les politiques sont condamnés à s'adapter à cette révolution qui
remet tout à la fois en cause l'éducation, le travail salarié, le système des
retraites, les monopoles des entreprises publiques et l'État providence. Le
« nouveau paradigme techno-économique » est la source directe de la redistribution des cartes qu'entraînent la libéralisation et la mondialisation des
activités et des échanges.
Si l'on n'élabore pas « des stratégies permettant de s'immuniser contre les
effets pervers de cette révolution tout en exploitant les opportunités qu'elle
offre », les moins compétents - jeunes non qualifiés et cadres déqualifiés seront de plus en plus exclus du marché du travail. Au bout, le spectre de
robots se substituant au travail humain, dont la science-fiction entretenait les
fantasmes de ce siècle alors que l'automatisation n'était qu'en gestation,
envahit l'horizon du capitalisme comme une menace généralisée de substitution de la machine au travail humain. Il est clair - et plus que probable que beaucoup de pays en développement seront hors course, sinon de plus
en plus profondément décalés par rapport aux pays industrialisés et donc
voués au sous-emploi. Du côté des pays industrialisés, les générations de
jeunes gens que l'on n'aura pas formées à la maîtrise du nouveau système
technique seront tout autant écartées du marché du travail.
'
C'est très exactement la domination de la « surclasse » que Norbert Wiener,
un des pères fondateurs des technologies de l'information, a annoncée dès
les débuts de la cybernétique - avec un sentiment de culpabilité parce qu'il
a contribué de près à l'éclosion de cette révolution, mais aussi, peut-être,
parce qu'il se savait et se présentait lui-même comme un « surdoué » : « l'ordinateur dévaluera le cerveau humain comme la machine à vapeur a dévalué
le bras humain. [...] De même que le charpentier qualifié, le mécanicien
qualifié et l'administrateur qualifié ont survécu à la première révolution
industrielle, le scientifique qualifié et l'administrateur qualifié survivront à
la seconde. Cependant, quand le seconde sera accomplie, l'homme ordinaire
aux accomplissements médiocres ou pires n'aura plus rien à vendre qui
mérite d'être acheté. » Wiener ajoutait, sans trop d'illusions : « la réponse
est, bien sûr, d'avoir une société fondée sur des valeurs humaines plutôt que
sur l'achat et la vente », et il faudra pour arriver à cette société « une bonne
dose de planification et d'effort qui, si le mieux arrive au mieux, doit se
situer sur le plan des idées - et autrement, qui sait ?
Qui sait, en effet, à
voir la persistance du chômage en Europe, les dégâts que causent le creusement des inégalités et l'augmentation du nombre des exclus ? Les débuts de
la révolution industrielle ont été le théâtre de tensions et de luttes dont nous
avons à peine, pour reprendre la formule de Jacques Lesourne, cicatrisé les
plaies. Mais déjà, avec les jeunes des banlieues, blacks, beurs et bien de chez
nous, réapparaissent les fantasmes et les peurs du thème des « classes laboor Controland Communicationin theAnimaland he Machines,
( l )N. Wiener,C_vbernetics
1.
Introduction,(1948),MIT Press, 1961.
350
PROSPECTIVE
rieuses, classes dangereuses » à nouveau privées de travail et marginalisées
avec la même topographie de l'exclusion et de la répression.
Les points de suspension
de l'histoire
Tous les livres que Jacques Lesourne a consacrés à sonder les reins et les
coeurs de l'avenir, des Systèmes du destirt aux Mille sentiers de l'avenir,
reviennent à s'interroger, au-delà de l'économie proprement dite, sur le coût
de la régulation des sociétés et la capacité dont elles disposent de maîtriser
les défis qu'elles rencontrent dans leur processus d'auto-organisation ce
a
les
insuffisances
de
contrôle.
Chacun
de
ces
livres
se
termine
qu'il appelé
par des notes d'espoir, quels que soient la part d'imprévisibilité et surtout le
poids d'expériences décevantes, combien lourdes de massacres et de victimes dont témoigne l'histoire de ce siècle. Dans l'Économie de l'ordre et du
désordre, la tension est encore plus évidente entre l'affirmation de la rationalité des agents, si limitée qu'elle soit, et l'omniprésence du hasard : « ce
livre, dit-il, pourrait s'achever sur des points de suspension ou des points
d'interrogation », entre autres raisons parce que le balancement de l'ordre et
du désordre doit nous rappeler que le marché n'est pas seulement organisateur, mais destructeur au sens même où l'entendait Norbert Wiener.
Aucune modélisation, assurément, ne peut venir à bout de ces tensions qui
dénoncent la finitude de l'homme, des sociétés, des civilisations aux prises
avec les dérives des tentations de leurs propres folies. Bref, les progrès du
savoir, si grands qu'ils soient, ne permettent pas de maîtriser les contradictions de « la trilogie de la création et de la destruction, du changement et de
la permanence, de l'adaptation et de la sclérose » que constituent «le hasard,
la nécessité et la volonté». Rien n'est plus révélateur que cette trilogie de la
distance que Jacques Lesourne a toujours mise entre ses travaux d'économètre et la recherche d'un sens à donner aux tribulations mortelles des institutions et des civilisations. Comme le souligne l'introduction
à
l'Économie de l'ordre et du désordre, « le noyau dur de la théorie économique ignore l'histoire ».
En somme, l'historien et l'homme de culture qui s'inspire de Thucydide,
Tacite ou Michelet a plus à nous dire que tous les économistes embarqués
dans la seule recherche des équilibres de concurrence parfaite et la mise au
point de modèles mathématiques. C'est que le jeu constant du hasard, de la
nécessité et de la volonté entraîne trop de complexité et d'imprévisibilité dans
les affaires humaines pour que les comportements n'y révèlent - au mieux qu'une rationalité très limitée. Quel que soit le progrès de l'économie, à plus
forte raison celui des méthodes de prospective, la simple leçon de l'histoire
est que l'avenir n'est qu'un point de suspension et d'interrogation.
C'est bien pourquoi il serait intéressant, avec tous ceux qui participèrent à
l'aventure intellectuelle d'Interfuturs, de voir l'OCDE se livrer à une « rétro
prospective » analogue à celle que réalisa en 1985 le Commissariat général
Latristessede Cassandre
3511
au Plan, à l'initiative de Henri Guillaume, autour des Réflexions pour 1985.
- non pas, comme l'a dit Henri Guillaume en ouvrant les débats, pour distribuer de bons ou de mauvais points, mais pour comprendre les raisons des
divergences et des convergences entre les différents scénarios proposés et la
sanction que l'histoire leur a données
Le propre de la prospective n'est pas
de démontrer qu'elle a eu raison ou tort, mais de comprendre pour quelles
raisons, dans quelle mesure et par quels mécanismes ses conclusions ont été
ou non suivies d'effet : c'est tout le problème - et le malheur - de Cassandre.
Mais la prospective n'a pas à faire des prévisions, encore moins des prédictions. Ce qu'elle peut faire de mieux est d'offrir une idée générale des possibles, le dessin exploratoire des paysages inexplorés qu'entrouvre
l'approximation des données, des méthodes et des témoignages.
Dans les années soixante, quand commençait la vogue des think tanks et de
la prospective, l'American Academy of Arts and Sciences de Boston avait
confié à Daniel Bell le soin de réfléchir aux possibles de l'an 2000. Beau
projet mené par une commission de quarante membres venant tout aussi bien
des sciences de la nature que des sciences sociales. Les éditions du MIT
viennent de rééditer le résultat de ces travaux, publiés alors par la revue
Daedalus, qui passèrent à l'époque pour un modèle de prospective. (2) La
rétro prospective est éclairante, comme le soulignent avec honnêteté Daniel
Bell et Stephen Graubard, rédacteur en chef de la revue Daedalus, avec des
thèmes que la suite des événements a confirmés et d'autres dont personne
n'avait anticipé l'importance. Par exemple, les problèmes soulevés par la
« gouvernance » dans les sociétés avancées, l'influence des sciences de l'information, la montée de la violence individuelle et collective, les menaces
pesant sur l'environnement et les perspectives ouvertes par les développements de la biologie moléculaire ont été incontestablement plus qu'entrevus.
En revanche, les scénarios de rupture ont été en dessous de tout, l'extrapolation des éléments de continuité interdisant, par définition, d'imaginer l'impossible, en premier lieu la fin de la guerre froide, la chute du mur de Berlin
sans « montée aux extrêmes » d'une guerre atomique planétaire. Mais qui
peut, sans être devin ou prophète, imaginer l'impossible ?
À la veille des années tumultueuses commençant avec les « événements de
1968 », on tenait encore pour acquis, inévitablement cumulatif et promis à
perdurer, le processus de croissance qu'on avait connu depuis la fin de la
Deuxième Guerre mondiale, avec un modèle dé développement social luimême voué à se reproduire dans la continuité. Bell et Graubard ne se défendent pas de souligner tout ce par quoi l'exercice a pu être démenti ou plus
simplement encore des changements essentiels ignorés : les rôles nouveaux
exercés par les femmes, le problème des minorités, les mouvements extracommentvoyait-on1985en 1962», annexe1dans Faire gagner la
(1) « Rétro-Prospective:
France (sousla directionde HenriGuillaume),Hachette/Pluriel,Paris, 1986.
in Progress,MIT Press,Cambridge,
(2) D. Bell et R. Graubard,Towardthe Year2000. Work
Mass., 1997.
352
PROSPECTIVE
et, plus effarant encore, la montée en puissance du Japon.
parlementaires
C'est dans le domaine des relations internationales
que Toward the Year
2000 a été pris le plus en défaut. Par exemple, Samuel Huntington
qui
inventa récemment le « clash des civilisations » où sectes, religions et cultures doivent s'affronter au siècle prochain comme au temps de la guerre des
paysans, prévoyait avec le plus grand sérieux la décadence des États-Unis et
l'élimination
définitive des Européens de la scène mondiale.
La surprise
technologique
De ce point de vue, c'est l'archétype des oracles installés dans les think tanks
comme la Pythie sur son trépied, Hermann Kahn, qui présente un bilan de
scénarios particulièrement
décevant. La France ne devait-elle pas être, à la
fin de ce siècle, la plus forte puissance industrielle en Europe ? Il suffit de
lire le best-seller que fut L'an 2000 de Herman Kahn, publié en 1967 comme
« un canevas de spéculations pour les 32 prochaines années », pour mesurer
tout le chemin qui n'a pas été en fait parcouru. (1) Passons sur les nombreux
scénarios de guerre nucléaire entre les États-Unis et l'ex-Union soviétique,
qui ont fait la gloire de Herman Kahn : aucun, bien entendu, n'a imaginé que
la fin de l'antagonisme
entre le monde communiste et le monde capitaliste
aurait lieu, sans le moindre coup de fusil, par l'implosion
du système communiste. Faut-il s'étonner, s'agissant précisément
de l'électronique
et de
l'idée
du
CD-rom
et
du
multimédia
l'informatique,
que
n'y apparaisse pas,
à plus forte raison celle d'INTERNET ?
Mieux, Herman Kahn nous annondes robots non seulement dans les
çait pour l'an 2000 la généralisation
mais
encore
dans
tous
les
usines,
foyers sous forme « d'aides ménagères ».
Ces robots esclaves de la ménagère, entraînés « dans le but d'accomplir
un
travail particulier à chaque maison », ne seraient pas « plus capables d'émotion qu'une voiture, mais posséderaient
une mémoire pour enregistrer les
ordres » et « pourraient bien diriger d'autres machines plus spécialisées
comme l'aspirateur ou la machine à laver ».
.
-'
Ce qui est encore plus révélateur - ce qui révèle le plus combien la prévision
technologique peut être liée aux fantasmes de ceux qui la font passer pour une
méthode
à la manière des augures et des haruspices
de
rigoureuse,
c'est le caractère essentiellement
(le mot est de
l'Antiquité apocalyptique
Kahn) des usages et des effets sociaux anticipés de la diffusion de l'informatique. Obsédé de stratégie et de relations de pouvoir, ne pouvant concevoir le
monde qu'en termes de violence, de délinquance et donc de police, le fondateur du Hudson Institute, après avoir été l'un des piliers de la Rand
a essentiellement
vu dans le traitement de l'information
les
Corporation,
menaces qu'il ferait peser sur la vie privée : centralisation des dossiers individuels, écoutes des conversations téléphoniques par les individus et les gou( l ) H. Kahn, et A.J. Wiener, L'an 2000 : Un canevas de spéculations pour les 32 prochaines
années, Robert Laffont, Paris, 1967.
Latristessede Cassandre
353
vemements, traque des automobilistes en excès de vitesse ou des criminels en
puissance, etc. En somme, il n'a pas prévu d'autre monde que celui qu'a imaginé Orwell, à ceci près que le système généralisé de surveillance s'appuierait, nous dit-il, sur des « calculateurs simples », dont « les critères pourraient
être soit certains mots : argot, obscénités, ou pari, course de chevaux, tuer,
subversion, révolution, infiltrer, pouvoir noir, organiser, opposer, soit des
combinaisons plus complexes [...] comme d'être sensibles à des informations non verbales telles que le ton menaçant ou coléreux d'une voix ». Et ces
calculateurs, « capables d'un certain degré de logique déductive, pourraient
devenir une sorte de Sherlock Holmes à transistors émettant des hypothèses
et menant des investigations d'une manière plus ou moins autonome ».
Scénario plausible, assurément, puisque l'informatisation croissante de la
société place de plus en plus les individus sous le contrôle du fichier électronique : on peut déjà suivre à la trace tous ceux qui utilisent une carte de
crédit comme la preuve de leur passage à telle heure, tel jour, dans tel quartier d'une ville, dans tel pays. Demain les cartes d'identité ou de sécurité
sociale pourvues de puces accroîtront encore les capacités panoptiques du
Big Brother surveillant la vie privée et menaçant les libertés individuelles.
Mais, fût-ce demain, faut-il pour autant désespérer des contre-pouvoirs que,
dans un système démocratique du moins, on pourra instituer ou renforcer
(comme la Commisssion Informatique et Libertés) pour nous protéger
contre les dérives à la Orwell ? L'apocalypse selon Herman Kahn est aussi
sous réserve de régulation politique. Il est plus intéressant et réconfortant de
voir les liens noués entre la prospective de la Commission for the Year 2000
et les livres que Daniel Bell a publiés par la suite, sous sa propre responsabilité, sur la société postindustrielle et les problèmes sociaux et culturels que
celle-ci est appelée à affronter. Les travaux de prospective, si décevants
qu'ils puissent paraître quand ils prétendent maîtriser toutes les figures de
l'avenir, sont aussi la source d'évaluations originales sur les ressorts d'ajustement des sociétés. De ce point de vue, Daniel Bell a manifestement tiré le
meilleur parti intellectuel des travaux auxquels il a participé en éclairant les
principes et paradigmes qui président aux mutations dont nous sommes et
les témoins et les acteurs.
Encore faut-il être attentif aux signes du changement au point de se préparer
à en percevoir les conséquences probables, faute de quoi le regard sur l'avenir est brouillé comme les verres de lunettes par la buée. De ce type d'aveuglement, les politiques ne sont pas seuls à témoigner, il y a aussi les
scientifiques. Thomas C. Schelling, grand spécialiste des problèmes stratégiques, a dressé sans rire la liste des découvertes inattendues auxquelles la
mise au point des armements nucléaires a donné lieu, ce qu'il appelle des
« découvertes par accident », en fait « littéralement des accidents » ou plutôt des « mésaventures inattendues ».
Il est tout simplement ahurissant
(1) T.C.Schelling,« Researchby Accident», TechnologicalForeca.rting,vol. 53, n° 1, septembre 1996.
354
PROSPECTIVE
que les scientifiques et les politiques qui y ont contribué en aient été pris de
court : par exemple, la découverte à Hiroshima et à Nagasaki que le rayonnement neutronique ait provoqué des maladies mutagènes, que l'explosion
de la première bombe H américaine ait entraîné un raz de marée ou encore,
plus grande surprise lors d'autres expériences
atomiques,
que le champ
radio ait été
magnétique en ait été affecté au point que toute communication
supprimée et les radars plongés dans la nuit.
Schelling rappelle que, dès 1933, un écrivain anglais, Harold Nicholson, a
Public Faces, où une bombe atomique
publié un roman de science-fiction,
les
auraient
lancée par un engin à réaction dans
expérimentale,
que
Anglais
à
300
km
de
Charleston, entraînait un raz de marée
l'Atlantique
quelque
de
la
carte
cette
ville
et
d'autres
villes américaines, causant 90 000
effaçant
victimes. Or, cet article de Schelling consacré aux surprises technologiques
se termine sur le récit de la découverte par l'auteur et par la communauté
«
du
américaine
du
de
carbone » et de l'improblème
scientifique
dioxyde
a
à
soutenir
les
recherches
sur
l'effet
de serre ! En somme,
portance qu'il y
la « surprise technologique
» est là pour donner bonne conscience à ceux des
chercheurs qui, les yeux pourtant grands ouverts, n'ont pas été en mesure de
voir ce que les scientifiques alertés sur l'effet de serre, parmi lesquels trois
prix Nobel de 1995, avaient perçu dès les années 1960.
Mais, d'un autre côté, la limite radicale que rencontre la prospective tient
aussi aux rigidités sociales qu'il ne suffit pas d'identifier
ni de dénoncer ni
surtout de recommander
de corriger pour que les décideurs en viennent à
bout (ou songent seulement à oser les combattre). Pas plus qu'on ne peut
sous-estimer
les résistances
au changement,
la technostructure
ne doit
ou
jamais surestimer l'adhésion aux voeux et aux édits des transformations
même des ajustements que lui inspirent ses bonnes raisons. Le parti qu'on a
tiré - ou plutôt qu'on n'a pas tiré - des analyses et des recommandations
du
fameux rapport Rueff-Armand
montre que si la prospective est un paradis
pavé de bonnes intentions, la plupart de ses prescriptions
peuvent n'avoir,
elles, aucun avenir. La France, à cet égard, est championne toutes catégories,
où tant de décisions ministérielles
sont annoncées et tant de lois adoptées
sans que quiconque se soucie réellement de vérifier qu'elles sont suivies
d'effet ni à plus forte raison d'en évaluer la portée ou les coûts. Il me semble
- et toutes les réflexions
qu'il a consacrées à la France en témoignent à loisir - que c'est très exactement le piège dans lequel Jacques Lesourne n'est
et de
jamais tombé en raison à la fois de son expérience de l'administration
l'État, de sa pratique de la prospective, et tout simplement aussi de sa lucidité d'intellectuel,
qui lui interdit de confondre ce qu'il peut souhaiter sur la
base de ses analyses avec ce qui est effectivement réalisable.
L'obsession
du déclin
Les Grecs eux-mêmes, tout en prenant très au sérieux les signes et les rêves
se méfiaient des « experts » qui les interprétaient, allant même
prémonitoires,
La tristesse de Cassandre
3555
jusqu'à les persécuter comme ce fut le cas de Cassandre, aussi visionnaire
ou de Tirésias, le voyant aveugle. L'une et l'autre étaient donc
qu'effrénée,
condamnés à la tristesse inévitable de ceux qui lancent des avertissements
auxquels les décideurs ne prêtent pas attention. Cette tristesse du devin dont
se méfient ceux qu'il alerte est présente dans nombre des livres de Jacques
Lesoume, en particulier dans son dernier livre consacré au Modèle français :
Grandeur et décadence, où prédomine l'idée qu'on aura beau mettre le doigt
sur les faiblesses structurelles de notre pays, rien ne fera qu'elles ne perdurent. Je suis comme lui - et sans doute, si différente qu'ait été notre formale plus
ou consciemment
tion, est-ce cela qui nous a inconsciemment
années
de
de
40
et
les
ceux
la
défaite
nombre
de
du
que
petit
rapprochés veulerie politique qui l'ont précédée ont très exactement traumatisés, même
s'ils étaient trop jeunes alors pour y jouer le moindre rôle. Et donc de ceux
qui rêvent de voir se dissiper les hantises du déclin dont notre histoire s'est
constamment nourrie depuis les débuts de la révolution industrielle.
Il y a, bien sûr, toutes sortes de devins, et autant de spécialistes de la prosconnais un qui ne s'est pas
pective aux repères différents. Par exemple, j'en
réédition à l'autre de son
a
faites
d'une
les
retenu de réécrire
prévisions qu'il
démenties.
Passons muscade,
les
ont
fonction
des
événements
manuel en
qui
en
défaut
de
ici
bonne
ce n'est
par la transe de ses
Pythie prise
guerre
que
moins
elle
est
du
La
oracles.
sérieuse, se défend de se
quand
prospective,
le
cas
de Jacques Lesourne, qui
Tel
est
à
ces
tours
de
prestidigitation.
prêter
ne
cessant
à
tout
en
s'aventure
ne
pas de mettre en garde. Lui
jamais
prédire,
celle
de
l'idée
de
la
décadence
l'Europe et plus encore celle de
qu'obsède
la France - il entend aussi agir et peser sur les affaires, celles de son pays
comme celles du monde, et du coup l'expert en prospective se heurte, bien
sûr, à la limite que Kant a désignée avec un bon sens qui peut passer pour
une histoire a priori estmalice de rationaliste. « Comment, demandait-il,
et
si
le
devin
elle possible ?
organise lui-même les événefait
Réponse :
ments qu'il annonce à l'avance. » (1) Car seuls les prophètes sont en mesure
de faire passer les meilleurs scénarios de la prospective au stade des réalités
de l'histoire, et certes ils ne courent pas les rues. D'ailleurs, ils appartiennent
mais
à une espèce très différente : ce sont alors non pas des prospectivistes,
des hommes d'État visionnaires.
elle peut
Pourtant, si la prospective ne fait pas bon ménage avec l'action tout aussi bien retenir d'agir, détourner de se fixer le bon objectif, entraîner
d'une
sur une fausse route que montrer la voie -, elle demeure l'expression
veille qui vaut comme témoignage et signe d'alerte, dont l'histoire tiendra
une fois de
ou ne tiendra pas compte dans les incertitudes de l'interaction,
plus entre hasard, nécessité et volonté. C'est ainsi que je vois dans le Modèle
tout à la fois le monument d'un diagnostic irréfutable, dont il est
français
difficile de ne pas partager les analyses, et une somme de conclusions que
(1) E. Kant, « Le conflit des facultés », La philosophie de l'histoire, Aubier-Montaigne,
Paris, 1947.
356
PROSPECTIVE
l'excès de pessimisme dont il témoigne rend - espérons-le fragiles. C'est
des années trente que Jacques Lesourne cherche à rendre
dans l'obsession
intelligibles les sources de notre mal d'être et de nos difficultés d'adaptation : faute de vouloir passer de la société industrielle à la société postindustrielle, la France se trouve entre deux chaises, entre « deux attitudes,
aussi excessives et irréalistes l'une que l'autre, qui ont cours en cette fin de
siècle : celle d'un Astérix sans potion qui croit pouvoir gérer son village
comme autrefois en faisant la nique à l'univers, et celle de l'élève soumis
qui, tel un mouton de Panurge, croit qu'il n'a d'autre ressource que de suivre
passivement ses confrères ».
et à la révoDur, très dur diagnostic de nos inactions face à la mondialisation
lution de l'information :
tous les autres pays européens affrontent après tout
les mêmes difficultés, nous sommes les seuls c'est vrai - à les vivre
Selon Jacques Lesourne, la formulacomme si elles étaient insurmontables.
tion explicite de notre modèle remonte aux années d'après la Libération,
quand une sorte de compromis historique a été signée entre marxistes et
chrétiens démocrates qui contrôlaient les trois-quarts de l'Assemblée
nationale. Pour « cicatriser enfin la plaie sociale » ouverte par la révolution industrielle et effacer celle qu'avait creusée, dans l'humiliation
de la défaite,
allemande, le modèle s'est essentiellement
l'occupation
appuyé sur l'État
maître d'oeuvre, banrassembleur
de la nation, régulateur de l'économie,
des innovations produites
quier, entrepreneur, producteur et consommateur
nationaux qu'il a couvés comme des
par le petit nombre de champions
enfants préférés à l'exclusion de tous les autres agents économiques, en particulier les petites et moyennes entreprises. « Pendant trente ans, la France a
été sur le plan économique une Union soviétique qui a réussi. [...] De même
que le système soviétique s'est révélé incapable de s'adapter à une économie de consommation,
l'économie française peine à s'adapter à la mondia»
lisation et à la société d'information.
,
Si sévère qu'il soit, je ne vois pas ce qu'on peut reprendre à ce diagnostic,
et si nous avons mieux fonctionné que l'Union soviétique, c'est que nous
avons évité « les excès dus à la paranoïa de Lénine et de Staline » et bénéficié tant de « la tradition d'efficacité
de notre administration
» que du
« pragmatisme de notre capitalisme ». Mais les vertus qui ont fait hier le succès du modèle sont aujourd'hui
des freins puissants, à quoi s'ajoutent le
vieillissement
de la population, l'appauvrissement
la mondémographique,
« La France est malade de ce qu'elle a de plus prétée de la xénophobie.
cieux, l'État et le système de régulation dont il est le centre. » La clé du
voyage dans le labyrinthe du modèle se trouve, en effet, dans les spécificités de la fonction publique où l'on entre par concours, qui confère une sorte
de sacrement laïc et dont l'éthique était le service de la collectivité au nom
de l'État. À partir de la description de cette culture de l'État, une culture dont
les racines remontent bien plus loin que la Révolution française, Jacques
Lesourne nous montre comment, des grandes entreprises publiques et semipubliques à l'éducation, l'école, l'université et la recherche, tout est fait pour
La tristesse de Cassandre
357
bloquer la société dans un système de pérennité, d'esprit de corps, de solidarités et d'égoïsmes
oligopolistiques
qui, s'il avait hier sa grandeur, ses
mérites et son efficacité, est aujourd'hui d'autant plus inadapté qu'il est corrompu.
Il m'est arrivé, en invoquant Astérix tout comme Jacques Lesourne, de dresser un procès fort sévère de notre système de recherche, d'innovation
et
en insistant comme lui sur les rigidités idiosyncrasiques
d'éducation,
qui
de se moderniser
à la mesure des défis qu'il affronte et de
l'empêchent
conclure comme lui que « plus cela change, plus c'est la même chose. » Mais,
si impertinentes qu'on ait dénoncé mes analyses, celles de Jacques Lesourne
sont tellement plus corrosives que les miennes, car elles se fondent sur une
à nulle autre
connaissance
et une expérience
de la haute administration
«
sui
des
trois
un
système planétaire
generis », garant
grands équipareille :
libres macroéconomiques :
stabilité des prix, plein emploi, comptes extérieurs », dont les membres sont étroitement solidaires, qu'ils soient libéraux
ou marxistes, puisqu'ils « sont sur une planète distincte de celle des intellectuels ». Or, l'état de grâce dont témoignaient les élites françaises s'est peu
à peu délité à partir des années soixante-dix :
c'est que, « peu carriéristes,
avides
de
apolitiques, peu
promotions rapides en se plaçant dans le sillage
des cabinets ministériels
ou de partis », nos hauts fonctionnaires
ont fait
et ont fini, en
connaissance
avec les délices du .spoils system à l'américaine
somme, par traiter le service de la collectivité au nom de leurs propres intérêts de carrière et de fortune.
« Kremlin-sur-Seine
» a dit Le Monde en rendant compte de ce livre ; « au
Goulag près, ce qui n'est pas un détail », reconnaît Jacques Lesourne, cette
Union soviétique qui a réussi se heurte désormais à des obstacles tels qu'il
faudrait une véritable « cure de désintoxication
» pour en venir à bout. C'est
ici que je ne sais quels mirage, pulsion d'optimisme
ou zeste inconscient de
méthode Coué me retiennent de suivre jusqu'au bout le constat si radicalement pessimiste de Jacques Lesourne. Il me semble malgré tout, quelles
de « l'exception française » au
qu'aient été les rigidités et les revendications
cours de l'histoire, que nous nous sommes toujours finalement adaptés aux
différents chocs de la modernité, vaille que vaille dans la longue durée et
« Pauvre Astérix
sociales retentissantes.
parfois, certes, à coup d'explosions
» dit Jacques Lesourne. Est-ce se donner bonne
qui n'a plus sa potion...
conscience que de rappeler que le druide, au moins dans la bande dessinée,
finit toujours par recomposer une nouvelle potion dans son chaudron ?
,
'
Entre justice
et efficacité
Plus sérieusement,
le modèle qui
têtes », s'il peut faire l'objet d'une
de plus un électrochoc.
Il est vrai
entrons sinon à reculons, du moins
d'un État qui, « toutes griffes dehors
ancré dans les
est « si profondément
cure, peut tout aussi bien subir une fois
nous
que, dans l'aventure
européenne,
à pas mesurés avec toutes les réticences
», concède « l'accessoire en glissant ça
358
PROSPECTIVE
et là les petites phrases qui réservaient le principal ». Mais nous y entrons,
et je ne peux m'empêcher
de penser que si l'euro doit réussir, nous sommes
entrés dans une cure qui promet de dépoussiérer
le modèle. Il faudrait,
de
vraies
réformes
et
sans
certes,
doute, plus encore, une dose de volonté à
d'un
Périclès
ou
d'un
de
Gaulle, c'est-à-dire la vision d'un véritable
l'image
homme d'État pour imposer l'idée d'une Europe réellement unie, donc fédérale, plutôt que le salmigondis de nations confédérées auquel nous destinent
et la volonté collectives. Bien sûr, ce serait sauter un très grand
l'hypocrisie
et
renoncer
aux prétentions hégémoniques
de l'État nation d'une autre
pas
d'une
autre
et
d'une
autre
ère,
technologie
planète. Mais l'Europe à petits
nous
a
brodée
la
trouée
comme
un gruyère de Maastricht,
pas que
tapisserie
avec ses fantômes de pouvoirs exécutif et législatif et ses gesticulations dans
le domaine de la défense, n'est qu'une variante de Zollverein dont l'avenir
n'est rien moins qu'assuré.
Parmi les recettes les plus simples qu'envisage
Jacques Lesourne, je retiens
néanmoins celle qui s'attaquerait
à « la déformation
de la représentation
nationale qui résulte du privilège exorbitant des fonctionnaires
élus de pouvoir réintégrer à tout moment la fonction publique, ce qui supprime pour eux
l'obstacle principal à l'entrée dans la vie politique que rencontre toute autre
catégorie de citoyens : le risque de carrière » Recette simple, bien sûr, mais
ne faudra-t-il pas moins d'une nuit du 4 août de notre aristocratie polytechnico-énarchienne
Ce n'est pas le sérail qui a sauvé la
pour y consentir ?
Turquie, ce n'est pas de la Curie romaine qu'est venu Vatican II. Nos parlementaires et nos ministres connaissent leur État sur le bout des doigts, mais
ils le connaissent trop... Je suis prêt pour ma part à jouer au devin pour prédire que si cela doit arriver, ce sera sous l'effet d'une nouvelle explosion
sociale.
Parmi les recettes les plus difficiles, sinon les plus improbables
à court
terme, Jacques Lesourne lance un appel aux « intellectuels
» pour qu'ils
définissent le cadre d'un nouveau modèle, « comme l'ont fait les penseurs
socialistes des années trente. C'est à eux de proposer des instruments nouveaux réconciliant justice et efficacité. Il ne suffit pas en effet de clamer les
vertus - incontestables du marché pour définir un modèle social pour le
xxie siècle. Il existe des responsabilités
publiques à l'échelle des nations de
et
du
monde
et
il
faut
se
demander
les assumer
comment
l'Europe
demain... » De la part de ce grand libéral qu'est Jacques Lesourne, cet appel
à reprendre l'héritage des penseurs socialistes des années trente est comme
une lueur, malgré tout, d'anti-désespérance
face « au rouleau compresseur
des changements
».
du prospectiviste
technologiques
L'expérience
qui sait
les
de
l'économie
ne
suffisent
à
rendre
que
projections quantitatives
jamais
les
voies
du
à
forte
raison
celles
de
l'avenir, le
intelligibles
présent,
plus
conduit à inclure et à associer, parmi les « intellectuels », « les philosophes,
les sociologues et les économistes ». À condition, ajoute-t-il, qu'ils se com». Certains seraient tentés de voir
portent tous « comme des professionnels
dans l'humeur pessimiste du Modèle français
une forme de défaitisme, et ils
La tristesse de Cassandre
359
tout à fait tort. Ils feraient mieux d'avoir à l'esprit ces mots de
sociadans sa préface à la deuxième édition de Capitalisme,
Schumpeter
« Les faits en eux-mêmes et les déductions que l'on en
lisme et démocratie :
tire ne peuvent jamais être défaitistes, ni le contraire, quel qu'il puisse être.
Le compte rendu signalant qu'un navire est en train de couler n'est pas
de ce
défaitiste. Seul peut l'être l'esprit dans lequel il est pris connaissance
il
Mais
boire
un
aller
s'asseoir
rendu
:
coup.
pour
l'équipage
peut
compte
des
intelau
courir
aux
»
L'appel
professionnalisme
pompes.
peut également
lectuels est une bonne manière de nous inviter à courir aux pompes.
auraient
des mises en garde que Cassandre aura lancées, avant et pendant la
lui avait prode
Troie, n'aura été prise au sérieux. C'est qu'Apollon
guerre
le
don
de
de
lui
donner
dit
l'une
des
mis,
prophétie à condition
légendes,
d'en recevoir ses faveurs. Marché conclu, mais à peine fut-elle instruite par
le dieu qu'elle se déroba à sa promesse. Apollon se vengea en lui retirant non
pas le don de prophétie, mais celui de la persuasion. C'est le destin des
aux gouvernants et aux peuples les
Cassandre, où qu'ils soient, d'annoncer
histoire
en parlant comme dans le désert.
les
tournants
de
leur
et
dangers
à
mes
Lesourne
ne
yeux de persuasion, mais cela ne
manque pas
Jacques
suffit pas à convaincre ceux auxquels il s'adresse de préférence. Pourtant,
quelles leçons nos décideurs, de droite comme de gauche, ne devraient-ils
pas tirer de ses analyses et de ses mises en garde ! Même s'il se montre plus
pessimiste que je ne le suis moi-même, que de choses seraient améliorées si
l'on savait tenir compte à temps de ses diagnostics et de ses recommandations ! Le point de différence, une pacotille, entre son pessimisme et le mien,
c'est que, malgré tout, je persiste à penser que nous nous en sortons dans la
de nos compatriotes.
durée et qu'il ne faut pas désespérer
Après tout,
Cassandre a beau être l'ange du malheur, elle échappera au sac de Troie et
Au
finira, dans le partage du butin, par déclencher la passion d'Agamemnon.
moins chez les Grecs, tout n'est pas perdu - même s'il ne reste de Troie que
décombres destinés au plaisir des archéologues.
Aucune
ce fantasme du déclin radical qui hante la réflexion économico-politique de Jacques Lesourne sur la France. Dans l'Iliade, Hector recourt aux
son double qui
avis d'un prudent conseiller, « l'irréprochable
» Polydamas,
« seul voyait l'avant et l'après ». Polydamas,
en effet, né la même nuit
qu'Hector, possède au conseil la valeur que celui-ci possède au combat. La
de calplupart du temps, ses avis s'appuient sur de soigneuses combinaisons
culs. Pour une fois, à la veille d'une bataille, le voici qui se fonde sur la divination, et Hector refuse de le suivre. Le présage que Polydamas interprète
évoque « un aigle qui tient dans ses serres un monstrueux serpent rouge et
survole l'armée troyenne par la gauche. Le serpent, qui n'a pas oublié son
ardeur combative, mord à la poitrine l'oiseau qui le tenait, et l'aigle alors,
vaincu par la douleur, le laisse s'abattre sur la foule ». Polydamas se sert de
ce présage pour dissuader Hector de franchir le fossé qui sépare les Troyens
aux
Hector ne veut pas dépendre « d'oiseaux
de l'armée d'Agamemnon.
larges ailes », et peu importe que ceux-ci volent à droite ou à gauche, il n'enC'est
'
360
PROSPECTIVE
tend se fier qu'aux desseins de Zeus. Dans la formule par laquelle il résume
sa position, il y a sans doute trace du scepticisme que les Grecs manifestaient
à l'égard de la divination. Formule superbe, qui n'en est pas moins très révélatrice de l'obsession qui, hier chez les Grecs comme aujourd'hui chez
Jacques Lesourne, éclaire toutes les raisons de maîtriser l'avenir. Hector
déclare, laconique : « Un seul présage est excellent : se battre pour sa
patrie. »
Daniel
Bell 1
ATTHEEND
REFLECTIONS
0F ANAGE
There is no such entity as "the future". Many writers do use the phrase "the
future", as if it were a single place in near or distant time, or like a point on
the horizon, to be reached by a projectile of words. (Years ago, Soviet propagandists proclaimed that "communism was on the horizon", until they were
told that a horizon is an imaginary line that recedes as you approach it.)
"The future" as a phrase by itself (as a philosopher would say), reifies the
term, treats it as a "thin", as, somehow, a word with the power to be, or to
act. But there is no such independent entity. The English language requires
us to use such terms as transitive - that is, to establish a following relationship. There can only be "the future of ..." something: the future of the
American economy, the future of the American political system (but not the
"future of technology", which is too loose, as 1 will seek to show below). In
short, there has to be a boundary condition, of time and place, of a definable
entity to make sense of what we mean.
'
'
Can one talk of the "future of society"? Yes, but only if we observe a set of
stipulations. A society is not an organism, a biological entity, with a homeostatic regulator (like temperature in a human being) that seeks to maintain an
equilibrium. Nor is society a "system", made up of interlocking variables, so
that changes in the magnitudes of the co-efficients will affect all the other
variables - like a Calder mobile in motion - and thus move a different configuration of shapes.
362
PROSPECTIVE
Society is a set of .social arrangements, of laws and institutions, created by
individuals (inherited from a previous time or re-created by agreement), to
facilitate and fulfill needs, allocate social and occupational positions,
educate the young, guarantee rights, and control impulses. Societies are held
together by a normative series of values and authority which are accepted as
legitimate by its members - unless they live under coercive and dictatorial
rules and thus are not equal as members. The legitimacy of the arrangements
implies a sense of justice; authority, the enforcement of such rules, implies
legitimate power.
Societies are made up of different realms, each of which operates under
different axial principles. The economy - the production and distribution of
reciprocal goods and services - is more or less of a system because of the
interdependence of the economic actors. Change comes from price signals
through market transaction. But the polity - the realms of law and authority
- is not a system. It is an "order", created by design, a set of rules and norms
to regulate the lives of individuals within the polity. In the United States, we
live under a constitution, designed by the founting fathers, to establish
divided powers, protect liberties, and establish rights under the rules of law.
Change is by conflict or consensus. The culture - the realm of meanings
(religious and philosophical), and of imaginative expressiveness in the arts
- is even less of a system. The meanings are transcendent. The arts are different styles, such as classical, baroque or modern, established by artists in the
exploration of form within a genre, or, as today with post-modernism, the
dissolution of all genres.
The point of all this is to emphasize that "societies" are not integrated, and
do not change, by a technological wand, in undivided ways. Nor are there
unified periodically distinct and cut off from one another by historical time,
such as is argued, for example, by the Marxian modes of production. If that
were the case, how could one explain the persistence of the great historic
religions - Buddhism, Hinduism, Confucianism, Shintoism, Judaism,
Christianity, Islam - over millennia of time, when economic systems have
disappeared and political systems have crumbled. Though thèse religions
have changed in manifold ways, the great cores of belief - the Old
Testament in Judaism, the savior figure of Jesus in Christianity, of karma and
nirvana in Buddhism - and their great texts still compel belief today (1).
At different times and in different places, one or another of these realms has
been dominant. Historically, most societies have been organized in empires
thestatements
(1) It is forthisreason,too,thatI readwithastonishment
byMr.AlvinToffler:
"Weno longer'feel' lifeas mendid in the past.Andthisis the ultimatedifference,
the
distinction
thatseparatesthetrulycontemporary
manfromall others...we havebroken
withthe past.Wehavecut ourselvesoff fromold waysof thinking,of
irretrievably
newsocietyandwearenow
feeling,of adapting.Wehavesetthestagefora completely
racingtowartit."FutureShock,NewYork,RandomHouse,1970,pp. 18,19.
What,in God'sname,doesthatmean?
Reflectionsof the Endof an Age
363
and monarchies, so the political order has been dominant (as it has been, as
well, in totalitarian communist societies), subordinating the economy and
co-existing with or seeking to anquish religious authority. In the European
middle ages and in theocratic Islamic societies today, the religious domain
has held sway. In the modern capitalist West, the economic sphere has been
primary in the shaping of society.
If societies are not unified, are there some determinate rules of social
change? Again, one has to understand the different principles within each
realm. Modem Western society saw, for the first time, the relative autonomy
of the economic sphere separated from the state. The discovery of "the
market", the production of commodities, and the rise of a new class led to
the idea of the creation of wealth by private property, rather than the mercantilist state. And modern economics - which itself is only two hundred years
old - had formulated the idea of productivity, the notion that, through the use
of machines or new organization, one can get a more than proportional
return from equal or less effort; and this became codified in the rules of
economic change. Thus, if a new invention or innovation is cheaper, or
better, or more efficient, then, subject to cost and a better return on investment, it will be used. Thus there is a clear principle of substitution, and
change is linear. A second feature of modem economics is that the market in trade and production - knows no boundaries and over-steps political lines.
Thus, in the search for profit, the range of economic activities moves from
the region to the nation, to the international and finally to the global (which
differs from international), and becomes a "single" market, for capital and
commodities.
Political change - leaving aside the wars between states - has been of two
kinds. The most common has been revolution: the overthrow of older privileged classes, freedom from imperial or colonial rule, or, when empires have
crumbled, the creation of new states. After World War I, there was the end
of the Hohenzollern, Habsburg, and Romanov empires. After World War II,
the end of Western imperialism and the creation of almost one hundred new
states. And, in the last decade, the breakup of the Communist empires of the
Soviet Union and Yugoslavia. It is a striking historical fact - given the histories of the Roman Empire and down to the end of the British and West
European empires - that today, for the first time, there are no major political
empires in the world. Whether China will become a new empire in the 2lst
century remains to be seen.
y
"
Where one finds stable, democratic societies, and again it is striking how
few these are - the United States, the United Kingdom, and the small countries in northwest Europe - political change arises from the inclusion of
minority groups (such as women and blacks) into the political order; the
checking of corporate economic power, as with the New Deal; the expansion
of rights, such as privacy and free sexual choice; the expansion of regulatory
power and, as we have seen increasingly, the reaction to bureaucracy and the
centralization of powers in government. One central theme - which was
364
PROSPECTIVE
enunciated
has been the role of inequality in
by Aristotle in his Politics creating political conflict in societies. And the first lines of Tocqueville's
Democracy in America emphasize the novelty of the search for equality in
American life. In the United States, for the past hundred and sixty years, we
have been sorting out the different kinds of equality, such as the equality of
all persons before the law, of civil equality in public accommodations,
of
voting rights, and equality of opportunity and equality of result.
Changes in culture have many different patterns. In the arts, there is no principle of substitution. Boulez does not replace Bach, but widens the esthetic
repertoire of mankind. We read The Iliad to understand the codes of honor
and shame, and the first expression of tragedy in the realization, as in the
fates of Patroclus and Hector, of death before its time in young manhood,
and even the very idea of death for humans, as against the immortality of the
Gods. And we read Antigone to understand the defiance of Creon by this
young woman, in order to provide a decent burial for her brothers, since
decent burial, as we had already learned in The Iliad, is the mark of respect
and of civilized behavior. It was a quest repeated two thousand years later
in searching for the
woman, Nadezhda Mandelstam,
by that extraordinary
who had
body of her husband, the great Russian poet Osip Mandelstam,
in the purges, killed by Stalin for the mocking poem he had
disappeared
written about the communist
dictator. Art crosses time and appeals to a
common human understanding.
Can it be outmoded, or rendered obsolete?
In the realm
of "meaning",
particularly
religion, modernity has brought
to
established
faiths.
Most
of the Enlightenment
thinkers,
many challenges
from Voltaire to Marx, thought that religion would disappear in the twentieth
century, for to them religion was superstition, fetishism and irrational beliefs
that would give way to the authority of science ant rationalism. Much of this
was summed up in the term secularization,
particularly in the sociology of
Max Weber. But the word secularization,
1 believe, is wrong, because it
conflates two different processes: changes in institutions
and changes in
It
is
evident
that
has
lost
much
of
its institutional
beliefs.
quite
religion
in
the
sense
of
a
set
of
and
authority,
commanding
prohibitions
permissions
in many areas of life, particularly private morals. But what we have also
witnessed is the multiplication
of faiths, the renewal of religions, of new
cults and belief systems, as a recurrent feature of life. Beliefs and faith are
responses to the existential and non-rational situations - in the facts of death
and tragedy and suffering - in the search for meanings beyond the mundane.
These are all multifarious
and complicated
sets of distinctions,
and other
social theorists may have different ways of ordering and distinguishing
the
different facets of social structure and culture. But what cannot be questioned is that any disciplined effort to understand the future configurations
of different societies, or of different realms in societies, have to be rooted in
history and culture, and the relevant distinctions about the phenomena that
are being analyzed.
Partie 3
AUTO-ORGANISATION
Introduction
AUTO-ORGANISATION
Dans ses travaux sur l'auto-organisation, Jacques Lesoume cherche à élargir
le cadre de l'analyse économique classique.
Patrick Cohendet rend un hommage « évolutionniste » à Jacques Lesourne,
en montrant comment sa propre trajectoire de chercheur a été fortement
influencée par la personnalité et les écrits de celui-ci.
Bernard Walliser considère l'espace et le temps comme des éléments déterminants en économie. Selon lui, le temps est, à la fois, une caractéristique
intrinsèque des biens et une ressource rare à l'origine d'externalités positives
ou négatives ; le temps est de la sorte le support de la construction des phénomènes économiques et, en soi, un facteur d'auto-organisation.
Bernard Paulré s'intéresse au concept d'émergence,
de l'auto-organisation ainsi qu'aux premiers apports
nomie industrielle ; il insiste plus particulièrement
plexité qui caractérise le passage du comportement
global.
,
aux travaux fondateurs
de cette théorie à l'écosur la notion de comlocal au comportement
Les textes suivants sont des contributions à l'économie de l'auto-organisation portant sur la construction des croyances, l'institution de la démocratie
politique, l'institution du marché et la transmission d'information, autant de
thèmes au coeur des travaux de Jacques Lesourne.
L'article de Jean-François Laslier traite de la construction des croyances : la
psychologie d'un individu s'exprime non seulement par des préférences,
mais aussi par la manière de réviser des croyances et d'anticiper le futur. De
telles croyances, dans un modèle à générations emboîtées, peuvent conduire
368
à des résultats qualitativement
prix - de ceux que fournissent
AUTO-ORGANISATION
différents en termes de convergence
les anticipations rationnelles.
des
Gilbert
la théorie de
Laffond, Jean Lainé et Gauthier Lanot appliquent
à
une
institution
la
démocratie
l'auto-organisation
particulière,
politique.
Dans le modèle proposé, s'affrontent deux partis politiques qui cherchent à
gagner les élections. Les électeurs disposent d'un profil de préférences sur
le traitement des problèmes conjoncturels,
inconnu des partis politiques.
ne
construire
son
Chaque parti
peut
programme que sur la base de sondages
d'intention
de vote, source d'information
bruitée car reposant
sur la
confiance accordée et non sur la réponse du parti aux problèmes conjoncturels.
Ulrich Witt aborde une autre institution, le marché en examinant la création
et le développement
de nouveaux marchés selon un processus auto-organisationnel : les agents économiques
sont capables, grâce à leur imagination,
leur connaissance croissante et leur perspicacité, d'enclencher
un processus
qui déstabilise la structure produit-prix en place ; ainsi, de nouvelles structures économiques
s'établissent
par l'apparition de nouveaux produits.
où la qualité
Gisèle Umbhauer présente un modèle de bien expérimental
n'est découverte
lors
de
la
consommation
du
bien.
Le
que
processus de
transmission
d'information
les
un
facteur
d'inertie qui
par
prix comprend
reflète le degré d'adaptation
des agents économiques. Gisèle Umbhauer étudie le cas où l'inertie est un facteur exogène, puis celui où l'inertie peut être
choisie par les individus, ce choix reflétant l'adoption
de comportements
d'audace ou d'attente volontaire.
1.
2.
3.
4.
Patrick Cohendet
Bernard Walliser
Bernard Paulré
Jean-François Laslier
5. Gilbert Laffond, Jean Lainé et
Gauthier Lanot
6. Ulrich Witt
7. Gisèle Umbhauer
Patrick
Cohendet
BIFURCATIONS ET TRAJECTOIRES
DERECHERCHE
. :
DEQUELQUES
AUTOUR
RENCONTRES
DÉCISIVES
AVECJACQUES
LESOURNE
à
Î
;
[
/
'
Î
(
)
§
1
/
)
Je n'ai rencontré Jacques Lesourne qu'à quelques occasions beaucoup trop
rares. Pourtant l'homme m'est presque familier, tant mon ami Michel Godet
m'en a parlé. Avoir à ce point marqué l'un de ses meilleurs amis, pourrait
suffire à provoquer l'admiration et le respect. Mais au-delà de cette
influence indirecte, ce que je dois très personnellement à Jacques Lesourne
ce sont des bifurcations essentielles qui ont orienté de façon profonde mes
choix de recherche et ma manière de penser. J'aimerais ici retracer certaines
des bifurcations les plus importantes provoquées par Jacques Lesourne, en
imaginant bien que celui-ci n'a sans doute jamais soupçonné l'influence
qu'il a pu ainsi exercer. Et j'ai le sentiment profond que je suis loin d'être le
seul dans ce cas.
La première bifurcation est la découverte de l'ouvrage de Jacques Lesourne
Le calcul économique. Je découvre cet ouvrage par hasard, à la fin des
années soixante, au moment où je termine l'Institut de statistique de
l'Université de Paris. Je devais alors choisir, après deux années d'études des
principes de statistiques et de probabilités, une discipline d'application. À
l'époque j'hésitais entre biologie, psychologie de l'enfant et géographie statistique. Il y avait bien à l'Institut des cours d'économie, mais la matière
enseignée me paraissait, selon les intervenants qui passaient à l'Institut, soit
totalement abstraite, soit totalement dénuée de rigueur. La découverte du
livre de Jacques Lesourne fut alors décisive. Comme l'évoque la conclusion
de l'ouvrage, ce livre est une réponse claire à ceux qui se demandent :
« Pourquoi de si nombreux économistes font-ils des calculs, actualisent-ils,
370
AUTO-ORGANISATION
déterminent-ils
des espérances de revenus, discutent-ils
sur quelques pour
cent d'écart sur des plans d'investissement ?
Ne devraient-ils pas connaître la
signification précise, et peut-être dérisoire, de ce qu'ils font ? » À travers un
exposé analytique précis et de riches exemples, le Calcul économique montre
comment les différents concepts théoriques rigoureux à la base de la science
économique conduisent à des applications nombreuses dans la vie courante.
Il situe la modélisation économique à sa juste place : celle d'un éducateur de
jugement, d'un support de la pensée et d'un moyen d'organiser la discussion.
Le livre ne m'a jamais quitté. Non seulement
parce qu'il m'a donné
confiance et envie de faire de la science économique, mais parce que je l'ai
utilisé comme ouvrage de référence auprès de mes étudiants.
régulièrement
J'ai ainsi pu tester auprès de générations différentes d'étudiants
que cet
ouvrage provoque toujours le même effet de conviction et d'adhésion.
La deuxième bifurcation
s'est produite à l'occasion
de mon entrée à la
SEMA au début des années soixante-dix comme assistant de recherche dans
le département que dirigeait Christian Goux. Je découvrais alors que Jacques
Lesourne était le patron de l'entreprise,
découverte interprétée comme un
clin d'oeil du destin par celui qui venait juste de choisir de faire de la science
économique à la suite de la lecture du Calcul économique. La SEMA était
alors bien plus qu'un organisme de consultants renommé. C'était un véritable laboratoire d'idées qui brassait les théories et les méthodes les plus
avancées dans tout ce qui touchait notamment à la décision économique.
riche et marquée par les
L'époque était dans ce domaine particulièrement
travaux de Simon sur la rationalité limitée, par les écrits de Cyert et March
sur la décision collective, par les modèles de décision multicritères, et par les
premières applications de l'analyse des données. Les recherches menées à la
SEMA s'inspiraient
de ce bouillonnement
en
profondément
scientifique,
contribuant à lui fournir une base d'expérimentation.
Tout cela était possible
parce que Jacques Lesourne était à la barre et donnait le ton. Dans ce
contexte en tout point fascinant pour celui qui commençait
à faire de la
vite
la
la
se
marier avec
recherche, j'apprenais
rigueur
plus grande peut
que
et
la
à
et
l'imagination
passion. J'apprenais
distinguer prévision
prospective,
et j'apprenais
surtout à expérimenter
et utiliser ce principe élémentaire qui
guide la prospective : à savoir que le futur n'est pas écrit et reste à construire.
J'apprenais aussi à mesurer l'importance de la référence à l'histoire « ce processus par lequel le temps transforme en un passé unique la multiplicité des
avenirs possibles ». J'ai aujourd'hui
acquis la conviction que le fait que
Lesourne
ait
conduit
ainsi
durant
Jacques
plusieurs années la SEMA a eu au
moins deux influences décisives pour la pratique de l'économie en France :
- la
première, directement liée aux perspectives ouvertes par la SEMA, est
l'existence
d'une véritable réflexion prospective
organisée en France
autour des méthodes mises au point entre autres par Michel Godet et les
travaux de l'association
Futuribles menés sous la direction d'Hugues de
Jouvenel. Lorsque l'on se trouve à l'étranger, on a ainsi souvent la fierté
de voir reconnue l'existence d'une école de prospective « à la française » ;
Bifurcations
et trajectoiresde recherche
3711
- la seconde, beaucoup plus générale pour la science économique, est l'existence d'une réflexion théorique aux frontières du « mainstream », et quelquefois au-delà, pour étendre les champs d'applications de la science
économique, pour explorer des formes de rationalité autres que la rationalité substantielle, pour rechercher de nouvelles formes d'interactions créatrices avec d'autres disciplines, sans abandonner la rigueur présidant à
l'élaboration de l'économie dominante largement appuyée sur l'économie
mathématique. Pour un jeune chercheur, la perspective tracée par Jacques
Lesourne conviait à continuellement marier rigueur et créativité. Comme
le souligne Jacques Lesourne lui-même dans sa contribution de l'époque à
la Revue économique qui s'interrogeait sur la « crise de la science économique », la voie choisie est étroite : il faut savoir éviter simultanément les
« maladies » de la « table rase », de l'empirisme excessif, de la doctrine,
de la médiocrité, et de l'abus de mathématiques. À propos du risque d'un
usage excessif des mathématiques en économie, il plaide pour un usage
« juste », qui sait mettre la logique mathématique au service d'une clarification de la pensée créatrice, et qui n'hésite pas à se confronter avec les
faits économiques (« il est des économistes qui comme les peintres plantent trop leurs chevalets dans les musées et pas assez en pleine nature ! »).
À cette époque, la voie choisie frôlait l'hétérodoxie : un son discordant
dans l'« orchestre symphonique de l'équilibre » ! Aujourd'hui elle se situe
en plein centre de la recherche économique, en ayant ouvert de profondes
avenues de renouveau.
j
;
i
!
;
'
;
!
,
i
;
La troisième bifurcation se situe au milieu des années quatre-vingt. Je fus
invité à faire partie d'un groupe de réflexion prospective à Péchiney. Le
groupe était placé sous la présidence de Jacques Lesourne. Ce fut ma première véritable rencontre avec celui-ci et l'occasion d'apprécier ce charisme
si particulier, teinté d'une forte autorité (il en fallait pour contenir les
quelques consultants internationaux particulièrement arrogants et imbus de
leur personne qui faisaient partie du groupe) en même temps qu'une profonde attention et écoute de l'autre. La manière dont Jacques Lesourne
écoute son interlocuteur est incomparable : il en émane à la fois un profond
respect et une bienveillance naturelle, et une exigence implicite de concision
et de rigueur qui laisse supposer que l'on doit aller droit à l'essentiel. Mais
le plus remarquable est l'impression pour l'interlocuteur que Jacques
Lesourne est comme aux aguets, dans l'attente d'une idée intéressante susceptible d'ouvrir des perspectives nouvelles ou de conforter une hypothèse
de travail en cours. Si tel est heureusement le cas, on est récompensé par un
« ça c'est intéressant ! » ou « ce point me paraît capital » qui invitent à préciser encore davantage l'idée qui a paru faire mouche. Je fus appelé un jour
à exposer longuement devant le groupe les résultats d'une recherche prospective que je coordonnais au BETA avec Marc Ledoux et Ehud Zuscovitch
sur le domaine des matériaux nouveaux, dans le cadre du programme Fast
de la CEE. J'exposais ces travaux avec enthousiasme je crois, car nous
étions séduits au laboratoire par le contenu et la force explicative des deux
372
.
.
Q
r-
AUTO-ORGANISATION
scénarios majeurs que nous avions élaborés : d'une part, un scénario de
« standardisation » qui supposait que la solution « plastique » allait s'imposer dans pratiquement tous les domaines des matériaux en déclassant les
matériaux « anciens » de type métallique et les savoir-faire qui leur étaient
associés et, d'autre part, une solution « multimatériaux » qui consacrait l'entrée dans un régime de variété permanente dominée par de nouvelles structures industrielles de type partenarial pour assurer l'accès aux compétences
mutuelles qu'exige la variété. Cette tension entre standardisation et variété
s'inscrivait dans une optique évolutionniste qui était juste émergente en économie. Je dois bien reconnaître que ces idées laissèrent, à ma très grande
déception, Jacques Lesourne indifférent. En dépit de sa grande politesse, on
finit très vite par comprendre qu'il y a des circonstances où on ne lui a rien
appris. Son silence sur mes propos lors du repas qui suivit était suffisamment
explicite. Toutefois, un point, que je considérais alors comme tout à fait marginal dans ma présentation, retint son attention : j'avais recouru au concept
physique de percolation qui traduit l'idée qu'une accumulation de microvariations peut entraîner le franchissement de valeurs critiques et un changement macroscopique d'un système, pour exprimer la manière dont un
matériau nouveau pouvait brutalement déplacer une solution ancienne. Et
j'entends encore Jacques Lesourne me dire : « La percolation, ça c'est intéressant, mais il faudrait l'appliquer plutôt à la formation des systèmes
sociaux. »
Le demi-encouragement reçu de Jacques Lesourne ce jour-là, a exercé une
influence profonde sur les orientations de la recherche au sein de mon laboratoire. Les recherches sur la formation et la dynamique des réseaux sociaux,
les modélisations à l'aide de modèles inspirés de la physique du type de
celui de percolation, l'étude des phénomènes irréversibles, sont devenus des
thèmes dominants pour de nombreux chercheurs du BETA. Dans cette nouvelle perspective, comme l'avait pressenti Jacques Lesourne, la notion de
réseau apparaît jouer un rôle central en tant que support de la réflexion et de
l'organisation des débats théoriques. La notion de réseau renvoie ici au système complexe de relations qui se développent entre acteurs individuels, institutions et sphères d'activités différentes. Cette notion a ouvert deux voies
principales de recherches aujourd'hui en économie :
- dans une première
perspective, la notion de réseau s'identifie simplement
avec le nombre d'agents partageant un trait commun. Le cas le plus fréquent est celui d'agents achetant un bien sur un marché, de sorte que plus
grand est le nombre d'agents ayant acheté le bien, plus grande est la valeur
du réseau. La notion de réseau renvoie ici essentiellement à la notion d'externalité, et permet d'aborder tout un ensemble de phénomènes économiques variés : choix de standards technologiques, établissement de
normes, diffusion selon un comportement mimétique, modèles épidémiologiques, etc. ;
- dans une seconde
perspective, l'analyse porte sur la manière dont les
agents interagissent et sur le fait que ces interactions directes entre agents
Bifurcations
et trajectoiresde recherche
373
(par exemple à travers des influences dans un voisinage) peuvent aboutir
à des phénomènes agrégés au niveau macroéconomique. La structure d'interactions détermine également les modes d'apprentissage des agents,
l'apparition d'acteurs critiques et les dynamiques d'accords et de désaccords. C'est dans cette perspective qu'il est possible, non seulement de
comprendre l'émergence d'un ordre global à partir d'une multitude d'interactions ou d'analyser « ce qui fait tenir un réseau », mais aussi de comprendre le démantèlement des réseaux et les réorganisations qui les
accompagnent, voire de comprendre comment progressivement un réseau
peut se transformer en marché.
La quatrième bifurcation se situe plus récemment à l'occasion d'un colloque
organisé au CNAM en 1997 par Jacques Lesourne, sur le thème « auto-organisation et évolution ». Jacques Lesourne m'avait fait l'honneur de participer à ce très beau colloque pour présenter un papier écrit avec des collègues
du BETA sur la firme évolutionniste. L'idée de notre papier était de montrer
à quel point le fait de raisonner en termes de traitement de la connaissance
et non plus de traitement d'information peut modifier et améliorer les résultats traditionnels de la théorie de la firme. Mais au cours du colloque, il est
apparu que celui-ci avait une ambition qui allait bien au-delà de la présentation de papiers de recherches spécifiques. La volonté de rapprocher les
champs des théories de l'auto-organisation et de l'évolution est un vaste projet qui s'efforce de repenser en profondeur la microéconomie. Comme si le
moment était enfin venu de pouvoir penser en des termes nouveaux la
manière dont les agents et la société évoluent, la dynamique des interactions
entre des agents hétérogènes et partiellement ignorants, et l'émergence des
systèmes stables de coordination comme résultat d'un processus d'apprentissage entre des agents. Comme le souligne l'introduction de Jacques
Lesourne et André Orléan à l'ouvrage qui retrace les contributions de ce colloque, le projet de mêler les apports des sciences de l'auto-organisation à
ceux des théories évolutionnistes pour faire progresser la microéconomie est
révolutionnaire en ce sens qu'il revient à accepter de ne plus réduire l'analyse et la représentation de la dynamique économique à la seule dynamique
des prix et des quantités. Il faut tenter d'introduire explicitement dans l'analyse la manière dont les différentes structures économiques émergent, et les
changements profonds que subissent quotidiennement les marchés et l'organisation des firmes. À la relecture de l'ensemble de l'ouvrage et particulièrement des deux articles que Jacques Lesourne a présentés en collaboration
au colloque, on y retrouve, comme les pièces d'un puzzle rassemblées, beaucoup des thèmes qui ont marqué les travaux de Jacques Lesourne et qu'il a
tant contribué à diffuser chez tous ceux qu'il a inspirés : incertitude, décision
de long terme, dynamique des comportements, dynamique des marchés.
Mais il me semble que l'on peut y trouver aussi comme un manifeste pour
renouveler en profondeur la science économique : un véritable agenda
de recherches pour les prochaines années. Parmi les innombrables directions
de recherches qui se dessinent au croisement des théories évolutionnistes et
374
AUTO-ORGANISATION
de l'auto-organisation,
aller
j'en perçois une qui pourrait particulièrement
dans le sens des efforts analytiques
qui ont toujours été privilégiés par
de l'analyse prospective avec la
Jacques Lesourne : celle du rapprochement
théorie économique dominante, et plus particulièrement
avec la théorie de la
décision. Aux cours des dernières décennies, la réflexion prospective a tousans parjours occupé une place à part dans la méthodologie
économique,
venir à s'insérer dans la théorie économique
Il est vrai que
dominante.
l'élaboration
patiente de scénarios se situe aux antipodes de l'univers de la
rationalité substantive. Mais les développements
récents des théories évolutionnistes avec l'introduction
de mécanismes
cognitifs et la convergence
avec les sciences de l'auto-organisation
laissent entrevoir la possibilité d'inde scénarios comme une certaine manière de rendre
tégrer la construction
compte de la façon dont les agents économiques se représentent les états du
monde dans un contexte de formation de la décision collective.
Pour un chercheur en économie les perspectives que dessine inlassablement
elles sont infiniment
Jacques Lesoume ne sont pas seulement passionnantes,
la
science
est
souvent
déchirée aujourencourageantes :
économique
trop
d'hui entre les tenants de la théorie « dominante » fondée sur une formalisation poussée et les « hétérodoxes » qui se partagent entre ceux qui ne s'en
tiendraient qu'aux faits et ceux qui explorent des horizons trop lointains. Ce
déchirement atteint jusqu'au jeune chercheur qui envisage de faire une thèse
et qui sent qu'il va devoir choisir son « camp », et sait que ce choix sera en
grande partie irréversible. Jacques Lesourne est l'une des très rares « autorités morales » du milieu des économistes
à affirmer clairement qu'il n'y a
science
celle
de
la
qu'une
économique :
rigueur et de l'imagination
qui n'hésite pas à explorer sans cesse de nouvelles frontières. Et, comme le souligne
lui-même Jacques Lesourne, dans la mesure où aujourd'hui des courants de
recherche très riches, comme ceux de l'auto-organisation
et des théories
sont susceptibles de converger et d'enrichir par là même la
évolutionnistes,
théorie dominante, « qu'il va être passionnant d'être chercheur en économie
au xxte siècle ! ». Toujours la même invitation enthousiaste à la réflexion et
l'action, à la rigueur et la passion, à la pensée juste et féconde.
Bernard
Walliser
ETLETEMPS
L'ESPACE
ENÉCONOMIE
Tout système économique est plongé dans un double environnement, d'une
part matériel et technologique, d'autre part social et institutionnel, dont il
subit directement les contraintes tout en leur imposant des effets en retour.
L'environnement physique, et dans une moindre mesure l'environnement
culturel, se déploie lui-même dans un cadre spatio-temporel rigide et
immuable, qui affecte indirectement les activités économiques sans être
influencé par elles. Aussi, bien que de façon très tardive, la théorie économique a-t-elle pris en compte l'espace et le temps, tantôt en soulignant leur
traitement similaire, tantôt en exacerbant leur fonctionnalité différente. De
plus, les concepts tant d'espace que de temps peuvent recevoir des interprétations économiques variées, et ont été intégrés dans les modèles théoriques
selon quatre points de vue distincts sinon indépendants.
D'abord, les caractéristiques d'un bien économique comprennent, outre sa
seule qualité, son lieu et sa date de disponibilité, éléments qui infléchissent
sa valorisation par les agents économiques (section 1). Ensuite, les déterminants de choix des agents sont eux-mêmes conditionnels à l'espace et au
temps, au sens où leurs opportunités et préférences varient selon le contexte
et évoluent dans la durée (section 2). Par ailleurs, les activités économiques
mises en oeuvre par les agents se déroulent et sont appréhendées dans un
espace-temps modélisé, souvent selon des échelles spatiales ou temporelles
emboîtées (section 3). Enfin, l'espace comme le temps apparaissent comme
des ressources rares de l'économie au niveau de l'individu ou de la collectivité et engendrent des contraintes d'allocation et des externalités diverses
(section 4).
376
AUTO-ORGANISATI
1. CARACTÉRISTIQUES
SPATIO-TEMPORELLES
DESBIENS
La théorie de l'équilibre général (Arrow & Debreu, 1954) considère des
marchés sur lesquels est échangé par le biais de prix un ensemble de biens,
chacun caractérisé par des propriétés physiques singularisées par les agents.
Cette théorie est interprétable en considérant comme caractéristiques explicites d'un bien son lieu et sa date d'échange, à condition que le marché d'un
bien aussi précisément spécifié soit susceptible d'être mis en oeuvre,.C'est
dire que tout bien est localisé et daté, deux biens de même nature disponibles
en des endroits ou à des moments différents devant être considérés comme
deux biens qualitativement différents. Cette discrimination des biens est justifiée par le fait que les agents n'évaluent pas ces biens de la même façon
dans leurs choix et prennent donc des décisions différentes à leur sujet.
Deux facteurs situés en des lieux ou des instants différents ont un impact différent sur la technologie de production d'une entreprise, selon les autres facteurs locaux et instantanés avec lesquels ils sont combinés. Surtout, les biens
localisés et datés peuvent être transformés les uns dans les autres, au cours
d'un processus de production spécifique auquel est associé un coût luimême spécifique. Ainsi, le changement de localisation d'un bien correspond
à une opération de transport, alors que le déplacement dans le temps d'un
bien correspond à une opération de stockage. Plus précisément, la transformation de monnaie entre deux périodes correspond à une opération de crédit, plus institutionnelle que technique, et admet comme taux marginal de
transformation le taux d'intérêt.
Deux biens situés en des endroits ou à des époques différentes exercent une
influence différente sur les préférences du consommateur, selon que le
milieu s'avère plus favorable ou le moment plus propice. De ce fait, les
biens localisés et datés doivent faire l'objet d'un arbitrage de la part de l'acteur, de même nature que l'arbitrage qu'il réalise entre des biens de nature
différente. Ainsi, des préférences interspatiales font apparaître un taux marginal de substitution d'un bien entre deux lieux, et des différences intertemporelles un taux marginal de substitution d'un bien entre deux périodes. Plus
précisément, le rapport entre l'utilité de la possession d'une unité de monnaie aujourd'hui et l'utilité d'une unité de monnaie demain reflète le taux
d'escompte psychologique de l'acteur.
Lorsqu'un bien, en particulier un bien d'équipement, n'est choisi qu'en un
exemplaire unique dont la taille est prédéterminée, se pose néanmoins le
problème du choix d'une localisation et d'une date optimales. Ainsi, une
entreprise procède à l'implantation d'une usine en un lieu géographique
sélectionné, en fonction tant des conditions naturelles du lieu que de l'importance de la demande potentielle. De même, un concessionnaire construit
une infrastructure autoroutière selon un calendrier privilégié, en fonction
L'espace et le temps en économie
377
tant de l'évolution des techniques disponibles que de la croissance anticipée
de la demande. Bien entendu, si la demande future dépend des choix opérés
la firme considérée est confrontée à une décipar les firmes concurrentes,
étudiée dans le cadre de la théorie des jeux (Hotelling,
sion stratégique
1929).
2. DÉPENDANCE
SPATIO-TEMPORELLE
DESDÉTERMINANTS
Le modèle rationnel de décision suppose que tout acteur est caractérisé par
trois déterminants de choix, à savoir ses opportunités d'action, ses représentations de l'environnement,
et ses préférences sur les effets subis (Walliser,
Si
ces
déterminants
sont souvent supposés exogènes et stables, ils
1994).
néanmoins
être
considérés
comme relatifs à la position géograpeuvent
de
l'acteur
et
évolutifs
sur
la
durée
de vie de l'acteur. Toutefois, cette
phique
à
et
au
reflète
souvent l'influence
de facteurs
temps
dépendance
l'espace
des
valeurs
différentes
d'une
localisation
à
une
autre ou
cachés, qui prennent
d'une époque à une autre. Tout se passe comme si l'acteur endossait des
chacun muni de ses propres
egos multiples en fonction des circonstances,
déterminants
de choix, sans pour autant qu'ils ne soient coordonnés par un
super ego.
En ce qui concerne les opportunités, elles dépendent du contexte lorsque, par
exemple, les capacités d'un acteur dépendent des ressources qu'il peut puiser dans son environnement
ou même du climat local. De même, certaines
actions deviennent possibles en un lieu donné lorsqu'elles
sont accompamenées en parallèle et qui ne peuvent être
gnées d'actions complémentaires
mises en oeuvre qu'en ce lieu. Ces mêmes opportunités
évoluent avec le
temps lorsque, par exemple, le progrès technique ouvre des perspectives
nouvelles ou plus efficaces, ce progrès technique étant cependant incorporé
dans tel ou tel facteur. Elles se modifient aussi en fonction des actions passées, qui peuvent aussi bien ouvrir que fermer l'éventail des actions futures,
et sont ainsi dotées d'un caractère plus ou moins flexible ou irréversible.
'
En ce qui concerne les préférences, elles dépendent directement du contexte
dans le cas de l'éternel insatisfait qui préfère être à Londres lorsqu'il se
trouve à Paris et être à Paris lorsqu'il se trouve à Londres. De même, elles
sont influencées plus indirectement
et à long terme par le milieu social qui
certaines
normes
endossées
impose
par l'acteur ou met en oeuvre des incitations-sanctions
internalisées
l'acteur.
Ces mêmes préférences évoluent
par
dans le temps lorsque les goûts de l'acteur se modifient avec l'âge et plus
encore, lorsque les motivations se déplacent d'une génération à l'autre. Elles
se transforment
également en fonction des consommations
passées, par un
phénomène de sensibilisation
lorsqu'il s'agit de musique ou un phénomène
d'accoutumance
lorsqu'il s'agit de drogue.
378
AUTO-ORGANISATION
En ce qui concerne enfin les croyances, elles dépendent indirectement
du
contexte dans la mesure où elles sont nourries par des observations sur autrui
ou sur la nature, réalisées dans un voisinage restreint. Cet ajustement des
au moins locale des acteurs,
croyances peut conduire à une homogénéisation
lorsqu'ils appliquent des modes de raisonnement
analogues à des informations qu'ils partagent. Ces mêmes croyances évoluent dans le temps sous
l'influence d'informations
collectées de façon volontariste ou comme sousdes
actions
produit
passées et sont stockées dans une mémoire de profondeur
limitée. Cette révision des croyances donne naissance à un apprentissage de
l'acteur, très simple s'il ne fait que s'adapter au flux d'informations
reçues,
plus sophistiqué s'il anticipe les informations
qu'il peut recevoir (Henry,
1974).
3. ESPACE
ETTEMPS
COMMESUPPORT
DESPHÉNOMÈNES
Considérés
comme le support des événements qui caractérisent
la vie écoà
savoir
les
actions
des
acteurs
et
leurs
effets
sur
nomique,
l'environnement,
des propriétés sensiblement
différentes.
l'espace et le temps manifestent
est
considéré
comme
les
événements
étant
L'espace
pluridimensionnel,
selon
leurs
deux
coordonnées
et
les
événerepérés
géographiques,
isotrope,
ments ne se produisant dans aucune direction privilégiée a priori. Le temps
est considéré comme unidimensionnel,
les événements étant repérés selon
leur seule date calendaire, et orienté, les événements se déroulant selon une
chronologie distinguant le passé du futur. Bien entendu, les événements économiques même élémentaires ne sont pas ponctuels, au sens où ils s'actualisent sur un domaine spatial plus ou moins étendu et sur une plage
temporelle plus ou moins longue.
L'espace est fréquemment formalisé sous la forme d'un réseau discontinu et
à des sites d'implantation
des activilacunaire, où les noeuds correspondent
tés et les arcs à des axes d'échange entre les activités. L'espace est également
formalisé sous la forme d'un territoire plus continu et homogène, où les activités sont plus diluées sur des zones fonctionnelles
et les échanges plus
denses entre toutes les activités. Le temps est le plus souvent formalisé de
façon discrète à l'aide d'une division en périodes, de façon à permettre une
meilleure adaptation empirique des modèles à la nécessaire périodicité des
statistiques. Le temps est plus rarement formalisé de façon continue en s'alignant sur le temps physique, de façon à conférer aux modèles une périodicité moins arbitraire et une maniabilité plus prononcée.
Une structure élémentaire du temps et de l'espace une fois définie, il est
commode de considérer des échelles spatio-temporelles
emboîtées, chaque
niveau faisant apparaître des phénomènes économiques spécifiques. En pas-
L'espaceet le tempsen économie
379
sant du local au global, les échelles spatiales reposent sur une partition des
variables selon leurs zones d'influence, des plus restreintes (bassins d'emploi) aux plus larges (contrats internationaux). En passant du court au long
terme, les échelles temporelles reposent sur une partition des variables selon
leurs vitesses d'adaptation, des plus rapides (quantités, prix) aux plus lentes
(préférences, démographie). Ces découpages conventionnels ont souvent
une origine extra-économique, qu'ils correspondent à des clivages politiques
(institutions territoriales) ou qu'ils renvoient à des périodes juridiques (budget, Plan).
On est dès lors amené à agréger les concepts économiques définis à propos
des biens et des agents selon les dimensions d'espace et de temps, sous la
forme d'indicateurs macroéconomiques ou macrotemporels. L'agrégation
spatiale porte sur les biens produits ou échangés au sein d'une même unité
spatiale (volume de biens) ou sur les résultats obtenus par les agents dans
cette même unité (valeur ajoutée des entreprises). L'agrégation temporelle
concerne les flux de biens produits ou échangés sur une certaine période
(production cumulée) ou les bénéfices obtenus par des agents sur cette
même période (profits cumulés). Il est également possible d'agréger les
fonctions de comportement de différents agents actifs dans un domaine d'espace-temps, malgré les limites de la notion d'agent représentatif (Kirman,
1992).
4. ESPACE
ETTEMPSCOMMERESSOURCE
RARE
L'espace et le temps constituent une ressource rare de l'économie, ressource
indispensable à ses activités tout en étant non renouvelable, du moins sur le
court terme et à un niveau global. En effet, l'espace limité à deux dimensions
ne peut être étendu qu'en empiétant sur la troisième dimension alors que le
temps disponible ne peut être allongé qu'en jouant sur la démographie.
Cependant, un agent donné peut acquérir de l'espace et du temps de la part
d'un autre agent, sinon sous une forme directe, du moins à travers des biens
dans lesquels ils sont incorporés. Ainsi, un agent peut acquérir du terrain
(qui rend échangeable l'espace) sur le marché foncier ou acheter un service
(qui rend transmissible le temps) sur le marché du travail.
Toutefois, la contrainte spatiale apparaît essentiellement collective et résulte,
pour un domaine restreint alloué à une activité, de ce que deux objets ne peuvent se situer précisément au même lieu. C'est ainsi que se font jour des phénomènes d'encombrement, éventuellement régulés par des péages limitant
l'accès à l'espace, par exemple quant à l'utilisation collective des infrastructures de transport. À l'opposé, la contrainte temporelle s'avère fondamentalement individuelle, et découle, à l'intérieur d'une tranche de vie d'un
380
AUTO-ORGANISATION
C'est
agent, de ce que deux activités ne peuvent être menées simultanément.
ainsi qu'apparaissent
des phénomènes de saturation, traduits par un prix fictif attribué à une unité de temps, par exemple quant au temps passé par un
usager dans les moyens de transport.
naisL'espace et le temps sont aussi à l'origine d'externalités
économiques,
sant de la synergie des activités dont ils servent de support, et concernant
sont
plus la proximité des activités que leur succession. Ces externalités
aussi bien positives si des activités proches provoquent des effets conjoints
des effets
bénéfiques,
que négatives si des activités voisines engendrent
résultants défavorables.
En présence d'externalités,
le marché ne peut plus
être animé que d'une concurrence imparfaite, les agents acquérant chacun
un réel pouvoir de marché et entretenant des relations stratégiques. Les prix
des terrains ou les prix des services qui en résultent ne reflètent qu'en partie
les externalités qu'ils engendrent, si bien que leurs auteurs n'en sont pas les
seuls bénéficiaires ou victimes.
Les externalités
ments d'échelle
(rendespatiales sont aussi bien d'origine technologique
croissants ou décroissants),
informationnelle
(facilités de
communication)
(effets du grégarisme). Si les externalique psychologique
tés négatives poussent à la dispersion des activités, les externalités positives
incitent à la concentration
des activités, justifiant l'existence
des zones
industrielles comme des agglomérations
urbaines (Thisse & Walliser, 1998).
Les externalités
sont également de nature
temporelles,
plus impalpables,
coûts
de
(facilités d'adaptation,
réactivation) ou conceptuelle
technologique
et
inconvénients
d'un
(avantages
dialogue suivi). Si les externalités négatives conduisent à un échelonnement
des activités, les externalités positives
amènent à une compression
des activités, justifiant l'existence
de foires
commerciales
comme de festivités occasionnelles.
La théorie économique
a peu à peu développé des branches particulières
relatives à l'espace et au temps, d'abord par simple prolongement
des
modèles classiques,
de phénomènes
puis par explicitation
spécifiques.
L'économie
s'est d'abord contentée de localiser les phénogéographique
mènes par ajout d'un paramètre supplémentaire
avant de mettre en évidence
des effets conjoints des activités liées à leur proximité spatiale. L'économie
dynamique s'est d'abord exercée à déployer les phénomènes dans la durée à
partir d'une vision statique avant de mettre en valeur des effets émergents
des comportements
des agents. Au regard des développed'apprentissage
ments thématiques comme l'économie du travail ou sectoriels comme l'économie des transports, ces deux développements
sont plus au coeur de la
théorie économique parce qu'ils intègrent des dimensions incontournables.
Cependant, ces deux dimensions ne se situent pas sur un pied d'égalité, car
si l'espace ne reste qu'un réceptacle des activités économiques,
le temps est
L'espace
381 1
et le temps en économie
Il en
véritablement
le support
de la construction
des phénomènes.
où les trajectoires
des corps
se déploient
qu'en
mécanique
mais
où le mouvement
est primordial
sous
l'influence
l'espace,
Dans
le but de donner
d'emblée
un élément
intégrant
temporel.
même
tinence
Jacques
niste.
à la
théorie
Lesourne,
Le
surtout
c'est
économique,
pour
devient
une
promouvoir
alors
un
au
économie
est
de
plus
s'est
temps
que
résolument
de
dans
certes
causes
de per-
attaqué
évolution-
facteur
des
temps
d'auto-organisation
phénodes acteurs
dotés
d'une
rationalité
limitée
et insérés
dans
des
pour
d'interaction
et de communication
Lesourne
&
1991 ;
(Lesourne,
mènes,
réseaux
Orléan,
1998).
E
BIBLIOGRAPHIE
ARROW
K.
HENRY
American
&
DEBREU
« Existence
G,
», Econometrica,
Economy
Decisions
C., « Investment
Economic
Review,
64,
H., « Stability
HOTELLING
KIRMAN
Journal
« When
A.,
of Economic
LESOURNE
LESOURNE
J.
Economics,
Economica,
THISSE
J.
&
in Competition
or What
J., Économie
&
under
1006-1012,
Does
de l'ordre
ORLÉAN
WALUSER
Economics?
», Recherches
WALLISER
B., L'intelligence
A.,
1998.
B.,
the
6 (2),
Perspectives,
an
Is
économiques
Equilibrium
for
a Competitive
the "Irreversibility
Uncertainty:
1974.
», Economic
Representative
1992.
117-36,
et du désordre,
Advances
«
of
1954.
22, 265-290,
in
Journal,
39, 41-57,
Individual
Économica,
Self Organization
and
Odile
Jacob,
1994.
»,
1929.
Represent?
1991.
in
a Neglected
Topic
Space
de Louvain,
1, 11-22, 1998.
de l'économie,
Effect"
Evolutionary
Mainstream
»,
Bernard Paulré
L'AUTO-ORGANISATION
COMME
OBJET
ETCOMME
DERECHERCHE
STRATÉGIE
L'exemplede l'économieindustrielle
Si l'on convientde considérerqu'est auto-organisétout systèmecapablenon
seulementde générer un certain ordre de façon autonomeet apparemment
spontanéemais aussi de se mainteniret d'évoluer au sein d'un environnementchangeanten modifiantsa structure,alorsla plupartdes secteursindustriels appartiennentà la classe des systèmesauto-organisés.
Ce n'est que très récemmentque quelques économistesse sont montrés
réceptifsà cette notionet aux perspectivesqu'elle ouvre.Perspectivesd'autant plus stimulantesque le chercheurpeut bénéficierd'une accumulationde
connaissances et de débats antérieurs, certes issus d'autres disciplines
(cybernétique,physiqueet biologie),mais très instructifsdans la mesureoù
les problèmesdéjà soulevésrejoignentles interrogationslégitimesque peut
susciterla mise en oeuvrede cette notionen économie.
J. Lesournea été l'un des premierséconomistesà soulignerl'intérêt de cette
problématiqueet à présenter,dès 1981(J. Lesourneet G. Laffond),une première série de modèlesde marché conçus sur cette base. En 1985puis en
1991il proposaun programmede recherchesur l'auto-organisationen économie dont les premières réalisations devaient montrer qu'une telle
approche, « faisant intervenir tout à la fois le hasard, la nécessité et la
volonté,permetde replacerla microéconomiedans un cadre conceptuelà la
fois plus riche et plus satisfaisant» (1991,p. 22). Ce programmefut mis en
oeuvretout au long des années suivanteset débouchasur la publication,en
l'évolution(J. Lesourne
1998,de l'ouvragecollectifsurL'auto-organisation et
et A. Orléan,1998).
commeobjet et commestratégiede recherche
L'auto-organisation
383
Nous trouvons dans l'ouvrage de 1991 une première série d'observations sur
l'évolution des structures de concurrence (c'est le titre du chapitre XI).
J. Lesourne y observe que si « le chef d'entreprise s'efforce avant tout de
faire évoluer les structures de concurrence [...]afin de s'assurer des rentes
aussi permanentes que possible [...]. Le microéconomiste suppose donné
l'ensemble des entreprises [...]. Il raisonne pour l'essentiel en s'imposant des
structures de concurrence ». Or, écrit-il ensuite, « ces structures [...]très partiellement déterminées par les caractéristiques techniques et commerciales
de chaque branche [...]résultent largement de [son] évolution historique depuis
son origine » (p. 175). Mis à part, pour l'essentiel, l'évolutionnisme contemporain, il faut bien reconnaître que, jusqu'à une époque récente, les économistes étudiant les phénomènes industriels sont restés relativement
indifférents à ce type d'approche aussi bien dans l'esprit que dans la lettre.
La première section de ce texte sera consacrée à la notion d'auto-organisation. Nous y préciserons le sens et la fonction méthodologique de l'émergence. Dans la seconde, nous posons nos principes de lecture. Dans la
troisième section, nous reprenons quelques travaux récents afin de souligner
la pertinence, les manifestations et les premiers apports de l'approche autoorganisationnelle dans le domaine de l'économie industrielle, tout en soulevant quelques problèmes de caractère méthodologique. Nous concluons
dans une quatrième section.
1.. L'AUTO-ORGANISATION
COMMEOBJETD'ANALYSE
Les systèmes auto-organisés peuvent être abordés et caractérisés de deux
façons différentes, plus complémentaires que concurrentes. Leur caractéristique principale est, d'une part, d'apparaître comme des systèmes capables
de produire plusieurs types de comportements ou d'organisation, d'avoir un
comportement changeant et de s'adapter (évoluer) par une modification de
leur comportement dans un contexte de perturbations ou de « bruit ». En
bref, sont auto-organisés les systèmes qui changent du fait de leur propre
fonctionnement. Sous un angle plus explicatif, on souligne, d'autre part, le
caractère émergent de leur comportement ou de leur structure globale. Ces
systèmes sont en effet tels que leurs éléments ou composants agissent ou
fonctionnent sur une base locale : il n'y a ni organisation prédéterminée, ni
coordination centrale. Leur logique de fonctionnement est endogène et
décentralisée (cf. B. Walliser, 1989). Selon que l'on insiste sur l'un ou l'autre
aspect, on est conduit à privilégier l'étude de ce que nous appelons l'évolution du système ou l'émergence de l'ordre qui le caractérise.
'
384
AUTO-ORGANISATION
1.1
1 Lanotiond'auto-organisation
issuedestravauxfondateurs
Pour expliciter et justifier
le domaine économique,
contributions
fondatrices
taires.
la conception de l'auto-organisation
à utiliser dans
nous allons rappeler le contenu de trois types de
apportant chacune des éclairages
complémen-
Les travaux d'Ashby, d'abord, consacrés à l'homéostat,
dans les années cinquante, ont permis de montrer qu'un réseau de machines reliées pouvait, par
aléatoire, parvenir à un équilibre. Ils apparaissent aujourd'hui
apprentissage
comme les lointains ancêtres du néo-connectionnisme
On en
contemporain.
retrouve le principe dans les travaux pionniers (pour l'époque contemporaine) de S. Kauffman. La démarche est radicalement
opposée à celle qui
de Mc Culloch et dans la cyberprévalait dans le premier connectionnisme
il ne s'agit pas de construire une machine destinée à
nétique traditionnelle :
atteindre une certaine performance, mais « de se donner des connexions [au
hasard] et étudier la performance résultante ». On en vient ainsi à s'intéres« collectivement
ser à des réseaux d'automates
susceptibles d'adopter un
ou
un
état
c'est-à-dire
de faire émercomportement
particulier privilégié »,
un
de
ou
d'ordre.
Comme
le
ger
type
comportement
souligne I. Stengers,
« l'histoire de l'auto-organisation
sera désormais indissociable des possibilités de simulation sur ordinateur » (1985, p. 57).
Si Ashby est le précurseur du néo-connectionnisme,
P. Weiss est à l'origine
de l'introduction
de la notion d'auto-organisation
en biologie (en embryologie plus précisément). Sa démarche s'explique par le rejet de la cybernétique
« machinique
ambiant et des analogies tirées de la
», du réductionnisme
théorie de l'information.
Il pose ainsi le problème de l'étude du développement de l'embryon :
il s'agit de savoir « comment un fouillis d'activités
moléculaires peut conduire à un ordre global et intégré ; et comment le comconduit à des
portement
imprécis et variable des cellules individuelles
organes qui sont infiniment
plus semblables
parmi les membres d'une
espèce que ne le sont les processus détaillés qui leur donnent naissance »
(1974, p. 116). P. Weiss insiste, dans son article majeur, sur le fait que le tout
est moins que la somme des parties et que, « alors que l'état et la structure
du tout peuvent être définis sans équivoque, les détails des états et de l'évolution de ses composants sont d'une irrégularité défiant toute définition »
..
'
(p. 177).
"
Selon I. Stengers, « c'est la notion d'auto-organisation
telle qu'elle a été
définie par les embryologistes
que Prigogine a acceptée, implicitement [...] »»
(1985, p. 64). Ce qui est alors intéressant, c'est non seulement la converde Prigogine et des embryologistes
mais, surtout,
gence des préoccupations
le fait que l'on puisse établir un lien entre la notion d'auto-organisation
défi« Un système thernie auparavant et celle issue de la thermodynamique :
modynamique
pose le problème de la stabilité et de la prévisibilité d'un état
alors même que l'on sait « comment » ses constituants interagissent,
mais
commeobjet et commestratégiede recherche
L'auto-organisation
385
l'on ne connaît pas le détail de leur comportement [...]. Ce qui intéresse le
thermodynamicien, c'est que, malgré cette ignorance, il peut, dans certaines
conditions, prévoir » (I. Stengers, 1985, p. 79). Face à l'impossibilité de
définir une fonction d'état valable pour une situation éloignée de l'équilibre,
Prigogine et Glansdorff en vinrent à explorer la stabilité d'un état stationnaire par rapport aux diverses fluctuations. Ils constatèrent alors qu'il existe
un seuil d'apparition de comportements collectifs nouveaux et stables ne
correspondant au minimum d'aucune fonction globale.
Avec le néo-connectionnisme et la thermodynamique des déséquilibres, « un
nouveau style de question a trouvé sa consistance [...]qui crée un nouvel
objet de savoir : la notion "d'être ensemble", c'est-à-dire aussi, en pratique,
un nouveau type de causalité [...] : la causalité de couplage au sens où la
notion de couplage laisse indéterminée la nature de l'interaction [...]pour
poser la question de ce que peuvent, ensemble, une population d'entités couplées » (I. Stengers, 1985, p. 99). C'est ce type d'interrogation qui donne son
sens à cette définition de la notion d'auto-organisation : « propriété d'émergence spontanée, d'un ordre collectif stable à partir d'une population d'entités en interactions variables et imprécises » (ibid., p. 78).
Troisième contribution fondamentale : la théorie des systèmes autopoïétique, qui mériterait à elle seule un long développement. Nous renvoyons le
lecteur intéressé aux travaux publiés, nous limitant ici aux observations
nécessaires pour notre exposé. Il faut, selon ses protagonistes, distinguer les
systèmes autonomes des systèmes autopoïétiques, qui en constituent un
sous-ensemble. Tout système autonome est opérationnellement clos, ce qui
signifie que son organisation « est caractérisée par des processus (a) dépendant récursivement les uns des autres pour [leur] génération et [leur] réalisation et, (b) constituant le système comme une unité reconnaissable dans
l'espace (domaine) où les processus existent » (F. Varela, 1989a, p. 86).
L'équilibre d'un système autonome s'analyse comme le point fixe d'une
boucle récursive du système sur lui-même et faisant apparaître « au niveau
du tout des propriétés nouvelles, que le seul examen des éléments ne pouvait
prévoir » (J.-P. Dupuy, 1992, p. 35). Un tel équilibre est considéré comme
un comportement propre qui est une configuration cohérente, invariante
sous l'effet du fonctionnement du système. Un système autonome a la capacité de modifier ses comportements propres (1). C'est en cela qu'il est autoorganisateur : la variété des cohérences internes possibles, autodéterminées,
fait qu'il « apparaît comme nouveauté, imprévisibilité, affirmation de soi,
bref, comme le comportement d'une unité auto-organisatrice » (F. Varela,
1989a, p. 204). Le thème de l'évolution est ici privilégié.
Cependant, dans un autre contexte, F. Varela caractérise l'auto-organisation
à partir de l'existence de « propriétés émergentes ou globales de réseaux
(1) C'est-à-dire, ajouterons-nous,le type de cohérence de son système d'opérations
« internes».
386
AUTO-ORGANISATION
ou non linéaires, de système complexes, ou encore même de
dynamiques,
» (1989b, p. 61), privilégiant ce que nous appelons l'aspect
synergétique
« vertical » de l'auto-organisation
(B. Paulré, 1997a), c'est-à-dire (i) l'étude
de l'apparition d'un ordre global produit de l'interaction
entre des éléments,
hors de toute relation avec un environnement
pouvant changer et, (ii), la
mise en oeuvre d'une approche plus « synchronique
» qu'évolutive,
privilégiant le passage d'un état de désordre primitif à un état ordonné, plutôt que
la transition entre deux ordres distincts successifs.
Nous constatons ainsi l'existence de deux approches sinon deux conceptions
de l'auto-organisation.
Étant donné un système, on ne peut en effet supposer
a priori que les conditions d'émergence
soient exactement les mêmes dans
le cas « synchronique
» et dans le cas de l'évolution.
Les démarches sont
analogues dans la mesure où le changement d'ordre peut s'expliquer par le
changement graduel des relations internes au système, c'est-à-dire en terme
dans l'évolution,
des questions
se
Toutefois,
d'émergence.
spécifiques
et perturbation
de l'ordre existant).
L'histoire
et la
posent (créativité
mémoire y jouent sans doute un rôle plus important que dans l'approche
ou verticale. Les problèmes liés aux « tensions »
baptisée de synchronique
de deux attracteurs concurrents,
l'ancien et le
engendrées par l'existence
«
l'on
étudie
un
désordonné
nouveau, n'apparaissent
»,
pas lorsque
système
organisé initialement « au hasard ». Dans ce dernier cas, si évolution il y a,
c'est en un sens assez trivial et, souvent, dans des conditions plus abstraites
et quasi expérimentales.
En conclusion, le problème central auquel s'intéressent
les chercheurs qui
traitent de l'auto-organisation
est pour l'essentiel,
dans ces travaux fondadu collectif et du
teurs, celui du passage du local au global, de l'émergence
caractère complexe, non analysable dans le détail de cette dénivellation.
Il
convient, toutefois, de distinguer le thème de l'émergence
(étude de la
constitution d'un ordre collectif à partir des éléments sous-jacents) de ce que
nous appelons l'évolution,
c'est-à-dire
la transition entre deux ordres ou la
transformation
d'un ordre existant. L'étude de l'évolution d'un système peut
ou non être menée à partir de celle de l'émergence
de la séquence des états
collectifs qui la constituent.
1.2 L'auto-organisation
dans les sciencessociales
Les sciences sociales sont à peu près totalement absentes des débats ou des
évolutions qui, entre la fin des années quarante et le début des années
caractérisent
les infléchissements
et les transformations
du
soixante-dix,
sens ou de l'attention accordée à la notion d'auto-organisation.
Seules deux
activement partipersonnalités relevant de ces disciplines ont apparemment
cipé aux colloques et débats de cette époque : S. Beer et F. Hayek. Malgré
de ses analyses et parce que nous limitons notre propos à l'écol'importance
commeobjet et commestratégiede recherche
L'auto-organisation
387
nomie industrielle, nous ne discuterons pas le contenu des analyses d'Hayek
qui a été, durant cette période fondatrice, le seul économiste à avoir utilisé
la notion d'auto-organisation (1973). Nous observerons cependant que le
centre d'intérêt d'Hayek n'est pas tant le problème de l'existence ou de
l'émergence d'un ordre, que celui de la transformation de l'ordre social,
donc de son évolution.
Selon J.-P. Dupuy (1992), la naissance des sciences sociales est rendue possible à partir du moment où (i) la source de l'ordre social n'est plus vue à
l'extérieur de la société mais en son sein et où, (ii), une certaine distance est
reconnue entre la société et les individus, distance qui est, entre autres, la
condition même de l'activité scientifique. La société, le tout social constituent une pseudo-extériorité : un ordre non manipulable créé par les individus. Le social n'est pas construit mais se construit. C'est cette construction
endogène mais inconsciente et « indépendante » qui justifie et donne son
sens à l'usage de la notion d'auto-organisation dans ces disciplines.
L'une des spécificités des systèmes sociaux est d'être complexes et opaques.
On peut définir la notion de complexité en observant, avec J. von Neumann,
qu'il est plus simple, au-delà d'un certain seuil, de construire une machine
que de décrire complètement son comportement : « Ce dont est capable un
objet complexe est (infiniment) plus complexe que l'objet lui-même » (cité
Cet argument fonde à la fois l'idée d'une
in J.-P. Dupuy, 1992, p. 214)
autonomie de la société (son extériorité par rapport à ses membres), et celle
d'une opacité, d'où résultent certaines propriétés des phénomènes sociaux.
La notion d'auto-organisation dans les sciences sociales est donc analogue à
celle qui a cours dans les disciplines fondatrices : émergence d'un ordre global stable à partir d'un ensemble de comportements individuels qui ne peuvent être connus dans le détail. On constate la présence d'une propriété qui
ne pouvait évidemment apparaître dans le contexte des disciplines évoquées
auparavant : l'ordre global est perçu comme autonome et extérieur, non
accessible aux agents. Nous pouvons, sur ce point, rappeler l'existence d'un
ensemble de recherches en sciences sociales faisant ressortir des phénomènes qui s'apparentent aux phénomènes d'auto-organisation. L'analyse des
effets pervers ou des effets émergents traite en effet de systèmes « exclusivement soumis à la volonté des agents qui les composent. Pourtant tout se
passe comme si les conséquences de leurs actions leur échappaient »
(R. Boudon, 1979, p. 131). Ainsi, par exemple, le modèle d'Oison montre
que dans certaines circonstances, des individus ayant des intérêts communs
restent inorganisés (M. Olson, 1978).
Bien entendu, la question importante est celle du fonctionnement du système
et du processus d'émergence, ou encore celle de la transformation ou des
(1) Cette conjecturepeut être illustréepar le fameux article de Maruyama(1963) sur la
secondecybernétique.C'est nous qui faisonsce rapprochement,Maruyamane se référant pas à von Neumann.
388
AUTO-ORGANISAT
transitions entre structures comme l'abordent Hayek ou les sociologues.
Comme le souligne R. Girard (P. Dumouchel et J.-P. Dupuy eds., 1983,
pp. 265-266), G. Tarde fournit un contrepoint à Durkheim, penseur de la
transcendance sociale, pour qui « l'ordre est toujours là » car il raisonne sur
la base de l'imitation, en dehors des règles et de l'ordre. Pour lui, « non seulement c'est l'imitation qui intègre le nouveau mais, à la limite, il n'existe
pas de nouveau au sens absolu. Toute nouveauté se situe à la croisée de plusieurs imitations » (ibid.). Nous avons là un exemple d'une approche du processus social d'émergence et d'évolution qui peut jouer dans les deux sens :
création et « perpétuation culturelle » ou « rivalité, désordre et désintégration ». Il s'agit d'une notion importante qui suggère l'une des directions dans
lesquelles nous pouvons chercher les processus responsables de phénomènes d'émergence dans le domaine social.
1.3 Retoursur la notiond'émergence.
commestratégiede recherche
L'auto-organisation
La notion d'auto-organisation englobe celles d'émergence et d'évolution,
lesquelles procèdent de deux regards distincts pouvant être posés sur le
même système : l'explication du global par le local d'une part ; le changement d'ordre de l'autre. L'étude de la constitution d'un ordre à partir d'une
situation initiale « désordonnée » relève de l'émergence, tout comme l'étude
de la formation, au niveau micro, d'un ordre nouveau à partir d'un ordre
ancien. Mais on peut s'intéresser à des phénomènes évolutifs sans s'interroger sur leurs conditions d'émergence. Partant cependant du principe que
l'étude d'un système auto-organisé ne peut se limiter à une approche globale, c'est l'émergence qui constitue la clé de sa compréhension.
Nous posons, pour ce qui nous concerne, qu'il y a émergence quand une propriété se manifestant à un certain niveau est telle que la connaissance des
propriétés des éléments au niveau juste inférieur ne permet pas de l'inférer.
L'émergence connote l'idée de phénomène collectif dès lors que l'on reconnaît aux éléments du niveau inférieur la capacité de se comporter et d'être
en interaction. Dans ce cas, un phénomène d'émergence survient ne seraitce que du fait du changement des comportements résultant du fonctionnement du système lui-même.
L'émergence implique une approche « verticale » du système et véhicule
implicitement une dimension causale : le phénomène émergent global est,
d'une façon qu'on ignore mais effective, engendré par les interactions entre
les comportements individuels. Le processus causal est d'ailleurs circulaire,
le phénomène global contraignant, en retour, les comportements des éléments constituant le système (et pouvant aller jusqu'à les modifier). Cette
vision circulaire conduit à s'interroger sur l'existence d'un « équilibre »
d'où les idées de cohérence, de pattern ou de point fixe.
commeobjet et commestratégiede recherche
L'auto-organisation
389
La question de l'émergence débouche sur celle du réductionnisme. On est en
effet placé devant le dilemme suivant : s'il y a émergence, cela signifie qu'il
existe une sorte de difficulté ou d'incapacité à fournir une explication permettant de déduire les phénomènes globaux des interactions locales ; mais
si l'on parvient à concevoir cette explication, on risque d'être taxé de réductionnisme !
Nous pensons que le problème ne se pose pas tout à fait ainsi. L'observation
ou la qualification d'une émergence doit en effet être considérée comme une
étape dans un processus de recherche plus global. Elle consiste à identifier
un certain phénomène et à constater un déficit d'explication lorsqu'on le
rapporte à la connaissance disponible des éléments de niveau inférieur
considérés comme devant intervenir dans son explication ?1?. Mais le chercheur ne peut se contenter de signaler une émergence. Une fois celle-ci
constatée, tous ses efforts doivent tendre à fournir une explication satisfaisante ou, du moins, à réduire l'écart initial. Au cours de cette démarche il
peut être conduit à redéfinir la nature et les comportements des agents qui
ont une fonction explicative, remodeler le système d'interactions, requalifier
le phénomène global, examiner les facteurs de variation des comportements,
bref à reconcevoir de différentes façons son modèle du système. Si réductionnisme il y a, ce n'est donc pas du type de réductionnisme « simplificateur » légitimement critiquable qu'il s'agit (2), mais d'une forme de
réductionnisme impliquant des aller-retour entre l'observation et le modèle
(à ses deux niveaux : global et local). Nous pourrions le qualifier de « réductionnisme dialectique » (3).
L'approche en terme d'auto-organisation ne désigne pas simplement un type
de phénomènes à étudier. Elle engage une certaine façon de conduire la
recherche, ascendante et descendante, dans l'étude des phénomènes collectifs. Elle fonde une stratégie de recherche en même temps qu'elle en définit
l'objet. Cette stratégie englobe les options suivantes : (i) la caractérisation
des faits émergents, stylisés ou non ; (ii) l'étude des modes de sélection d'un
comportement propre ; (iii) l'identification et l'analyse des variables
motrices ou des phénomènes à l'origine des changements de comportements ; (iv) l'étude des processus de diffusion et de « contagion » internes
.
( 1 )Nousrejoignonsl'analysede la complexitéde R. Déforme,quoiquepar un cheminement
différent.Nous partageonstotalementsa conceptionde l'économieévolutionnistelorsqu'il écritque celle-ci« n'est ni un systèmethéorique,ni une doctrine...Elle estuneposture de connaissance» (1997, p. 118).Notre opinion est que la notion d'auto-organisationéclaireet fondecette posture,et déterminela stratégiede recherchecorrespondante.
(2) Il ne s'agit pas en effetde contraindrel'explicationd'un phénomèneà un certainniveau
par la prise en comptedes analysesrelativesau niveauinférieurdéjà disponibles,relevant d'une disciplinedéjà constituée.
(3) Nousrejoignonsici la démarchedéveloppéepar I. Stengers(1997) qu'elle résumeainsi :
« Dès qu'il est questiond'émergence,le tout et les partiesdoiventdonc s'entre-définir,
négocierentre eux ce que signifieune explicationde l'un par les autres» (p. 30).
390
AUTO-ORGANISATION
au système et l'examen des conditions qui font qu'une déviance « locale »
peut s'amplifier et modifier son contexte en imposant sa loi ; (v) le rôle de
et de la distribution des états des éléments et des sous-sysl'hétérogénéité
tèmes dans la convergence
du système vers un certain état global ; (vi)
l'étude de la capacité ou de la facilité d'un système à modifier son organisation et ses trajectoires possibles (flexibilité, résilience, inertie...).
2. ÉLÉMENTS
DEPROBLÉMATIQUE
en terme d'auto-organisation
L'approche
suppose, de la part de l'éconoun
effort
de
constitution
d'une
dont nous n'avons jusmiste,
problématique
l'orientation
En
termes
et donc
qu'ici posé que
générale.
cybernétiques
les
normalement
mis
en
l'étude
de
généraux,
ingrédients
jeu par
l'auto-organisation d'un système sont les suivants (B. Paulré, 1997a) : (i) la production
d'un écart c'est-à-dire d'une déviance (source de variété) ; (ii) un processus
des écarts, interprétable en terme de feed-back positif ; (iii)
d'amplification
un processus de régulation déterminant la stabilisation d'une nouvelle structure (ou le maintien de la structure ancienne) représenté en terme de feedback négatif. Dans le domaine économique, c'est habituellement
en terme de
«
de
bruit
de
sélection...
le
chercheur
raisonne.
Nous
rationalité,
»,
que
allons passer en revue les éléments d'une approche auto-organisationnelle
en économie après en avoir dégagé la nature et le rôle à partir des modèles
de jeux évolutionnaires
stochastiques.
2.1 Positiondesproblèmes.
Lesenseignements
desmodèlesévolutionnaires
stochastiques
Les modèles
de jeux évolutionnaires
sont intéressants,
stochastiques
d'une
démarche
tournée
vers
la compréhend'abord, parce qu'ils procèdent
sion des conditions d'émergence
d'un ordre collectif à partir de comportements individuels. Ils permettent de démontrer la réalité d'une approche qui,
même si le mot n'est pas prononcé, consiste à étudier des phénomènes
il s'agit de modèles
Ensuite, au plan méthodologique,
d'auto-organisation.
d'interaction
entre agents parmi les plus simples que l'on puisse imaginer.
Ils permettent
à partir d'une représentation
en quelque sorte
d'identifier,
fois
à
la
les
nécessaires
et
les
difficultés
de l'étude des
minimale,
ingrédients
conditions d'émergence
d'un ordre collectif.
Ces modèles permettent d'explorer les équilibres associés à des interactions
directes répétées entre des agents à rationalité limitée, révisant leurs stratéLa question de l'émergence
est abordée en
gies et capables d'apprentissage.
commeobjet et commestratégiede recherche
L 'auto-organisation
3911
terme de sélection d'un équilibre parmi plusieurs possibles. On se trouve
dans le genre de situation considéré comme caractéristique des phénomènes
d'auto-organisation selon P. Weiss : alors que les détails nous échappent,
nous sommes en mesure d'évaluer la probabilité que le système se trouve
dans un certain état en longue période.
Les modèles évolutionnaires stochastiques se distinguent de la théorie des
jeux évolutionnistes par leur traitement des facteurs de mutation, consistant
en des chocs continuels d'amplitude non décroissante. Ces facteurs constituent à la fois une source de variété et un test de robustesse des états de long
terme
Un exemple de cette démarche est fourni par le modèle de Kandori et alii
(1993). Il s'agit d'un jeu de coordination 2 x 2 dans lequel les agents (en
nombre fini) sont myopes, apprennent par imitation, se comportent selon
une dynamique de meilleure réponse, n'anticipent pas et peuvent muter de
façon indépendante. L'équilibre est conçu en terme de distribution limite de
la configuration des stratégies. Les auteurs démontrent que sous certaines
Les
conditions le système converge vers l'équilibre à risque dominant
l'hisc'est-à-dire
de
résultats ne dépendent pas du processus d'ajustement
toire du système. L'équilibre sélectionné est celui qui possède le bassin d'attraction le plus large.
Dans ces modèles l'apprentissage n'est pas toujours représenté par une fonction explicite. Il peut en effet résulter de deux processus différents non
exclusifs : soit d'un processus de sélection qui conduit, par exemple, à retenir les séquences qui rassemblent les meilleures réponses à un échantillon
individuel
des stratégies passées, soit d'un processus d'apprentissage
(« interne »). Le modèle de P. Young (1993) offre un exemple de la première
approche. Les agents sont informés d'un échantillon de situations passées
tirées au sort, n'optimisent pas et font parfois des erreurs. Ils ont donc une
information incomplète et aléatoire mais ils s'adaptent. L'apprentissage se
situe au niveau de la population dans son ensemble qui choisit mieux et est
plus performante dans ses choix, si bien que « la société apprend alors que
les agents n'apprennent pas » (p. 77). Selon que les interactions consistent
en un jeu à deux stratégies ou plus, l'équilibre à risque dominant est ou non
le seul équilibre stable stochastiquement. Les conditions de facilité d'accès
des équilibres, donc la régulation endogène du système, jouent un rôle clé
dans leur sélection.
Dans les modèles évolutionnaires stochastiques, le processus de sélection est
variable : il peut dépendre des fréquences relatives des actions au sein de la
(1) Les mutationsne sont pas le seul facteurstochastiqueprésentdans le système.Il existe
aussi un bruit dans les appariementsde stratégiesdifférentes(cross matching).Ce bruit
amplifieéventuellementle rôle des facteursde mutation.
(2) Ils observentque les phénomènesde dépendancedu sentieret de small eventssont résolus dans leur approche.
392
AUTO-ORGANISATION
population, ou encore d'un échantillon aléatoire des résultats passés. Dans le
second cas (M. Kandori et alii, 1993 ; P. Young, 1993) les actions qui ont eu
le meilleur résultat ont plus de chances d'être adoptées et se diffusent dans
la population. Cela rejoint la dynamique de réplication mais s'en distingue
dans la mesure où celle-ci fait appel aux performances
moyennes.
Or les processus d'apprentissage
peuvent être locaux et l'on peut tenir
Ainsi,
compte des vitesses relatives de la sélection et de l'apprentissage.
sur les vitesses
G. Elisson (1993) observe (i) que l'absence d'information
ne permet pas de savoir si l'équilibre
de longue période de
d'ajustement
M. Kandori et alii est observable et, (ii) que les interactions entre les agents
de ce modèle sont directes et se font par paires tirées au sort dans l'ensemble
de la population. Introduisant une hypothèse d'appariement
local, il montre
sont
fortement
affecle
taux
de
et
la
nature
de
que
convergence
l'équilibre
tés par la localité et l'hétérogénéité.
Au-delà du cas particulier étudié, on doit
donc garder présente à l'esprit la conjecture d'une différence d'évolution
significative selon que les régulations sont locales ou globales.
Ils révèCes modèles illustrent la complexité du problème de l'émergence.
lent la nature des ingrédients minimaux à partir desquels on peut aborder
en dynamique :
mutation, choix plus ou moins
l'émergence
apprentissage,
On
myopes, interactions directes et/ou indirectes, information et mémoire...
peut observer également, dans ce type de modèle, l'existence d'un arbitrage
ex post) et d'apprentissage
indiou d'un mélange de sélection (apprentissage
viduel. Par ailleurs, on constate des « multifonctionnalités
», le modèle
n'étant pas nécessairement
conçu de telle façon que les fonctions de base
d'un système auto-organisateur
soient spécifiées de façon différenciée.
2.2 Lanaturedes phénomènesémergents
Les phénomènes
globaux émergents que le chercheur peut privilégier sont
nombreux. Pour en présenter un premier inventaire ou classement, nous proposons de distinguer :
d'ordre en un sens élémentaire
c'est-à-dire
ceux qui
(i) les phénomènes
consistent en une simple distribution
d'une variable :
de
marché,
parts
niveaux de productivité,
d'une
répartition spatiale, adoption
technologie...
Îl s'agit d'une structure en un sens élémentaire de la notion et, formellement,
d'un vecteur de variables d'état du système (et non leurs règles d'engendrement) ;
consistant en variables ou aspects globaux, plus syn(ii) des phénomènes
thétiques ou « organiques » venant de ce qu'il existe une stabilisation du
du système, pendant une certaine période qui peut
régime de fonctionnement
être caractérisé par : la technologie de production dominante, le dominant
design du produit, une certaine hiérarchie des entreprises, un ou plusieurs
commeobjet et commestratégiede recherche
L'auto-organisation
393
standards, des normes plus institutionnelles (par exemple : le système de
relations professionnelles, la norme salariale...), des modes d'organisation
dominants (comportant un certain degré d'intégration verticale et/ou d'organisation de la filière), un type d'organisation de la distribution, une forme de
spatialisation... On peut ajouter à cette liste les régimes d'innovation (relatif aux mutations) ou de concurrence (fixant le type de régulation du marché) et les paradigmes ;
(iii) les phénomènes relatifs par exemple à l'organisation industrielle c'està-dire à la structure du secteur ou de la filière et renvoyant, pour leur explication, à des complémentarités ou des logiques d'ensemble (et non à une
simple répartition) : (a) la division du travail, horizontale et/ou verticale qui
s'est instaurée au cours du temps, (b) les alliances et les relations de complémentarité interfirmes et, (c) la répartition spatiale. L'organisation des
marchés, prise au sens d'un ensemble différencié de relations stables entre
entreprises et clientèles, constitue un autre type de phénomène émergent rentrant dans cette catégorie.
2.3 Aperçudes hypothèsessur les comportements
La gamme des comportements modélisables est, dans le domaine dont nous
traitons, très étendue. Le choix des hypothèses relève souvent davantage du
souci a priori de tenir compte de « généralisations plausibles » ou de produire certains effets immédiats jugés intéressants ou pertinents, que d'une
approche systématique d'exploration des relations complexes entre la nature
des comportements et les régularités ou les évolutions globales émergentes.
;
;
!
;
;
;
;
;
Le premier problème qui se pose à propos des comportements est celui de
leur homogénéité ou de leur hétérogénéité. L'hétérogénéité apparaît comme
l'hypothèse commune dans le contexte évolutionniste. Or elle ne semble pas
a priori être une condition nécessaire de complexité et donc un élément
indispensable de l'étude de l'auto-organisation. Ainsi, en physique, les atomes
n'ont pas, en quelque sorte, de « comportement » hétérogène. Dans certaines
simulations de réseau comme, par exemple, à partir d'automates cellulaires,
les règles de décision sont homogènes. Dans les modèles d'équilibre des
structures industrielles, les auteurs introduisent d'ailleurs souvent une hypothèse d'homogénéité (par exemple : P. Dasgupta et J. Stiglitz, 1980).
Les analyses empiriques semblent cependant conduire à privilégier le principe de l'hétérogénéité (J.B. Jensen et R.H. McGuckin, 1997) et, dans la
perspective évolutionniste, l'hétérogénéité est en général considérée comme
indispensable, le moteur de la dynamique des systèmes étant la rivalité entre
firmes, aiguisée par les asymétries et motivée par la volonté de créer et de
capter des rentes. Ainsi, dans le modèle de G. Silverberg et alü ainsi que
dans celui d'Iwai, s'il n'y a pas d'hétérogénéité, il n'y a pas d'innovation.
394
AUTO-ORGANISATIO
Les deux types de comportement qui suivent sont importants car à travers
eux se déploient des feed-back positifs qui sont des feed-back d'amplification. L'apprentissage individuel, l'un des thèmes majeurs de l'évolutionnisme contemporain, permet d'introduire un « moteur » d'évolution dans le
système dans la mesure où il peut engendrer de façon endogène des phénomènes cumulatifs. D'autre part, il permet de justifier le maintien de certaines
asymétries, donc d'une hétérogénéité. Il s'agit d'un ,feed-back positif
réflexif. Son rôle dans la dynamique du système et les phénomènes d'émergence est naturellement important. Les spécifications possibles des fonctions d'apprentissage sont très nombreuses et les typologies des phénomènes
d'apprentissage se révèlent finalement assez complexes (G. Dosi,
L. Marengo et G. Fagiolo, 1996).
L'imitation a une double fonction. D'un côté elle est réductrice d'asymétries : « La force humaine de l'imitation a le pouvoir de contrer la force
aveugle de la sélection » (K. Iwai, 1984, p. 335). De l'autre elle peut contribuer à diffuser et donc amplifier, par contagion, une déviance locale, développant une hétérogénéité. Les modèles dynamiques intègrent pour la
plupart des comportements d'imitation, ce qui signifie bien que les chercheurs estiment qu'il s'agit d'un facteur important, ce que les observations
empiriques justifient. Il s'agit d'un feed-back positif jouant sur la diffusion,
dans un milieu, d'une information, d'une règle de comportement ou d'une
action. La façon dont l'imitation est spécifiée est très variable. Certains
modèles retiennent le principe de l'imitation des techniques de production
(R. Nelson et S. Winter, 1982 ; K. Iwai, 1984). D'autres privilégient l'imitation des comportements de fixation de prix (G. Dosi et alii, 1994) ou
encore celle des caractéristiques du produit (C. Birchenball et P. Windrum,
1998). Sur la base d'un modèle assez général, A. Orléan montre qu'il existe
un effet de seuil, l'imitation contribuant à améliorer les performances collectives seulement si la propension à imiter n'est pas trop élevée (1998).
L'imitation débouche éventuellement sur un phénomène d'auto-référentialité du système.
On observera, pour le regretter, que les stratégies des entreprises sont rarement prises en compte. Elles sont absentes chez Nelson et Winter, leur
importance n'ayant été reconnue que plus tard (S. Winter, 1987). On ne peut
ignorer que les agents économiques, et plus particulièrement les firmes,
développent des stratégies et tentent de modifier leur environnement afin de
se situer dans un contexte plus avantageux (1). On peut d'ailleurs observer
des phénomènes d'imitation de stratégie et l'émergence de référentiels communs au niveau d'un secteur (par exemple A.S. Huff, 1982).
desstratégies
estdéveloppée
dansB.Paulré
industrielles
( ) )Lavariétédesvoiesd'approche
ed.(1998).
commeobjet et commestratégiede recherche
L 'auto-organisation
395
2.4 Aperçudes hypothèsespossiblessur les interactions
entre agents
L'analyse économique standard privilégie les interactions indirectes régulées par le marché. Or dès lors que l'on s'intéresse à certains choix sociaux
ne relevant pas du marché (conventions, normes), que l'on est amené à
prendre en compte des interactions hors marché (externalités, imitation), ou
que l'on s'intéresse à des interactions ayant un caractère local (pouvant avoir
des effets locaux ou globaux de façon différée) les approches standards se
révèlent limités.
Certains travaux du courant évolutionniste contemporain ont attiré l'attention sur des formes d'interdépendance ou d'interactions non étudiées jusquelà. Les phénomènes de diffusion, en un sens large, jouent ici un rôle
important. D'abord parce qu'ils visent à rendre compte de la façon dont un
changement, initié localement, se transmet progressivement au sein du système et crée un nouvel ordre global. Ils réalisent les feed-back positifs qui
sont un facteur clé de la compréhension de phénomènes émergents. Ensuite
parce que, sur un plan plus théorique, ils reposent sur des interactions
directes entre les agents que l'on peut aborder en terme de contagion, d'imitation, de comportements moutonniers, d'externalités... (1) Ces interdépendances mettent en jeu des aspects variés du comportement, les agents
pouvant d'ailleurs se situer à des « distances » variables. Elles peuvent être
globales ou locales (ce que privilégie, par exemple, le formalisme des automates cellulaires).
2.5 Laplacedes formalisationséconomiqueshabituelles
j
;,
j
¡
)
j
;
t
2
i.
j
j
Dans l'étude de l'auto-organisation, le chercheur est nécessairement conduit
à introduire des hypothèses se situant dans un ensemble virtuel plus vaste et
plus complexe que l'ensemble de référence habituel hérité d'approches
menées pour l'essentiel dans une perspective statique ou, au mieux, dynamique dans un environnement stationnaire non évolutif. Cette question se
pose plus particulièrement à propos de trois aspects principaux :
l'apparition de la nouveauté (ou encore, de la genèse de la variété). En
substance, l'approche microéconomique habituelle repose sur l'idée
que le comportement des agents économiques consiste à choisir parmi
des options données et l'on ne s'y interroge pas sur leur capacité à créer
de nouvelles options > ;
–––––
(1) La littératuresur ces phénomènesdevienttrès importantedepuisquelquesannées.Çf.par
exempleS. Bikhchandani,D. Hirshleiferet I. Welch(1998).
(2) Le propre de la révolutionschumpéterienneest bien d'introduiredans l'analyse économiquela questionde l'apparitionde la nouveauté.
(i)
AUTO-ORGANISATION
396
(ii)
les hypothèses de comportement
relatives à la rationalité des agents
fondée sur l'habitude
ou la délibération,
imitatrice,
(optimisatrice,
adaptative) et au processus de changement des comportements ;
(iii) les processus
d'interaction,
directe et/ou indirecte,
marchande
ou non.
Nous pouvons classer les modèles disponibles en fonction de leur degré
« tradiou d'affranchissement
vis-à-vis de la problématique
d'éloignement
tionnelle » de l'étude d'un secteur. Une première famille de modèles repose
sur une structure fortement inspirée par la théorie économique ou, du moins,
ne s'en éloigne pas de façon significative. Le cadre est mixte : pour partie
conforme ou analogue au type de spécification
habituel, pour partie béhavioriste (par exemple : le modèle de Nelson et Winter). Une seconde famille
d'un type
repose sur des structures, des relations et/ou des comportements
nouveau par rapport à ceux que l'on trouve dans les modèles économiques
habituels, tout en gardant un contact étroit avec des questions ou des raisonnements économiques
(par exemple : le modèle d'Arthur, 1988). Enfin, les
modèles de la troisième famille, explicitement
conçus pour traiter des problèmes d'auto-organisation
en économie le plus souvent, reposent sur des
structures et/ou des modes de représentation
qui, pour partie au moins, sont
totalement étrangers aux modes de représentation
et de spécification
habituels des économistes :
(i)
des méthodes
formalisées
ayant prouvé leur fécondité dans d'autres
l'étude
de
disciplines pour
phénomènes globaux à partir de micro-comstatistique,
posants (mécanique
synergétique,
équation de FookerPlanck...) ;
(ii)
de nouveaux
dynamiques
outils de modélisation
et de simulation de phénomènes
les
complex adaptive systems).
(par exemple :
Les frontières entre ces trois ensembles peuvent être discutées et considérées
la plupart des économistes
comme partiellement
subjectives. Néanmoins,
le plus souvent, une certaine idée de ce que l'on peut (ou
ont, implicitement
l'on doit) trouver dans un modèle économique
Cela joue un rôle dans la
le
niveau
et, par conséquent,
façon d'appréhender
microéconomique
influence les types de phénomènes
émergents que les modèles sont en
mesure de produire.
3.. L'AUTO-ORGANISATION
INDUSTRIELLE
DANSLATHÉORIE
CONTEMPORAINE
ÉCONOMIQUE
Nous n'allons pas ici engager d'analyse rétrospective visant à réexaminer les
industrielle à la lumière de la
analyses ou les fondements de l'économie
notion d'auto-organisation
(cf. par exemple J. Foster, 1993). Nous allons
commeobjet et commestratégiede recherche
L 'auto-organisation
397
étudier la façon dont certains travaux contemporains d'économie industrielle réalisent, de fait, le programme de recherche sur l'auto-organisation
défini par J. Lesourne et s'inscrivent dans la problématique que nous venons
d'énoncer. Pour cela, nous allons prendre en considération, entre autres, un
ensemble de travaux et de recherches (issus, plus particulièrement, de l'évolutionnisme contemporain) dont on considère qu'ils peuvent fournir des
enseignements pertinents même s'ils ne se réfèrent pas explicitement à la
notion d'auto-organisation. Nous nous attachons moins à la façon dont sont
présentés les modèles étudiés qu'à nous instruire des conditions dans lesquelles une certaine problématique peut être mise en oeuvre et illustrée.
1 Lesecteurcommesystèmeautonome
3.1
Un secteur (c'est-à-dire l'ensemble des firmes produisant à titre principal un
certain type de biens ou de services) est-il un système autonome ? Le fait
qu'il peut être défini comme un ensemble d'agents eux-mêmes auto-organisés n'est manifestement pas une condition suffisante car cela ne permet pas
de justifier l'existence d'une clôture opérationnelle garantissant l'unité
dynamique de l'ensemble. C'est seulement une condition de flexibilité
nécessaire.
On peut suggérer une réponse empirique à la question posée en remarquant
simplement que l'organisation d'un secteur ne dépend pas de son environnement et, plus précisément, de la demande. Une même demande peut être
satisfaite par plusieurs types d'organisation industrielle, par des systèmes
d'offre dont les structures sont différentes. Certes des contraintes de coût et
d'efficacité jouent un rôle mais elles ne sont pas déterminantes. Dès lors que
l'on retient le principe d'une rationalité limitée, l'habitude, la mémoire et les
compromis plus ou moins institutionnalisés prennent de l'importance. Plus
globalement, on ne peut ignorer le poids des traditions, de l'histoire, du
contexte, de certains événements : « [Les] structures ne sont que très partiellement déterminées par les caractéristiques techniques et commerciales
de chaque branche. Elles résultent largement de l'évolution historique de la
branche depuis son origine » (J. Lesourne, 1991, p. 175).
'
Par exemple l'organisation du secteur textile en France et en Italie fut pendant longtemps très différente. Autre exemple : le développement des
grandes surfaces en France, leur rôle dans la distribution d'un certain
nombre de produits et, au delà, leur pouvoir économique sont spécifiques...
Plus généralement, les institutions sectorielles, les relations interfirmes ou
les relations avec le système financier, dans le contexte de politiques industrielles nationales, fondent des organisations industrielles différentes selon
les pays. L'approche néo-institutionnelle aborde ces questions sur une base
essentiellement économique et fournit des analyses intéressantes. Mais,
nous ne pensons pas qu'elle puisse à elle seule fournir des réponses complètes. D'autre part, la théorie des marchés contestables, qui plaide en faveur
398
AUTO-ORGANISATION
d'un déterminisme technologique de la structure sectorielle a montré ses
limites (cf. par exemple S. Martin, 1993). Bref, en matière d'organisation
industrielle comme dans les organisations, il n'y a pas de one best way. Les
comportements propres semblent a priori multiples et leur explication, faisant appel à l'histoire, complexe.
S'inspirant de la théorie des systèmes autopoïétique, P. Garrouste a analysé
la filière de la forge et a caractérisé « les relations qui structurent une filière
technique et lui donnent le caractère d'un système dynamique » en fonction
de trois caractéristiques : la rigidité de la filière, sa cohérence et sa complexité ( 1 984, p. 69). Nous trouvons également chez D. Foray une tentative
pour « concevoir l'industrie comme un système autopoïétique » et élaborer
un cadre d'analyse qu'il a appliqué à l'étude de la fonderie (1987). Ces
approches sont des tentatives originales pour spécifier les conditions
d'émergence et d'autonomie des systèmes industriels. Elles se situent au
niveau méso-économique et sont centrées sur les systèmes de production.
Les aspects concurrentiels ou microéconomiques en sont totalement absents.
3.2 Lasimulationde la co-évolutionde l'industrie
et de la technologie
R. Nelson et S. Winter ont inauguré un courant de recherche qui consiste à
simuler la co-évolution de la structure industrielle et de la technologie d'un
secteur à partir d'un modèle comportant en général comme ingrédients : des
firmes ayant un comportement routinier et adaptatif, en nombre donné ou
non, investissant en capacités et faisant évoluer leur technologie par R&D,
imitation ou apprentissage. Chez ces auteurs, l'équilibre de marché résulte
d'une confrontation offre/demande et le prix s'ajuste en fonction d'une
demande nominale fixe. Le cadre d'analyse est dynamique mais le nombre
de variables endogènes est limité. Le produit est homogène et les firmes se
distinguent par leurs coûts, seules les innovations de procédé étant prises en
compte.
Dans ce modèle la structure du secteur émerge de la dynamique sectorielle
et des aléas de la recherche. Elle est cependant caractérisée à partir d'indices
de concentration synthétiques exprimant des propriétés quantitatives globales et non des types d'organisation ou d'ordre du secteur, toute notion
d'organisation industrielle ou de schémas de structures (patterns) étant
absente ou exogène. Le caractère imprévisible des résultats est lié à l'usage
de plusieurs fonctions aléatoires dans le modèle mais le modèle ne peut être
considéré véritablement comme complexe. Il n'y a pas, dans ce type de
modèle, de véritable émergence. Les caractéristiques globales ne sont pas
une incitation à modifier le modèle ou à réfléchir à des propriétés globales
originales et à des interactions nouvelles qui en seraient responsables. La
démarche est ascendante et à aucun moment descendante. Elle a une valeur
commeobjet et commestratégiede recherche
L'auto-organisation
399
essentiellement illustrative. Nelson et Winter ne s'engagent pas dans des
études de sensibilité et le modèle n'est pas utilisé comme un objet expérimental.
On se situe ici dans le cadre du type de démarche évoquée par I. Stengers :
rassembler des éléments en interaction, « faire tourner » le modèle et étudier
ce qui se passe. G. Dosi, par exemple, ne dit pas autre chose lorsqu'il présente ainsi sa stratégie de recherche : « je pars de ce que je considère être des
généralisations plausibles du comportement des firmes et de leurs interactions, j'écris les équations différentielles correspondantes et je considère où
me conduit tout le processus » (1992). Toute la question est évidemment de
savoir ce que l'on doit considérer comme des généralisations empiriques
pertinentes et potentiellement intéressantes. Quels sont les critères de choix
des hypothèses quand, dans une démarche ascendante, on déduit le comportement agrégé des firmes ou l'évolution du secteur comme le produit des
interactions entre des firmes dont les logiques d'évolution ne sont soumises,
en leur contenu, ni à une condition d'équilibre ni à des faits stylisés émergents préalablement définis ?
On peut également observer que la succession des états d'un système dynamique ne constitue une évolution de structures qu'en un sens assez trivial.
N'y aurait-il pas ici un risque de confusion entre cinétique et dynamique ?
La cinétique peut être utile à condition qu'elle débouche sur une périodisation et sur une interprétation du sens et de la cohérence des périodes observées.
¡
Le modèle proposé a été suivi d'un grand nombre d'autres qui différent évidemment par les hypothèses, les spécifications et les questions posées, mais
dont la démarche et le sens méthodologique restent identiques, certains
recourant même explicitement à la notion d'auto-organisation. Parmi ceuxci, une famille de modèles repose sur l'exploitation de l'équation de Fisher
(K. Iwai, 1984 ; S. Metcalfe, 1993 ; G. Silverberg, G. Dosi et L. Orsenigo,
1988). L'analogie avec la sélection naturelle semble présente, sauf à avancer
que loi de Fisher est une loi générale des systèmes écologiques c'est-à-dire
des systèmes de populations.
4
On observera aussi que l'effet de la structure sur les comportements des
firmes se réalise le plus souvent par l'effet en retour de quelques caractéristiques globales (et non locales). Elle joue un rôle au travers de la fonction
d'investissement des firmes (rôle du taux de marge chez Nelson et Winter)
ou des parts de marché (modèles fondés sur les équations de Fisher). Un
autre type de variable « globale » pouvant jouer un rôle dans les comportements des firmes est la connaissance publique ou la science qui est exogène
(R. Nelson et S. Winter) ou endogène (G. Silverberg et alii).
;
;
;
En conclusion, la démarche retenue dans cette famille de modèles peut être
rapprochée de celle de l'étude des systèmes à auto-organisation par l'objet
(évolution ou émergence de structure) et par un aspect de la méthode (« mettre
:
;
i
,
,
400
AUTO-ORGANISATION
ensemble... »). Mais tout se passe comme s'il s'agissait surtout d'imiter en
quelque sorte les évolutions réelles sans être guidé par des faits stylisés bien
identifiés à reproduire, sans validation et sans démarche d'ensemble. Nous
nous situons ici essentiellement dans le cadre de l'étude de la rivalité entre
firmes, donc dans un cadre d'analyse très proche du cadre microéconomique
habituel. Le type de modèle étudié peut cependant être enrichi par des formalismes novateurs tels que ceux qu'autorisent les algorithmes génétiques
comme, par exemple, dans C. Olivier et alii (1997) ou encore C. Dupuy et
A. Torre (1999), débouchant sur des modèles que nous baptisons « d'hybrides ».
3.3 Lecyde de vie de l'industrieet l'émergence
du dominantdesign
Le cycle de vie de l'industrie constitue, en un certain sens, le modèle évolutionniste par excellence
Il relève, au départ, de ce que nous appelons les
«
macro-macro
»
de l'évolution de structures industrielles, cellesapproches
ci s'enchaînant sans que des éléments d'explication microéconomiques
soient nécessairement fournis. Pendant toute une période, ce schéma, présenté initialement dans le contexte du marketing et autour duquel s'est greffé
progressivement un ensemble d'éléments complémentaire énoncés a priori,
était surtout, selon notre expression, « un fait stylisé sans faits ». Nous voulons dire qu'il n'avait jamais été véritablement validé, le cycle de vie ayant
été considéré comme s'imposant d'évidence. Les validations empiriques
systématiques sont apparues tardivement. Ce n'est que récemment que
quelques faits stylisés intéressants ont pu être identifiés et c'est encore plus
récemment que quelques économistes théoriciens s'y sont intéressés sur un
plan théorique (cf. S. Klepper et E. Graddy, 1990) (2).
Nous retiendrons, sur le plan empirique, les deux faits stylisés suivants
caractéristiques, plus particulièrement, de la phase d'émergence du cycle :
apparition assez rapidement, de ce qu'on appelle un dominant design, suivi
d'une phase de réorganisation et de concentration (shake out) (J.M. Utterback,
1994). Nous avons là un phénomène que l'on peut qualifier légitimement
d'émergent se manifestant, d'abord, par un accord sur une conception du
produit et, ensuite, par la restructuration qui en résulte. L'auto-organisation
du secteur est manifeste puisqu'à une phase de fluidité, caractérisée par l'absence de régularités et de préférences bien structurées, succède une autre
,
'
(1) Le cycle de vie du produitpeut être rapproché,dans son principe,de l'évolutionnisme
philosophiquedu Xix.siècleconsistantà énoncera priori les stadesde développement
successifspar lesquelsdevaientpasserl'humanitéou les sociétéshumaines.
(2) Le courantde l'écologiedes organisations(M.T.Hannanet G.R. Carroll,1992)n'est pas
vraimentorientévers l'explicationmais présentel'intérêt de qualifieret d'identifierles
faits stylisésà expliquer.
commeobjet et commestratégiede recherche
L'auto-organisation
4011
phase dans laquelle les comportements sont structurés et deviennent plus
rationnels. On passe du stade de l'innovation schumpetérienne à une période
où le calcul économique et la prévision deviennent possibles. Plusieurs analyses théoriques destinées à rendre compte, analytiquement, de ces phénomènes, ont été proposées.
Jovanovic et MacDonald ont présenté, en 1994, un modèle proposant une
explication du shake out. Mais celui-ci y est déclenché par un événement
exogène et non par l'apparition d'un dominant design endogène. Klepper a
présenté plusieurs modèles dont le dernier explique à la fois le shake out, le
passage d'innovations de produits à des innovations de procédés et une
explication des avantages dont bénéficie le first-mover (1997) (1). Un facteur
critique du modèle est l'existence de rendements croissants de la R&D mais
il existe aussi (phénomène Penrosien) des coûts d'expansion limitant le taux
de croissance des firmes. Klepper observe que l'on peut également y intégrer l'évolution de la structure verticale des firmes. Les préférences des
consommateurs sont introduites par Birchenball et Windrum dans un modèle
de simulation ( 1998). Les auteurs font l'hypothèse qu'elles changent et évoluent en fonction des offres des entreprises. Ce modèle contribue à relativiser le principe du dominant design qui apparaît alors comme un cas
particulier.
L'endogénéisation du dominant design demeure un thème sur lequel les
recherches doivent se poursuivre. L'intérêt des travaux évoqués réside dans
leur démarche qui consiste à éclairer et fonder sur des comportements
microéconomiques un phénomène que l'on peut considérer comme véritablement émergent. La recherche est fortement engagée dans une démarche
« descendante ».
3.4 Lefonctionnementdes marchéset l'émergencede structures
_
.
L'étude du fonctionnement des marchés donne également lieu à des analyses
théoriques qui se posent en terme de détermination des structures
d'échanges émergentes. Nous pouvons prendre l'exemple proposé par
G. Weisbuch, A. Kirman et D. Herreiner (1998). Il s'agit d'un modèle de
marché destiné à « étudier comment « l'ordre » observé sur de nombreux
marchés de biens périssables, se développe » (p. 179). Par ordre, ils désignent « l'établissement de relations stables sur de nombreuses périodes
d'ouverture du marché » (ibid.). Ils concluent à l'existence d'une distribution bimodale des acheteurs, « une partie ayant un comportement ordonné,
l'autre non ». Ce résultat est robuste et demeure valable pour un modèle dans
lequel bon nombre d'hypothèses réalistes sont introduites. Ils concluent
ainsi : « Des relations d'échange stables peuvent être considérées comme
(1) Sur ces points,cf L. Le Dortz(1997).
402
AUTO-ORGANISATION
une institution mutuellement
profitable aux deux catégories de partenaires.
Dans le cas présent, la mémoire des profits passés [...] fonde l'émergence
de l'institution » (p. 180). Un paramètre exprimant l'influence (non linéaire)
du profit sur les préférences crée un effet de seuil.
Dans le même ouvrage, J. Lesourne et G. Laffond, présentent un modèle
d'un secteur de gros. Leur démarche s'inscrit explicitement
d'émergence
dans une perspective
L'une des originalités
de ce
auto-organisationnelle.
modèle est de faire jouer un rôle important à l'aversion au risque (qui est une
variable endogène du modèle) et de montrer l'émergence
possible de deux
de
firme.
Le
est
types
processus d'émergence
dépendant du sentier et, à
l'état stationnaire final, le risque disparaît.
Tels qu'ils sont présentés, ces deux modèles semblent
la problématique
de ce que nous appelons l'émergence
s'inscrire plutôt dans
« synchronique
».
3.5 L'étudede l'auto-organisation
industrielle
à partirde nouveauxsystèmesd'interdépendance
L'analyse d'Arthur (1988) fournit une très bonne illustration d'un phénomène d'auto-organisation
en économie. Elle permet de comprendre par quel
genre de processus cumulatifs une technologie ou un standard se diffuse et
envahit tout le marché, créant un certain ordre. Arthur recourt au modèle de
tirage d'urne de Polya (1) pour spécifier le type de processus dépendant du
sentier expliquant cette émergence. Économiquement,
le phénomène de rende rendements croissants d'adoption
forcement est justifié par l'existence
c'est-à-dire
débouchant sur des dynade feed-back positifs, amplificateurs,
miques spécifiques (dépendance du sentier, irréversibilité,
verrouillage). Les
sont hétérogènes.
Ce modèle est un très bon exemple du
comportements
d'un phénomène émergent « surtype de démarche associant l'observation
inféprenant » (la domination exercée par une technologie éventuellement
rieure) et la construction d'un modèle explicatif. L'introduction
d'hypothèses
supplémentaires
portant, par exemple, sur les coûts de changement, permet
d'étudier la « concurrence
» entre deux structures possibles. On s'oriente
alors vers l'étude des phénomènes d'évolution.
On parvient, dans la perspective retenue, à spécifier les conditions d'émergence de certaines structures résultant de processus de diffusion. Ce qui
constitue un premier type de résultat significatif en matière d'auto-organisation dans le domaine économique. Ainsi, selon J.-M. Dalle (1998), les trois
de séquentialité et de structures locales d'interhypothèses d'hétérogénéité,
action « sont suffisantes, une fois prises en compte dans un modèle d'inter(1) L'urne de Polya a déjà été utilisée dans la littérature sur l'auto-organisation pour illustrer
l'existence possible de points fixes mutliples et, par là, expliquer la présence latente de
plusieurs comportements propres dans un système (J.-P. Dupuy, 1992 ; F. Varela 1989a).
commeobjet et commestratégiede recherche
L 'auto-organisation
403
action stochastique, pour expliquer qualitativement la forme des courbes de
diffusion [...] ce qui explique leur non-neutralité pour l'analyse économique
[...]. [Cette] forme apparaît structurelle [...] » (p. 250). Cette analyse rejoint
les travaux pionniers de P. David qui insiste sur l'existence d'une structure
commune consistant en « l'interdépendance des choix individuels avec
rétroaction positive localisée et qui donc, se prêtent à des modes d'analyse
qui tiennent expressément compte des évolutions passées » (1992, p. 243).
Dans les situations correspondantes, « les agents économiques, prisonniers
de réseaux sociaux et d'informations, sont soumis à des forces de rétroaction
positive [...] qui peuvent faire basculer les choix collectifs en faveur d'un
extrême ou de l'autre » (p. 247).
De cette famille de recherches, il ressort que l'étude des réseaux (pris en un
sens général et pas seulement technologique) apparaît comme une façon
essentielle d'étudier l'influence des événements passés, donc d'apprécier
plus particulièrement le rôle de l'histoire dans les phénomènes de propagation du changement. Mais, au travers des réseaux, se transmettent également
des orientations qui sont moins fortement ancrées dans l'histoire. Les
visions, les déviances et les projets individuels peuvent aussi se diffuser, se
conforter au point d'entraîner d'autres types de basculement des comportements collectifs. Le poids du passé doit être compensé par celui des volontés et des projets c'est-à-dire par le poids de la projection dans l'avenir.
3.6 L'étudede l'auto-organisationindustrielle
à partirdes nouveauxoutils
Dans un article de 1996 opérant une certaine coupure avec les formalisations
habituelles des économistes, S. Durlauf montre que la mécanique statistique
est compatible avec le raisonnement microéconomique et « constitue un
outil complémentaire valable » (1996, p. 31)
Il propose une démarche
unifiée permettant d'étudier, sur cette base, différentes représentations du
rôle des interactions directes entre les agents économiques dans l'émergence
de comportements agrégés originaux. Plus particulièrement, un sousensemble de ces modèles permet d'endogénéiser la structure de voisinage
des agents contribuant ainsi à suggérer une explication de « l'auto-organisation de la composition du voisinage » (p. 26). Une relation entre l'existence
d'une différenciation au sein d'un ensemble social et l'existence d'équilibres
multiples est suggérée. Méthodologiquement, la liaison s'opère alors avec
les verres de spin et, par ce biais, pourrions-nous rajouter, avec un ensemble
de modèles de simulation développés dans le contexte du néo-connectionisme auquel nous nous sommes référé auparavant. Les articles de I. Hors et
J. Lordon (1997) et de J.-M. Dalle (1997) traitent également de l'apport de
(I) L. Blume jouaun rôle précurseuravec un articlepubliéen 1993.
404
AUTO-ORGANISATION
certaines méthodes issues de la physique (analyse de transition de phase,
Ce type de contribution appelle évidemment de plus
champs de Gibbs...).
mais il nous suffit, pour notre propos, de relever la
longs développements
forte convergence entre les préoccupations
qui s'y expriment et l'approche
Par une espèce de long détour, nous revenons en
auto-organisationnelle.
et
quelque sorte à notre point de départ, à savoir au néo-connectionnisme
aux disciplines fondatrices de l'analyse de l'auto-organisation.
4. CONCLUSION
Une approche en terme d'auto-organisation
dans le domaine de l'économie
industrielle est justifiée et concevable. Elle peut être abondamment
illustrée
et argumentée à partir de modèles déjà existants qui s'inscrivent,
explicitement ou non, dans cette perspective et contribuent à enrichir la compréhension des phénomènes d'auto-organisation
dans ce domaine.
Nous avons insisté sur la notion d'émergence
et sur le fait que l'auto-organisation nous semble devoir être interprétée comme une démarche originale
de recherche visant à mettre en relation deux niveaux d'analyse d'un système. Force est d'observer cependant que les démarches mises en oeuvre ne
s'intègrent encore que rarement dans un processus suffisamment
systématique d'étude des phénomènes émergents tels que nous les avons caractérisés.
Les deux termes du problème, le global et le local sont à travailler simultanément si bien que le chercheur peut à la fois jouer sur l'explicandum
et sur
C'est ce qui rend la démarche difficile et explique sans doute
l'explanans.
une prolifération de modèles telle qu'on ne sait trop comment les rapprocher
et les comparer, tant les hypothèses peuvent être nombreuses
et variées.
Nous avons classé principalement
les modèles sur la base de leur éloignement par rapport à la conception habituelle des modèles microéconomiques
de secteur. Nous avons tenu compte aussi de la nature des phénomènes
Nous avons privilégié
émergents pris en compte et des modes d'émergence.
les travaux microéconomiques
de caractère formalisé dont l'intérêt vient aussi
de ce que « seul ce formalisme permet de prendre conscience du grand nombre
d'hypothèses
qu'implique la construction d'un modèle » (J. Lesoume, 1988,
p. 194).
Nous mesurons ainsi à quel point le chantier ouvert est complexe
important. C'est dire que le défi à relever est passionnant.
et l'enjeu
commeobjet et commestratégiede recherche
L'auto-organisation
405
BIBLIOGRAPHIE
ARTHURW.B. , « Self-Reinforcing Mechanisms in Economics », in Anderson P., Arrow K. & Pines D. eds., The Economy as an Evolving Complex System,
Addison-Wesley, 1988.
D. & WELCHI., « Learning from the Behavior of
BIKHCHANDANI
S., HIRSHLEIFER
Others: Conformity, Fads and Informational Cascades », Journal of Economic
Perspectives, vol. 12, na 3, 1998.
BRICHENBALL
C. & WINDRUM
P., « Is Life Cycle a Special Case? Dominant Designs
and the Emergence of Market Niches Through Evolutionary Leaming », Structural
Change and Economic Dynamics, vol. 9, 1998.
BLUMEL., « The Statistical Mechanics of Strategic Interaction », Games and
Economic Behavior, vol. 5, 1993.
J.-L. & GRUMBACH
BONABEAU
A., « Characterizing Emergent
E., DESSALLES
Phenomena », Revue internationale de dystémique, 1995 (en deux parties).
BouDONR., La logique du social, Hachette, 1979.
DALLEJ.-M., « Local Interaction Structures , Heterogeneity and the Diffusion of
Technological Innovations », in J. Lesourne & A. Orlean eds., Self Organization and
Evolutionary Economics, Economica, 1998.
DALLEJ.-M., « Heterogeneity vs. Externalities in Technological Competition »,
Journal of Evolutionary Economics, vol. 7, 1997.
P. & STIGLITZ
DASGUPTA
J., « Industrial Structure and the Nature of Innovation
Activity » Economic Journal, vol. 90, 1980.
DAVIDP., « Dépendance du chemin et prévisibilité des systèmes dynamiques avec
externalités de réseau localisées : un paradigme pour l'économie historique », in
C. Freeman et D. Foray eds., Technologie et richesse des nations, Economica, 1992.
DELORME
R., « Évolution et complexité : l'apport de la complexité de second ordre
à l'économie évolutionnaire », Économie Appliquée, T. L, 1997, na 3, 1997.
Dosi G., « Performances, Interactions and Evolution in the Theory of Industrial
Organization », in A. Del Monte ed., Recent developments in the theory of industrial
organization, MacMillan, 1992.
L. & FAGIOLO
Dosi G., MARENGO
G., Learning in evolutionary environments,
Working Paper, 1996-05, CEEL, Université de Trente, 1996.
DUMOUCHEL
& DuPUYJ.-P. eds., L'auto-organisation, Le Seuil, 1983.
DuPUYC. & TORREA., La morphogenèse des relations de coopération
' entre
' firmes
dans un système localisé de production, LEREP, Toulouse, 1999.
DuPUYJ.-P., Introduction aux sciences sociales. Logique des phénomènes collectifs,
Ellipses, 1992.
DURLAUFS.N., Statistical Mechanics Approaches to Socioeconomic Behavior,
Working Paper, University of Wisconsin, 1996.
406
AUTO-ORGANISATION
ELLISONG., « Learning, Local Interaction and Coordination », Econometrica,
61, 1993.
vol.
FORAYD., Innovations technologiques et dynamique industrielle, PUL 1 987.
FOSTER J., « Economics and the Self-Organisation
Revisited », Economic Journal, vol. 103,1993.
Approach: Alfred Marshall
GARROUSTE
P., Filières techniques et économie industrielle, PUL, 1984.
HANNANM.T. & CARROLLG.R., Dynamics of Organizational
University Press, 1992.
Populations,
Oxford
HAYEKF. VON,Droit, législation et liberté, trad. française, Paris, PUF, 1973.
HORS I. & LORDONJ., « About Some Formalisms
Evolutionary Economics, vol. 7, 1997.
of Interaction
HUFF A.S., « Industry Influences
Management Journal, vol. 3, 1982.
Reformulation
on Strategy
», Journal
of
», Strategic
IWAI K., « Schumpeterian Dynamics: An Evolutionary Model of Innovation and
Imitation », Journal of Economic Behavior and Organisation, part. 1: vol. 5, n° 2;
part. II: vol. 5, n° 3, 1984.
JENSENJ.B. & McGucKrrr R.H., « Firm Performance and Evolution: Empirical
Regularities in the US Microdata », Industrial and Corporate Change, vol. 6, n° 1,
1997.
JOVANOVIC
B. & MAC DONALDG.M., « The Life Cycle of a Competitive Industry »,
Journal of Political Economy, vol. 102, 1994.
KANDORIM., MAILATHG. & ROB R., « Leaming, Mutation and Long Run Equilibria
in Games », Econometrica, vol. 61, 1993.
KLEPPERS. & GRADDYE., « The Evolution of New Industries and the Determinants
of Market Structure », Rand Journal of Economics, vol. 21, n° 1, 1990.
KLEPPERS., « Industry Life Cycles », Industrial and Corporate Change, vol. 6, n° 1,
1997.
LE DORTzL., Un nouvel objet d'analyse : l'émergence industrielle, thèse, Université
de Paris-1, 1997.
LESOURNEJ., Les systèmes du destin, Dalloz, 1976.
Lesourne J. & Laffond G., Market Dynamics and Search Processes, Congrès européen de la Société d'économétrie, Amsterdam, 1981.
LESOURNEJ., « La science économique et l'auto-organisation », in Temps et devenir,
À partir de 1'oeuvre d'llya Prigogine, Genève, Patino, 1988 (colloque de Cerisy de
1983).
LESOURNEJ., « Le marché comme système autopoïétique », Revue internationale de
systémique, vol. 1, 1988.
LESOURNEJ., Économie de l'ordre et du désordre, Economica, 1991.
LESOURNEJ. & ORLÉANA. eds., Self Organization and Evolutionary Eeconomics,
Economica, 1998.
MARTINS., Advanced Industrial Economics, Blackwell, 1993.
commeobjet et commestratégiede recherche
L'auto-organisation
407
MARUYAMA
M., « The Second Cybemetics: Deviation-Amplifying Mutual Causal
Processes », American Scientist, vol. 51, n° 2, 1963.
METCALFE
J.S., « Some Lamarckian Themes in the Theory of Growth and Economic
Selection: a Provisional Analysis », in « Évolution et apprentissage en économie »,
Revue Internationale de Systémique, numéro spécial (coordonné par E. Zuscovitch).
NELSONR. & WINTERS.G., An Evolutionary of Economic Change, The Belknap
Press of Harvard University, 1982.
OLIVIERV., DESTRUEL
C. & DUTHENY., Modélisation artificielle des propriétés
émergentes des régimes industriels de compétition technologique, LEREP, Université des sciences sociales de Toulouse, 1997.
éd. 1966).
OLSONM., La logique de l'action collective, PUF, 1978
ORLÉANA., De la stabilité évolutionniste à la stabilité stochastique, colloque de
l'AFSE, 1995.
ORLÉANA., « Informational Influences and the Ambivalence of Imitation », in
J. Lesourne et A. Orléan eds., Self Organization and evolutionary economics,
Economica, 1998.
PAULRÉ
B., « Évolutionnisme contemporain et auto-organisation », Économie appliquée, T. L, 1997, n° 3, 1997a.
PAULRÉ
B., « L'apport de l'évolutionnisme contemporain à l'analyse économique de
l'innovation », Economie appliquée, T. L, 1997, n° 3, (1997b).
PAULRÉB. ed., Épistémologie de la stratégie en économie, Publications de la
Sorbonne, 1998.
SILVERBERG
G., Dosl G. & ORSENIGO
L., « Innovation, Diversity and Diffusion: a
Self-Organisation Model », Economic Journal, 1988.
STENGERS
I., « Les généalogies de l'auto-organisation », in Cahiers du CREA.,
Généalogies de l'auto-organisation, na 8, novembre, 1985.
STENGERS
L, La vie et l'artifice : visages de l'émergence, Cosmopolitiques, tome 6,
La Découverte/Les empêcheurs de penser en rond, 1997.
UTTERBACK
J.M., Mastering the Dynamics of Innovation, Harvard Business School
Press, 1994.
VARELA
F., Autonomie et connaissance, Le Seuil, 1989a (1980-1987).
VARELA
F., Connaître, Paris : Le Seuil, 1989b.
WALLISER
B., Systémique et économie, Revue internationale de systémique, vol. 2,
n° 3, 1989.
WEISBUCH
A. & HERttE?rlER
G., KIRMAN
D., « Market Organization », in J. Lesoume
et A. Orléan eds., Self Organization and Evolutionary Economics, Economica, 1998.
WEISSP., L'archipel scientifique, Maloine, 1974 (1971).
WINTERS., « Knowledge and Competence as Strategic Assets », in D. Teece ed., The
Competitive Challenge, Harper & Row Publ., 1987.
YOUNGP., « The Evolution of Conventions », Econometrica, vol. 61, 1993.
Jean-François
.
Laslier
AGENTS
HISTORIENS
RATIONNELLES
ET ANTICIPATIONS
Note liminaire. Le texte qui suit a été rédigé en 1990 au laboratoire d'économétrie
du Conservatoire des arts et métiers (l) quand j'y travaillais sous la direction de
Jacques Lesourne. On y retrouve quelques idées directrices du travail mené au
laboratoire dans la phase de gestation de l'Économie de l'ordre et du désordre.
Nous estimions à ce moment avoir relativement bien compris ce qui est décrit dans
la première partie de l'Économie de l'ordre et du désordre comme le marché « organisateur ». Par ce terme il faut entendre la capacité que possède une population
d'agents adaptatifs myopes à faire émerger, de manière progressive et non intentionnelle, des régularités collectives telles que les prix. Contrairement à la théorie
standard, les modèles utilisés comprennent une description des individus très
économe du point de vue cognitif : les agents y sont de mauvais calculateurs et ils
sont peu informés. La question se posait alors de savoir ce que nous pouvions dire
sur les phénomènes à propos desquels la théorie standard demande une rationalité
spécialement forte, et en particulier sur le problème des anticipations.
Jacques Lesourne - qui ne dédaigne pas les métaphores militaires - m'a en quelque
sorte envoyé en reconnaissance derrière les lignes ennemies, pour un travail de
cartographie conceptuelle. L'objectif était de déterminer quel peut être l'apport des
sur la question classique des conséquences, pour
modèles d'auto-organisation
l'économie réelle, des anticipations individuelles. Le rapport de fin de mission est
un exercice à propos du modèle de base à générations emboîtées. Ses conclusions
sont d'une certaine manière opposées à celles tirées de l'étude des marchés simples.
Sur un marché simple, où les anticipations ont peu d'importance, l'équilibre traditionnel est obtenu à la fois dans les modèles à agents rationnels et dans des modèles
(1) Il figure dans ma thèse : Modèles d'auto-organisation en économie, CNAM, Paris, 1991.
Agentshistorienset anticipationsrationnelles
409
à agents adaptatifs. Au contraire, si les anticipations sont essentielles, les prédictions des deux modèles divergent. La question de la genèse des anticipations dans
une économie est reprise, de manière beaucoup plus détaillée, dans LaffondLesourne (1992).
Traditionnellement, l'économiste considère que, une fois explicitées toutes les
contraintes qui pèsent sur l'individu (y compris les contraintes informationnelles),
),
les préférences suffisent à déterminer les actions. La fonction d'utilité serait « la
seule boîte noire ». En fait la psychologie d'un individu se traduit non seulement
par ses préférences, mais aussi par la manière personnelle qu'il a de réviser ses
et d'anticiper le futur. De même
croyances, de prendre en compte l'incertitude
que, si les goûts importent, il faut sérieusement se poser la question « Quelle est la
fonction d'utilité ? », si les anticipations importent, il faut se poser sérieusement la
question « Quelle est la fonction d'anticipation ?».
Rappelons brièvement comment ces questions se posent dans la théorie le.sournienne de l'auto-organisation. Cette théorie est toujours à la recherche d'explications dynamiques (plutôt que fonctionnelles). Dans ce cadre, aborder la question de
la formation des goûts nécessite de remettre en cause de manière assez profonde le
statut «individuel» de l'agent. Dans Les systèmes du destin on trouve décrit un
homme, qui n'est qu'un cousin éloigné de l'homo economicus :
« Unhomme dominé par son Inconscient, déchiré par ses conflits intérieurs,
bardé de mécanismes de défense, tiraillé entre l'amour et la haine. Un
homme aux graves insuffisances de contrôle. »
Dans les modèles d'auto-organisation en Économie proposés par Jacques
Lesourne, cette vision de l'homme est (pour le moment ?) mise de côté : conformément à la tradition économique, ces modèles utilisent généralement des préférences
fixes et exogènes. Par contre, en ce qui concerne la rationalité de l'agent, ils
suivent le modèle de l'homme proposé dans Les systèmes du destin :
«... la Raison, l'impérieuse et orgueilleuse Raison, loin d'être une donnée est
le résultat, non seulement à l'échelle de l'espèce mais à celle de l'individu
d'une construction systématique. C'est d'ailleurs là qu'elle puise son adaptation au réel. »
La question de la formation des anticipations rentre tout naturellement dans un
cadre évolutioniste par le biais des anticipations adaptatives. Du point de vue de
l'auto-organisation en économie, il n'y a aucun problème à traiter de la même
manière les variables d'action et d'anticipation. Action et anticipation sont des
fruits de la raison, et la raison se construit progressivement dans la confrontation
répétée avec la réalité
INTRODUCTION
L'hypothèse que les agents économiques anticipent rationnellement le futur
est fréquemment utilisée dans la théorie économique. Une des causes de ce
(1) Questionpour le théoricien :Peut-ondonner un fondementévolutionisteà l'aversion
pour le risque ?
4100
AUTO-ORGANISATION
fait est que l'hypothèse d'anticipations rationnelles est pour les économistes
le prolongement naturel de l'hypothèse de « comportement rationnel »,
appliquée aux variables futures. La pertinence de ce point de vue peut être
elle-même discutée, mais nous ne le ferons pas ici directement. Nous désirons montrer que l'hypothèse de rationalité absolue appliquée à la connaissance des variables futures d'une économie ne passe pas un des tests de
réalisme qu'on peut exiger d'une telle hypothèse, à savoir que les prédictions de la théorie constituent des approximations des prédictions de théories
réalistes n'utilisant pas cette hypothèse.
Par théorie réaliste, nous entendons une théorie dans laquelle les agents
économiques n'ont pas connaissance du futur. Les anticipations qu'ils
forment sont des fonctions du passé et (éventuellement) du présent ; c'est la
raison pour laquelle nous les appellerons des agents historiens. Nous considérerons de plus une économie sans aléa (une version de base du modèle à
générations emboîtées); en effet, en l'absence d'aléa, l'hypothèse d'anticipations rationnelles prend la forme particulièrement simple de l'hypothèse
d'anticipations exactes. Dans ce cas la « rationalité » des agents s'exprime
comme une relation déterministe liant le passé, le présent et le futur. En
particulier, le passé étant fixé, seuls les présents correspondant à des futurs
rationnellement possibles sont envisageables. C'est en ce sens qu'on dit
quelquefois que les modèles à anticipations rationnelles inversent le sens de
déroulement du temps en déduisant le présent du futur.
La première partie expose la version utilisée du modèle à générations emboîtées. La deuxième partie expose, à propos de quelques exemples, le fonctionnement de ce modèle lorsque les agents utilisent des fonctions
d'anticipations empiriques exogènes. La troisième partie considère un
ensemble plus large de comportements anticipatifs (fonctions de classe Ci
des derniers prix) et détermine dans cet ensemble ceux qui donnent les
mêmes résultats que des anticipations rationnelles.
1. LEMODÈLE
On considère le modèle à générations emboîtées (« Overlapping Generations Model ») le plus simple, où l'utilité est une fonction de Cobb-Douglas.
Si x est la consommation de l'agent représentatif quand il est jeune et y sa
consommation quand il est vieux, l'utilité obtenue est U(x,y) = xa y 1-a ,
avec 0 < a < 1 . On suppose aussi qu'il y a des dotations initiales non nulles
aux deux périodes, W¡ et cv2 ,de telle sorte que le problème du consommateur peut s'écrire :
Max(w¡ + Z 1 )' «02 + Z2)
s.c. pizj +m = 0
4111
Agentshistorienset anticipationsrationnelles
e
/?+)Z2
=m
m 0
où z, et Z2 représentent les demandes nettes pour la période présente et la
période future, pi le prix courant,
le prix anticipé pour la période future,
et m la quantité de monnaie épargnée. Ce modèle est un cas particulier du
modèle standard étudié par exemple dans Grandmont-Laroque (1973) ou
dans Benassy-Blad (1988). La solution du problème du consommateur est
ici :
Le consommateur maximise l'utilité :
i -OE
Z1
Pt
1
par rapport à z i , d'où :
a
1- a
pt
W ++ z- 1 Pt+
e
Pl
1
1
Pl+]
et donc :
e
=
a pr+i
= a-W2
- (1 - a)wl'
Pt
(t)
(1 -
La quantité de monnaie épargnée par l'agent, m, vaut :
m =
(1 -
0')<M)p, -
Soit M la quantité totale de monnaie, égale ici à m puisqu'on ne considère
qu'un seul agent. La condition d'équilibre sur le marché donne le prix
courant en fonction du prix anticipé. Dans le cas considéré on a :
pt
=
A +
M
avec:
avec :AA= aWI
et : B =
aW2
(1
.
e
La condition m
0 s'écrit :
Pl
1
B
On fait l'hypothèse
B < 1, qui
8U
> 1 : les agents sont désireux d'épargner dans un
correspond
ax
état stationnaire à prix constants parfaitement anticipés. Les résultats classiques se formulent ici de la manière suivante :
.
4122
AUTO-ORGANISATION
- on
rationnelles
une suite de prix vérifiant
appelle suite d'anticipations
=
tout
t
:
On
a
alors: pt = A + Bp,+,.
Si on appelle
pour
« règle d'or » le prix p* tel que p* = A + Bp*, alors la règle d'or est
instable pour des anticipations rationnelles en ce sens que si pi est différent de p*, les prix suivants s'en s'écarteront encore plus (car B < 1 ) ;
- les
dites « naïves »
conduisent par contre de
anticipations
= pi- j
inverse de celle du cas
façon stable à la règle d'or, par la dynamique
du temps ») ;
précédent (« renversement
- le cas où les
= p, ne peut pas
agents anticipent un prix stationnaire
être traité dans ce modèle car pt est déterminé en fonction de
par
l'équilibre sur le marché.
La séquence des événements
est donc la suivante à l'intérieur
de la
est déterminé en fonction de l'histoire passée ; 2) les
période t : 1) p' ,
leur offre, en considérant
agents calculent par maximisation
pt comme
donné ; 3) une « main invisible » équilibre le marché, ce qui donne pt fonction de e+,.
Si on veut étudier la manière dont se forment les anticipations
on est donc amené à poser par exemple (Benassy-Blad,
est
1988) que
à pt - ce que pi- j était à pi-3 ». Ceci s'exprime mathématiquement
de la
manière suivante :
» e(.,a)
on considère
une « famille d'anticipations
indicée par un paramètre a. A la date t, la valeur at du paramètre est celle
de Pt-3 : at est la solution de l'équation
qui aurait permis de déduire
Cette valeur du paramètre est alors celle utilisée pour
pi-j =
déduire
de pt-I : on pose
Via une équation implicite, l'anticipation
pour t + 1 est donc fonction des prix en t - 1 et en t - 3
mais pas du prix en t .
Cela n'est guère logique. En effet, on admet (sans le décrire) l'existence
d'un processus d'équilibrage
du marché. Au cours de ce processus,
les
et
à
Il
a
aucune
agents ajustent prix
quantités pour parvenir
l'équilibre.
n'y
raison de penser qu'en acquérant ainsi de l'information
sur le prix de la date
t ils n'utilisent pas cette information pour modifier leurs estimations du prix
futur. Une autre manière de dire la même chose est de remarquer que, quand
ils calculent (par maximisation)
leur fonction d'offre, les agents envisagent
toutes les valeurs possibles pour le prix présent. Il n'y a pas de raison qu'en
faisant ainsi varier ce prix ils ne modifient pas en même temps leur estimation du prix futur. Il n'y a donc pas de raison d'exclure a priori que
p' , soit
aussi fonction de p,. L'article de Fuchs et Laroque (1976) qui étudie ces
dynamiques d'équilibres temporaires n'a d'ailleurs pas recours à cette hypothèse. Par contre il faut garder à l'esprit que poser que le prix courant est un
et considérer une séquence d'équiargument de la fonction d'anticipation
libres temporaires revient à exiger que le processus d'égalisation
des offres
et demandes résolve un système d'équations couplées contenant à la fois les
prix et les anticipations.
Nous passons maintenant aux théories réalistes au sens de l'introduction
et
considérons des agents historiens. On va étudier quelques cas particuliers
Agentshistorienset anticipationsrationnelles
4133
empiriques d'anticipations, c'est-à-dire quelques fonctions particulières
donnant
à partir des prix précédents. Dans certains cas pi sera argument
de cette fonction, dans d'autre cas il ne le sera pas. En notant q = p - p*,
on a toujours : q, = Bq'+,, avec 0 < B < 1 .
2.. QUELQUES
D'ANTICIPATIONS
FONCTIONS
EMPIRIQUES
2.1 Extrapolationssimplesà partirde Pt-1et pt
Posons
+
Alors qt
avec À + M = 1.
= B(Àqt-1 y- fiq,), et donc :
q,
Il y a « extra-
--g
Bp
polation » si it > 1 (et ; < 0 ). Dans ce cas la raison de la suite géoméest comprise entre -
trique
1 et 1 si et seulement si [À est inférieur
B
1
1
Par exemple, dans le cas d'une «extrapolation exacte »
à 22( 1 + B B) .
1 et ti = 2), le prix diverge pour B supérieur à 1/3. On constate
aussi que si il y a interpolation (À et p positifs), alors les prix convergent
toujours. Ce résultat est donné sous forme locale par Fuchs-Laroque (1976,
corollaire 1) pour des fonctions d'anticipations non linéaires mais seulement
différentiables.
2.2 Extrapolationssimplesà partirde p_ et Pt-1
Posons pr+J=ÀPt-2+fJ.Pt-l,
avec
1. Alors q, =
Le polynôme associé à cette suite est
Bp§ - BÀ. La suite
si
et
seulement
si
B
est
inférieur
à
converge
1/(p - 1). (Voir le lemme 1.)
A nouveau, si il y a interpolation, il y a convergence.
2.3 Extrapolationslinéairessur les Tderniersprix
Supposons que les agents gardent en mémoire les T derniers prix constatés
avec les dates associées (t - T + 1 , ... , t) ,et calculent leur
anticipation en effectuant la régression linéaire des prix sur les dates. On a
alors :
4144
AUTO-ORGANISATION
T
e
6
.
en q,, on obtient
une équation
récurrente
+ .T
T-
d'ordre
1:
1
B
qt =
1
2
u=l
En résolvant
1
T+
,
(E)
L
T u=1
que pour T = 2, les suites solutions
convergent
3 on peut montrer
que cette borne pour B est
de T la résolution
de
égale à 1/2. Pour des valeurs
plus grandes
explicite
récurrente
n'est
Le calcul numérique
montre
l'équation
plus possible.
que
du coefficient
B telle que les solupour chaque T il existe une valeur B(T)
tions soient convergentes
à B(T)
et divergentes
pour B inférieur
pour B
à B(T).
et B(3) = 1/2.).
Ce nombre
(On a donc B(2) = 1/3
supérieur
On a vu au paragraphe 1 )
pour B < 1/3. Pour T =
avec T
et tend vers 1 quand T
tend vers l'infini.
B(T)
augmente
tats théoriques
nous
avons
obtenir
sont
les
suivants :
que
pu
Pour étudier
à l'équation
les suites
solutions
associée :
algébrique
de l'équation
récurrente
Les résul-
(E), on s'intéresse
T
(2.1)
u=l
Si toutes les racines de cette équation
sont en module
inférieures
à 1, alors
toutes les suites solutions
tendent exponentiellement
vers 0. Sinon presque
toutes divergent.
3T -
T = 4 si B < 1/2,
Pour
2.1
Proposition
et pour
tout
T > 4 si
3
B
les
Démonstration
r
solutions
Soit
r
un
de (E) convergent.
nombre
Si ?
M=)
Q§
de module
complexe
à 1, alors
supérieur
est solution
de (1) on doit
somme
calculée
donc
avoir
H=!
T
1 < BS,
T = 4,
B > 1/2,
avec S
S=
2 et
=1
Cette
si
et si T > 4,
Les simulations
très grossière.
est
au
lemme
2. Si
u=l
T > 4,
B >
numériques
ST -
1
3T -
3
Ceci
5T
. -
par
conséquent,
démontre
1
montrent
que cette
borne
si
T = 4,
la proposition.
de l'ordre
de 3/5 est
4155
Agentshistorienset anticipationsrationnelles
Pour tout T il existe s > 0 tel que si B > 1 - e, les solutions de (E) divergent.
T
T
Soit
Démonstration :
1 - B r 1.
u=l
Des égalités
= 1
u=l
T
= 1 on déduit
et 1
u=1
x > 1 tel que Pl (x) < 0.
= 0 et Pl'(1) = -2. Donc il existe un réel
T
En écrivant PB (x) sous la forme Pj (x) + (1 - B) 1 Àuxu-t on
u=l
constate
T
que PB (x) est négatif dès que (1 - B) 1 Àuxu-l (qui
u=1
est positif) est infé-
Comme PB (1 ) = 1 - B > 0, le polynôme PB possède
à - 2 Pj (x) .
une racine réelle entre 1 et x. Le résultat est donc prouvé en considérant
T
1
,V'
rieur
2
u=1
.
Encore une fois, les simulations numériques fournissent des résultats plus
explicites. La borne B(T) est à peu près égale à 0.75 pour T = 5, à 0.80
pour T = 10, à 0.85 pour T = 15. Si B = 0.90, les suites sont converelles divergent encore pour
gentes à partir de T = 24, si B = 0.99,
T = 100. On obtient donc le même résultat qualitatif que dans Laslier
(1989) : Si les agents utilisent pour leurs modèles linéaires une profondeur
de la mémoire importante (le paramètre T grand) ils sont moins perturbés
par des valeurs extrêmes des données historiques et leurs anticipations
convergent. Si par contre les agents ont la mémoire courte, le modèle
linéaire fait perdurer les déviations accidentelles et les anticipations divergent.
Dans le présent modèle il n'y a en fait qu'un seul agent (« représentatif »),
alors que dans l'article précité nous considérions N agents distincts. Par
contre nous n'avions pas de modèle économique semblable au modèle
Cobb-Douglas utilisé ici et qui fournit une « sanction par la réalité ». Cela a
pour conséquence que la convergence, qui se faisait sur une tendance
( pt = at + b) imprévisible au départ, se fait maintenant sur une valeur qui
peut être déterminée (p, = p*) .
2.4 Uncas dans lequelles agents tentent de corriger
leurserreurs
L'absence de convergence dans ces modèles dynamiques peut sembler n'être
due qu'à la rigidité du comportement anticipatif des agents : ceux-ci ont une
4166
AUTO-ORGANISATION
certaine manière de prévoir le futur qui conduit régulièrement
à des prévisions erronnées. Intuitivement
on peut penser qu'en tenant compte de leurs
erreurs les agents peuvent améliorer leurs performances.
On peut donc se
des
poser la question : Est-ce que dans de tels modèles l'apprentissage
erreurs stabilise les comportements.
Fuchs (1979) montre que la réponse à
cette question est en général négative. Pour illustrer ce point, revenons au
cas où les agents extrapolent simplement
à partir de pt- j et de pt (cas
Il
a
à partir de
en
alors divergence
1)
posant :
+ 2pi .
y
B > 1/3. Supposons maintenant
tenant compte de leur précédente
que les agents corrigent cette estimation
erreur de prévision pr - pt .
en
On posera donc :
pe 1+1= - pt- j
,.
Cette
C
équation
avec 0 < s < 1.
+ 2pr
conduit
d . , à "qt+l -
B+ s
d
1 solutions
1.
d.
dont
les
diver2B
- 1 + £ B qt,
2B-1+EB
1
1- e
on
Cette borne étant plus petite
gent dès que B est supérieur
que -,3
à 3 + s e.
constate qu'en essayant de corriger leurs erreurs, les agents accroissent les
cas de divergence. Comme on le voit facilement en consultant les équations,
la suite des erreurs est elle-même divergente, en d'autres termes les erreurs
ne sont pas corrigées.
2.5 Desagents différents
Supposons maintenant qu'au lieu d'un seul agent représentatif on considère
un ensemble I d'agents. Nous supposons que ces agents ont des anticipations différentes mais ont tous la même fonction d'utilité et les mêmes dotations initiales.
t+ 1.
Sa
Soit P;+l le prix prévu par l'agent i à la date t pour la date
demande
nette
la période
est
alors
pour
présente
La condition
Pt
.
M
Pt
icI
n
d'équilibre
sur le marché
(t) = 0 peut s'écrire :
n-
acot Pl
t+ ¡-aWIPt=O
= 0
pl
où n représente le nombre d'agents. Soit p',, la moyenne arithmétique des
estimations des agents et m l'épargne moyenne, le prix courant est donné en
fonction de
par la même équation affine que dans le cas d'un seul
agent : pi = A + Bp'+1'
4177
Agentshistorienset anticipationsrationnelles
Comme on l'a vu précédement, si les agents calculent leurs anticipations à
partir des prix passés (et éventuellement du prix présent) alors il peut y avoir
convergence, alors que si ils formulent des « anticipations rationnelles » il y
a forcément divergence. Nous nous intéresserons donc au cas ou une fraction r de la population I anticipe rationnellement. On va montrer que r = 0
correspond à une discontinuité radicale dans les résultats: si r est différent
de 0 il y a divergence, et (paradoxalement) cette divergence est d'autant plus
rapide que r est proche de 0.
La meilleure manière de montrer la cause de cette discontinuité est d'envisager d'abord le cas le plus simple, celui d'anticipations « naïves » : rappelIons que si le prix anticipé pour demain est celui constaté la veille, il y a
convergence pour toutes les valeurs admises du paramètre B. Si une fraction
r de la population est rationnelle et la fraction (1 - r) est naïve alors on a :
+ rpt+l
et par
1
B
conséquent : B q,
= ( 1 - r)qt-I
+ rqt+l.
Pour étudier cette suite
+ (1 - r). Ce polynôme
B
n'est de degré 2 que parce que r est différent de 0. Il possède deux racines
réelles dont la plus grande en module est toujours supérieure à 1, décroît
avec r et tend vers l'infini quand r tend vers 0 :
récurrente, on considère le polynôme
polynome
/2
-'
2Br
1+ 2 ( 1
2Br?2?2
.
Cet artifice mathématique n'est pas propre à la simplicité du cas étudié.
Supposons que les individus qui prévoient à partir du passé (les agents
« historiens ») utilisent une fonction d'anticipation 0
dont les arguments
sont les T derniers prix, y compris le prix courant : pour un tel individu i,
Alors en tenant compte des agents historiens et des agents rationnels :
Après le changement de variable p = p - p*, on obtient une nouvelle fonction ço au lieu de
Après linéarisation on se ramène à l'étude d'une équation de la forme :
T
e
q:+1 = B
u=1
Soit Pr le polynome associé, Po correspondant à r = 0 ; P,- est de degré T
et Po de degré T - 1. On a :
T
1
l
r)
"l
l
u=1
4188
AUTO-ORGANISATION
T
1
u=1
On
donc
peut
écrire:
-
= (1
Nous
r) Po (1 )
suppo-
B
T
sons
de
plus
car
raisonnable
été
constant
prévoient
elle
va changer.
qu'il
=1.
propriété
dans
correspond
toute
l'histoire
dans
pas
la
vérifie
que cp
On
le cas
linéaire
considérée,
Cette
à l'idée
les
agents
est
hypothèse
que, si le prix a
historiens
ne
a alors :
1
1
1
1
B
B
B
<0.
Le
coefficient
du
terme
une
racine
réelle
possède
gence.
dent :
les
Il se produit
pour des agents
racines
droite
de
Po
de P,- étant
r, ce polynôme
degré
à
1.
Il
ne
donc
converpeut
pas y avoir
supérieure
le phénomène
décrit
dans
exactement
l'exemple
précé-
sont
de
historiens
en
de
1, Po est négatif
vers
P,. tend
petit,
est d'ailleurs
d'autant
haut
plus
dont
modules
et tend
les anticipations
convergeraient,
à 1 ; donc
sur l'axe
inférieures
vers
même
plus
l'infini,
qui
plus
grande
On
B
constate
ne
donc
soit
que
d'une
proche
pas trop
à des évolutions
manière
de
moins
l'infini.
Mais
il apparaît
donc
que r est petit.
générale,
et pourvu
un
pour
racine
que
toutes
r
réel
et à
non
nul,
nouvelle,
le coefficient
1, les
comportements
empiriques
envisagés
du prix,
contrairement
aux suites
convergentes
rationnelles.
Les deux
semblent
donc
donner
des
d'anticipations
approches
résultats
et
ne
être
distincts,
peuvent
qualitativement
par conséquent
pas
considérées
comme
des approximations
l'une
de l'autre.
conduisent
une curiosité
de ce qui peut
comme
mathéprofonde
apparaître
est
entre
la
considération
historiens
et
celle
d'agents
d'agents
matique
que
rationnels
il y a une
différence
à la logique
du modélisateur.
Le
quant
«
est
vu
successivement
dans
le
»
et
dans
le
temps
historique
système
temps
« du projet
les termes
de J.-P. Dupuy
Ces deux
», pour
(1990).
reprendre
La
raison
l'un de l'autre.
En se plaçant
inverses
dans
simplement
ne
le modélisateur
une
adopte
logique
qui
s'éloigne
pas
modélisés
(« agents
historiens »).
qui peut être celle des agents
en se plaçant
dans
le temps
du projet,
le modélisateur
donne
étant
ici tout
temps
le temps
historique,
de la logique
Au contraire
aux agents
des capacités
(« anticipations
rationnelles »)
définies
à elles-même:
Un agent
est dit
que par rapport
tions
rationnelles
si et seulement
si leur
utilisation
rationnel
de les
utiliser.
être
qui ne peuvent
utiliser
des anticipaentraîne
était
qu'il
Agentshistorienset anticipationsrationnelles
4199
3. GÉNÉRALISATION
La section précédente a étudié quelques exemples de fonctions d'anticipations empiriques. Ces exemples n'ont pas été choisis de façon ad hoc mais,
d'une part, parce qu'ils gardent un petit parfum de réalisme (ainsi de la
régression simple), et, d'autre part, parce que grâce à leur simplicité, ils
permettent un traitement mathématique approfondi. En restant dans le cadre
du même modèle à génération emboîtées, nous allons maintenant essayer de
considérer une classe plus large de fonctions d'anticipations. Nous poserons
donc la définition suivante :
Un
comportement anticipatif d'ordre
tion continûment différentiable f E
T + 1 est une foncR).
Une telle fonction définit bien le comportement d'un agent historien si on
Pour que le nombre T en question soit bien défini, nous faisons l'hypothèse
suivante, qui simplifiera le raisonnement par la suite :
Hypothèse 3.1
La dérivée partielle de f par rapport à sa première
variable n'est jamais nulle.
En négligeant le changement de variable décrit plus haut, le modèle économique s'écrit : pt = B P:+ 1 On posera donc :
Une
suite générée par f
telle que :
=
est une suite p = (pl)',
de prix
1
B
Nous désirons savoir si le postulat que les agents sont « historiens » est
contradictoire avec l'hypothèse d'exactitude de leurs prévisions. Pour cela
nous définirons un comportement,f comme rationnel si les prévisions faites
au moyen de f sont égales aux valeurs réelles :
Définition 3.3
Le comportement f est rationnel si et seulement si, pour
toute suite générée par f on a :
=
Cette définition nécessite quelques commentaires. D'une part, elle est relativement exigeante car elle pose l'égalité stricte des prévisions et des réalisations, il serait peut-être plus satisfaisant de postuler par exemple que les
prévisions et les réalisations sont asymptotiquement égales ; mais, d'autre
part, elle est remarquablement peu exigeante car elle définit la rationalité
comme l'adéquation des prévisions aux réalisations seulement dans le
420
AUTO-ORGANISATION
modèle très précis considéré : ainsi un individu dit rationnel pour telle valeur
du paramètre B
ne pas l'être pour telle autre valeur.
peut éventuellement
Nous avons besoin de la définition
technique
Une application
jjjj???
suivante :
g e C'
résoud f si et seulement
e
=
G R,
T
XT+I = 9(XI, .... XT)-
B
Si une telle application g existe, alors pour toutes valeurs initiales des prix
(pi, .... pt) , il existe une unique suite générée par f, commençant
par ces
et
définie
Une
condition
élémentaire
prix,
par pt = g(Pt-T, .... Pt-1) .
qui
garantit l'existence de g est énoncée dans la proposition suivante :
JBBBSM
Si
axT+i
et
on
a
:
résoud f,
B
alorsil existeg qui
JV
Vuc ag
=
af
i.
aXT+Ii
B
La situation se présente donc ainsi: à la date t, un certain processus détermine pt et
en fonction des prix précédents en résolvant le système de
deux équations à deux inconnues :
=
1
pi
=
{PtPt+l
f (PI-T, .... Pt-1,Pi).
e
La première de ces équations représente la détermination
par le marché du
prix pt en fonction du prix anticipé p'+, et la deuxième la détermination par
en fonction du prix pi (et des prix précédents,
l'agent du prix anticipé
mais ceux-ci sont fixes). La résolution de ce système d'équations doit être le
fait d'une «main invisible», qui agit non seulement au niveau du prix de
au niveau des anticipations.
Nous
marché, mais aussi, et simultanément,
devons donc chercher si il n'y a pas de condition restrictive surf qui doive
être posée pour rendre plus réaliste l'action de cette main invisible dans l'espace prix-anticipations.
Imaginons par exemple le mécanisme de tâtonnement suivant :
La période t est découpée en une succession infinie de sous-périodes r E N.
Au début de la période t (pour T = 0), l'anticipation
est p'+,,O. On pose
=
ensuite : Pu
et prT = f(Pt-T,...,Pt-1 ,Pt,T)'
On a donc :
=
4211
Agents historiens et anticipations rationnelles
Une condition
suffisante
que l'on ait
aXT+1i
pour que le processus
converge
< 1. On fera donc cette hypothèse :
B
axT+i i
On déduit immédiatement
de la proposition
Sous l'hypothèse
Proposition.3'?i
est
vers (Pt,
3.3 la proposition
suivante :
3.2 il existe g résolvant f.
tous les ingrédients pour étudier les « historiens
Nous avons maintenant
T prix consécurationnels ». Supposons f rationnelle. Soit p =
= pT+2.
tifs. Écrire que f est rationnelle, c'est écrire que pour tout p,
On a d'une part :
1
1
BPT+i
et d'autre
part :
= g(P2,...,PT,g(PI,...,PT».
g(P2,...,PT,PT+d
D'où l'égalité
formelle
que doit vérifier
g:
1
D
Notons gu la dérivée partielle de g par rapporte
On doit avoir :
p' le vecteur (p2,..., pT).
à sa u-ième
variable.
Notons
= gdp',g(Pl,P'».gl(PI,p')
0
1
'
3.2 et la proposition
3.3 pour u = 1,
D'après l'hypothèse
différent de 0. La première équation donne donc :
;
;
est
= B' 1
La deuxième
donne alors si
:
"
"
,
Bg2(P1,p) 1 ,
o
soit : gl
P')) = 0, ce qui contredit l'hypothèse 3.1. Par conséquent
T = 1 et g n'est fonction que d'une seule variable. Comme conséquence
directe de ceci, on peut énoncer la proposition :
422
AUTO-ORGANISATION
Proposition3.S
Sous les hypothèses retenues, si f est rationnelle, alors f
n'est fonction
que de deux variables : p'+ = f (pt - 1, pt)
et vérifie, en appelant x sa première variable et y sa
deuxième :
x
x
=
b'x E 11g..f
B
c)
o
af
1 af 1
ax B ay B2
Démonstration
Si,f est rationnelle,
on a vu qu'elle n'est fonction que de
1
donc en appellant x
et y les
deux variables, de plus g(pl) = pt+l
B
variables de f, l'égalité donnée dans la proposition 3.3 s'écrit :
af
ax
1
B
ay
d'où le résultat.
L'équation
aux dérivées
partielles
vérifiée par f peut
être résolue :
Si f est rationnelle, il existe une fonction
h vérifiant h(0) = 0 telle que
x
d'une
variable
f(x , y ) = B + h (x - By) .
Posons
Démonstration
F(u, v) = f(x,y).
F(u,0)
=
u
D'après
aF
1
et i)u
9M = 2'B
Posons alors h(v) = H(v) -
u = (x + Bv)/2
la proposition
donc F(u,v)
v
et
v = (x -
précédente,
u
B
on a bien f (x,y)
avec H(O) = 0.
+ H(v),
=
et
By)/2,
F
vérifie
je
+ h(v).
B2
B2'
Le terme correctif h n'apparaît pas dans les suites p1 = Pt, il
Remarque :
ne doit cependant pas être trop grand pour que l'hypothèse
3.2 soit vérifiée ;
<
en effet celle-ci s'écrit : ih'
1 /B .
Dans le cas linéaire,
posons ,f(x,y) =
Âj<r+ tiy. La condition
s'écrit
alors
=
En particulier, comme B < 1 , on doit avoir
avec j Ilil
1111< .
B
B
B.
> 1 . Il y a donc plusieurs solutions ; l'historien rationnel a dans un
certain sens le choix de son modèle : s'il se met à réfléchir à la date t, il
connait p,_ i , il sait que, en choisissant une valeur anticipée
il observera
À
pt =
B
B
et il sait donc que les suites
générées par des anticipations
=
rationnelles vérifient
B -'- 1 pt - 1 , il peut choisir tout À et l? vérifiant
la condition plus haut, et ceci sans tenir compte en fait de la valeur de
Agents historiens et anticipations rationnelles
4233
CONCLUSION
Nous avons donc identifié les modèles à la fois réalistes et rationnels, au
sens donné plus haut à ces termes. Contrairement
à ce qu'on pouvait espérer,
il ne s'agit pas de modèles dans lesquels les individus historiens ont une
bonne compréhension
de la mécanique du modèle à générations emboîtées,
qui leur permet d'inférer du passé les valeurs des paramètres. Les historiens
rationnels se présentent plutôt comme des calculateurs peu subtils, ne tenant
pas compte du passé lointain, mais effectuant (par miracle ?) une opération
obtequi se révèle donner le bon résultat. Ainsi les fonctions d'anticipation
nues font toutes intervenir le paramètre B du modèle, les agents « rationnels » ne peuvent le déduire du passé. Il semble donc que l'argument
qui
rationnelles en les présenjustifie la considération des suites d'anticipations
tant comme des approximations
de comportements
raisonnables ne soit pas
valide. La question naturelle qui découle de cette étude est de savoir si les
mêmes conclusions peuvent être tirées en définissant la rationalité comme la
coïncidence asymptotique
des anticipations et des prévisions.
ANNEXE
Soit
+ c un polynôme de degré 2 dont les
coefficients .sont réels. Les racines (réelles ou complexe.ç ) de P
sont en module strictement inférieures à I .si et seulement si :
1-b+c>0
i1+&+c > 0
c < 1.
Démonstration
Supposons d'abord que les racines soient réelles, c'est-à-dire
h2 ? 4c. Il est alors nécessaire et suffisant que P (- 1 ) et P (1) soient strictement
positifs et que le produit des racines soit inférieur à 1. D'où les conditions :
1-b+c>0
Dans le cas où les racines sont complexes, elles sont conjuguées. Leur module est
donc inférieur à 1 si et seulement si leur produit est inférieur à 1 :
,
Mais si h2 < 4c et c < 1 , Ihl < 2c < 1 + c ; la distinction des deux cas est donc
superflue et le lemme démontré.
1
3T-3
.
424
AUTO-ORGANISATION
T+
= 6(u -
On a : (T -
Démonstration
1
1), donc pour tout
+ (T -
-) 2
entier t compris entre 1 et T :
1) -
=
(T -
,(3, -27- -1)
t(T 2 +
6
T+ 2
r+2 2
.
.
"
< 0O.si et seulement
1
si u <
S. t la1 partie entière de
Soit
,
-. 3
–––,
3
'
D plus,
l
De
on a :
T
.
Sit=
t
t
T
=
s
Sit=
T
u=1
(car
u=l
u=t+l
!).
u=1
4
3
3T
3(T - 1)T
2
3
Si tf = -,T 3t 3 3(T - I)T
,
3 (T - 1 ) T
2r
2T--)
11 == - -F
T --
ST+4
_
On vérifie facilement que
3T
est donc démontré.
- = ––––. 1)
––––––1 , et ?S = 1 1- - 2(T)(-T
<
5T 3T-
1
et que
5T -
2
3T-3
<
3r-3
3
5T -
1
3T -
3
5T 3T-3
1
.
le lemme
BIBLIOGRAPHIE
BENASSYJ.-P. et BLAD M.C., « Apprentissage et anticipations rationnelles dans un
modèle à générations imbriquées », in Mélanges économiques, Essais en l'honneur d'Edmond Malinvaud, Paris, Economica, 1988.
DupUY J.-P., « Two Kinds of Temporality: From Newcomb's Problem to the
Backward Induction Paradox », communication au congrès Economics and
Artificial Intelligence (CECOIA2), Paris 4-6 juillet 1990, 1990.
FucHs G., « Is Error Leaming Behavior Stabilizing ? », Journal of Economic
Theory, 20: 300-317, 1979.
FucHS G. et LAROQUEG., « Dynamics of Temporary Equilibria and Expectations »,
Econometrica, 44: 1157-1178, 1976.
GRANDMONTJ.-M. et LAROQUEG., « Money in the Pure Consumption Loan
Model », Journal of Economic Theory, 6: 382-395, 1973.
LAFFOND, G. et LESOURNEJ., « The Genesis of Expectations and Sunspot
Equilibria », Journal of Evolutionary Economics, 2, 1992.
LASLIERJ.-F., « Diffusion d'informations et évaluations séquentielles », Économie
Appliquée, 42, n° 3: 83-128, 1989.
LESOURNEJ., Les systèmes du destin, Paris, Dalloz, 1976.
LESOURNEJ., Économie de l'ordre et du désordre, Paris, Economica, 1991.
Gilbert Laffond, Jean Lainé, Gauthier Lanot
UNMODÈLE
DYNAMIQUE
DECOMPÉTITION
ÉLECTORALE
3
Cet article propose un modèle dynamique de compétition entre deux partis politiques ayant pour seul objectif' la victoire électorale. La construction du modèle
repose sur les principes fondateurs de la théorie de l'auto-organisation des institutions : la rationalité limitée des acteurs, dont les comportements s'apparentent à des
routines adaptatives, la dépendance des résultats électoraux et des programmes de
gouvernement à l'histoire d'événements aléatoire,s, et l'inertie des comportements
de vote fondée sur une relation de confiance à l'égard des parti.s. Nous montrons,
au moyen de simulations, l'existence possible de situations non prédites par l'approche stratégique statique de la théorie du vote. En particulier, nous montrons la
possibilité d'une différenciation durable de partis adoptant pourtant le même
comportement face à une même information imparfaite sur l'électorat. Le modèle
propose également une explication du phénomène de l'alternance du pouvoir ne
reposant pas sur une instabilité des préférences des électeurs.
.;
1. INTRODUCTION
L
Le laboratoire d'économétrie
du Conservatoire
national des arts et métiers,
créé et dirigé par Jacques Lesourne a consacré une grande partie de ses
travaux de recherche
à la théorie de l'auto-organisation
en économie.
«
selon
une
des
idées
»
faite
Toutefois,
d'échanges scientifiques,
dynamique
;
;
;
426
AUTO-ORGANISATION
d'affinités intellectuelles
et de convictions partagées, une autre problémaen
très
différente
de la première, a peu à peu grandi dans
tique,
apparence
les programmes de recherche du laboratoire : la théorie du vote et des institutions politiques. L'exploration
de ces deux thèmes a été conduite en parallèle depuis une dizaine d'années, et a fait l'objet de nombreuses publications
et communications,
dont les plus représentatives
sont « L'économie
de
l'ordre et du désordre » (Lesourne,
Solutions and
1991), « Tournament
et « Topics
on Representative
1997)
Majority
Voting » (Laslier,
Democracy » (Laffond, Lainé,
Notre intention n'est pas ici de décrire la genèse de l'intérêt porté aux instimais
tutions politiques par des avocats de l'approche auto-organisationnelle,
de
montrer
cet
intérêt
relève
d'une
cohéplutôt
que, malgré l'apparence,
rence et non d'une rupture.
Comment
résumer sans trahison la théorie de l'auto-organisation,
sinon en
«
de
le
de
Lesourne
:
La
trame
de
l'économie
Jacques
empruntant
propos
de la création et de la sclérose [des
l'ordre et du désordre, de l'économie
de complexité, d'échanges
institutions] est faite tout à la fois d'aléatoire,
ou
moins
de
d'informations
douteuses,
plus
comportements
plus ou moins
et sociales plus ou
rationnels et opportunistes,
de rigidités économiques
moins fortes
Le sujet de cette théorie est l'institution ;
son objet est
du
des
mutations
et de la
de
la
naissance,
développement,
l'explication
des
institutions.
L'institution
dominante
l'économiste
est le
pour
disparition
marché
Peut-on expliquer par la seule interaction endogène des acteurs
du marché la diversité observée des dynamiques de prix (convergence vers
un prix unique ou permanence d'une distribution de prix différents), l'émerl'évolution
des préférences,
des anticipations,
des
gence d'intermédiaires,
des
structures
et
des
Telles
sont
les
compétences,
productives
produits ?
abordées
dans
l'Économie
de
l'ordre
et
du
désordre.
questions
Le propos de cet article est de montrer la pertinence des principes fondateurs
de cette théorie pour l'analyse d'une autre forme institutionnelle
importante : la démocratie politique, système d'interaction
complexe entre partis
et électeurs, conduisant à des formes diverses de pouvoir, durable ou fragile,
à des inflexions de politique irréversibles
ou temporaires,
à l'émergence
d'une «pensée unique» ou au contraire à la diversité durable des opinions.
Autant de thèmes sur lesquels l'approche axiomatique de la théorie du choix
social et l'approche statique de la théorie des jeux non-coopératifs
appliquée
à la compétition électorale ne donnent que peu d'enseignements.
(1) Le lecteur trouvera dans ces trois travaux de nombreuses références à d'autres publications du laboratoire..
(2) L'économie de l'ordre et du désordre, p. 18.
(3) « La priorité sera d'abord donnée au marché, cette institution qui classe et organise et
dont l'origine semble remonter à l'aube de l'histoire» (L'économie de l'ordre et du
désordre, p. 19).
Unmodèledynamiquede compétitionélectorale
427
1.1
1 Principesfondateursd'une théorie
de l'auto-organisationpolitique
Parmi
Quels sont les principes fondateurs d'un modèle d'auto-organisation
ceux énoncés par Jacques Lesourne, nous en retiendrons quatre dans notre
modèle de la démocratie politique : l'inertie, l'incertitude, la rationalité
limitée des acteurs et les échanges d'information entre eux.
L'inertie prend ici la forme de la confiance : confiance des électeurs à
l'égard d'un parti, expression d'une fidélité à des hommes politiques, renforçant l'adhésion à leurs idées ou nuançant la déception provoquée par une
décision conjoncturelle ; confiance
également des partis en faveur d'un
leur
programme politique
permettant la victoire électorale. Source de
irréversibles
de vote et de choix de programmes électoraux,
comportements
la confiance stabilise les électorats et contribue à structurer durablement le
paysage politique.
,
L'incertitude pesant sur la conjoncture est un élément essentiel de la vie politique. Un programme politique, au moins dans sa forme la plus aboutie, peut
être conçu comme un plan d'actions contingentes, dictant pour chaque
événement possible la conduite à tenir. Un programme est donc un objet
complexe, difficile à appréhender dans sa globalité par des électeurs dont les
capacités de calcul ne sont pas infinies. Aussi les partis ne peuvent-ils pas
être identifiés à leur programme : d'une part à cause du facteur de confiance
discuté plus haut et, d'autre part, parce que les programmes ne peuvent être
directement comparés les uns aux autres. Les partis seront ainsi évalués non
pas sur leur aptitude à gérer globalement un ensemble possible de conjonctures, mais sur leur réponse immédiate à une circonstance aléatoire et passagère. Cette évaluation sera effectuée selon des règles routinières, de nature
adaptative, qui conditionnent le renforcement ou la dégradation de la
confiance accordée aux différents partis. Sans maîtrise de la conjoncture,
face à l'inobservabilité des préférences de l'électorat et à la rationalité
limitée de son comportement de vote, les partis sont exposés au risque d'un
cumul d'événements défavorables entrainant une fuite de leur électorat. Ils
peuvent au contraire tirer d'un environnement favorable l'opportunité d'asseoir de façon irréversible leur soutien populaire. Si on leur prête l'unique
comment peuvent-ils alors
objectif de la victoire à l'élection prochaine
confrontés
au
hasard
des
événements
et
à la méconnaissance du
définir,
de
vote
et
des
des
électeurs, la plateforme éleccomportement
préférences
torale qui maximise leurs chances d'accéder au pouvoir ? C'est ici qu'intervient l'échange d'informations,
qui prend ici la forme d'enquêtes
Celles-ci
vont
donner
aux
d'opinions.
partis une information partielle et
I
,
;
(1) Cettehypothèse,retenuepar Downs(1957)et Black(1958)dans leurthéoriespatialedes
systèmes politiques, a fondé bon nombre de travaux ultérieurs (voir par exemple
Laffond,Laslieret Lebreton,1993,1994).
i
4
428
AUTO-ORGANISATION
bruitée sur l'électorat ; dotés eux aussi de capacités calculatoires limitées, les
partis vont interpréter les « sondages d'opinions » de façon plus ou moins
pertinente, adaptant au gré de leur lecture des intentions de vote leurs actions
selon des routines comparables
à celles des électeurs. À la
conjoncturelles
dynamique de la confiance chez l'électeur répond celle de la conviction des
partis sur le bien-fondé de leur programme.
La combinaison
de l'inertie, de l'incertitude
et de la rationalité limitée
conduit à une dynamique de phénomènes irréversibles, donnant à l'histoire
des conjonctures
successives un rôle clé dans l'explication
des différents
Cette
du
dépendance
système politique à l'égard du
paysages politiques.
« chemin des conjonctures » est un trait essentiel de l'approche auto-organisationnelle.
_
1.2 L'architecture
du modèle
Ces quatre principes fondateurs ont conduit à un modèle que l'on peut brièvement décrire ainsi : deux partis politiques, n'ayant, comme dans le modèle
de Downs (1957), aucune préférence idéologique, s'affrontent pour le gain
À chaque échéance, ils proposent un programme
d'élections
successives.
une
liste
de
à des événedéfini comme
réponses (de type dichotomique)
est
ments aléatoires, dont seule la nature (et non la probabilité d'occurrence)
connue. Il existe un ensemble fini d'électeurs
dont les préférences fondamentales sont représentées par un programme idéal. La durée d'une législature séparant deux échéances électorales est donnée ?1?. Au cours de chaque
période d'une législature, un événement spécifique se produit (la « conjoncture ») et une enquête d'opinion est organisée, dans laquelle on demande à
chaque électeur d'indiquer le parti pour lequel il voterait si l'élection avait
lieu aujourd'hui.
La réponse des électeurs dépend du niveau de confiance
accordée à cette date à chaque parti et ce niveau n'est pas observable par les
partis. Il augmente ou diminue à chaque période selon que la réponse précocourant est
nisée, dans le programme en vigueur du parti, à l'événement
conforme ou non à celle attendue par l'électeur. L'enquête d'opinion donne
donc un résultat difficile à interpréter par les partis, puisqu'une intention de
vote regroupe dans un même message une information sur les préférences
fondamentales
et une information sur la confiance accordée à un parti. Ainsi,
il est possible qu'un électeur annonce son intention de voter pour un parti
dont l'action conjoncturelle
lui déplaît : simplement parce qu'il lui garde une
confiance suffisante.
Nous modélisons ici un mode spécifique de lecture des enquêtes
sant à une règle adaptative de révision des programmes proposés
conduiavant les
(1) Nous n'aborderons pas ici la cas où un parti au pouvoir dispose de l'arme stratégique
supplémentaire de l'élection anticipée.
(2) D'autres règles sont introduites et analysées dans Laffond et al. (1999c).
Unmodèledynamiquede compétitionélectorale
429
élections : chaque parti accorde à chaque élément de son programme (la
réponse à une conjoncture donnée) un niveau de conviction, qui évolue de
période en période selon les résultats des enquêtes. Avant une élection,
chaque parti propose le programme pour lequel sa conviction réponse par
réponse est maximale. La décision de vote d'un électeur dépend uniquement
des niveaux de confiance qu'il accorde aux partis et non d'une comparaison
globale de leurs programmes respectifs.
La dynamique générale des propositions de programmes et des votes résulte
de cette interaction complexe entre les comportements routiniers, la suite
aléatoire des événements et le flux d'informations fourni par les enquêtes.
Cette complexité est trop grande pour permettre une analyse exacte des
propriétés asymptotiques du système. Nous avons donc réalisé un ensemble
de simulations permettant de mettre en évidence les différentes évolutions
possibles des programmes et des résultats électoraux.
1.3 Peut-ondépasserle théorèmede l'électeurmédian ?
Le modèle spatial de compétition électorale de Downs et Black, au moins
dans sa formulation unidimensionnelle, est une adaptation directe du modèle
de localisation d'Hotelling
des
(1929) : supposons que l'ensemble
soit
le
électeur
soit
caractérisé
programmes
segment [0, 1], qu'un
par un
idéal
de
et
deux
selon
le
critère
de
leur
[0,1],
point
compare
programmes
distance à son point idéal ; supposons également que deux partis, parfaitement informés des préférences des électeurs, cherchent à s'attirer une majorité de suffrages. Alors, ils se coordonneront sur un même programme, qui
coincide avec le point médian de la distribution des électeurs. Ce
programme médian défait tous les autres à la majorité (il est appelé vainqueur de Condorcet). Dans ces conditions, l'identité du vainqueur relève soit
d'une règle de partage aléatoire des votes, soit d'une convention exogène au
modèle. Dans le cas où l'ensemble des programmes est une partie finie de
[0,1], ce résultat reste valide sous l'hypothèse d'unimodalité des préférences. L'extension du modèle au cas de programmes multi-dimensionnels a
été analysée par Plott (1967), Kadane (1972), Kramer (1972), Mc Kelvey
( 1 986) et Cox ( 1 987)(2).
Comment expliquer que certains paysages politiques ne se conforment pas à
cette règle de « gouvernement au centre » ? Deux raisons importantes ont
été avancées dans la littérature de la théorie du vote
La première est l'in( l )Ces auteursmontrenten particulierle rôle importantde la séparabilitédes préférences,de
la distributiondes pointsidéaux,et de l'organisationdu vote dans l'obtentiond'un vainqueurde Condorcet ;voir Hinichet Munger(1997)pour une synthèse.
(2) Une troisième approche,dite directionnelle,a été proposéepar Weisberg( 1974)et
Matthews(1979)reposesur l'abandondu critèrede distancecome seul déterminantdu
comportementde vote.
430
AUTO-ORGANISATION
certitude, la seconde est l'idéologie. L'incertitude peut être celle des partis à
l'égard des attentes de l'électorat ou celle des électeurs sur la conformité des
politiques aux plate-formes électorales. Cependant, il a été montré que cette
incertitude ne peut conduire à une différenciation
des programmes proposés
si
elle
a
une
différenciation
des partis (voir
les
par
partis que
suppose
priori
Davis et Hinich (1968), Calvert (1985), Wittman (1990), Banks (1990),
Hinich et Munger (1992), Williams (1994)) : les partis diffèrent sur leurs
par les élecanticipations des préférences de l'électorat, ou sur l'anticipation
teurs de l'écart entre programmes et décisions effectives. La seconde raison
proposée est que les partis ne sont pas animés par le seul objectif « downsien » de victoire électorale,
mais ont des préférences
propres sur les
programmes (l'« idéologie »). Cette approche a été suggérée notamment par
Wittman (1983), Cox (1984), Calvert (1985) et Enelow (1992). Cependant,
cet amendement
du modèle initial ne peut expliquer à lui seul la différenciation des programmes : celle-ci requiert la combinaison des positions idéosur les préférences de l'électorat (voir
logiques des partis et de l'incertitude
1985
et
Calvert,
Roemer, 1997).
Le modèle
dynamique d'auto-organisation
politique développé ici permet
des
une
différenciation
durable
programmes
proposés par des
d'expliquer
sans
dotés
de
la
même
information
idéologie,
imparfaite sur l'opinion
partis
des électeurs et adoptant les mêmes règles de comportement.
Il offre en
outre une analyse d'un phénomène que l'approche
stratégique statique ne
l'alternance
des partis au pouvoir. Il montre comment
peut appréhender :
cette alternance peut prévaloir même si les partis proposent un programme
identique, ou comment un parti peut acquérir un avantage définitif sur son
adversaire. Il montre également le fait que, lorsque les partis se coordonnent,
leur programme commun n'est pas nécessairement
celui prédit par la théorie
traditionnelle
du vote, mais correspond à l'intuition de ce que peut être un
de gouvernement.
Les dynamiques
électorales
mises en
programme
évidence
sont riches d'enseignements
et d'interprétations
de situations
réelles absentes des prédictions de la théorie statique des jeux non coopératifs.
son aptitude à expliquer
de Jacques Lesoume
méthodologique
ce travail est de montrer sa pertinence
démocratie politique, étendant ainsi
principes de l'Économie de l'ordre et
C'est
dans
la diversité du réel que l'approche
s'est avérée si probante. L'ambition de
dans la recherche d'une théorie de la
à un nouveau domaine d'analyse les
du désordre.
La présentation de l'article est organisée de la manière suivante : la partie 2
est consacrée
à la description
du modèle. La procédure
de simulation
essentiels du modèle, apparetenue, ainsi que l'analyse des enseignements
raissent dans la partie 3. Le détail des simulations les plus représentatives
est
présenté en annexe.
Unmodèledynamiquede compétitionélectorale
4311
2. LEMODÈLE
Soit S2 = ( 1 ,..., i, ..., n}un ensemble d'événements possibles, dont l'occurrence est soumise à un aléa exogène. On suppose qu'à chaque événement i
peuvent correspondre deux décisions possibles, notées respectivement -1 1
et 1. On appelle programme électoral la donnée d'une fonction
Cette modélisation peut être illustrée de la manière
suivante : un élément de S2 correspond à un niveau donné de chômage dans
la collectivité ; la décision 1 (resp. -1 ) signifie une dévaluation de la devise
nationale (resp. le maintien de son cours). Un programme électoral est donc
défini comme l'annonce d'un plan complet de décisions contingentes à la
réalisation d'une variable aléatoire à n modalités. On appellera action un
couple (événement, réponse).
Le modèle est à temps discret, indicé par t e I N. On suppose que des élections ont lieu à chaque date t = 1 , K + 1 , 2K + 1... (les mandats électoraux sont confiés pour une durée de K périodes séparant deux échéances
électorales). Afin de simplifier les notations, les périodes d'élections seront
indicées par T = 1, 2,... À chaque période t est tiré aléatoirement un
événement dans Q , noté
Nous supposons l'existence de deux partis politiques, notés A et B. Le
problème de chacun des partis est de définir le programme pour chaque
échéance, en tenant compte de l'information acquise dans le passé sur le
comportement de son rival et sur les préférences des électeurs. C'est la
formalisation de la dynamique de révision des propositions de programmes,
ainsi que celle de la dynamique des comportements de vote, qui va conditionner l'évolution du paysage politique et, en particulier, l'existence ou non
d'une convergence des partis vers un programme unique. On note
le
à l'échéance T. L'action (i,,
programme proposé par le parti p = A,B
fP (i,)) préconisée par le programme f,, est de répondre ft(it) p face à l'événement i,. Par ailleurs, ce programme est supposé invariable entre deux
ec
échéances
eances
... , K - 1,, pp -,
. B)
= A,
p
p
p' - , 1 ,...,
Commençons par préciser le comportement des électeurs.
2.1
1 Lecomportement
desélecteurs
,
Le modèle distingue deux comportements de la part des électeurs : celui de
vote, c'est-à-dire de choix d'un parti à chaque échéance électorale T et celui
( 1 )Cettehypothèserevientà considérerqu'un changementde politiqueannoncéen coursde
législaturealtère la crédibilitéd'un parti de manièredéfinitive.
432
d'annonce
tionnaires
AUTO-ORGANISATION
des intentions de vote à l'échéance prochaine (à la suite de quesd'opinion émis dans les périodes inter-électorales).
Le comportement
de vote
Deux idées maîtresses gouvernent la modélisation du vote des électeurs : la
pas les partis sur la base des
première est que ceux-ci ne comparent
programmes
globaux proposés, mais plutôt à la lumière des décisions que
ces programmes préconisent face à l'événement
courant. La seconde est que
l'histoire altère ou renforce la confiance accordée à chaque parti et que la
décision de vote résulte essentiellement
du niveau de cette confiance plutôt
la
conformité
des
programmes aux préférences des électeurs
que de
.
Soit N = ( 1 , ..., j, ...,m) l'ensemble
est
(fini) des électeurs. Un électeur j
caractérisé à chaque date t par un programme idéal fi et par les niveaux de
On appelle profil de préféconfiance
accordée au parti p = A,B
vl' (t)
rences la donnée d'un m-uplet de programmes idéaux
Nous supposons que N est partitionné
en quatre sous-ensembles
S2x, x = 1,2,3,4,
définis respectivement
par :
= (_j G N : 3i (j)
tel que fj(1) =
1,Vi E {1,...,i(j) -
24 = fi e N :
tel
E S2
0, Vi
E {i(j),...,n}},
= 1,`di
E {i(J),...,n}}.
3i (,j ) E S2
= 0, Vi E 1 i (j) -
Aux ensembles S2 et S22 correspondent
des électeurs dont les programmes
idéaux donnent une réponse uniforme à tous les événements. Les électeurs
»
dans
et S24 sont caractérisés par l'existence
d'un « événement-pivot
unique séparant ceux pour lesquels la réponse souhaitée est 1 de ceux pour
Cette restriction sur l'ensemble des profils possibles
lesquels elle est -1 .
aura des implications que nous détaillerons plus loin. Son interprétation est
aisée : il existe une structuration naturelle de S2 (par exemple le classement
des taux de chômage i dans l'ordre croissant), et chaque électeur j est caractérisé par un seuil de chômage i(j) qui implique, selon lui, un changement
de politique monétaire (avec 1 ( j) = 1 pour les ensembles S2 et S22 ).
(1) On retrouve ici deux ingrédients caractéristiques d'un modèle d'auto-organisation : la
myopie du comportement de choix, suivi par des individus n'ayant pas la capacité d'appréhender de façon complète leur environnement ; et l'inertie de ce comportement,
donnant à l'histoire un rôle clé dans la détermination des décisions présentes.
(2) Nous supposons que les programmes idéaux n'évoluent pas dans le temps. Le traitement
de préférences endogènes requiert l'introduction d'une structure d'information complexe
qui dépasse le cadre de cet article.
433
Unmodèledynamiquede compétitionélectorale
Les niveaux de confiance
suivent une dynamique adaptative simple,
vf (t)
formalisée de la manière suivante : il existe un niveau maximum (exogène)
de confiance qu'il est possible d'accorder à un parti, noté v+ > 0, et un
minimum
Nous supposons que les programmes fI et
niveau
les
à
une
échéance T sont parfaitement observables
partis
fI proposés par
les
et
ceux-ci
conservent
la mémoire de ces programmes
électeurs,
par
que
l'échéance
suivante.
Nous
jusqu'à
supposons également que les événements
successifs it sont observables par tous. Entre deux échéances T et T + 1, la
dynamique du niveau de confiance à l'égard d'un parti p est régie par les
équations suivantes :
.
alors
+ 1) =
+ 1 , v+)
si fj (ii)
.
sifJU¡) =1-
fIT (il)
alors
vJ'(t
+
1) =
l,v-1
Si l'événement il prévaut à une date t, alors le parti p propose la réponse
conformément au programme annoncé lors de l'échéance précéc?ente. Si cette réponse coincide avec (diffère de) celle du programme idéal
de l'électeur j, alors j renforce (diminue) sa confiance à l'égard de p (sauf
si celle-ci a déjà atteint le niveau maximum (minimum) possible).
Le comportement de vote à une échéance T est la résultante de deux
facteurs : le niveau de confiance qui prévaut à cette date pour chaque parti,
et le comportement de vote adopté à l'échéance précédente. Supposons que
l'électeur j ait voté pour le parti p en T - 1 . Alors son vote en T est défini
par la règle suivante :
si
si
0, alors j vote pour p
vJ' (T)
< 0 et si
(T) >
p), alors jvote
pour p'
< 0 et si
<
alors j vote pour p
vjp (T)
si v/ (T) =
(T) < 0, j vote pour p'
Le choix d'un parti repose ainsi sur trois règles simples :
si
,
',
v/ (T)
- si la confiance à l'égard du parti pour lequel un électeur a voté précédemment reste positive, il reste fidèle à ce parti ;
- si cette confiance a disparu et devient inférieure à celle à l'égard du parti
concurrent, il vote pour ce dernier ;
- si l'électeur n'a confiance en aucun des deux partis et ne peut les distinguer, il change d'avis par rapport à son vote précédent.
~
,
,
''
On met ainsi en évidence deux effets concurrents sur l'inertie des comportements : un effet de fidélité, qui conduit à n'envisager un changement
d'opinion que dans le cas d'une défiance contre le parti supporté à l'élection
précédente ; et un effet de vote négatif, qui conduit à changer systématiquement son vote face à deux partis donnant lieu au même niveau de défiance.
En outre, la borne de confiance maximale est un paramètre important
434
AUTO-ORGANISATIO
d'inertie des comportements : le cas où v+ = 0,5 peut être interprété
comme une situation à inertie minimale : les électeurs choisissent un parti en
fonction de la seule réponse apportée au dernier événement avant l'élection.
Une augmentation de v+ donne à l'histoire des événements séparant deux
échéances un rôle déterminant dans le vote.
L'annonce des intentions de vote
Considérons l'intervalle de (K - 1) périodes entre deux élections T et
T + 1. À chacune de ces périodes t, un « sondage d'opinions » est organisé
dans lequel on demande à chaque électeur d'indiquer le parti pour
il
voterait si l'élection avait lieu aujourd'hui. On suppose qu'un
lequel
est
sondage
organisé également pendant les périodes d'élection T, mais
le
scrutin.
À une période t correspond l'événement ii , et les réponses
après
If (it)
1 élection
confiance
accordés
suppose
les
dans
le programme
p = A, B
partis
proposé
pour
T.
Ces
en
vertu
de la dynamique
de
précédente
réponses,
vont
modifier
les
niveaux
de
confiance
haut,
présentée
plus
à chaque
et influencer
les intentions
de vote individuelles.
On
parti,
les
d'un
telles
que
réponses
possibles
électeur j
sont
supposées
proposées
par
en
que :
si
v! :?
l'élection
0
si
0 et
v) j
et
vP'
J :?
0,
alors j
vote
pour
pcj
< 0,
alors j
vote
pour
p
a voté
pour
p
au cours
de
T
v;'
si v < 0 et vp' < 0, alors j ne se prononce pas ).
Le premier cas exprime un comportement de fidélité en faveur d'un parti
soutenu précédemment et en faveur duquel la confiance reste positive. Le
second cas relève du vote d'adhésion. Enfin, l'indécision démontre une
défiance générale à l'égard de tous les partis. Le comportement décrit est
alors celui d'un vote négatif. La possibilité d'une défiance générale est une
originalité du modèle. Elle résulte soit d'une histoire d'événements face
auxquels les deux partis auraient proposé la même réponse (la « pensée
unique ») contraire aux préférences d'une majorité d'électeurs, soit de changements successifs de programmes pouvant différer entre les partis, définis
sur la base d'interprétations erronées des sondages. Passons à présent à la
description du comportement des partis politiques.
(1) Dans la mesure où chaque électeur est interrogé, il s'agit moins d'un sondage que d'un
recensement
La modélisation
d'un processus d'échantillonnage
consisterait
d'opinions.
à augmenter
le niveau de bruit dans la transmission
de l'information
aux partis. Les
résultats de cet article montrent qu'une telle complication
n'est pas nécessaire
à l'obtention de dynamiques
politiques complexes.
est exclue du modèle, mais pas l'indécision
dans les
(2) On remarquera
que l'abstention
intentions
de vote. Un extension intéressante
de cette approche consisterait
à supposer
que les électeurs s'abstiennent
lorsque leur confiance à l'égard des deux partis atteint un
certain seuil.
4355
Unmodèledynamiquede compétitionélectorale
2.2 Lecomportementdes partis
Un parti doit définir à chaque échéance le programme soumis au scrutin
majoritaire. Une hypothèse fondamentale du modèle est qu'aucun parti n'aa
d'information a priori sur le profil des préférences. Par ailleurs, les niveaux
de confiance ne sont pas observables par les partis. L'histoire des événements entre deux échéances, au travers des s
Fly UP