Comments
Description
Transcript
Document 994341
Décision Prospective Auto-organisation Remerciements Le comité d'organisation des Mélanges en l'honneur de Jacques Lesourne tient à remercier Électricité de France, la SNCF et La Poste pour leur soutien à la réalisation de ces Mélanges, ainsi qu'à l'organisation du colloque de remise de l'ouvrage. Textes réunis par , J. THÉPOT M. GODET F. ROUBELAT · A.E. SAAB Décision Prospective Auto-organisation Mélanges en l'honneur de Jacques Lesourne DUNOD Ce pictogramme mérite une explicarieur, provoquant une baisse brutale tion. Son objet est d'alerter le lecteur des achats de livres et de revues, au sur la menace que représente pour point que la possibilité même pour les l'avenir de l'écrit, particulière- auteurs de créer des œuvres ment dans le domaine de l'édinouvelles et de les faire éditer 1DANGER tion technique et universitaire, correctement est aujourd'hui le développement massif du menacée. Nous rappelons donc que t I I/j t photocopillage. Le Code de la propriété toute reproduction, partielle ou intellectuelle du 1" juillet 1992 totale, de publi aLE PIIOTOCOPIlAGE interdit en effet expressément la la présente tion est interdite sans autorisaTUE LELIVRE tion du Centre français photocopie à usage collectif sans autorisation des ayants droit. Or, d'exploitation du droit de copie (CFC, cette pratique s'est généralisée dans les 20 rue des Grands-Augustins, 75006 établissements d'enseignement supéParis). © Dunod, Paris, 2000 ISBN 2 10 004653 5 Toute représentation ou reproduction intégrale ou partielle faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause est illicite selon le Code de la propriété intellectuelle (Art L 122-4)et constitue une contrefaçon réprimée par le Code pénal. * Seules sont autorisées (Art L 122-5) les copies ou reproductions strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective, ainsi que les analyses et courtes citations justifiées par le caractère critique, pédagogique ou d'information de I'oeuvre à laquelle elles sont incorporées, sous réserve, toutefois, du respect des dispositions des articles L 122-10 à L 122-12 du même Code, relatives à la reproduction par reprographie. TABLE DESMATIÈRES Avant-propos : Maurice Allais, Kenneth J. Arrow, Herbert A. Simon, Robert M. Solow Introductiongénérale : Jacques Thépot 9 23 Partie 1 Décision Introduction Gérard Worms Quelques remarques personnelles sur l'apport de Jacques Lesourne au monde économique Raymond Leban L'oeuvre de Jacques Lesourne : exemple de richesse cohérente 29 311 34 Robert Lattès La décision à l'âge de la société d'information AlexisJacquemin La compétitivité européenne et l'entreprise Bernard Roy Réflexions sur le thème quête de l'optimum et aide à la décision 49 NicolasCurien À la poursuite du Gaspimili 84 40 61 6 AUTO-ORGANISATI DÉCISION, PROSPECTIVE, Alain Bensoussan Quelquesremarquessur le prix des options,avec prise en comptede contraintes Jean-PierreDupuy Quand la stratégiedominantese révèle irrationnelle Anne Marchais-Roubelat Décisionset irréversibilités.À proposdu supersonique JacquesThépot Le tiers dans la décision HeinerMüller-Merbach Five Concepts of Holistic Understanding:Generalists as Critical SuccessFactorof Nations MichelCrozier L'approchetransdisciplinaireen matièrede décision 107 129 140 158 170 185 Partie2 Prospective Introduction MichelGodet La raisontranquille Thierryde Montbrial Le stratégisteet l'économiste RémiBarré La prospectivede la scienceet de la technologiecommeintelligence socialedes « systèmesdu destin» Huguesde Jouvenel Pour une rechercheen prospective ChristianSchmidt Des décisionsindividuellesà la prospectivesociale. Une médiation par la théoriedes jeux ClaudeBerlioz&JacquesBiais La prospectiveà la SNCF ChristianStoffaës Le rôle de JacquesLesourneauprèsd'Électricitéde France AssaadE. Saab Du bon usagede la prospectivedans les entreprises FabriceRoubelat La prospective stratégique. Des hommes et des organisationsen réseaux MichelAlbert Interfutursvingt ans après 195 197 207 220 231 244 264 268 279 286 306 7 Tabledes matières Wolfgang Michalski The OECD Interfutures Project Revisited 20 Years Later Robert Dautray Prospective en énergie nucléaire Jean-Jacques Salomon La tristesse de Cassandre 3188 332 343 Daniel Bell Reflections at the End of an Age 361 Partie 3 Auto-organisation Introduction 367 Patrick Cohendet Bifurcations et trajectoires de recherche : autour de quelques rencontres décisives avec Jacques Lesoume 369 Bernard Walliser L'espace et le temps en économie Bernard Paulré L'auto-organisation comme objet et comme stratégie de recherche. L'exemple de l'économie industrielle 375 382 Jean-François Laslier Agents historiens et anticipations rationnelles 408 Gilbert Laffond & Jean Lainé & Gauthier Lanot Un modèle dynamique de compétition électorale 425 UlrichWitt Self-Organization in the Economy and its Driving Forces Gisèle Umbhauer Formation de la réputation : quelques apports sur le rôle de l'inertie Appendices et Biographie bibliographie de Jacques Lesourne Index thématique Présentation des auteurs Liste des souscripteurs 455 468 488 494 . 498 499 AVANT-PROPOS Maurice Allais Dans la pléiade de mes anciens élèves Jacques Lesourne occupe une place exceptionnelle tout à la fois par ses contributions originales aux théories de l'efficacité économique et du calcul économique, et à leurs applications, et par son influence considérable et novatrice sur la gestion économique des entreprises publiques et privées et sur la formation d'ingénieurs économistes dans les secteurs publics et privés. Ses principaux ouvrages (Technique économique et gestion industrielle, 1958 ; Le calcul économique, théorie et applications, 1972 ; Modèles de croissance de l'entreprise, 1972 ; A Theory of the Individual for Economic Analysis, 1977 ; Économie de l'ordre et du désordre, 1991 ) marquent autant d'étapes majeures dans le développement de sa pensée. , ', ' ' L'influence de Jacques Lesourne s'est exercée principalement dans la direction de la Société Métra de recherche opérationnelle et d'études économiques (1958-1975), et dans le cadre de son enseignement au Conservatoire national des arts et métiers (1974-1998), ainsi que dans ses très nombreuses relations nationales et internationales dans le domaine de la recherche opérationnelle et des études prospectives. ; Jacques Lesourne est un des pionniers du calcul économique. ; " ; '' Ce qui constitue l'originalité spécifique de Jacques Lesourne, c'est la conjonction qu'il a su réaliser entre la théorie et la pratique, entre la pensée et l'action. i : En fait, si dans ses principes la théorie économique est très simple, elle est par contre toujours très difficile à appliquer, tant est complexe la réalité concrète. Il faut avoir médité pendant des années sur l'analyse économique pour en comprendre toute la portée, et savoir l'appliquer. 12 2 AUTO-ORGANISATION DÉCISION, PROSPECTIVE, Dans la très difficile conjonction de la théorie économique et de ses applications Jacques Lesoume a démontré à la fois la puissance de ses analyses et ses capacités de synthèse. Il a toujours su allier la rigueur scientifique de l'analyste et le souci d'efficacité de l'ingénieur sur le terrain. Incontestablement, aussi bien sur le plan international que sur le plan national, Jacques Lesourne est un des meilleurs économistes de sa génération. Kenneth J. Arrow Jacques Lesourne : The General and the Specific In the late 1950s,a youngFrench scholarshowedup at StanfordUniversity on a travellingfellowshipand asked to attent some of my courses.Jacques Lesournewas alreadyan ingénieurdes Minesand had alreadybeen studying the future of the French coal industry. His knowledge and depth were already apparent;he belonged to the best in that great French tradition of appliedeconomics,goingback to A. A. Cournotand Jules Dupuit,whichhas in fact transformedthe very foundationsof economicanalysis.He attended my courses faithfullyand even claimedto have learned something,though given the depth of his previousknowledge,1had somedoubtswhetherthere was much he didn't know already. We have maintainedcontactover the years and visitedeach other.Especially 1 have followedhis major contributionsto scholarship.What is extraordinary is the combinationof thesoundestscholarship,deep knowledgeof both general principlesand specifictechniques,and close and sensitiveapplications to specific industrial and policy problems.All these characteristics were alreadyapparentin his book on cost-benefitanalysis[ 1 ].Strikingly,he emphasizeda point of view that was not at all common then and not so common now: the aim of cost-benefitanalysis is improvementor reform, not the achievementof an optimum.The generalprinciplesand assumptions are laid out clearly.A series of models of gradually increasinggenerality introducesuch complicationsas taxation,dynamic(intertemporal)considerations,uncertainty,and the demandfor information.An astonishingarrayof 14 AUTO-ORGANISATION DÉCISION, PROSPECTIVE, issues are discussed in terse paragraphs. At each point, the emphasis is on stating the criterion for improvement in terms of measurable magnitudes. The very varied case studies show how the analytic apparatus is fully used. The most sophisticated theoretically developments find application in practical decisions. His work on the growth of businesses [2] shows a complete understanding, drawn from practical experience and extensive reading, of the leading special aspects of corporate behavior not encompassed in the standard economic models. The special constraints on borrowing and on other aspects of business activity (such as personnel) showed Lesoume's special skills at translating generalizations about behavior into models which can be subject to analysis both descriptive and prescriptive. The depth of Lesoume's learning and broad intellectual curiosity is even more strikingly displayed in his broadly generalized picture of human behavior [3], in which he draws on an extraordinary range of psychological and sociological literature, including the economics of organization, to show how the standard tools of economic analysis still find use in this broader setting. The impact of the last two books has not yet been fully felt. Jacques Lesourne has given a powerful impetus to both scholarship and practical decision-making. We are all grateful for his accomplishments. REFERENCES J., Cost-Benefit Analysis and Economic Theory. First published as [1] LESOURNE Le calcul économique, Dunod, 1964. 2e ed. révisée, 1972. English translation, North-Holland, 1975. J., Modèles de croissance des entreprises. Dunod, 1973. [2] LESOURNE J., Theory of the Individual for Economic Analysis. North-Holland, [3] LESOURNE 1977. Herbert A. Simon Jacques Lesourne's Contributions to Economics and to SocialScienceGenerally The lapse of more than forty years has cloaked the memoriesof my first contacts with Jacques Lesourne, when he visited the then-new Graduate Schoolof IndustrialAdministrationin our distantcity of Pittsburgh.1do not know just what broughthim here, or recall in what year he came, but from my knowledgeof his own work and interests,perhapsit was the rumorshe had heard of a small group of young schismaticswho were skepticalabout how far the static truths of neoclassicaleconomicscould bring us to a real understandingof modern economic systems - systems which seemed to spendmost of their lives very far from equilibrium,shroudedin dense mists of uncertaintyabout the future. The recollectionthat 1 do have is that he was alreadyin searchof an economic dynamicsthat woulddo justice to the uncertaintiesand complexitiesof industrialsociety,with its markets,but also with its businessfirms. He had just written,or was about to write,his early book, Techniqueéconomiqueet gestion industrielle(1958),and sharedwith the Pittsburghgroup a belief in, and understandingof the role of businessorganizationsin the operationof an economy.Organizations,which March and 1 published (also in 1958), , and Cyert and March's Behavioral Theory of the Firm (1963) could have come as no surpriseto him. During the interveningyears, up to the current one, Jacques Lesournehas progressedever farther in his searchfor a realistictheory of economicphenomena,and in so doing, has contributeda wide range of new ideas to economics that are just now beginning to receive the attention from the 16 6 AUTO-ORGANISATI DÉCISION, PROSPECTIVE, economics profession that they deserve. From the outset, the central idea that guided his work is that the economy, and the society in which it operates, must be viewed as a large and complex dynamic system, and that our understanding of it and its operation depends on acquiring an understanding of the basic nature and behavior of dynamic systems. This continuing attention to systems theory is expressed again in a significant way in the introduction to his relatively recent ( 1991 )Économie de l'ordre et du désordre. There he describes his work as "placing itself at the confluence of several currents of scientific thought": (1) general systems theory, (2) the "evolutionary current" in the writing of historical economists, (3) the behavioral approach, (4) institutional economics, and (5) (neoclassical) economic theory itself. (The inclusion of the last item reminds us that we must regard Jacques Lesourne as a revolutionist, but not as an anarchist.) These themes and their sources show up consistently in his whole body of work. The vastness and complexities of the system he was studying sometimes led him to question whether there really existed solutions to its problems that could preserve humanity and its civilization. Perhaps his "Black Book" was Les systèmes du destin of 1976, which examines these problems boldly and with some pessimism. His "Simplified Schema of a Model of Contemporary History, 1918-1973" on pages 418-419 conveys its flavor very well. Among the problems he lists are: oligopolization of social life, decline of parliamentarism, the crises of the youth and the cultural system, ossification of bureaucratic socialism, the Cold War, single-party government and dictatorship in the third world, exhaustion of non-renewable resources. A quarter century later, the list sounds very familiar, missing little, perhaps, except ethnic conflict and Global warming. However formidable these problems are, Jacques Lesourne did not turn from the task of understanding them as a step toward their solution. As early as the year following publication of Les systèmes du destin, he published a collection of his essays, A Theory of the Individual for Economic Analysis (1977), in which he proposes "an integrated theory of individual behavior, constructed for economics, taking into account as much as possible the results of the other human sciences, enlarging the utility theory, and adopting mathematical representations suited to the assumptions made concerning environment". Here we see again a specific segment of the overall venture he had launched in the 1950's, and which he has pursued systematically ever since. However, if the mission remained unchanged, the stream of ideas contributed to it continued to be fresh and significant. We come now to the present, with the volume he has recently co-edited on Advances in Self Organization and Evolutionary Economics (1998). Here we find examples of the applications to economics of the new mathematical tools that have emerged in the last twenty years for the study of dynamic complex systems embodying agents who make decisions under uncertainy in a world that has regions of chaos, and that evolves continually. And again Avant-propos 7 17 we see, Jacques Lesoume, in continuing pursuit of deeper understanding of the economic system, standing at the cutting edge of our knowledge and exhibiting to us powerful new tools that may aid our quest. It would be hard to find a more consistent, persevering, and fruitful lifelong scientific journey, steering steadily towards its destination, aware of that port's distance and the difficulty of reaching it, but always seeking the most modern technology to speed the journey. 1 am happy to have this opportunity to greet and congratulation Jacques Lesourne, whose imaginative work continues to be a source of insight and instruction to all of us who wish to create an economics of the real world, taking account of its chaos and complexity, and providing us with tools for dealing with its problems. Robert M. Solow When 1 think of Jacques Lesourne, 1 see him as 1 knew him some 40 years ago. The photograph on the dust jacket of Technique économique et gestion industrielle (1958) is just about right: a bit under 30 years old, very French, reserved, intellectually and visibly neat and self-coldminded. Much the same could be said of that book itself. Its title is not a bad summary of a large part of Jacques Lesourne's oeuvre, though not of ail of it, as 1 shall point out in a moment. Technique économique et gestion industrielle was intended as a handbook, something that a staff officer of an industrial firm could refer to when faced with a quantitative problem of management, and where he could hope to find a precise way to formulate the problem and eventually to solve it. To stop with that description, however, would be to miss the point. It was Lesourne's goal-perhaps inherited from his teacher Maurice Allais - to put these operational tricks on a firm, general basis of economic theory. (Perhaps it was the search for generality that struck me as particularly French?) In this marriage of operations and research and economic theory, it was quite obvious who was supposed to be the boss. It is clear from his most recent work that he has remained in close touch with the frontiers of economic science as it applies to the operations of business firms in the contemporary environment. 1 had forgotten another aspect of Jacques Lesourne's work until 1 began to think of writing these few words in his honor. He very early acquired an interest in applying economic theory to problems of localization and urban planning. 1 do not know when this interest began and when - or if - it ended, but it is already clearly expressed in two chapters of Le calcul économique (1964). There one can see the same impulse at work, to ground different Avant-propos 19 problems of applied welfare economics on a common general foundation. This is especially interesting to me, because 1 too once became fascinated by some questions of urban form, and wrote a few papers on that subject. But my (American?) inclination was to find in each case a mathematical model, any model, that would capture the intuition and allow it to be worked out. Jacques Lesourne has had a distinguished career both inside and outside of academic life. 1 do not know if one could have foretold that about the young man 1 knew at MIT. 40 years ago. But it was perfectly clear then that he had a clear and vigorous mind, and that Technique économique was in good hands. 1 wish him well as he retires from CNAM. DÉCISION, PROSPECTIVE, AUTO-ORGANISATION INTRODUCTION GÉNÉRALE Jacques Lesourne est un homme de livres : ceux qui s'empilent aux quatre coins de son bureau, qui garnissent sa bibliothèque et impressionnent le visiteur ; ceux aussi qui - plus secrètement - habitent son espace intérieur et nourrissent sa pensée. Il y a enfin ceux qu'il a écrits et sont autant de jalons pour saisir un parcours intellectuel hors du commun. À l'origine, il y a le livre de Maurice Allais, À la recherche d'une discipline économique, paru en 1943 et que Jacques Lesourne découvre durant ses études à l'École polytechnique, vers 1950. Avec les travaux de Maurice Allais, l'économie devient une discipline scientifique dans laquelle le langage mathématique permet d'analyser le fonctionnement des marchés et le rôle des prix dans l'accomplissement du bien-être social. Quoi de plus séduisant pour un major de promotion, déjà animé par le désir d'oeuvrer pour le progrès de la société, dans la France de la reconstruction ! À sa sortie de l'X, Jacques Lesoume décide de devenir économiste. Au cours de ses études à l'École des mines, il consacre tout son temps à cette discipline. En 1953, il entre aux Charbonnages de France et en devient le chef du service économique, poste qu'il occupera jusqu'en 1957. Durant l'année 1955/1956, il séjourne aux États-Unis comme boursier de la fondation Rockefeller. Il y côtoie une dizaine de futurs prix Nobel et rédige son premier livre Technique économique et gestion industrielle, publié en 1959. On peut dire que cet ouvrage a été le manuel de référence de l'économie d'entreprise de l'après-guerre. Il a inspiré les décisions d'une génération complète d'ingénieurs et de cadres qui ont découvert dans ce livre les principes de l'actualisation, l'analyse des coûts et la recherche opérationnelle. En 1958, Jacques Lesourne fonde la Société de mathématiques appliquées 24 AUTO-ORGANISATIO DÉCISION, PROSPECTIVE, (SMA) qui deviendra, l'année suivante la SEMA (Société d'économie et de mathématiques appliquées). Cette entreprise de matière grise jouera un rôle déterminant dans les domaines de la recherche opérationnelle, de l'économie appliquée, des sondages, de l'informatique et des études régionales. Internationalisation oblige (déjà !), la SEMA donne naissance à Metra international qui est alors le premier groupe européen de conseil. Un grand nombre d'études réalisées par la SEMA portent sur les décisions publiques dans le secteur des transports, de l'énergie ou de l'aménagement du territoire. À partir de cette expérience, Jacques Lesoume rédige Le calcul économique (publié en 1964, repris en 1972 avec l'ajout « Théorie et applications »). Ce livre prolonge le précédent en traitant des décisions que les entreprises publiques et les administrations doivent prendre du point de vue de l'intérêt de la collectivité. À partir d'un cadre microéconomique général fixant le rôle des agents économiques en présence, Jacques Lesourne développe une démarche de modélisation visant à fixer le périmètre pertinent d'interactions et le niveau de décision adéquat. Ainsi, par exemple, il s'interroge à propos du problème du transfert des Halles de Paris, décidé en 1960. Faut-il un ou plusieurs marchés périphériques ? Si c'est Rungis et Argenteuil, alors il se pourrait que ces deux marchés manifestent de fortes instabilités liées au chevauchement de leurs zones d'influence. Et cela, l'analyse marginaliste du calcul économique ne permet guère de l'apprécier. On verra combien cette interrogation va nourrir la pensée systémique de Jacques Lesourne sur l'interdépendance et l'instabilité dans les systèmes complexes. Dans Modèles de croissance des entreprises, paru en 1972, Jacques Lesourne développe une théorie dynamique de l'entreprise dans laquelle est étudiée, à l'aide de modèles microéconomiques, l'évolution optimale de l'entreprise, conçue comme une organisation au sien de laquelle des processus d'accumulation de ressources (financières, techniques ou humaines) sont à l'oeuvre. Les modèles examinés dans cet ouvrage font apparaître, dans divers contextes, les enchaînements de décisions conduisant l'entreprise vers un état de régime permanent. Au centre de l'analyse proposée, se trouve le concept de surrégénération, que Jacques Lesourne emprunte à la physique nucléaire : la croissance de l'entreprise consomme des ressources mais cette consommation est elle-même créatrice de ressources futures : l'investissement d'aujourd'hui accroît les capacités de financement - et donc les possibilités d'investissement de demain. À 25 ans de distance, tandis que la glose stratégique peine toujours à concilier le caractère multidimensionnel de l'entreprise (les fameuses « compétences » en amont, le « portefeuille d'activités », en aval) et sa trajectoire d'évolution inexorablement isomorphe à un cycle de vie, l'ouvrage de Jacques Lesoume fait figure de précurseur. En 1974, Jacques Lesoume devient professeur titulaire de la chaire d'économie et statistiques industrielles au Conservatoire national des arts et métiers. Il quitte la présidence du groupe SEMA en 1976. Cette bifurcation Introductiongénérale 25 professionnelle l'éloigne de la direction d'entreprise (à laquelle il reviendra cependant de 1991 à 1994 en occupant les fonctions de directeur gérant du journal Le Monde) ; elle accompagne une bifurcation intellectuelle qui trouve dans l'analyse systémique à la fois l'expression d'une conviction et le cadre d'une méthode scientifique. Jacques Lesourne est devenu convaincu du rôle central de la notion de système dans la compréhension des phénomènes économiques et sociaux qui, à ses yeux, sont régis plus par l'interdépendance des structures et l'instabilité des groupes que par la rationalité des acteurs. Il développe et illustre les principes de l'analyse systémique dans Les systèmes du destin, publié en 1976. Ce texte synthétise et hiérarchise l'évolution des systèmes économiques, historiques, voire biologiques. Impressionnant exercice digne de l'Encyclopédie ! À partir de ce corpus systémique et évolutionniste, Jacques Lesourne mène de front deux types de travaux, d'une part sur la prospective et, d'autre part, sur l'auto-organisation. , En 1976, Jacques Lesourne se voit confier la direction du projet Interfuturs de l'OCDE. Au milieu des années 70, le monde traverse une période d'incertitudes liées à la crise pétrolière, à la fin de la guerre du Viêt-nam et à l'émergence du Japon. L'équilibre dipolaire installé à Yalta manifeste des signes de rupture et des interrogations sur l'avenir apparaissent dans les pays occidentaux. L'objectif du programme Interfuturs est de répondre à ces interrogations à travers une analyse prospective globale du système mondial et une évaluation de différents schémas possibles d'évolution à long terme. Interfuturs - néologisme imaginé par Jacques Lesourne pour signifier qu'il s'agit de comprendre la dynamique des interdépendances et non de prolonger des variables macroéconomiques - est le plus grand projet de prospective internationale jamais réalisé. Publié en 1979 sous le titre Face aux futurs : pour une maîtrise du vraisemblable et une gestion de l'imprévisible et largement traduit, le rapport final recueille un écho indéniable dans les milieux dirigeants des plus grands pays (c'est à ce jour la publication de l'OCDE qui aura connu le plus gros tirage). Jacques Lesourne en donne une version à la fois libre et pédagogique, dans les Mille sentiers de l'avenir, publié en 1981. Il nous annonce un monde multipolaire et interdépendant, souffrant de graves insuffisances de contrôle mais demeurant à l'abri de toute pénurie de ressources physiques ; oui, c'est bien ce monde-là que nous avons vu se construire depuis vingt ans. Les travaux de prospective qu'il réalise dans la lignée d'Interfuturs et ses activités de consultant placent Jacques Lesourne à la frontière de la réflexion et de l'action. Il occupe cette position charnière avec le désir de convaincre les responsables, d'éduquer les « élites cultivées » et de conduire les uns et les autres à s'affranchir de toute pensée convenue. C'est ainsi qu'il écrit plusieurs essais pour dénoncer les rigidités du système français, Éducation et société demain (1988), Vérités et mensonges sur le chômage (1995), Le modèle français : grandeur et décadence (1998). 26 AUTO-ORGANISATIO DÉCISION, PROSPECTIVE, Avec l'auto-organisation, c'est le théoricien de la microéconomie qui (re)prend la plume. Jacques Lesoume cherche à dépasser le cadre restreint de la rationalité pure qui fait de l'agent économique un être doué du pouvoir de maximiser son intérêt individuel en toutes circonstances et de tout prévoir ; l'ambition de Jacques Lesourne est de reconstruire une théorie microéconomique qui, comme il l'écrit lui-même, fait « intervenir tout à la fois le hasard, la nécessité et la volonté ». Cet élargissement de la discipline vise à tenir compte du comportement adaptatif des acteurs, du hasard de leurs rencontres et de l'existence d'irréversibilités ; il s'agit de s'affranchir de ce commissaire-priseur qui, dans la microéconomie classique, décide tout à la place de tous, en examinant si des institutions de régulation des marchés ne peuvent pas émerger spontanément. Économie de l'ordre et du désordre, publié en 1991, est la première pierre de cette reconstruction ; ce livre est essentiellement consacré à l'auto-organisation du marché de l'emploi. Jacques Lesourne met ainsi en évidence une multiplicité d'états d'équilibre dépendant de l'histoire du marché ; l'équilibre classique, qui égalise l'offre et la demande de travail, s'interprète alors comme un cas particulier. C'est son livre préféré, dit-il ; peut-être parce qu'il y poursuit cette « recherche d'une discipline économique » entrevue cinquante ans plus tôt... Jacques Lesourne est un homme de livres. Il fallait donc un livre pour lui témoigner reconnaissance et amitié. Ce livre de Mélanges rassemble un « désordre » de textes variés dans le style, le contenu, l'origine des auteurs. Ce désordre atteste en lui-même de la variété du parcours intellectuel de Jacques Lesourne, de la diversité des personnes avec lesquelles il a travaillé. Mais, en bonne logique lesournienne, l'ordre naît du désordre. Aussi les textes se regroupent-ils naturellement .selon les trois thèmes qui, comme nous l'avons vu, structurent 1'oeuvre scientifique de Jacques Lesourne : la décision, la prospective et l'auto-organisation. Jacques Thépot 25 juillet 1999 Partie 1 DÉCISION Introduction ' 1 DÉCISION Jacques Lesourne a consacré d'importants travaux à la décision, notamment dans la première partie de sa carrière ; il s'est toujours interrogé sur les conditions dans lesquelles les décisions sont prises au sein des organisations. Gérard Worms témoigne de l'influence de Jacques Lesourne et de ses travaux sur la formation des cadres dirigeants. Il souligne combien la démarche scientifique de Jacques Lesourne est un exemple à suivre dans la prise de décision, pour concilier la rigueur de la modélisation et la cohérence avec le réel. Rigueur et cohérence : telles sont les qualités que l'on retrouve dans le voyage rétrospectif à travers l'oeuvre de Jacques Lesourne auquel invite Raymond Leban. Robert Lattès examine les changements que l'avènement de la société de l'information apporte dans la préparation et l'exécution des décisions. Cette société de l'information est liée au développement des nouvelles technologies ; Alexis Jacquemin montre ce qu'elle implique pour les entreprises de l'espace européen notamment en ce qui concerne les formes d'organisation. ' Bernard Roy recentre le débat sur la question clé : la décision n'est rien sans ce processus intellectuel qui la fait émerger ; l'aide à la décision est cette démarche par laquelle se construit pas à pas la légitimité de la décision au sein de l'organisation. Nicolas Curien présente deux applications du calcul économique à des problèmes de management militaire, réalisées en commun avec Jacques Lesourne. C'est un cas d'école, puisque, dans l'armée, le processus de légitimation emprunte la voie hiérarchique. Il arrive cependant que les ministres changent. Autre cas d'école dans lequel, cette fois-ci, la légitimité procède du marché : celui de l'évaluation des options financières. Alain 30 DÉCISION Bensoussan montre que, dans le cas d'un marché complet, la formule de Black et Scholes définit sans ambiguïté le juste prix d'un produit dérivé ; il n'en est plus de même en présence de coûts de transactions et autres imperfections. Jean-Pierre Dupuy porte le débat au coeur même de la théorie de la décision à propos des paradoxes qui entourent la question de la « stratégie dominante », celle qui doit être adoptée par tout individu rationnel, quoi qu'il advienne. Existe-il un fondement rationnel à la confiance ? s'interroge JeanPierre Dupuy qui considère que la confiance permet d'échapper à la logique de la stratégie dominante et d'assurer le passage de l'intention à l'acte. Ce passage est au coeur de l'analyse proposée par Anne Marchais-Roubelat qui examine le projet Concorde en distinguant processus de décision et d'action et les effets d'irréversibilités résultant à la fois des uns et des autres. Jacques Thépot se pose la question du tiers dans la décision ; c'est le tiers incarné dans toute institution chargée de vérifier les contrats noués entre acteurs qui peut garantir le passage de l'intention à l'acte. En amont de toute décision, se trouve la vision dont tout leader politique ou économique dispose pour analyser les éléments qui fondent son action. Heiner Müller-Merbach plaide pour la formation d'esprits généralistes capables de comprendre le tout autant que les parties et d'en avoir une perception systémique. Michel Crozier analyse le problème de la décision, tel qu'il s'est posé depuis un siècle dans les organisations. La décision est affaire de volonté jusqu'à la Libération, puis affaire de calcul dans les années 60. Une approche transdisciplinaire s'impose aujourd'hui pour prendre en compte les conditions humaines qui prévalent lorsqu'il s'agit de passer à l'action collective. 1. 2. 3. 4. 5. 6. Gérard Worms Raymond Leban Robert Lattes Alexis Jacquemin Bernard Roy Nicolas Curien 7. 8. 9. 10. 11. 12. Alain Bensoussan Jean-Pierre Dupuy Anne Marchais-Roubelat Jacques Thépot Heiner Müller-Merbach Michel Crozier Gérard Worms PERSONNELLES QUELQUES REMARQUES SURL'APPORT JACQUES DE LESOURNE AUMONDE ÉCONOMIQUE Il m'a été proposé de contribuer au présent ouvrage de Mélanges, bien que mes activités actuelles m'aient progressivement éloigné de la théorie économique. Les organisateurs du volume m'ayant précisé que cet éloignement ne disqualifiait pas pour autant mon témoignage, c'est bien volontiers que j'ai accepté de l'apporter. Je suis en effet de ceux qui se sont éveillés, en 1958/59, à la pensée économique et à la théorie de la décision avec deux ouvrages magistraux de la célèbre collection rouge d'Henri Hierche chez Dunod : d'abord bien sûr Technique économique et gestion industrielle de Jacques Lesourne (1958), puis, un an plus tard le Choix des investissements de Pierre Massé (1959). Quarante ans plus tard, mes jeunes collègues financiers ou industriels, lorsqu'ils manient les taux de rentabilité interne ou les discounted cashflow values, désormais intériorisés comme instruments de base d'une étude d'investissement ou d'acquisition, mesurent sans doute mal, tant leur formation a baigné dans ces concepts, l'impression d'éblouissante clarté que pouvait ressentir le jeune polytechnicien de 22 ou 23 ans, à peine sorti des généralités du cours d'économie de Divisia, en découvrant dans ces deux livres le calcul économique et sa portée opératoire. Mais là n'est pas le plus surprenant. D'autres outils de la finance ou de la gestion modernes ont eux aussi connu l'évolution, somme toute naturelle, de l'ère des pionniers à celle de l'usage généralisé. Plus exceptionnel à mes 32 DÉCISION yeux est le fait que, relus aujourd'hui, et à l'exception de quelques chapitres de recherche opérationnelle rendus partiellement caducs par le progrès des ordinateurs, les percées conceptuelles profondes opérées par ces deux livres n'apparaissent guère dépassées ou surpassées. Le terme de profond vient de venir spontanément sous ma plume à propos du premier grand traité de Jacques Lesourne. Et c'est bien, si je ne devais retenir qu'un qualificatif à propos de lui, celui que je choisirais : Jacques Lesourne est un homme d'une extrême profondeur de vue. D'autres, nombreux, ont pensé et écrit sur des modèles de croissance, sur l'axiomatique de la décision, sur les systèmes, sur les scénarios de l'avenir. Mais nul, à mes yeux, ne l'a fait avec autant de cohérence et d'acuité lorsqu'il s'est agi (et ne s'agit-il pas presque toujours de cela ?) d'intégrer des facteurs interdépendants : le court et le long terme, le probable et le certain, les intérêts privés et la chose publique, le hasard et la nécessité ? , Je ne suis pas un fanatique des modèles ; j'ai toujours déploré, par exemple, que le département d'économie de l'École polytechnique fasse la part trop belle aux économètres. Je regrette aussi que la théorie de l'entreprise ou celle de la décision restent écartelées entre les pseudo-calculs des uns (souvent ceux qui, ayant découvert les mathématiques sur le tard, en sont devenus prisonniers) et le fatras jargonnesque des docteurs ès stratégie. Jacques Lesourne, comme Pierre Massé, ou Marcel Boiteux, est l'un des rares penseurs qui aient totalement surmonté cette dichotomie, en modélisant mieux que d'autres, mais sans jamais quitter des yeux l'économie réelle. Et tel est bien le véritable enjeu de la décision : celle qui, sans renoncer à recourir aux approches rationnelles les plus exigeantes, au prix de calculs parfois savants ou de simulations que d'aucuns jugeront théoriques, retrouve ensuite le chemin du réel avec ses imperfections, ses bons ou mauvais hasards, et avec l'infinie diversité de la nature humaine. Tel intuitif raisonne sans le savoir en optimisant son minimax regret, tel autre en maximisant sa plus-value locale alors qu'elle ne coïncide que partiellement avec l'intérêt de l'entreprise ou de la collectivité qu'il croit servir. Mais ceux qui sauront intégrer à leur action les effets de tels comportements somme toute naturels sont ceux qui en auront assimilé les explications sousjacentes grâce aux enseignements de Jacques Lesoume et de quelques autres maîtres. Tel est bien d'ailleurs le propos de ceux qui utilisent Jacques Lesourne comme consultant, qu'il s'agisse de l'OCDE ou de grands dirigeants industriels ; ils savent que la compétence théorique en matière de micro ou de macroéconomie, lorsqu'elle est devenue à ce point partie intégrante de soi, peut enrichir la réflexion concrète et à visée opératoire, là où la modélisation mal digérée, mal surmontée, ne ferait que des ravages. Dit encore autrement, l'apport de Jacques Lesourne à la théorie et/ou à la pratique de la décision (on vient de voir que pour lui les deux aspects sont indissociables) me paraît pouvoir être résumé ainsi : Quelquesremarquespersonnellessur l'apportde J. Lesourne 33 L'introduction du calcul économique dans la vie industrielle, sans complexes et sans complaisance, en tant qu'instrument de premier rang dans les choix d'investissement et le contrôle de la gestion. La discounted cashflow value était déjà un concept financier, mais l'inclusion de ce type de notions dans une vision d'ensemble de la théorie économique est une percée majeure. Les ingénieurs économistes français, dams le sillage de Jacques Lesourne, ont incarné cette percée, tant au niveau de l'entreprise qu'à celui des investissements publics. Ceux qui ont ensuite enseigné ce calcul économique (comme je l'ai fait pendant près de 20 ans à HEC puis à l'X) recueillent aujourd'hui de nombreux témoignages de praticiens sur ce que cette imprégnation leur a apporté. Le recours, là aussi sans complexes ni complaisance, à une explicitation attentive des hypothèses d'environnement macro ou microéconomique dans lesquelles doit se mouvoir le processus de décision. Le succès de la SEMA, fondé par Jacques Lesourne et Jean Mothes, a démontré qu'une telle approche rigoureuse pouvait engendrer un développement spectaculaire du métier de consultant, par l'inclusion d'approches concrètes des décisions à prendre dans une axiomatique d'ensemble. Le maniement à son juste niveau (ni pour sa beauté formelle, ni pour « épater le bourgeois ») de l'outil mathématique, lorsqu'il est réellement utile à l'élucidation des enjeux et des problèmes à résoudre. Enfin et peut-être surtout, la recherche systématique de la cohérence, gage d'efficacité de nos organisations. L'usage d'une approche systémique, complétant l'indispensable intuition, est devenu un ingrédient majeur de tout processus décisionnel complexe. On aura compris qu'à mes yeux la science économique, comme l'armature intellectuelle d'un aussi grand nombre de nos dirigeants, ne seraient pas, sans Jacques Lesoume, tout à fait ce qu'elles sont. Raymond Leban . DEJACQUES LESOURNE L1CEUVRE : DERICHESSE COHÉRENTE EXEMPLE J'ai rencontré Jacques Lesoume en 1975 lorsque, devant succéder à Jean Fourastié au Conservatoire national des arts et métiers, il avait réuni pour la première fois l'équipe que ce dernier lui confiait. J'étais jeune assistant ; je terminais une thèse de mathématiques sur les apports de la statistique bayésienne à l'économétrie ! Plongé dans un groupe surtout féru d'observation des prix et plutôt méfiant à l'égard des modèles, je n'avais pas beaucoup eu l'occasion de m'expliquer sur la nature de ce sujet, j'en conviens très pointu. Lorsque, dans la séquence des présentations, est arrivé mon tour, j'ai parlé en m'excusant presque d'être un canard si noir. Très vite, et avec cet enthousiasme qu'il montre toujours lorsqu'il s'agit d'échanger des idées, Jacques Lesoume m'a lancé un « je vois très bien quel est l'objet de vos recherches », puis il a fait quelques remarques sur le concept de probabilité subjective et la controverse dont il est l'objet, pour finir en m'expliquant comment... il l'utilisait dans les études réalisées à la SEMA, la célébrissime société de « conseil scientifique » qu'il avait créée et dirigeait. Tel est en effet Jacques Lesourne : un homme à la culture à la fois encyclopédique et profonde, ayant le goût de la théorie et en même temps le souci d'en pousser l'application au plus loin. Deux associations de qualités qui sont à l'origine d'une imposante oeuvre autant par sa cohérence que par sa richesse. Les travaux de Jacques Lesoume couvrent incontestablement un champ impressionnant : ils touchent au calcul économique, à la stratégie d'entre- : de richessecohérente L'oeuvrede JacquesLesourne exemple 35 prise, à la prospective, à la théorie économique comme à la sociologie et à la science politique ; ils traitent des questions de croissance, d'emploi et de développement technologique mais aussi de l'éducation, de la construction européenne ou du destin de nos sociétés. Certains, qui portent par exemple sur l'auto-organisation des marchés ou les politiques de croissance de l'entreprise, ont une vocation clairement théorique. D'autres, comme le magnifique ouvrage Les systèmes du destin, sont des essais. D'autres encore, tels ses « scénarios pour l'Union européenne », se veulent à portée plus pratique. Tous laissent transparaître une posture profondément scientifique, traduisent le souci - ô combien opportun - d'une approche dynamique des phénomènes et reflètent une pensée systémique empreinte à la fois d'angoisse et d'optimisme, c'est-à-dire profondément humaine. >. L'attitude est scientifique parce qu'elle bannit « la maladie de la table rase à la théorie traditionnelle de Lesourne s'intéresse l'utilité, Quand Jacques qui permet de décrire le comportement d'un individu ayant à effectuer des choix sous contrainte (sélection d'un panier de consommation dans la limite de son revenu par exemple), c'est pour l'enrichir d'apports d'autres sciences sociales comme la psychologie et la rapprocher des pratiques de marketing : au lieu d'exprimer globalement la satisfaction de l'individu par un nombre, il propose par exemple de la mesurer au regard de chacune des motivations (sécurité, confort, prestige, puissance, évasion, narcissisme... ) qui orientent les comportements. Lorsque Jacques Lesourne se plonge dans la théorie de l'équilibre général des marchés, c'est pour l'enrichir en associant aux états stables des cheminements possibles résultant de jeux d'acteurs aux résultats aléatoires, certes simples mais explicités et autrement plus réalistes que le schéma du commissaire priseur Walrasien. ' L'attitude est scientifique aussi car elle reconnaît la nécessité, pour améliorer les méthodes, d'effectuer des recherches appliquées se livrant certes à une critique constructive des pratiques existantes mais s'efforçant aussi d'utiliser les acquis de la science. Après avoir réalisé un exercice de prospective sans précédent sur le devenir des grandes zones du monde (Interfuturs) et décrit dans la foulée Les mille sentiers de l'avenir, Jacques Lesourne note ainsi, en s'en inquiétant et proposant des pistes de réflexion, les déficiences des outils utilisés. A propos notamment de l'analyse structurelle, employée pour décrire de manière systématique et en groupe le système objet de l'étude, il dit avec justesse : la méthode « introduit dans le champ de la réflexion des éléments qui, sans elle, seraient facilement omis et oblige à s'interroger sur les relations entre eux ». Mais, poursuit-il avec autant de pertinence, « force est de reconnaître [son] extrême fragilité théorique », puisqu'elle considère toutes les influences directes [d'une variable X sur une variable Y] comme équivalentes et - ajouterions-nous - ne dit rien sur le libellé des variables, autorisant au cours même de l'étude des glisse(1) « Crise de l'économieet des sciencessociales», Revueéconomique,vol. XXVI n° 6, novembre1975. 36 DÉCISION ments de sens et donc des déformations de la matrice des relations tout à fait coupables Animés par un esprit de rigueur constructif, les travaux de Jacques Lesourne se préoccupent aussi avant tout de dynamique, car là lui paraissent être les insuffisances les plus criantes et les sources de progrès les plus substantielles. « Depuis des années, écrit-il en 1985, je suis hanté par cette constatation : alors que tout s'inscrit dans la durée, le noyau dur de la théorie économique ignore l'histoire [au sens des processus par lesquels le temps transforme en un passé unique la multiplicité des avenirs uniques]. » _ - Dans un premier effort pour combler ce vide, Jacques Lesourne s'est intéressé à la théorie de l'entreprise en modélisant le comportement de celle-ci dans le langage du « contrôle optimal » (2). Cette technique d'optimisation dynamique suppose que l'on définisse à partir des résultats de l'activité un critère de performance sur une période de temps (création de valeur pour l'actionnaire sur n années par exemple), que l'on relie cette performance à des déterminants exogènes (croissance du marché suivi, évolution prévue des prix des produits intermédiaires...) ainsi qu'à des variables d'action (recrutement, licenciement, investissement en capital, emprunt...), en spécifiant pour finir les contraintes limitant les choix (rareté de certains types de main-d'oeuvre, borne au taux d'endettement...). Elle fournit alors le ou les enchaînements de décisions dans le temps qui conduisent à la meilleure performance. Cette technique de modélisation a permis par exemple à l'auteur de préciser utilement comment combiner autofinancement et endettement et gérer la distribution de dividendes au cours de la croissance de l'activité, selon l'état du marché financier. Nous-mêmes avons montré comment, lorsqu'elle anticipait des fluctuations de la demande du produit dans un contexte de coûts d'ajustement de la main d'oeuvre élevés, l'entreprise avait intérêt à mener des politiques de précaution (arrêt précoce du recrutement dans la phase ascendante du cycle conjoncturel, et reprise tardive ou même inexistante des recrutements lors du redémarrage), les politiques étant liées de manière claire aux niveaux relatifs des coûts concernés et contribuant à amplifier les stop and go prévus. Grâce toujours à une modélisation en termes de contrôle optimal, nous avons pu aussi montrer comment, selon l'intensité de la concurrence sur les prix, des progrès de productivité espérés et de la compensation salariale accordée aux employés, l'entreprise était tentée de réagir à une réduction du temps légal de travail en termes d'emploi dans la durée (c'est-à-dire non seulement en ajustement presque mécanique lors du choc initial mais aussi dans la suite, compte tenu de l'impact de la réduction sur son niveau de compétitivité (1) « Plaidoyerpour une rechercheen prospective», Futuribles,novembre1989. (2) Modèlesde croissancede l'entreprise,Paris,Dunod, 1972. (3) R. Leban, La politique de l'emploi dans l'entreprise, Paris, Economica,1986.Alain Bensoussanet JacquesThépotont aussicontribuéà ce travailsur l'entreprise,l'un à propos de l'étude des politiquesfinancièresen environnementaléatoire,l'autre concernant l'analysede jeux dynamiquesentre duopoleurs. L'oeuvrede JacquesLesourne exemple : de richessecohérente 37 Dans une tentative certainement plus ambitieuse et avec l'équipe du laboratoire d'économétrie du CNAM, Jacques Lesourne s'est attaqué plus tard aux « processus dynamiques de la microéconomie en cherchant à comprendre « les phénomènes d'auto-organisation qui [en] résultent (1). >. Ila bien entendu appliqué dans ce champ de recherche la démarche d'enrichissement des théories évoquée plus haut. S'intéressant par exemple au marché du travail, il a supposé que les individus recherchant un poste et les entreprises en offrant étaient caractérisés respectivement par des exigences de salaire minimum et des propositions maximales de rémunération, se rencontraient de manière aléatoire et adaptaient leurs prétentions en fonction du résultat des confrontations. Ces hypothèses de fonctionnement étant posées, il a d'abord montré que, si les acteurs avaient à chaque passage accès (avec une probabilité non nulle) à toutes les opportunités, alors, quelle que soit la situation initiale, le marché convergeait en un temps fini vers l'état stable que décrit la théorie statique classique de l'équilibre (niveau de salaire unique correspondant à un niveau d'emploi N égalisant offre et demande, emploi des N individus les moins exigeants par les N entreprises les plus généreuses). Dit autrement, sur la base d'un schéma d'interaction des agents simple mais aux fondements réalistes, parce qu'incorporant l'aléatoire et supposant des comportements adaptatifs caractéristiques de la rationalité limitée, Jacques Lesourne a montré qu'il existait une dynamique endogène de cheminement du marché vers l'état stable de la théorie, dès lors que l'information restait extensive et sans coût à chaque stade de la vie de ce marcomme par ché. Puis il a introduit dans son modèle des irréversibilités, le fait les accessibles à un individu à exemple que postes chaque passage sur le marché dépendent des emplois occupés précédemment (effet de spécialisation) ou du lieu de résidence (effet de localisation géographique). Il a alors montré que le marché pouvait évoluer vers une variété d'états stables et que l'état atteint dépendait de la situation de départ et des événements aléatoires jalonnant la recherche, bref de l'histoire du marché, cette histoire pouvant avoir une fin plus ou moins heureuse. Avançant encore dans la voie du réalisme, Jacques Lesourne a modélisé l'idée d'élévation aléatoire de la qualification des individus selon les entreprises rencontrées et servies au gré des passages successifs sur le marché, dès lors que ces dernières diffèrent par leurs arbitrages en matière de technologies et donc de niveaux de compétences des emplois offerts. Il a alors montré qu'un marché spécifique pour les travailleurs qualifiés émergeait presque sûrement, sa taille dépendant de l'histoire. Dit autrement, il a décrit avec un formalisme rigoureux permettant la réfutation, un marché « autopoïétique », c'est-à-dire capable de s'autoorganiser, de se produire lui-même, en engendrant des institutions. Qui dit auto-organisation dit évidemment pensée systémique, toile de fond intellectuelle de toute l'aeuvre. (1) « Le marchéet l'auto-organisation», Économieappliquée,tome XXXVII,n° 3/4, 1985. L'économiede l'ordre et du désordre,Paris, Dunod,1991. 38 DÉCISION La conviction de la puissance de cette approche systémique des problèmes ? qui a le souci de les insérer dans un contexte suffisamment vaste et d'explorer les causalités circulaires en concentrant l'attention sur les relations entre les parties du système constitué pour leur étude, s'est forgée très tôt chez Jacques Lesoume, à l'occasion, comme il le dit lui-même, de la lecture du Cybernetics de Wiener puis du Models of Man de Simon, quand il achevait à >. la plus austère par Maurice Allais peine d'être formé à la microéconomie alors même qu'il apparaissait Son intérêt précoce pour la prospective comme le champion du calcul économique est donc a posteriori peu surprenant. - Chemin intellectuel faisant, à la lumière de son expérience dans la haute et le conseil aux entreprises, Jacques Lesourne a aussi acquis administration le sentiment que, lorsqu'il s'agissait de construire l'avenir, « le problème futures mais aussi de n'était pas seulement de comparer des trajectoires concevoir des organisations sociales capables de survivre dans des environ» (2). Le langage et la théorie des systèmes, à cause nements défavorables lui sont apparus comme des notamment de leur caractère transdisciplinaire, très efficaces pour formuler ce double problème instruments potentiellement Dans les Systèmes du destin (3), en dehors de tout recours à la métaphysique. oeuvre pour moi la plus marquante, Jacques Lesourne s'est alors efforcé d'atteindre deux objectifs. Le premier était « de comprendre comment - technipasser des systèmes les plus simples, quement - on pouvait progressivement transformant des entrées en sorties, à des systèmes cybernétiques susceptibles de s'autoréguler grâce à des rétroactions, puis à des systèmes à appren[puis tissage aptes à modifier leurs relations en tirant parti de l'expérience, encore] à des systèmes auto-organisateurs capables de se donner des buts, d'inventer et créer, [pour aboutir] enfin aux sociétés de systèmes, ces ensementre eux ». Le second consisbles de systèmes complexes communiquant à l'étude de l'individu, de l'évolution tait à appliquer cette problématique entre nations. De la et des relations des systèmes politiques nationaux à deux facettes. Satisfaction réflexion est sorti un message optimiste d'une ouvert comment un système pouvait auto-organisateur part d'appréhender naître du désordre puis survivre dans un environnement changeant, devenant ainsi porteur d'un certain ordre, grâce à des adaptations de son organisation des par essais aléatoires. Inquiétude d'autre part de constater l'incapacité « à maîtriser les construction », hommes, aux trois échelles citées et par l'intermédiaire ensembles de systèmes sans cesse complexifiés par desquels leur disparition, c'est à dire ils agissent, avec comme perspective possible... à partir du aléatoire d'organisation celle de l'humanité. L'idée d'émergence l'avons vu. Celle de survie nous désordre a été creusée en microéconomie, a a été illustrée mouvant à dans un environnement grâce l'adaptabilité (1) « From Markets Dynamics to Evolutionary Economics », Journal of Evolutionary Economics, vol. 1, 1991. (2) Op. cit. (3) Paris, Dalloz, 1976. : de richessecohérente L'oeuvrede JacquesLesourne exemple 39 contrario, par exemple, dans une analyse de la crise du modèle français de société Celle de « l'insuffisance de contrôle - potentiellement mortelle l'humanité des systèmes de son destin a été concrétisée dans les Mille par sentiers de l'avenir à travers l'énoncé de quatre peurs : le maintien d'un taux de fécondité élevé dans le tiers-monde, une rareté croissante des ressources primaires associée à une impasse environnementale, un élargissement explosif du fossé entre pays riches et pays pauvres et une poursuite de la confrontation entre l'Est et l'Ouest maintenant présent le spectre d'une troisième Au pessimisme du diagnostic, Jacques Lesourne a guerre mondiale associé à chaque fois des pistes d'action porteuses d'espoir, des cependant « les éléments les plus divers des systèmes les plus diffétouchant pistes rents » en « une politique des mille sentiers » seule possible à ses yeux pour lutter contre le défaut congénital de contrôle. Attitude scientifique, souci de comprendre et favoriser le mouvement, vision systémique équilibrée du monde. Tels sont donc les qualificatifs qu'un voyage rétrospectif à travers l'oeuvre de Jacques Lesourne me donne envie de lui attribuer. Des qualificatifs qui s'appliquent au travail de recherche mais aussi aux autres actions que j'ai pu connaître : enseignement aux débutants comme aux spécialistes, « éducation profonde » des jeunes esprits celle dont Paul Valéry disait qu'elle consiste à défaire l'éducation première que ces esprits aient entamé leur parcours en explorant les sciences humaines ou les sciences dites exactes. Des qualificatifs qui, lorsque l'on saura que j'ai passé plus de vingt ans à travailler auprès de lui, laissent imaginer l'influence que Jacques Lesourne a pu avoir sur mon itinéraire intellectuel et ce que je lui dois. et décadence,Paris,OdileJacob, 1998. (1) Le modèle français grandeur : 1. (2) Paris, Seghers,1981. Robert , Lattès , LADECISION A L'AGE . DELASOCIÉTÉ D'INFORMATION Vers 1965, à l'occasion d'une conférence sur l'aide à la décision, Jacques Lesoume évoquait comme exemples un programme de développement pour un pays, l'établissement d'un programme d'équipement d'une ville, la des travaux de gestion des stocks dans une usine, l'ordonnancement construction d'un barrage, l'étude de marché d'un produit alimentaire quelconque. « L'unité de ces problèmes, ajoutait-il, réside dans le fait qu'il s'agit dans tous les cas de problèmes de politique, qui pour être résolus amènent les responsables à effectuer un choix entre plusieurs décisions possibles. Etant donné le nombre et la complexité des données à prendre en compte pour évaluer les incidences de chaque solution envisagée ou envisageable, on voit le rôle des experts : il va consister, à partir d'informations recueillies puis élaborées sous forme de données opérationnelles, à définir des politiques, à les comparer en mesurant les conséquences de chacune d'elles, de telle sorte que la décision finale puisse être prise en connaissance de cause et compte tenu des risques à encourir. » Faut-il ajouter qu'environ deux ans avant cette conférence, un éditeur opiniâtre et Lesourne avaient arraché aux auteurs potentiels et publié un livre collectif sur les Techniques modernes de préparation des décisions, dans lequel on trouvait en fait les divers spécialistes un peu pionniers qui commençaient à assurer le décollage et la notoriété de la SEMA. La décision à l'âge de la société d'information 41 1. RETOUR SURLEPASSÉ À une trentaine d'années d'écart, mesure-t-on combien choses et contextes ont changé ? Éventail, considérablement élargi et diversifié, des préoccupations ; facilité et rapidité pour accéder aux informations, pour les recueillir, bénéficier d'une richesse et d'une précision alors rarement possibles ; champ Et plus et variété des problèmes abordés ainsi que leurs modes d'approche. des modalités pour discuter et décider que tout peut-être le bouleversement à plusieurs en n'étant pas nécessairement en un même lieu : on y reviendra. On ne s'intéressait on ne pouvait s'intéresser qu'à certains types de du territoire (pont de nationaux, régionaux et d'aménagement problèmes : Tancarville ou liaison avec une île), ou encore de politique nationale, comme celle de l'énergie. Les coûts et moyens à mettre en oeuvre pour des études homologues étaient rarement à la mesure des entreprises, sauf peut-être des plus grandes et pour des problèmes très spécifiques en raison des enjeux financiers : ordonnancement et gestion de la production ou encore, dans l'industrie pétrolière, de l'extraction, d'ensemble du transport, du raffinage et de programmation la distribution. Déjà coûteux, ce pouvait être assez long et mobilisait des effectifs importants et diversifiés. Les délais étaient parfois considérables, notamment pour réunir et extraire les informations, en particulier chiffrées, voulues. Sauf dans des cas très spécifiques évoqués ci-dessus, ce n'était que rarement dans les possibilités, donc les objectifs, d'une entreprise. ] j i ) j / ; ) ) 1 / / S En raison des multiples contraintes volume des équipes, internes ou non, il fallait recourir avec ingéniosité à des coûts, délais, méthodes utilisables modèles simplifiés. On devait souvent se limiter à quelques variantes du modèle, ou même se contenter d'analyser quelques cas à partir de variations sur un cas considéré comme central, de référence. Ainsi donc pour trop de problèmes qu'il s'agisse de projets, ou de fonctionnement à « améliorer », de structures et cadres existants méthodes, délais, moyens humains, techniques et financiers limitaient les ambitions, avec, il ne faut cesser de le rappeler, tous les problèmes soulevés par la collecte des données. Dans l'entreprise, on commençait, depuis la fin des années cinquante, à découvrir les possibilités et les vertus de l'informatique pour de simples Deux ou problèmes d'exploitation : paie, facturation, parfois comptabilité. trois ans plus tard, de premières avancées réelles, méthodologiques et ciblées - en programmes d'ordonnancement ou en programmation linéaire allaient, outre leur utilité propre, ouvrir des horizons nouveaux à l'entreprise. 42 DÉCISION Certes depuis près de dix ans de puissants (!), pour l'époque, ordinateurs permettaient, on le savait, de considérables progrès, mais essentiellement dans les domaines très à part militaires et nucléaires. Les besoins d'aide à la décision commençaient néanmoins à se faire sentir au-delà de simples tâches de gestion - dans les entreprises : à cause de la taille, croissante, de certaines d'entre elles ; du fait de la dispersion et de la diversité des implantations d'une entreprise donnée ; pour une meilleure gestion d'ensemble d'une entreprise : approvisionnements, unités diverses de production, stockages (et leurs localisations), livraisons, actions de ventes, etc. Parler d'optimisation n'aurait guère eu de sens : on recherchait une solution de base, réaliste, prise comme référence pour des améliorations par approximations successives. Notons en outre qu'on n'était que rarement prêt à consacrer les moyens voulus - humains et financiers - à de telles approches « stratégiques », même si l'on commençait à savoir ce qui se faisait ici ou là, aux États-Unis notamment, avec précisément ces ordinateurs qui semblaient commencer à quitter les lieux réservés du militaire, du nucléaire et du spatial avec le lancement américain du programme Apollo. 2. PROGRESSIVEMENT, LEGRAND CHAMBARDEMENT Projetons-nous alors de trente à quarante ans plus tard. Qu'est-ce qui a radicalement changé ? Souvent comme en une éternelle relation de la poule et de l'aeuf. En tête les moyens, leurs possibilités et leurs conditions d'utilisation. L'informatique avec ses deux volets du hardware et du software. Le hard sans oublier tous les équipements de visualisation, ni le fax dont on ne rappellera jamais assez les multiples capacités (que n'a pas, selon moi, l'E-mail). Sans oublier non plus les nouvelles formes de télécommunications et de transmissions avec, en particulier, la possibilité de travailler, de débattre en temps réel et à plusieurs à partir de localisations disséminées ; de fixer, avec les responsables d'actions, le cadre de ces actions. Et tout cela avec, à la fois, vitesse et simplicité de traitement. En ayant abandonné des modèles plus ou moins simplifiés au profit d'un reflet de plus en plus fidèle de la réalité parce qu'on peut - si nécessaire - opérer par balayage, certes intelligent, mais assez systématique de l'espace des variables et des paramètres ; disons par simulation exhaustive, la simplicité d'exécution n'empêchant pas la profondeur et la finesse d'analyse voulues et une complexité abordable croissante. Avec la nécessité de surveiller un nombre croissant de La décision à l'âge de la société d'information 43 facteurs, de pouvoir s'adapter à des évolutions rapides et à d'inévitables toutes choses inhérentes, par exemple, à l'image d'une entreincertitudes, mouvants, en foncprise aux multiples implantations et aux environnements tion de ses activités et des demandes qui lui sont adressées ; tout ou presque - au besoin est devenu possible. par segmentation Cependant, élément l'accroissement des crucial, qu'on assistait à trois évolutions prodigieuses : la chute des prix et la simplicité d'emploi. performances, Réflexion décisions actions : les enchaînements admissibles ont totalement changé, comme le contexte d'un nombre croissant de décisions - dans l'espace et dans le temps -, en particulier quels que soient la dispersion ou la dispersabilité envisageable, et bien entendu, le suivi des décisions. Avec, le parfois, risque - si l'on n'y prend garde - de répondre plus rapidement à une mauvaise question ou à une question qui ne se posait pas ! On est devenu de plus en plus fréquemment capable de tenir compte, à la fois du caractère évolutif des choses et de la nature, en résultant, des décisions ; et cela aux divers niveaux d'actions ayant chacun ses spécificités, ses de la trésorerie et exigences et ses responsables (de branches, commerciaux, du financement, etc.). N'ont cessé de la sorte de s'accroître les dimension, richesse et raffinements des cadres qu'on veut prendre en compte, des types de problèmes auxquels on peut, et on est de plus en plus contraint de s'intéresser. Sans oublier, on va y revenir, données nécessaires. les problèmes posés par les informations et Constatons au passage que l'ensemble des besoins et des moyens sousjacents qu'ils impliquent coûtent cher en personnels et équipements et tirent vers le haut les tailles critiques des entreprises ou groupes aptes à les supporter ; nécessité susceptible, parmi d'autres, de pousser à la mondialisation. 3. ACCÉDER AUXINFORMATIONS ETDONNÉES NÉCESSAIRES ' - De toute façon se pose le problème des informations et données : avoir à et à un volume et données croissant d'informations disposition jour - internes et externes à l'entreprise dans le cas d'une entreprise plus généralement une mémoire auxiliaire (à la fois interne et externe à l'entreprise) adaptée à un environnement spécifique donné. Ce qui impose de la constide la faire évoluer en fonction des évolutions de besoins, de l'actualiser tuer, en permanence, tout en conservant certains plus ou moins longtemps - . 44 DÉCISION « instantanés » d'étapes intermédiaires qui peuvent s'avérer nécessaires dans le futur. (Mémoire qui doit rester insensible aux mouvements, quels qu'ils soient, de personnels et de responsables.) De la sorte il est possible d'élaborer les multiples jeux de tableaux de bord susceptibles de représenter au mieux les diverses réalités - et leurs regroupements (plus ou moins synthétiques dans l'espace et dans le temps) - de unités, fonctions, responsables, objectifs, aux fins de compal'entreprise : « relations raisons, ») avec l'extérieur (convenablement photographiées clients et de fournisseurs, prestataires services, etc.). (exemples : Il faut ici rappeler combien se sont développés dans un passé relativement récent les outils, moyens et services permettant - dans et pour les entreprises ou autres entités aux activités les plus diverses le suivi, la mise à jour et l'accès « externe à ces entités » aux informations et permanente données indispensables (tout en mémorisant ce qui, du passé, doit l'être). 4. PERSPECTIVES ETHORIZONS NOUVEAUX avec les délais Simplifiant, élaguant, adoptant des conditions compatibles dont on pouvait raisonnablement faut-il rappeler disposer pour décider qu'on ne travaillait pas en temps réel -, on consacrait temps et moyens aux bases à réunir, à quelques modélisation simplifiées autour d'un cas central, cerné et obtenu par des raisonnements et calculs « à la marge » plus ou moins licites ? - et qui l'étaient, le plus souvent. Par la suite on a pu prendre en compte la réalité la plus fine (par exemple le choix des implantations pour un grand groupe industriel qui se développe ou procède à des absorptions) en partant de la situation existante et en s'interadmissibles, ou sur des évolurogeant sur les possibilités raisonnablement tions envisageables ou moins plus profondes et plus ou moins localisées. Y en et en chiffrant tous azimuts des structures profondécompris analysant ment différentes, en envisageant par exemple des fusions ou absorptions considérées comme possibles. . Précisons par quelques exemples : - des licenciements en vue d'économies, sans qu'on change significativement les volumes de production et de ventes ; - la recherche et la réalisation d'une fusion sans forcément examiner en profondeur le bilan de toutes les conséquences, positives et négatives ; - la restructuration des opérations internes pour assouplir l'ensemble : éliminer des niveaux de supervision, réduire des coûts et délais de dévemieux équilibrer ce qui est respectivement local, national, loppement, mondial ; La décision à l'âge de la société d'information 45 - rationaliser et unifier l'ensemble de la production (qu'il s'agisse aussi bien d'automobiles de de à l'échelle de l'enconsommation) que produits semble des implantations ; - remettre en cause la dispersion et la décentralisation des structures de mise en marché ; de la production et - substituer une organisation assise sur la mise en marché de lignes de à un ensemble d'unités de production qui avaient été retenues produits des raisons pour purement géographiques. Pour mémoire, on citera quelques exemples ne concernant pas l'entreprise : le budget d'une nation ; la réflexion en dynamique sur une politique fiscale ou sur la refondation d'une politique de retraites ; les grands travaux dans le temps, et l'aménagement du territoire : flexibilité, programmation de tous ordres, en séquences, coûts et modes de financement, conséquences particulier pour les divers acteurs et entités concernés. Ajoutons encore, ' pourquoi pas !, la gestion économique et financière d'un foyer. Ces exemples visent à insister sur les progrès considérables réellement nés de ont été au des raisonneréalisés, progressifs l'expérience, qui plan aborder et des de en ments, pour poser problèmes plus plus larges et aux niveaux les ceci nécessite complexes plus divers ; pour chacun de ces de : problèmes - les cerner, autour des choix, apparemment majeurs, impliqués ; - les des divers segmenter, et définir de façon opératoire les caractéristiques ainsi mis en évidence ; segments - dégager les variables - quantifiables ou non - et les paramètres (en partide ces segments. culier économiques, financiers, parfois monétaires) Examiner les conditions, possibilités et délais pour les évaluations (ou obtentions) correspondantes. Dégager des tests de fiabilité ; - approfondir les possibilités de modélisation mise au point de ces outils ; , , ' - isoler, le cas échéant, les sous-ensembles simulations correspondantes ; - , synthétiser le ou les tableaux retenues ; d'hypothèses . - bien sûr réitérer en fonction lacunaires ainsi réunis. y des valeurs des résultats et simulation modélisables quantifiant et les délais de et procéder aux les divers groupes éventuellement insuffisants, notamment de l'entreprise, les incertitudes S'agissant multiples et croissantes, les opportunités mais aussi les nécessités de notre monde - mondialisé - peuvent contraindre à de multiples et fréquents changements de pied, et nécessités. Sans oublier les décisions parfois en combinant opportunités à On dispose aujourd'hui, imprévues prendre rapidement. phénomène 46 DÉCISION majeur, des moyens voulus, moyens qui ont également profondément modifié la possibilité d'abord, puis la facilité, du suivi. Simultanément le recours croissant, souvent dans des situations complexes, à ces moyens a développé des aptitudes nouvelles à l'anticipation, du fait de ces jeux multiples avec les modèles de la réalité. Notons aussi, pour faire court, que ces jeux virtuels avec les problèmes permettent d'en mettre en évidence les points sensibles, les éléments critiques, les situations ou moments de déséquilibres, les goulets d'étranglement. 5. LESNOUVEAUX FONDEMENTS DE LA VIE PROFESSIONNELLE Dans la vie professionnelle, la plupart de nos actes impliquent sans cesse davantage d'analyses et de décisions préalables, une fois que sont fixés des cadres d'action. Il en résulte une exigence corrélative et préalable d'aides à la décision aisées, multiformes, aussi complètes et immédiates que possible au regard d'un espace raisonnable et vraisemblable de possibles. Cela implique en amont ou en aval - avec les rétroactions possibles - de commander, organiser ou faire organiser, exécuter, coordonner, contrôler avec - à chaque stade - de nouvelles prévisions dont on puisse tenir compte. Aide capitale dans cet enchaînement : à l'extériorisation matérielle des supports de notre intelligence par les hardwares les plus divers - notamment en matière de visualisation - et les télécommunications, s'ajoute l'extériorisation par le software, software complet et diversifié, extériorisation immatérielle de cette faculté même. Avec, faut-il le rappeler, la possibilité de se réunir à plusieurs, éventuellement dispersés sur la planète, pour décider en temps réel. Et l'on peut disposer des systèmes de liaisons hommes-machines, des transmissions, des langages, commandes et modes de communication et d'expression évolués et spécialisés pour assurer ou faire assurer et assumer aussi bien des tâches et responsabilités individuelles que collectives. Les systèmes ont ouvert à la décentralisation des possibilités - et une approche - entièrement nouvelles. Cela autorise, au-delà du software, des interactions croissantes entre tous ces instruments - matériels ou non - et les modes d'analyse, de décision et d'exécution. Complément indissociable de cette autre face que sont les facteurs de production, lesquels sont de façon croissante partie intégrante des tâches de direction : aussi bien à des noeuds en nombre croissant et Ladécisionà l'âge de la sociétéd'information 47 proches de l'exécution qu'à des noeuds de concentration de tâches concourant à des sous-ensembles isolables formant chacun un tout. Les aides à la décision ont en trois décennies - en temps réel notamment été complètement bouleversées ; champs, modalités, réactions à plusieurs, dispersion des acteurs, les possibilités, entièrement nouvelles, existent et sont parfaitement adaptées et de mieux en mieux maîtrisées. Ces possibilités - leur chaîne avec ses implications - sont certes coûteuses, mais les gains dépassent généralement et largement les coûts ; c'est d'ailleurs à la pénétration de ces moyens qu'il faut attribuer, par exemple aux États-Unis depuis quelques années, des gains de productivité, inexplicables autrement. À cet égard, les réserves de productivité semblent loin d'être épuisées. On assiste dans un nombre croissant de domaines à la mise en place d'enchaînements de moyens avec rétroactions qui vont de l'imagination à la simulation pour aboutir à l'exécution effective, contrôles et décisions concurrents ou ultérieurs, que cela implique, compris. On aboutit souvent de la sorte à une cybernétique complète et parfaite parce qu'elle intègre l'intervention humaine, seule susceptible en général de faire face à des réalités imprévisibles (réalités qui naissent notamment de la dispersion, donc par exemple de la mondialisation). La véritable aide à la décision - multiforme, complète - à la fois impliquée et de plus en plus exigée, de plus en plus souvent simultanée à des exécutions effectives, est en fin de compte récente et, bien entendu, perfectible. Il n'y a pas longtemps qu'on a su constituer une panoplie d'outils matériels ou immatériels informatique, transmissions, visualisations, dispositifs spécialisés multiples - d'intervention notamment, et de banques de données mises à jour - parfois à chaque instant - et accessibles en temps réel. ' ; ; ; Expériences accumulées de plus en plus raffinées, la Société d'Information a atteint une relative maturité grâce à tous ces outils, à leur facilité d'emploi, à leurs performances : coûts, rapidité, capacités multiples. De sorte que le gouvernement et l'administration des choses viennent de subir - potentiellement dans encore bien des cas - une mutation radicale. On a complètement changé la dynamique de la préparation des décisions et de leur exécution ainsi que l'adaptabilité en fonction du déroulement des éléments et réalités en cause et des changements éventuels de l'environnement - par exemple économique, financier de l'offre ou de la demande - à la limite en temps réel. ' ei 6. DEMAIN, SERA IL TROPTARD ; Le Groupement industriel américain des technologies de l'information (ITI), prenant en compte les ventes d'ordinateurs et d'équipements annexes, de 48 . DÉCISION de systèmes pour entreprises et de serlogiciels, de services informatiques, vices de télécommunications de télécommunica(mais hors équipements tions et coûts de transmissions) a enregistré en 1997 un chiffre d'affaires total de plus de 800 milliards de dollars : c'est 80 % de l'industrie informatique mondiale (et près de 3 % du produit mondial brut, mais avec une concentration essentiellement avec une croissance annuelle américaine), à % sur les dix dernières années. Cette colossale 7,5 moyenne supérieure montre clairement que cette industrie est un moteur de l'écoémergence nomie américaine et que se situent bien là - après une période de décollage durant laquelle les choses étaient, bien entendu, moins visibles - les sources d'une productivité que les bases et méthodes habituelles ne permettent pas ou mal d'évaluer. Rien ne démontre mieux cet essor de la Société d'Information et qu'on est bel et bien sorti de la Société Industrielle traditionnelle. Société d'Information largement fondée sur l'immatériel logiciels et banques de données -, immatériel dont la valeur économique croît lorsqu'on le partage, seul bien à avoir cette propriété. Mais l'aspect le plus fondamental de la Société d'Information concerne le rôle des hommes : les capacités cérébrales et mentales se substituent de plus en plus à la force musculaire de travail. L'économie sera de plus en plus fondée sur la connaissance, sur d'autres savoirs et d'autres savoir-faire. Ce qui contraint à une révolution vitale dans les savoirs à enseigner et la manière de les enseigner. À défaut, on peut nourrir les pires inquiétudes, chez tous ceux qui ont déjà, spécialement contrairement aux Américains (voir les chiffres ci-dessus), raté le premier train des nouvelles technologies de l'information (avec leur cortège de créations d'emplois). Au-delà des enseignements et formations, c'est tout un état d'esprit, une manière de regarder les problèmes et leurs contextes, une façon d'aborder toutes nos activités et de progresser dans les directions voulues qui sont en cause. C'est là que va se jouer l'avenir. ' Alexis Jacquemin LACOMPÉTITIVITÉ EUROPÉENNE ETL'ENTREPRISE Dans son ouvrage Économie de l'ordre et du désordre (1991, p. 206), Jacques Lesourne se penche sur l'influence des personnalités exceptionnelles. Selon lui, dans le meilleur des cas, une personnalité se manifeste par ses propres objectifs, des capacités remarquables de jugement sur les ressources et les croyances des autres acteurs, une aptitude développée à obtenir le concours des individus qu'il commande, une imagination apte à découvrir des conduites innovantes, et une faculté de calcul permettant de concevoir des règles de décision complexes. Dans cette caractérisation, qui n'a pas reconnu Jacques Lesourne ? ', , ' , ; i l ¡ : Ses travaux, qu'il s'agisse du Calcul économique (1964), des Modèles de croissance de l'entreprise (1972), des Mille sentiers de l'avenir (1981), de l'Éducation et société demain (1988) ou l'Après-Communisme (1990), ont ouvert de nouvelles perspectives, à partir de méthodologies rigoureuses, allant de la science fondamentale jusqu'à la pratique. Pour rendre hommage à cette « personnalité », ma contribution consistera à explorer un domaine où la capacité de décision et les jeux stratégiques sont essentiels, à savoir les défis que la compétitivité européenne adresse aux entreprises. L'approche adoptée évite le recours à ce que Lesourne appelle le « noyau dur de la théorie économique » au profit d'une démarche impressionniste. Mon point de départ réfère à deux sources : F. Braudel et J. Schumpeter. 50 DÉCISION Dans son étude sur La dynamique du capitalisme (1985), F. Braudel distingue trois stades dans l'évolution de nos économies. En premier lieu, se situe la « vie matérielle », basée sur l'habitude et la routine, et dans laquelle les hommes subissent les déterminismes biologiques et démographiques. de la L'économie se caractérise par la subsistance, l'autoconsommation famille ou du village, et ses principaux régulateurs sont les disettes, les famines, les guerres, et les maladies. De nombreuses sociétés, dites en voie de développement, sont encore aujourd'hui immergées dans cet immense royaume du quotidien et du routinier. A un second stade, intervient le marché. On passe de la valeur d'usage à la valeur d'échange. Les mécanismes transparents de la concurrence assurent la liaison entre production et consommation. Ils s'expriment dans les multiples échanges quotidiens, trafics locaux, foires et bourses. Entre les xve et XVIIIesiècles, le rôle de ces rouages n'a cessé de s'élargir en Europe. La main invisible d'Adam Smith assure l'autorégulation, ajuste l'offre et la demande et amène chacun à s'adapter le mieux possible aux conditions données du marché. Mais les germes du troisième étage, à savoir le capitalisme, existent également à cette époque. Pour Braudel, le capitalisme est fondé sur les accumulations de résultats passés, utilisables et utilisés pour contrôler le fonctionnement des marchés. En contraste avec les échanges quotidiens dont chacun connaît à l'avance les tenants et aboutissants et dont on peut supputer à peu près les bénéfices toujours mesurés, le système capitaliste repose sur mille moyens de manipuler le jeu par le maniement du crédit, le change des monnaies, la supériorité de l'information, de l'intelligence et de la culture. « Sont ainsi contrastés deux types ou deux schémas d'activité, le marché et les relations capitalistes, et ce ne sont ni les mêmes agents ni les mêmes mécanismes qui les régissent. Privilège du petit nombre, le capitalisme se situe à la hauteur des Bardi, des Jacques Coeur, des Jakob Fugger, des John Law ou des Necker. » Ces acteurs ont été capables de changer au loin des secteurs entiers de l'économie européenne, voire mondiale. « Ils transforment l'échange à leur profit, dit Braudel, et bousculent l'ordre établi. » Étendant ses réflexions à l'ensemble du monde, Braudel anticipait l'analyse des grands groupements régionaux actuels. « Dès le Moyen Âge et dès même l'Antiquité, écrit-il, le monde a été divisé en zones économiques plus ou moins centralisées, plus ou moins cohérentes, qui coexistent... Ces économies-mondes ont été les matrices du capitalisme européen, puis mondial. » Une autre oeuvre de pionnier qui met en lumière le rôle des acteurs économiques est celle de l'économiste autrichien Joseph Schumpeter. Pour celuici, la concurrence est par nature un processus dynamique d'où naissent des combinaisons nouvelles et où certains gagnent, partiellement par chance, Lacompétitivitéeuropéenneet l'entreprise 511 partiellement par l'adoption d'une bonne stratégie. Et il n'est pas possible d'explorer adéquatement un tel processus avec un modèle supposant que le « concours » est totalement défini et aboutit à un équilibre. C'est dans sa Théorie de l'évolution économique (1912) qu'il livre sa conception. Il y déclare que l'évolution est un phénomène totalement étranger à ce qui peut être observé dans un flux circulaire ou dans une tendance vers l'équilibre. Il s'agit de changements spontanés et discontinus dans les canaux des flux, d'un désordre dans l'équilibre qui l'altèrent irréversiblement. Dans la sphère de la production, dit-il, une telle évolution apparaît par l'introduction d'un nouveau produit, d'une nouvelle qualité ou d'une nouvelle méthode de production, par l'ouverture de nouveaux marchés et de nouvelles sources d'approvisionnement et, enfin, par la mise en oeuvre d'une nouvelle organisation de l'industrie. C'est dans cette perspective d'une étonnante actualité qu'au cours des dernières années, l'Union européenne a pris conscience des changements radicaux qui transforment les conditions de la compétitivité des entreprises. Sur le plan externe, l'abaissement des barrières tarifaires et non tarifaires, l'efficacité accrue des systèmes de transport et de communication et plus généralement la large diffusion internationale du capital et des technologies ont accru la globalisation des économies et ont exacerbé la concurrence. Sur le plan interne, il apparaît que les éléments déterminants de la compétitivité vont audelà du niveau relatif des coûts directs des facteurs de production. Ils portent aussi sur la qualité de l'éducation et de la formation, l'efficacité de l'organisation industrielle, la capacité d'améliorer de façon continue les processus de production, l'intensité des efforts de recherche développement ainsi que leur exploitation industrielle, la disponibilité d'infrastructures efficaces, la qualité des produits et l'intégration, dans les stratégies d'entreprises, les conséquences des changements de société, tels que l'importance de la protection de l'environnement. , C'est ce qu'a mis en lumière le Livre blanc intitulé Croissance, compétitivité, emploi, publié par la Commission européenne. Il y est notamment affirmé qu'entre 75 à 95 % de la masse salariale des entreprises sont désormais consacrés à des fonctions liées à l'organisation : informatique, ingénierie, formation, comptabilité, commercialisation, recherche, plutôt qu'à la production directe. Ces facteurs peuvent être regroupés sous le concept d'investissement « immatériel » qui doit bénéficier à l'avenir d'une priorité au moins égale à celle de l'investissement matériel dans les stratégies d'entreprise. De ce point de vue, deux thèmes sont particulièrement importants : les nouvelles technologies et les innovations dans les formes d'organisation des entreprises. DÉCISION 52 TECHNOLOGIES 1. ENJEUX DESNOUVELLES Alors que de nombreuses analyses démontrent le rôle crucial joué par l'élade produits et de procédés nouveaux boration constante de technologies, une étude récente (P. Buigues et et la croissance, pour la productivité A. Jacquemin, 1997) suggère qu'il existe des différences considérables entre l'Union européenne et les États-Unis dans ce domaine. Se fondant sur la classification proposée par l'OCDE, cette étude montre en les secteurs de la haute premier lieu que, dans les industries manufacturières, technologie ont représenté 25 % de la valeur ajoutée totale aux États-Unis contre 20,4 % dans l'UE en 1994. Ils assurent 20,4 % des emplois aux USA et seulement 18 % dans l'UE. En outre, les salaires européens dans ces à la secteurs augmentent plus rapidement que la productivité, contrairement Cette détérioration du coût salarial unitaire eurosituation outre-Atlantique. En revanche, dans les un handicap important. péen pourrait constituer secteurs de moyenne technologie, l'Europe est mieux placée que les ÉtatsUnis, que ce soit du point de vue de la valeur ajoutée ou de l'emploi. Ces tendances se reflètent dans les échanges. Une ventilation des exportamontre qu'en tions en fonction des niveaux technologiques 1994, les de haute technologie représentaient marchandises 37,3 % des exportations D'une et seulement américaines, 22,8 % des exportations européennes. des États-Unis est à son maximum dans manière générale, la spécialisation les industries de haute technologie, elle est moyenne dans les industries de moyenne technologie et faible dans les secteurs à faible intensité technolode l'Europe est élevée dans les indusgique. En revanche, la spécialisation dans les secteurs de faible tries de moyenne technologie, moyenne technologie et faible dans la haute technologie. Si l'on opère une distinction entre les positions respectives de l'Allemagne, on voit apparaître certaines différences. de la France et du Royaume-Uni, La spécialisation de l'Allemagne France et du Royaume-Uni. est clairement différente de celle de la La forte spécialisation de l'UE dans les secteurs de moyenne technologie est dans son coefficient de spécialisation due à l'Allemagne : principalement s'est accru jusqu'à atteindre 155 en 1994. ces activités (x¡fxl M¡f M) L'industrie chimique, la construction de machines et de matériel mécanique et le secteur automobile constituent les forces motrices de l'industrie allemande. Les coefficients correspondants nettement plus faibles, atteignant de moyenne technologie. sont pour la France et le Royaume-Uni dans les secteurs 100 et 98 respectivement Lacompétitivitéeuropéenneet l'entreprise 53 En revanche, dans la haute technologie, c'est la spécialisation allemande qui est relativement faible (87) comparée à celle de la France (102) et du Royaume-Uni (107). Enfin, l'examen de la taille des entreprises en fonction des secteurs révèle aussi des différences considérables. Aux États-Unis, 23 % des petites entreprises opèrent dans les industries de haute technologie tandis qu'en Europe, la proportion n'est que de 13,3 %. Ces chiffres confirment qu'en Europe, les activités relevant de la haute technologie se concentrent davantage dans les grandes entreprises. L'exemple des brevets relatifs au génome humain est symptomatique à cet égard. Selon le magazine Nature (04.04.96), 40 % des brevets relatifs au génome humain délivrés par l'Office européen des brevets sont détenus par des Américains et seulement 24 % par des Européens. Aux États-Unis, la majorité de ces brevets appartient à des PME, alors qu'il n'existe presque aucune PME européenne titulaire de tels brevets. Il importe cependant de ne pas tirer des conclusions erronées de ces constats. Une balance commerciale défavorable pour les produits de haute technologie peut simplement être l'indice d'importations élevées dans ce secteur. Si de telles importations sont alors utilisées à des fins productives, cela pourrait indiquer un renforcement, plutôt qu'un affaiblissement, de la compétitivité globale de l'Europe (rapports Groupe consultatif sur la compétitivité, 1996, dans A. Jacquemin et L. Pench éd., 1997). Confirmant cette argumentation, un rapport de l'OCDE (1997) concluait que l'invention et l'exploitation commerciale initiale de produits et de procédés nouveaux importaient moins que la diffusion rapide et généralisée de cette technologie. C'est principalement le cas pour les services. A noter, dans ce contexte, que l'acquisition de technologie intégrée dans des biens d'équipement importés tels que des ordinateurs et des machines est aisée et semble être plus rentable que la technologie acquise au niveau national. En revanche, renforcer sa position dans certains secteurs de haute technologie peut être une opération très coûteuse à la fois directement, en termes budgétaires, et indirectement, à travers la hausse des coûts des intrants intermédiaires pour les entreprises et les utilisateurs finals. Il n'en reste pas moins que les activités de haute technologie se caractérisent par une demande en rapide augmentation, une productivité importante, une main-d'oeuvre extrêmement qualifiée et des salaires élevés. Plus généralement, une forte présence dans un secteur industriel à forte intensité technologique débouche souvent sur un avantage comparatif qui s'autoentretient en cas d'économies externes importantes. Celles-ci résultent à la fois du rejaillissement des connaissances technologiques sur d'autres entreprises, qui augmente l'efficacité des producteurs, et de la taille du marché, qui accroît la productivité des fournisseurs (Krugman, 1991). 54 DÉCISION Ces économies externes justifient un soutien public à la recherche de haute technologie et facilitent les liens entre science et industrie. Selon une étude récemment réalisée par la National Science Foundation, 73 % des documents cités par les brevets industriels américains sont du domaine de la science publique, leurs auteurs étant des organismes universitaires, gouvernementaux ou d'autres institutions publiques. Ainsi, une interdépendance étroite entre communautés de recherche et développement, universitaires, industrielles et gouvernementales est un élément important du progrès technologique. Cela dit, il ne faut pas oublier que l'Europe peut encore se vanter de disposer d'un vaste éventail de spécialisations (produits pharmaceutiques, produits chimiques ou industrie aérospatiale par exemple). Selon le « Rapport européen sur les indicateurs scientifiques et technologiques » (Commission européenne, 1997), l'UE a aussi accru sa part dans les publications scientifiques mondiales, se plaçant à un niveau similaire à celui des États-Unis et audessus du Japon. En revanche, la part européenne dans les brevets américains et européens connaît une diminution substantielle depuis les années 1980. À l'heure actuelle, le Japon obtient à lui seul plus de brevets aux États-Unis que la totalité des pays européens. Certains signes incitent à penser que l'approche des entreprises européennes a été trop spécifiquement « scientifique », au détriment d'une prise en considération adéquate des exigences du marché et des structures de la demande. L'Europe doit traduire en succès commercial l'excellent niveau qu'elle a atteint en science fondamentale. De ce point de vue, dans le domaine de la haute technologie, les entreprises européennes semblent moins souffrir de faiblesses technologiques que d'une difficulté à transformer leurs activités de recherche-développement en innovations et stratégies offensives qui leur permettraient d'acquérir des parts importantes du marché mondial. 2.. ENJEUX DESNOUVELLES FORMES D'ORGANISATION L'un des éléments clés dans la mise en oeuvre des stratégies évoquées cidessus n'est pas l'innovation technique, mais l'innovation dans l'organisation. Les structures traditionnellement découpées et segmentées doivent céder la place à des systèmes d'information rapides, une interaction plus souple, des procédures considérablement simplifiées. Les cas d'innovations industrielles réussies, tels que l'introduction et la diffusion de la production dite lean production dans l'industrie automobile, sont davantage fondés sur Lacompétitivitéeuropéenneet l'entreprise 55 une révolution administrative et organisationnelle que sur une application directe de découvertes technologiques. Lors d'une enquête menée auprès de plus de 200 entreprises européennes(1?, les directeurs de ces entreprises ont estimé que la gestion des ressources humaines était devenue l'impératif premier. L'une des conclusions de l'enquête était qu'il n'existait apparemment peu de lien entre les investissements en capitaux et ceux en ressources humaines?2>. En fait, l'essentiel est de réconcilier flexibilité et productivité en fondant cette dernière sur la flexibilité des tâches, de la main-d'oeuvre et des opérations. Cela implique la création de nouvelles lignes de communication entre les différents services, ce qui sous-entend une forte participation des travailleurs. À son tour, cette participation exige de nouvelles compétences, l'implication des travailleurs et des qualifications polyvalentes. Plus généralement, l'organisation taylorienne tirait son efficacité de la rigueur des découpages entre fonctions de l'entreprise, entre tâches et entre métiers, ainsi que de la précision de la programmation. Mais ces principes, qui permettent de réduire les coûts en environnement stable, fonctionnent très mal pour la variété, la réactivité et surtout la qualité ou l'innovation. D'où un formidable renversement : alors que le taylorisme était entièrement bâti sur un idéal de zéro communication, la nouvelle productivité est directement liée à la capacité de coopération entre toutes les parties du système de production, depuis l'amont jusqu'au client, en passant par les services fonctionnels, les fournisseurs, etc. « L'efficacité est relationnelle. La productivité des opérations fait place à une productivité des interfaces. » (P. Veltz, 1994.) Les changements en cours peuvent être représentés comme le passage d'un modèle d'« entreprise traditionnelle » à un modèle d'« entreprise flexible ». Celle-ci est caractérisée par la capacité de redéployer en permanence ses ressources, afin de créer et d'exploiter de nouveaux segments de marché à plus forte valeur ajoutée. La réalisation de cet objectif suppose généralement que l'entreprise concentre ses efforts sur le développement de « compétences fondamentales » ou sur l'application d'une « productivité évolutive » (OCDE, 1996). , , Plus spécifiquement, le passage de l'entreprise traditionnelle à l'entreprise flexible implique une modification des différents aspects de l'entreprise : développement des produits et organisation de la production, style de gestion et organisation du travail (tableau 1). Les principaux aspects du changement sont : une plus grande différenciation des produits, la réduction des échelons de la hiérarchie, la suppression des barrières professionnelles. Ces changements doivent être accompagnés par une amélioration des compétences et de la motivation des salariés, qui est généralement associée à une évolution des relations professionnelles. Elles sont appelées à ne plus être de nature conflictuelle, mais à être coopératives (A. Jacquemin et L. Pench, 1997). (1) Booz-Allenet Hamilton,1992. (2) Rapportélaborépar la Taskforce Ressourceshumaines(1993). DÉCISION 56 Tableau 1 : Entreprise traditionnelle et entreprise flexible « Entreprise traditionnelle » Développement « Entreprise flexible » des produits et organisation de la production Variété des produits Production modulaire Mécanisation flexible Produit standard Chaîne de montage Mécanisation à objectif unique Style de gestion Gestion hiérarchique Division verticale du travail (séparation entre planification et mise en oeuvre) Contrôle « externe » Gestion participative Intégration verticale des emplois (enrichissement) Autorégulation interne Organisation du travail Division horizontale du travail (morcellement extrême des tâches) Travailleurs liés au poste de travail Travail individuel Horaires fixes Intégration horizontale des emplois Rotation Travail de groupe Gestion autonome du temps Compétences/Motivation/Rela tions Travailleurs non qualifiés Faible motivation (indifférence) Relations de travail conflictuelles professionnelles Travailleurs qualifiés Motivation élevée (identification) Relations de travail coopératives croissante attribuée à la qualité des ressources humaines et de L'importance leur organisation est corroborée par des données empiriques sur les performances des entreprises. américaines et ont montré, pour un vaste échantillon d'entreprises les facteurs « immatériels la », y compris l'innovation, européennes, que des la du service de la commercialisation, rapidité qualité produits, qualité les principaux déterminants de la compétitivité et de l'image, constituaient (PIMS, 1994 et tableau 2). Celles-ci Des études de cas mettent en lumière cette évolution. Un exemple particulièrement illustratif est celui de Nokia. La société finlandaise Nokia, jadis s'est convertie en une entreprise de télécommuconglomérat manufacturier, nications axée sur un créneau, qui réalise des opérations dans le monde cellulaires entier et qui est leader mondial sur le marché des infrastructures et des combinés. Elle a un chiffre d'affaires de 6 milliards d'écus et compte 34 000 salariés. Nokia a dû relever le défi de la gestion d'une croissance rapide, du maintien de l'esprit d'entreprise et de l'amélioration de l'apprentissage du personnel, dans un marché hautement compétitif et en constante évolution. Les solu- Lacompétitivitéeuropéenneet l'entreprise 57 tions ont été d'ordre structurel et culturel et ont porté sur l'organisation et la gestion. Les activités de formation et de développement, qui ont été étroitement liées à la stratégie professionnelle, ont été complétées par une rotation entre les divers emplois et de nouvelles affectations. La technologie est également le développement utilisée pour faciliter le partage de l'information, de et dans l'ensemble l'entreprise. personnel l'apprentissage Nokia a ainsi élargi ses activités de façon substantielle et, malgré une concurrence féroce, renforcé sa position en tant que leader du marché. La vente d'unités de télécommunication a plus que triplé entre 1992 et 1995. 13 000 salariés ont été recrutés au cours des deux dernières années, tout en maintenant la flexibilité de l'entreprise et sa capacité à innover. ' Cette expérience montre l'importance d'une étroite relation entre les investissements dans la production et dans les ressources humaines. Dans la même perspective, une étude américaine éclaire la question suivante : la promotion des ressources humaines augmentetelle la productivité des travailleurs (C. Ichniowski, K. Shaw et G. Prennushi, 1995) ? Pour cette étude, les auteurs ont construit leurs données de base portant sur 26 unités de production d'acier, utilisant le même processus de production. Ils ont également collecté des mesures précises sur les pratiques de travail. La conclusion est la suivante : l'adoption d'un système cohérent des nouvelles pratiques de travail, incluant le travail en équipe, l'attribution flexible des activités, la formation à plusieurs emplois, le recours à des incitants financiers, conduisent à des niveaux de productivité beaucoup plus élevés que celui obtenu par les approches classiques. Par ailleurs, les pratiques de travail isolé, individualiste, n'ont pas d'effet positif sur la productivité. Une interprétation des auteurs est un argument en faveur des modèles théodans les riques qui soulignent l'importance et les complémentarités et de travail des 1990 ; Roberts, pratiques entreprises (voir Milgrom Holmstrom et Milgrom, 1994). Ces conclusions sont confirmées par des recherches du Boston Consulting Group (Bilmes, Wetzker et Xhonneux, 1997). Les auteurs ont examiné une centaine d'entreprises allemandes, dans dix secteurs industriels, y compris la fabrication automobile, les banques et l'industrie pharmaceutique, au cours d'une période de 7 ans. Les résultats sont impressionnants. Dans chacune des industries, les sociétés qui ont favorisé le degré d'autonomie et la liberté de prendre des décisions et des initiatives, les heures de travail flexibles, la prédominance d'organisation en réseau, un nombre réduit de niveaux hiérarchiques, la possibilité d'acquérir de nouvelles compétences, une association aux résultats financiers de l'entreprise, obtiennent un rendement nettement supérieur à celui des concurrents, sous la forme d'une forte croissance de la valeur de leurs actions et des dividendes. En outre, ces sociétés ont été les créateurs du plus grand nombre d'emplois. DÉCISION 58 . Tableau 2 : Déterminants des performances d'une entreprise en matière de compétitivité « Immatériel » « Matériel » Effort relatif en Avantage en matière Rapidité de intellectuelle commercialisation matièrede R&D de propriété Innovation relative __________ Qualitérelative ________ Coûts/prix relatifs Position relative . Accentmissur sur en termes termes ladistribution d'image/service Compétitivité relatives) (partsde marchéet rentabilité Source:Adaptéde PIMS (1994) 3. CONCLUSION La recherche de la productivité et de la compétitivité à travers les activités à forte intensité technologique et les nouvelles formes d'organisation ne sont pas des fins en soi. Elles doivent permettre d'améliorer les conditions de travail et de vie, de mieux protéger l'environnement, d'économiser les ressources naturelles et énergétiques, de relever les défis du vieillissement de la population et de promouvoir une croissance soutenable. De ce point de vue, l'innovation n'est pas seulement un mécanisme économique ou un processus technique. Elle est avant tout un phénomène social. À travers elle, les individus et les sociétés expriment leur créativité, leurs besoins et désirs. Ainsi, l'innovation est étroitement imbriquée aux conditions sociales dans lesquelles elle est produite et, en fin de compte, à l'histoire, la culture, l'éducation, l'organisation institutionnelle et aux systèmes de protection sociale. Les partenaires sociaux qui, dans de nombreux États membres, ont conclu des accords importants et souvent innovants en matière d'organisation du travail liée à l'introduction de nouvelles technologies ont à cet égard un rôle essentiel à jouer. Pour réussir, nos sociétés doivent devenir des « sociétés cognitives », où chacun pourra continuer d'apprendre activement et tout au long de sa vie, par l'éducation et la formation. Cet impératif éducatif réduira le risque de transformer la « société de l'information » en une nouvelle source d'inéga- 59 Lacompétitivitéeuropéenneet l'entreprise lités entre les régions ou les citoyens. C'est une condition cruciale pour promouvoir la solidarité et la cohésion, qui sont des valeurs auxquelles les pays européens ont toujours accordé une grande priorité. BIBLIOGRAPHIE P. (1997), « Value in Human Resources », K. and XHONNEUX, BILMES, L., WETZKER, Financial Times (10 February). Booz-ALLEN & HAMILTON, (1992), The Competitiveness of Europe and its Entreprises, décembre. F. (1985), La dynamique du capitalisme, Arthaud, Paris. BRAUDEL, A. (1997), « Haute technologie et compétitivité : une BmGUESP. et JACQUEMIN, comparaison entre l'Union européenne et les États-Unis », Revue d'Économie industrielle, n° 80, 2e trimestre 1997. COMMISSION EUROPÉENNE (1993), Croissance, compétitivité, emploi. Les défis et les xxie siècle, Luxembourg, Office des publications offientrer dans le pistes pour cielles des Communautés européennes. EUROPÉENNE COMMISSION (1997), « Rapport européen sur les indicateurs scientiet », technologiques Luxembourg, Office des publications officielles des fiques Communautés européennes. HOLMSTROM, B., MILGROM,P. (1994), « The firm as an incentive system », American Economic Review, septembre, vol. 84. G. (1995), « The effects of human resource IcHNIowsKi,C., SHAW,K. et PRENNUSHI, management practices on productivity », American Economic Review,juin, vol. 87. JACQUEMIN, A. et PENCH, L. (ed.) (1997), Edward London. Elgar Publishing, 1 JACQUEMIN, A. et PENCH, Boeck Université. j KRUGMAN, j / P.R. (1991), L. (éd.), « Myths LESOURNE, J. (1964), Le calcul ) LESOURNE, J. (1972), Modèles L ) 1 LESOURNE, J. (1981), LESOURNE, Paris. J. (1988), LESOURNE, J. et LECOMTE, LESOURNE, J. (1991), e )s (1997), and Pour Realities in the Global Competing une compétitivité of US Competitiveness Economy, européenne, De », Science, 8.11. ) ) Europe Les mille Éducation économique, de croissance sentiers Économie Paris. de l'entreprise, de l'avenir, et société B. (1990), Dunod, Seghers, demain, La L'après-communisme, de l'ordre Dunod, et du désordre, Paris. Paris. Découverte : Robert Economica, Le Monde, Laffont, Paris. Paris. DÉCISION 60 « The MILGROM, P. et ROBERTS, J. (1990), American Economic Review, juin, vol. 80. OCDE (1996), Technology, productivity OCDE (1997), productivité - Technologie et performance et qualifications - PIMS and Jobs, emplois ASSOCIATES, North America rapport SCHUMPETER, établi and job of modem compétitivité Des Théorie territoires de l'évolution pour apprendre », Paris. creation, industrielle : manufacturing de la technologie diffusion Paris. internationale, (1994), Business for Europe. Evidence from Building » Factors behind on « Intangible Growth, Competitiveness européenne. pour la Commission J. (1912), VELTZ, P. (1994), economics économique, et innover, Payot, Éditions Europe and Paris. de l'aube. Bernard Roy RÉFLEXIONS SURLETHÈME A QUETE DE L'OPTIMUM ET AIDE À LA DÉCISION 1. INTRODUCTION ... Et si l'optimum comporte l'intégration des désordres, incertitudes, aléas, concurrences, antagonismes, alors, une telle optimisation comporte de l'inoptimisable ; dès lors, ne faut-il pas réviser, reformuler, ouvrir notre notion d'optimisation ? ne faut-il pas comprendre que la véritable optimisation est toujours complexe, risquée, comportant désordres et conflits, et que son ennemi est la pseudo-rationalisation qui prétend chasser le conflit, le désordre, la concurrence, le risque ? Toute conception idéale d'une organisation qui ne serait qu'ordre, fonctionnalité, harmonie, cohérence est un rêve dément d'idéologue ou/et de technocrate. Edgar Morin, 1980. Certains lecteurs jugeront peut-être le passage qui précède excessif et provocant. Quoi qu'il en soit, il a, je crois, le mérite de souligner certaines des limites d'une approche scientifique des questions touchant la décision. et au calcul économique, Mathématicien formé à la recherche opérationnelle il ma de très nombreuses circonstances au début de cru, carrière, j'ai qu'en existait une décision optimale qu'il importait, sinon de découvrir, du moins afin de pouvoir arrêter la décision effective sur des bases rationd'approcher nelles et légitimes. Étant chargé d'études à la Société de mathématiques appliquées (SMA) que venait de créer Jacques Lesourne et qui est rapide- 62 DÉCISION ment devenue Société d'économie et de mathématiques appliquées (SEMA), j'ai été confronté à des situations problématiques très variées : plans de fabrication ou de production, armement du paquebot France, analyse et sélection d'activités nouvelles, choix de supports de presse pour une campagne publicitaire, pour n'en citer que quelques-unes. J'ai vite dû me rendre à l'évidence : dans de nombreuses situations, cette quête de l'optimum était illusoire et, plus important, la démarche qui la sous-tendait était loin d'être la mieux adaptée pour éclairer les décisions. Les recherches que j'ai conduites ensuite dans un cadre universitaire ainsi que les travaux liés à mon activité de conseil (notamment à la RATP) m'ont permis de réfléchir sur l'intérêt, mais aussi sur les limites, d'une évaluation des diverses possibilités d'action à l'aide d'un unique critère lorsqu'il s'agit d'éclairer et/ou de guider un processus de décision. Les réflexions qui suivent concernent non seulement les décisions de nature managériale qui affectent le fonctionnement d'une entreprise mais également celles, à caractère public, qui touchent les collectivités territoriales. Je commencerai par préciser ce que j'entends par aide à la décision (section 2) et par énoncer les conditions qui me paraissent être indispensables pour pouvoir prétendre que le résultat d'un calcul d'optimisation approche un optimum réel (section 3). J'examinerai ensuite, sous divers angles (sections 4 à 9), ce qui peut influencer la modélisation des préférences et la démarche d'aide afin de mettre en évidence ce qu'on peut attendre de l'optimisation. Je montrerai ainsi, chemin faisant, que la quête de l'optimum, si elle est viable et justifiée dans des cas bien précis, peut être avantageusement remplacée, dans beaucoup d'autres cas, par des démarches d'inspiration différente dans lesquelles la recherche d'un optimum en tant que tel n'est ni un objectif, ni un point de départ même si des calculs d'optimisation y occupent une place importante. PERSPECTIVES DANS À LADÉCISION : QUELLES 2. L'AIDE Par aide à la décision (AD), je désigne, en accord avec une large communauté scientifique internationale, l'activité de celles ou ceux qui cherchent à prendre appui sur une démarche à caractère scientifique pour éclairer des décisions de nature managériale et/ou guider des processus de décision dans des systèmes organisés. De façon plus précise, l'AD vise, par une démarche < <et pas seulement descriptive : qui peut être constructive - à faire émerger des éléments de réponse (énoncés de propositions) à des questions que se pose un acteur engagé dans un processus de décision, cela dans le cadre d'hypothèses de travail permettant notamment de tenir compte d'une description imparfaite des réalités passées, présentes et futures ; (1) Pour plus de détailssur l'aspect constructivistede l'AD, voir Roy (1992). Réflexions sur le thèmequête de l'optimumet aide à la décision 63 - à apporter des moyens (concepts, cadres de travail, modèles, procédures...) pour accroître la cohérence entre d'une part la décision qui doit être finalement arrêtée et, d'autre part, les objectifs et/ou systèmes de valeurs qui sont ceux des acteurs engagés dans le processus de décision. Même si la démarche de l'AD se veut essentiellement scientifique avec des modèles formalisés, des raisonnements hypothético-déductifs ou d'inférence, des calculs d'optimisation..., il ne s'agit pas nécessairement de découvrir, ni même d'approcher, une décision idéale dont l'optimalité devrait s'imposer à tout acteur suffisamment intelligent et de bonne foi. Toute référence à ce genre d'idéal peut disparaître. Vouloir la maintenir peut, dans bien des cas, être contre-productif. Les modèles sur lesquels l'AD prend appui ne sont pas nécessairement le reflet d'une réalité pure et dure. Que l'on songe par exemple aux préférences qu'un acteur peut avoir en tête relativement à des actions potentielles très nombreuses qui ont des conséquences fort complexes. De telles préférences peuvent évoluer sous l'influence de divers acteurs et peuvent également être modifiées par l'activité même d'aide à la décision. L'AD peut certes conduire à découvrir des vérités cachées. Plus généralement, elle peut contribuer à construire des convictions individuelles, des décisions collectives, des compromis entre des rationalités, des enjeux, des systèmes de valeurs multiples et souvent conflictuels. Pour situer convenablement cet apport de l'AD, il importe de ne pas perdre de vue, comme le souligne Thépot (1995), que « la modélisation ne suppose rien sur la rationalité de l'individu dont les capacités d'investigation et d'observation sont acceptées pour ce qu'elles sont dans leurs limites et leurs imperfections. En revanche, elle postule la rationalité pleine et entière du tiers sollicité », autrement dit de celles et ceux qui sont en charge de l'AD. Ceci permet de comprendre la nature, la portée du rôle que jouent, dans cette activité, les raisonnements hypothético-déductifs et, en particulier, les calculs d'optimisation. L'AD peut aussi contribuer à structurer et à organiser le processus de décision. Elle privilégie en effet une démarche dynamique qui favorise une bonne insertion, dans ce processus, de celles et ceux qui pratiquent l'AD. Il s'ensuit qu'elle peut conduire, dans certains cas, à déplacer l'analyse des solutions initialement envisagées vers un approfondissement du problème et à susciter un débat autour de questions du type : qui sont les acteurs concernés, quels sont les enjeux, les points de vue, les axes de signification des critères, où se situent les contraintes, comment prévoir les effets d'une action envisagée, quels liens de causalité permettent d'évaluer les conséquences d'une action, comment peser le pour et le contre des avantages et des inconvénients... ? Ce cadre de concertation qu'apporte l'AD peut ainsi être à l'origine d'une profonde reformulation du problème. Enfin, parce qu'elle favorise cette concertation, parce qu'elle aide à construire et pas seulement à décrire, l'AD peut contribuer à la légitimation de la décision et, le cas échéant, à une meilleure responsabilisation des parties prenantes. 64 DÉCISION À QUELLES CONDITIONS : 3. L'OPTIMISATION ETDANSQUELLES PERSPECTIVES ? 3.1 Deuxapprochesde la modélisationdes préférences Une première approche, dite monocritère, consiste à bâtir directement un unique critère exprimant un point de vue global apte à refléter les préférences d'un acteur ou d'un groupe d'acteurs. Ce critère doit prendre en compte la totalité des effets et attributs pertinents pour asseoir les comparaisons des possibilités de décision que je désignerai sous le terme général d'actions potentielles. Chacune d'elles reçoit ainsi une évaluation ou performance unique. Celle-ci peut avoir une signification plus ou moins concrète : gain pour une collectivité, bénéfice pour une entreprise, utilité espérée, taux de rentabilité, niveau de satisfaction... Deux actions potentielles deviennent alors immédiatement comparables. Une seconde approche, dite multicritère, consiste à bâtir une famille de critères reflétant des points de vue spécifiques à partir desquels il convient de construire, d'argumenter, voire de faire évoluer, des opinions ou convictions relatives à des préférences. Chaque action potentielle reçoit alors non plus une performance mais autant qu'il y a de critères dans la famille. Ces performances peuvent être situées sur des échelles fort hétérogènes : prix, qualité, risque, part de marché, pollution, durée, confort... La comparaison des deux actions potentielles n'est immédiate que dans le cas très particulier où elle s'opère de la même façon pour chacun des critères. Pour asseoir cette comparaison dans le cas général, on peut (entre autre procédure) bâtir un critère unique de synthèse. Cette approche reste néanmoins multicritère. Elle ne doit pas être assimilée à une approche monocritère qui fait tout d'abord l'économie d'une analyse mettant en évidence des points de vue structurants, ensuite celle d'une modélisation des préférences propres à chacun de ces points de vue. Concevoir d'emblée plusieurs critères ou, au contraire, vouloir n'en bâtir directement qu'un seul est un choix de modélisation. Ce choix est conditionné par le rôle que l'on entend faire jouer, dans l'aide à la décision, au(x) critère(s) et aux contraintes. Quoi qu'il en soit, l'approche monocritère ne doit pas être vue comme un cas limite (ou dégénéré) d'une approche multicritère. 3.2 Quêtede l'optimum Découvrir ou, à défaut, approcher une décision qui soit l'optimum grâce à une démarche prenant appui sur des modèles décrivant une réalité objective, sur le thèmequête de l'optimumet aide à la décision Réflexions 65 telle a été l'ambition de la recherche opérationnelle (RO) durant les deux décennies qui ont suivi la Première Guerre mondiale. Les situations décisionnelles vérifiant les conditions nécessaires pour que cette ambition ait un sens se sont avérées plus rares que les pionniers de la RO ne l'avaient cru (cf. Churchman et al., 1957 ; Lesoume, 1959 par exemple). Parler d'optimum, c'est faire référence à une action potentielle dont on peut prouver qu'elle est au moins aussi bonne que n'importe quelle autre qui pourrait lui être substituée. Pour donner sens à ce concept d'optimum, il est par conséquent nécessaire de disposer d'un modèle de préférences qui permette de comparer n'importe quelle action potentielle à n'importe quelle autre selon une relation qui soit complète et transitive. Cette condition revient à dire qu' il est possible de bâtir un critère unique (que ce soit avec une approche mono ou multicritère). Pour donner sens à l'optimum, il est également nécessaire d'avoir défini (et cela avant même la construction du critère) la nature des entités qu'il s'agit d'évaluer et de comparer. Les entités doivent être modélisées sous forme d'actions potentielles qui soient telles que la mise à exécution de l'une quelconque d'entre elles (notamment si elle devait être l'optimum) exclut la mise à exécution de n'importe quelle autre. De telles actions potentielles sont communément appelées des alternatives (au sens anglo-saxon du terme). L'alternative est par conséquent un modèle d'action potentielle qui doit appréhender la décision dans sa globalité. Une troisième exigence doit encore être satisfaite pour pouvoir donner sens au concept d'optimum. Pour que l'alternative la meilleure (ou l'une des meilleures) au sens du critère élaboré puisse être regardée comme étant l'optimum, il faut avoir cerné, de façon exhaustive, non ambiguë et définitive, l'ensemble de toutes les alternatives susceptibles d'être envisagées. Dans la démarche d'aide à la décision que je dénommerai quête d'un optimum, il importe que l'optimum mis en évidence, en conformité avec les trois exigences rappelées ci-dessus, ait effectivement la signification qu'il prétend avoir, c'est-à-dire être une représentation convenable et opérationnelle d'une meilleure décision objective et exécutable ou, à défaut, une bonne approximation de celle-ci. Pour qu'il en soit ainsi, il est indispensable que les diverses parties prenantes engagées dans le processus de décision reconnaissent : - le caractère approprié de la modélisation des alternatives pour appréhender la décision dans sa globalité ; - la pertinence des frontières qui servent à cerner l'ensemble des alternatives prises en considération ; - la validité et le réalisme du critère d'optimisation. DÉCISION 66 3.3 Placede l'optimisation Les réflexions autour des questions soulevée dans les sections ront que, dans bien des cas, cette quête de l'optimum apparaît (voir citation en exergue) comme une démarche d'idéologue crate. Quelle est alors la place de l'optimisation dans l'aide à 4 à 9 montreeffectivement ou de technola décision ? L'aide à la décision peut, sans avoir la prétention ni même l'ambition de découvrir un optimum, prendre appui sur des calculs d'optimisation utilisant un critère ou plusieurs pour mettre en évidence de « bonnes alternatives » au sein d'un ensemble clairement délimité. Rien n'interdit de déplacer les frontières de cet ensemble, notamment sous l'effet des résultats des précédents calculs d'optimisation. Dès l'instant où l'on abandonne la quête de l'optimum en se contentant de résultats partiels, de tels calculs d'optimisation peuvent également porter sur des actions potentielles qui ne sont pas des alternatives. Ils peuvent également contribuer à un bon ajustement de la valeur de certains paramètres afin de rendre compte le mieux possible d'une certaine réalité. Je parlerai dans ces conditions d'une démarche utilisant l'optimisation. Il existe en outre une troisième forme de démarche dans laquelle il n'est fait aucun usage de l'optimisation. Ces trois formes de démarches d'aide (cf. tableau ci-dessous) peuvent évidemment être combinées avec les deux approches de modélisation des préférences décrites au § 3.1. Approche de modélisation Démarche d'aide Quête de l'optimum Utilisant l'optimisation Sans optimisation Monocritère Multicritère 1 3 5 2 4 6 Chacune des six cases du tableau renvoie à des pratiques possibles et utilisées. La case 1 correspond à la recherche opérationnelle originelle. La case 2 implique la construction d'un critère unique de synthèse. Comme le laissent entendre les propos qui précèdent, l'utilisation de l'optimisation dans les cases 3 et 4 peut prendre des formes très variées. La case 4 couvre en particulier l'exploration et l'énumération des actions efficaces (encore appelées optimum de Pareto). La case 5 correspond au simple fait de construire un critère pour évaluer, aider à choisir, trier, ranger tout en étudiant, le cas échéant, la sensibilité du résultat à la variation de certains facteurs. La case 6 renvoie à de nombreuses méthodes multicritères, notamment d'aide au choix, au tri et au rangement dans lesquelles l'optimisation ne joue aucun rôle. sur le thèmequête de l'optimumet aide à la décision Réflexions 67 4. COMMENT FAIRE FACEÀ L'HÉTÉROGÉNÉITÉ DESCONSÉQUENCES ? 4.1 1 Conséquences et échellesd'évaluation Pour éclairer une décision quelle qu'elle soit, il est nécessaire d'inventorier et de structurer l'ensemble des conséquences qu'il convient de prendre en compte. Sous ce terme général de conséquence (on parle aussi d'attribut), on désigne habituellement tout effet, aspect ou facteur jugé pertinent pour élaborer ou faire évoluer des convictions, pour débattre de la décision qu'il convient d'arrêter ou encore pour la légitimer et, s'il y a lieu, entraîner la responsabilisation des parties prenantes lors de sa mise à exécution. Il est clair que ces conséquences concernent en général des réalités très variées. La façon la plus naturelle de les évaluer en termes concrets et intelligibles pour les différents acteurs fait le plus souvent référence à des échelles hétérogènes. Certaines sont numériques avec des échelons qui se chiffrent en kilofrancs, en heures ou en années, en nombre de morts ou de clients desservis, en tonnes-km ou en degrés de concentration d'un polluant... D'autres sont essentiellement qualitatives avec des échelons caractérisés de façon verbale : qualité d'un produit ou d'un service, image d'une activité ou d'une entreprise, satisfaction du personnel ou d'une clientèle, adéquation à un objectif visé ou aux moyens humains disponibles... Pour évaluer une conséquence ou l'ensemble de celles qui relèvent d'un même point de vue, on peut toujours utiliser une échelle numérique : les échelons d'une échelle qualitative peuvent toujours être codés numériquement. Dans ce dernier cas, mais aussi dans beaucoup d'autres où l'échelle est naturellement numérique, il importe d'être attentif à la signification des chiffres. La préférence (ou la mesure de satisfaction) est-elle multipliée par deux lorsque le chiffre est doublé ? Il n'est généralement pas possible de considérer qu'une note de 18/20 est deux fois meilleure qu'une note de 9/20. Des écarts égaux en termes d'évaluation chiffrée reflètent-ils des écarts égaux en variation de préférence (ou de mesure de satisfaction) ? Les efforts à accomplir pour accroître de 5 points un taux de rentabilité interne qui en vaut 7 et un autre qui en vaut 15 ne sont pas forcément équivalents. Selon que l'on répond oui ou non à de telles questions, certaines des opérations de l'arithmétique ont ou n'ont pas de signification. 4.2 L'arithmomorphisme et sesdangers Sous le terme d'arithmomorphisme, je désigne (avec Schàrlig, 1998) cette disposition de l'esprit qui conduit à utiliser, sans prendre suffisamment de précautions, les opérations de l'arithmétique pour comptabiliser, sur une 68 DÉCISION échelle commune, des effets, des aspects, des facteurs non naturellement soustend cette croyance selon commensurables. L'arithmomorphisme contexte il doit exister une décision optimum dans tout décisionnel, laquelle, soit nécessairement Parce (sans qu'elle unique). qu'il néglige les questions du type de celles évoquées à la fin du paragraphe précédent, l'arithmomorphisme conduit à une comptabilité (par exemple monétaire) souvent peu signifiante. Pour ces raisons, il est, dans bien des cas, terriblement réducteur : - il peut conduire à négliger, à tort, certains aspects de la réalité ; - il favorise la création d'équivalences dont le caractère factice passe inaperçu ; - il tend à faire passer pour objectif ce qui relève d'un système de valeurs particulier. Ce sont là des effets fâcheux contre lesquels l'aide à la décision et, tout spécialement, l'approche monocritère doit se prémunir. Cette dernière en effet implique le choix initial d'une échelle commune pour apprécier toutes les conséquences. Elle nécessite donc de convertir les évaluations initiales de ces conséquences, effectuées chacune sur des bases concrètes avec des unités appropriées, afin de les exprimer sur cette échelle commune. Il importe tout particulièrement d'avoir bien présent à l'esprit ce côté réducteur de l'arithmomorphisme lorsque l'on a recours à l'analyse coût-avantage. Cette approche monocritère repose en effet sur quelques hypothèses fondamentales comme le rappellent Hammiche et Denant-Boèmont (1997) : « 1. Exhaustivité des effets ; 2. Valorisation monétaire des effets (indispensable pour l'agrégation finale et le calcul de la variation de surplus collectif qui permet de hiérarchiser les option d'investissement) ; 3. « Cardinalité » de la fonction d'utilité collective et, donc des fonctions d'utilité individuelles. En conséquence, toute amélioration ou détérioration d'utilité peut s'interpréter ultimement comme un gain ou une perte dans le niveau des quantités consommées (en supposant qu'il est indifférent que ce soit x plutôt que y qui gagne ou qui perde, hypothèse de répartition optimale des revenus. » Dans le domaine du choix des infrastructures de transports, le rapport officiel (Boiteux, 1994) préconise une démarche qui relève très exactement d'une quête de l'optimum assise sur une analyse coût-avantage. Chacune des trois hypothèses rappelées plus haut fragilise pourtant cette démarche comme cela a notamment été souligné par un groupe de travail réunissant bon nombre de celles et ceux qui ont la responsabilité de la mettre en pratique (voir STP, 1996, 1998). Dans ce contexte décisionnel comme dans beaucoup d'autres, il est intéressant de souligner que les procédés par lesquels on appréhende ce qu' il est convenu d'appeler des valeurs révélées, des préférences déclarées, des évaluations contingentes (cf. Bouyssou et al., 1999, chapter 3 ; Gauthier et Thibault, 1993 ; Grégory et al., 1993 ; Le Pen, 1997 ; Lesoume, 1975 ;Perez, 1996 ; Point et Desaigues, 1993) permettent de Réflexions sur le thèmequête de l'optimumet aide à la décision 69 jeter les bases d'hypothèses de travail fort intéressantes. Il importe cependant de ne pas perdre de vue que, dans bien des cas, elles visent à rendre compte de systèmes de valeurs qui varient beaucoup d'un acteur à l'autre en les résumant dans un prix unitaire (prix de l'heure, prix du mort, prix du décibel...), lequel correspond le plus souvent à une moyenne dans le cadre d'un modèle pas nécessairement réaliste car fondé sur des hypothèses souvent falsifiées. Afin de relativiser ces difficultés, l'idée d'approximation est souvent mise en avant. Ce qu'il s'agit d'approximer est malgré tout généralement subjectif et bien mal défini. Cependant, un bilan fondé sur le calcul économique (à côté d'autres critères) peut avantageusement être utilisé comme « éducateur de jugement » et « organisateur de la discussion et de la réflexion en groupe » ainsi que le souligne, dans sa conclusion, Lesourne (1972). On peut, sinon supprimer, du moins atténuer les dangers de l'arithmomorphisme en commençant par chercher un faisceau de grands points de vue susceptibles de structurer le processus de décision eu égard aux acteurs qui s'y trouvent impliqués (cf. notamment Bana e Costa, 1992 ; Debrincat et Meyère, 1998 ; Roy, 1985). On peut ensuite bâtir une famille de critères prenant appui sur des échelles appropriées non nécessairement aisément réductibles les unes aux autres. Il est plus facile, dans ces conditions, de parvenir à une prise en compte exhaustive des conséquences, de contrôler l'impact de la part d'arbitraire qui peut exister dans leur valorisation, d'éviter des compensations abusives, enfin de chercher à faire une place objective à la subjectivité (plutôt que de l'évacuer ou de l'occulter) qui soit compatible avec une pluralité d'expression. LEPOURETLECONTRE ? PESER 5. COMMENT l Quelques 5.1 rappels ' ' Il est rare que l'élaboration d'un critère (qu'il s'agisse d'un critère d'optimisation ou de l'un des multiples critères d'une famille) ne fasse pas intervenir une certaine forme d'agrégation. C'est là une agrégation dite de premier niveau qui est inhérente à la construction du critère (cf. Roy, 1985) pour définir la performance de chaque action potentielle selon ce critère à partir des conséquences qu'il doit prendre en compte. Pour fonder une conviction, un choix, un tri ou un rangement destiné à éclairer la décision sur la base de critères multiples, on a souvent recours à une procédure d'agrégation multicritère (PAMC). Celle-ci opère à un second niveau : elle doit permettre de comparer deux actions potentielles quelconques en prenant en compte les performances de chacune d'elles selon tous les critères d'une famille donnée. 70 DÉCISION La construction d'un critère unique de synthèse (cf. § 3.1 fait appel à un premier type de PAMC : toutes les performances d'une action sont agrégées pour lui associer un nombre unique (valeur, utilité, score...). La moyenne ou la somme pondéré constitue l'exemple le plus simple de ce premier type. Il en existe beaucoup d'autres, notamment celles qui reposent sur la théorie de l'utilité multiattribut (cf. Keeney et Raiffa, 1976), sur la procédure d'analyse hiérarchique de Saaty (cf. Saaty, 1980, 1984) ou encore sur la méthode Macbeth (cf. Bana e Costa et Vansnick, 1997). Un second type de PAMC repose sur une comparaison des actions paire par paire, le résultat de la comparaison étant formulé dans des termes tels que indifférence, préférence stricte, préférence faible, incomparabilité... Il en résulte un système relationnel de préférences (nettes ou floues) qui doit ensuite être exploité pour éclairer la décision. Dans les méthodes dites de type Électre (cf. Pictet 1996 ; Roy et Bouyssou, 1993 ; Schàrlig, 1996 ; Vincke, 1992), ce système relationnel de préférences est obtenu par application de règles peu ou pas compensatoires qui font penser à une procédure de vote avec possibilité de veto. Les PAMC, qu'elles soient du premier ou du second type, n'utilisent pas, ou seulement de façon très accessoire, l'optimisation. L'aide à la décision peut aussi, même dans une approche multicritère, se passer de telles PAMC et faire plus ou moins appel à l'optimisation. Un critère unique ou plusieurs ayant été définis, l'aide à la décision peut prendre appui sur une procédure interactive (cf. Gardiner et Vanderpooten, 1997 ; Pomerol et Barba-Romero, 1993 ; Slowinski, 1992 ; Steuer, 1985) en vue de cheminer vers une conviction ou vers la sélection d'une action potentielle satisfaisante. Une telle procédure peut servir à compléter, à tester et/ou à faire évoluer certains aspects de la modélisation. Il peut s'agir des frontières qui délimitent le domaine des possibles : l'impact des conditions imposées à une action pour qu'elle soit jugée digne d'intérêt peut ainsi être analysé, notamment en transformant certaines contraintes en critères. Il peut s'agir également de la conception même d'un critère qui doit être confrontée à un système de préférences en vue de le refléter au mieux ou de le remettre en question. Il peut s'agir encore d'éliciter et de tester la robustesse des choix d'un décideur. Une procédure interactive peut encore être utilisée pour éclairer une décision au regard de critères multiples conflictuels. Elle intervient alors de façon itérative en coopération avec un utilisateur : celui-ci oriente la procédure au vu de certains résultats partiels. Dans la plupart de ces façons de procéder, l'optimisation joue souvent un rôle crucial sans que, pour autant, il soit question de quête de l'optimum. Dans le cadre des lignes directrices rappelées ci-dessus, des méthodes et techniques variées ont été proposées et expérimentées pour prendre en compte des critères multiples dans une perspective d'aide à la décision : pour une mise au point récente, voir Gal et al (1999). Réflexions sur le thèmequête de l'optimumet aide à la décision 711 5.2 Leconceptde poids On parle de pondération des critères dès l'instant où l'on se préoccupe de caractériser le rôle respectif qui doit être dévolu à chacun des critères d'une famille pour asseoir des comparaisons sur la base de toutes les performances. Ce sujet est source de difficultés pour la mise en oeuvre de la plupart des PAMC et, à un moindre degré, des procédures interactives. Les difficultés ne sont pas moindres dans l'approche monocritère : la façon d'apprécier les conséquences sur l'échelle choisie incorpore, de façon plus ou moins cachée, un mode de « pondération » de celles-ci. Parler de pondération pour appréhender la façon de peser le pour et le contre, c'est faire appel à la métaphore du poids. Or, celle-ci peut-être tout à fait trompeuse. J'ai souvent entendu dire et parfois même lu sous la plume de bons auteurs : « La décision finale équivaudra à une certaine pondération des critères ». En fait, les choses ne sont pas si simples et cela pour deux raisons : - celles ou ceux qui énoncent ce genre d'affirmation font référence à une modélisation particulière de la notion d'importance : il s'agit de celle que permet l'agrégation par somme pondérée. Cette modélisation suppose que les performances (ou les conséquences) puissent, quelle que soit leur nature, être évaluées numériquement de façon à ce que les opérations de l'arithmétique dont elles sont l'objet soient signifiantes (cf. § 4). Les coefficients multiplicateurs, appelés poids, sont ici (comme dans le cas particulier de l'analyse coût-avantage) des coefficients de conversion, autrement dit des taux de substitution, qui fixent, de façon rigide, l'amplitude du gain qu'il faut obtenir sur une dimension pour compenser exactement une perte unitaire sur une autre ; - cette forme de modélisation étant admise, une très large indétermination subsiste sur les valeurs des poids susceptibles de justifier une décision prise. ' ' La métaphore du poids tend à faire croire que l'on peut donner sens au concept de poids d'un critère indépendamment de toute logique d'agrégation. Pourtant, cette logique conditionne la conception même du poids. De plus, dans les logiques compensatoires (somme pondérée ou théorie de l'utilité multiattribut par exemple), l'attribution d'une valeur numérique plus grande au poids d'un critère j qu'à celui d'un critère h ne reflète nullement l'idée simple selon laquelle le critère j est plus important que le critère h. Le coefficient nommé poids est ici ce qui est appelé une constante d'échelle afin de mettre en évidence le fait que sa valeur numérique dépend des caractéristiques de l'échelle (unité et étendue) sur laquelle sont évaluées les performances ou les conséquences. D'autres procédures d'agrégation font intervenir des poids dits intrinsèques en ce sens que leur valeur ne dépend que de l'axe de signification propre à l'échelle et non pas du choix qui a été fait de l'unité ou de l'étendue. Dans ces conditions, attribuer au critère j un poids supérieur à celui du critère h reflète effectivement le fait que le premier a une importance plus grande (joue un rôle plus déterminant dans la 72 DÉCISION formation des préférences) que le second. Il en est notamment ainsi dans les méthodes de type Électre où les poids s'interprètent comme un nombre de voix données à chaque critère dans une procédure de vote. Cette façon de peser le pour et le contre ne repose sur aucun mécanisme rigide de compensation. Elle peut en revanche faire intervenir, dans la construction du système relationnel de préférences, un mécanisme de veto qui permet d'appréhender un autre aspect de l'importance accordée à chaque critère. L'importance relative des critères (ou des conséquences) est en fait une notion complexe qui renvoie à un système de valeurs. La nature des coefficients (taux de substitution ou autres constantes d'échelle, poids intrinsèques ou seuils de veto, niveaux d'aspiration ou de rejet) qui conditionnent la façon de prendre en compte un tel système de valeurs en recevant chacun une valeur numérique dépend fondamentalement de la procédure d'agrégation adoptée. En aide à la décision, le système de valeurs qu'il s'agit de prendre en compte est nécessairement celui d'un acteur ou d'un groupe d'acteurs. Les valeurs attribuées aux coefficients ont inévitablement de ce fait un caractère subjectif. La quête de l'optimum ne peut donc avoir de sens que s'il y a un consensus sur leur valeur. On peut (surtout si l'on renonce à cette démarche) faire intervenir divers jeux de valeurs, et cela de bien des manières, qui peuvent faire appel ou non à l'optimisation (notamment dans le cadre d'analyse de sensibilité ou de robustesse, cf. §7). PRENDRE ENCOMPTE LAMAUVAISE 6. COMMENT CONNAISSANCE ? . Il importe de ne pas faire dire aux données plus qu'elles ne signifient. Il s'ensuit qu'en aide à la décision l'hypothèse de connaissance parfaite n'est qu'exceptionnellement une hypothèse de travail convenable. L'anecdote suivante me paraît significative à cet égard. Durant la seconde moitié des années 1960, un ingénieur en chef des Ponts et Chaussées (René Loué) m'avait fait part de son étonnement devant la façon dont la conception des réseaux de distribution d'eau potable était « optimisée ». La rénovation d'un réseau ancien ou la création d'un réseau pour desservir un quartier neuf donnait lieu à des calculs étonnamment compliqués pour arrêter le tracé du réseau ainsi que les diamètres des différentes canalisations, diamètres qui décroissent au fur et à mesure que l'on se rapproche des lieux de consommation. L'optimisation avait essentiellement pour objet de minimiser le coût de l'investissement qui devait permettre de satisfaire, de façon convenable, les consommations durant une période assez longue. Bien que les besoins à satisfaire aient été fort mal connus (consommation individuelle d'eau potable en pleine croissance, mode d'occupation des sols mal défini et appelé à évoluer...), l'investissement dit optimal était présenté . Réflexions sur le thèmequête de l'optimumet aide à la décision 73 comme celui permettant de répondre, au moindre coût, à une demande réputée être la plus probable, celle-ci étant regardée comme certaine. René Loué jugeait cet optimum illusoire tant étaient grandes les incertitudes. Il m'interpellait avec des questions du type : que se passera-t-il dans quelques années si la demande d'eau en certains points du territoire vient à différer significativement (en plus ou en moins) de cette demande la plus probable à laquelle le réseau a été ajusté au mieux ? Ne faudra-t-il pas défoncer les rues pour changer les canalisations ou en ajouter de nouvelles afin de modifier la structure du réseau ? Ne serait-il pas plus économique de concevoir un réseau (même s'il coûte aujourd'hui un peu plus cher) susceptible de satisfaire (moyennant d'éventuels aménagements peu coûteux) une assez large gamme de besoins vraisemblables ? Les sources de mauvaise connaissance sont multiples. Elles ont principalement pour origine (cf. Roy, 1989) : - l'imprécision ou le mauvais fonctionnement des instruments de mesure lorsqu'il s'agit de rendre compte de faits objectifs présents ou passés ; - l'incertitude inhérente à toute appréciation de faits ou de situations à venir ; - la présence d'une part d'ambiguïté et/ou d'arbitraire dans la manière dont on appréhende des phénomènes complexes, qu'ils soient passés, présents ou à venir. Certaines caractéristiques du contexte organisationnel peuvent contribuer à renforcer l'impact de chacune de ces trois sources. Que l'on songe par exemple aux phénomènes d'autocensure (consciente ou inconsciente), aux comportements stratégiques des acteurs et, plus généralement, à toutes les entraves (notamment conflits d'intérêts) qui peuvent exister dans la circulation de l'information. 1 j ; ) j 1 t 1 ) ;j l Dans une approche monocritère tout comme dans une approche multicritère aboutissant à la construction d'un critère unique de synthèse, on peut appréhender ces imprécisions, incertitudes et mauvaises déterminations au travers de descriptions probabilistes (comme le fait la théorie de l'utilité multiattribut) ou encore de modèles relevant de la théorie des sous-ensembles flous (cf. Fodor et Roubens, 1994 ; Slowinski, 1998). Les distributions de probabilités ainsi introduites tout comme les indicateurs servant à caractériser les nombres flous sont très fortement marqués de subjectivité. Lorsque l'attitude face au risque inhérent au fait que le futur n'est pas un présent à venir mérite d'être prise en compte, la façon de la modéliser ne s'impose pas de toute évidence. Dans ces conditions, la modélisation, si bien faite soit-elle, n'est pas apte en général à fournir une certitude et encore moins à révéler un optimum indiscutable. Du fait de cette mauvaise connaissance, il peut être incorrect d'interpréter le résultat des calculs comme une approximation de l'optimum. La définition même de cet optimum peut poser problème et être source de désaccord entre les parties prenantes. On peut néanmoins exploiter les informations dont on dispose pour expliciter diverses hypothèses de travail qui peuvent contribuer à éclairer la décision et à organiser un débat. 74 DÉCISION Dans l'approche multicritère (cf. Bouyssou, 1989 ; Roy, 1985), on peut avoir recours à d'autres formes (en plus des précédentes) de modélisation de l'imet de la mauvaise détermination. La plus courante précision, de l'incertitude consiste à introduire des seuils de dispersion et de discrimination. Les seuils de dispersion traduisent des écarts plausibles, par excès et par défaut, qui d'une conséquence ou d'une performance. Ils peuvent affecter l'évaluation servent à encadrer la valeur la plus vraisemblable une valeur par optimiste et une valeur pessimiste. Les seuils de discrimination servent plus spécifiassociées à quement à modéliser le fait que l'écart entre les performances deux actions peut être, relativement au critère considéré et toutes choses égales par ailleurs, probant d'une préférence bien établie en faveur de l'une des actions (seuils dits de préférence) ou, au contraire, compatible avec l'indifférence entre ces actions (seuils dits d'indifférence). De tels seuils peuvent varier le long de l'échelle. Alors que les PAMC du deuxième type (cf. § 5.1 peuvent tenir compte de la présence de tels seuils associés à chacun des critères de la famille considérée, celles du premier type ne peuvent le faire. Certes, on peut associer des seuils d'indifférence et de préférence au critère de synthèse qu'elles permettent de construire mais ces seuils ne peuvent être reliés de façon pertinente à ceux relatifs à chacun des critères de la famille. Une autre forme de modélisation permettant de prendre en compte la mauvaise connaissance consiste à faire appel à la théorie des ensembles approximatifs (cf. Pawlak et Slowinski, 1994). Elle permet notamment de bâtir des systèmes relationnels de préférences à partir de critères multiples. 7. QUEDOIT-ON CHERCHER À ÉVALUER ET ÀCOMPARER ? La quête de l'optimum contraint la modélisation des actions potentielles à en faire des alternatives (cf. § 3.2). Cette conception globalisée de l'action n'est pas toujours la mieux appropriée à l'aide à la décision. Pour le montrer, je me contenterai d'évoquer ici deux types de contextes décisionnels dans lesquels il en est ainsi. 7.1 1 Traitement d'unfluxde demandescontinu Que l'on songe ici à un organisme bancaire qui reçoit tous les jours des demandes de crédit en provenance de PMI ou PME ou bien encore à une grande entreprise dont une part non négligeable de l'activité de recherche et développement repose sur les réponses qu'elle fait à des appels d'offres qui lui parviennent du monde entier. Dans un cas comme dans l'autre, il est naturel de prendre comme action potentielle la demande qui constitue Réflexions sur le thèmequête de l'optimumet aide à la décision 75 l'objet de la décision. Chacune de ces demandes mérite d'être examinée en tant que telle et le fait de satisfaire telle ou telle n'exclut pas obligatoirement le fait de satisfaire telle ou telle autre. Dans cet examen quotidien ou hebdomadaire des demandes, il est difficile de faire intervenir de façon formelle (en vue d'appréhender une décision plus globale) ce qui a été décidé dans un passé récent et ce qui le sera dans un futur proche. La quête de l'optimum est ici non pertinente. L'utilisation de l'optimisation n' a également guère de place. Il y a pourtant possibilité de mobiliser utilement des outils d'aide à la décision. Ayant eu l'occasion de contribuer à la mise en place de tels outils dans deux contextes précis, j'ai pu me convaincre de leur utilité puisqu'ils sont régulièrement exploités, l'un depuis plus de dix ans, l'autre depuis quelques années seulement. Les impératifs de confidentialité m'interdisent malheureusement d'être plus explicite à leur sujet. 7.2 Élaborationd'un plan Considérons maintenant le cas où l'objet de la décision est un plan, plan de campagne publicitaire, de recherche et développement au sein d'une entrepour une collectivité territoriale par exemple. prise, d'investissement L'élaboration de ce plan doit être effectuée en sélectionnant, parmi un ensemble de composants (supports de presse ou de radiotélévision, propositions émanant des différents services de l'entreprise, projets de nouvelles infrastructures ou d'aménagement de celles qui existent dans les exemples qui viennent d'être cités), ceux qui méritent d'être retenus pour former le plan. ) ) j ) Adopter la démarche quête de l'optimum pour éclairer la décision contraint à définir l'action potentielle comme étant le plan. Cela implique en premier lieu d'être capable de formaliser les conditions (budgétaires, de cohérence...) que doit satisfaire un sous-ensemble de composants pour constituer un plan acceptable. Il faut en second lieu évaluer chacune des alternatives qui satisfont ces conditions. La première de ces exigences peut conduire à une combinatoire lourde et compliquée: la contrainte budgétaire peut être objet de négociation, les relatives complémentarités et redondances peuvent être ambiguës. Quant à l'évaluation d'un plan dans sa globalité, elle peut être fort complexe si elle veut être autre chose que la simple somme des évaluations de ces composants. / j ; ) ) ) j 1 ) Face à ces difficultés, on peut adopter une démarche plus simple et souvent plus opérationnelle. Elle consiste à regarder le fragment de plan que constitue le composant comme étant l'action potentielle. Dans ces conditions, ce sont les composants (supports, propositions, projets) qui doivent être évalués selon un ou plusieurs critères reflétant les divers points de vue. On peut ensuite se contenter de chercher à ranger ces composants du meilleur au moins bon ou bien de les affecter à des catégories préalablement définies. Ce type de résultat peut enfin être exploité (de façon non nécessairement formalisée) pour aider à concevoir un ou plusieurs plans satisfaisants. 76 DÉCISION CEÀ QUOICONDUISENT 8. COMMENT EXPLOITER ETPROCÉDURE DECALCUL ? MODÉLISATION Ici encore, je me bornerai à aborder brièvement deux facettes de la question. 1 l'exploitation de résultatspourélaborerdesrecommandations 8.1 La quête de l'optimum, lorsqu'elle s'avère justifiée et fructueuse, conduit naturellement à fonder la recommandation sur l'action optimale ainsi découverte. À l'opposé, il n'est pas rare que l'activité d'aide à la décision s'arrête sans qu'aucune recommandation ne soit formulée. Les résultats que constitue l'accord sur une famille cohérente de critères, l'obtention d'un ou plula mise en évidence de niveaux sieurs tableaux de performances, d'aspiration, de rejet, de seuils de discrimination, de jeux de poids constituent un apport positif que les acteurs engagés dans le processus de décision (autres que l'équipe d'étude) peuvent juger satisfaisant. Dans d'autres cas, l'aide à la décision conduit à mettre en évidence des résultats moins élémentaires, non reliés pour autant à une quête de l'optimum. C'est la façon dont l'aide à la décision est conçue, autrement dit la problématique (cf. Roy, 1985 ; Bana e Costa, 1992), qui conditionne la nature de ces résultats. En dehors de circonstances très exceptionnelles, le résultat qui découle du traitement d'un jeu de données par une procédure quelle qu'elle soit ne peut pas être assimilé à une recommandation scientifiquement fondée. Des calculs répétés à partir de jeux de données différents mais tous aussi réalistes compte tenu du caractère imprécis, incertain, voire mal défini, de certains . paramètres (cf. § 6) sont généralement nécessaires pour élaborer une recommandation sur la base de conclusions robustes issues des multiples résultats ainsi obtenus (cf. Roy, 1998 ; Vincke, 1999). Enfin, les énoncés de propositions qui forment une telle recommandation doivent être soumis à l'appréciation et au discernement du décideur (1) ou des acteurs concernés. . 8.2 L'aideà la concertation Les procédures et concepts de l'aide à la décision peuvent être mobilisés pour organiser et conduire le travail d'un groupe. Comme dans tout travail de groupe, cela suppose qu'un minimum de métarègles soient acceptées. Pour illustrer cet aspect de l'AD, je m'appuierai sur quelques extraits d'un (1) En aide à la décision,ce termedésignehabituellementl'entité (individuou grouped'individus)pour le comptede qui ou au nom de qui l'AD s'exerce. Réflexions sur le thèmequête de l'optimumet aide à la décision 77 document (cf. Bollinger et al., 1997) ayant trait à une coordination intercantonale pour l'incinération des déchets urbains. « En 1993, l'office fédéral de l'environnement de la Confédération suisse (OFEFP) a mis sur pied une coordination intercantonale pour l'incinération des déchets urbains. Cette coordination concernait principalement trois cantons. Un de ces cantons, Genève, possédait déjà sa propre usine les Cheneviers, les deux autres cantons, Vaud et Fribourg, devaient s'équiper chacun d'une usine. [...]En février 1996, le canton de Genève a offert d'incinérer 130 000 tonnes supplémentaires par an de déchets en provenance des cantons de Vaud et Fribourg. Cette offre a remis en cause la construction simultanée des deux nouvelles usines Tridel (canton de Vaud) et Posieux (canton de Fribourg) pour ces cantons. Confrontés à la difficulté de justifier la construction des deux projets ou de choisir quel projet devrait être retardé, voire abandonné, les responsables politiques des trois cantons concernés et le directeur de l'OFEFP ont mandaté une commission technique dont la mission était de comparer, sur une base aussi objective que possible, les deux projets de Tridel et Posieux. » Cette commission technique était composée de neuf membres représentant les trois cantons et l'OFEFP auxquels était joint un homme d'étude provenant de l'Institut de génie de l'environnement de l'École polytechnique fédérale de Lausanne. Ce dernier intervenait à titre de conseiller méthodologique. Il devait superviser toutes les étapes du processus d'aide à la décision jusqu'aux résultats et à leurs interprétations. Des experts techniques ont été contactés afin de calculer des coûts ou des données techniques chiffrables. ; , ', , ; ', ' d'aide ', ' ,y , ' « [...]Afin de mettre en confiance tous les acteurs, l'homme d'étude se doit d'offrir une transparence complète et doit pouvoir présenter, dans un langage vulgarisé et imagé, la méthodologie des méthodes multicritères. Ainsi, dans ce cas, différents exposés d'une quinzaine de minutes ont été présentés au fil du travail et selon l'avancement du processus d'aide à la décision. Cependant, les principes de base des méthodes multicritères, l'intérêt de la noncompensation et la prise en compte de l'importance des différents points de vue par le biais de différentes pondérations ont été mises en évidence dès la première séance. Tous les acteurs devraient être aussi d'accord sur la même famille de critères. La structuration des scénarios et la construction des critères sont des phases qui théoriquement se suivent. Dans un cas pratique, il est cependant très difficile de dissocier ces deux phases dans le temps. La première partie du travail a donc porté sur ces deux phases en travail "parallèle". Les séances de réunion de la commission permettaient de discuter de l'évolution des scénarios et de l'évolution des critères, ces deux aspects semblaient intimement liés dans l'esprit des acteurs qui n'étaient pas spécialistes à la décision. Ce travail étant sous la contrainte du temps, il a fallu opter pour une base de départ simple et efficace, qui permettrait aux acteurs de cerner d'emblée la problématique et sa formulation en termes de l'approche multicritère. Le représentant technique du ministère fédéral a donc proposé une première ébauche de structuration de critères et de scénarios afin de pouvoir discuter sur un canevas existant. Le principe de "démolition constructive" a été adopté, c'est-à-dire que cette base proposée était vouée a 78 DÉCISION priori à une modification complète, mais elle permettrait de structurer les idées à partir d'arguments souvent suscités par le désaccord. » Sur la base de scénarios construits en commun, des conclusions opérationnelles et argumentées ont pu être élaborées de façon consensuelle. La commission technique a adressé, le 19 décembre 1996, un rapport final aux trois conseillers d'état des cantons de Vaud, Fribourg et Genève ainsi qu'au directeur de l'OFEFP. Ces conclusions ont été formulées en termes de « scénarios à écarter » (au nombre de 13) et « scénarios envisageables (au nombre de 4). La commission technique, « mise en place afin de pouvoir choisir quelle usine devait être réalisée aux dépens de l'autre », a conclu de façon unanime, en des termes assez différents : « Le scénario concernant la construction des deux usines selon les projets initiaux avait fait l'unanimité de la commission comme étant un scénario certes pas parfait, mais envisageable au même titre que des scénarios avec la construction de Tridel seule. Les possibilités de comportement de l'OFEFP en tant que décideur étaient les suivantes : - garder sa position initiale et rejeter catégoriquement une double construcserait choisi probablement avec tion ; dans ce cas, un scénario de type 3 le désaccord du gouvernement fribourgeois ; - assouplir sa position et tolérer un tel scénario en laissant le choix aux décideurs politiques entre les scénarios recommandés par la commission technique ; - désavouer le rapport de la commission technique et demander une nouvelle évaluation. Cette dernière possibilité était peu envisageable vu le temps déjà consacré et le sérieux du travail fourni par la commission technique. L'OFEFP a donc décidé de revenir sur sa position initiale et d'accepter telles quelles les recommandations de la commission technique : "(...) La méthodologie employée n'a jamais été remise en cause, les acteurs et les décideurs ont été étonnés par la représentativité des résultats et du nombre d'éléments pris en compte. La décision politique qui en découle est une bonne concrétisation des éléments d'aide à la décision dégagés par la commission technique. Il faut encore souligner l'importance de l'impartialité de l'homme d'étude qui se trouve à la base de toutes les interprétations des résultats. Une mauvaise analyse peut introduire un biais énorme dans les recommandations formulées par les différents acteurs. Il faut signaler que durant ce mandat, les sensibilités des acteurs ont été ménagées et que les représentants de l'OFEFP ont agi en médiateurs et modérateurs. Ceci a permis un travail en toute confiance et avec la coopération de tous."» (1) Construction du seul projet Tridel. Réflexions sur le thèmequête de l'optimumet aide à la décision 79 9. COMMENT CONTRIBUER À LALÉGITIMATION DELADÉCISION ET,S'ILY A LIEU, À LARESPONSABILISATION DESPARTIES PRENANTES ? Quiconque est convaincu, dans un contexte décisionnel donné, de l'existence d'une décision optimale et de la possibilité d'en découvrir une approximation convenable par une démarche scientifique peut être amené à croire que cette démarche, même si elle est imparfaite, est la mieux adaptée pour légitimer la décision et, le cas échéant, responsabiliser les parties prenantes. Celle ou celui qui pense de cette façon considère que l'optimum ainsi découvert, même s'il leur apparaît quelque peu théorique ou relatif, doit pouvoir servir de point de départ pour examiner, s'il y a lieu, les raisons qui justifient qu'on s'en écarte. Pour que l'optimum puisse être cette référence servant de point d'ancrage, il est je crois nécessaire que les acteurs, aux yeux desquels la décision doit apparaître comme légitime, et les éventuelles parties prenantes qu'il convient de responsabiliser soient : - aptes à comprendre les grandes lignes de la démarche ; - disposés à admettre que, en dépit de ses imperfections, cette démarche conduit effectivement à une bonne approximation d'un optimum objectif ; - convaincus de la pertinence des données qui conditionnent la détermination de l'approximation de l'optimum. § $ Î ) ) ) ( ) 2 1 1 Î Ces conditions peuvent être remplies dans certains contextes très techniques. Dans beaucoup d'autres, les fondements scientifiques susceptibles de donner sens à l'optimum et d'en construire une approximation pourront apparaître, au mieux comme incomplets, au pire comme irréalistes. Lorsque la quête de l'optimum ne peut prendre en compte la complexité du problème particulier auquel elle devrait s'appliquer, lorsqu'elle fait intervenir des données dont tout porte à croire que la valeur peut être contestée, l'ambition d'approximer un optimum risque fort d'apparaître comme très théorique. Dans ces conditions, la légitimité du résultat auquel conduit cette démarche a toutes chances d'être contestée. La décision finalement arrêtée pourra n'avoir que peu de rapport avec l'approximation trouvée. Pour légitimer une décision et responsabiliser les parties prenantes en vue d'accroître notamment leur engagement, il convient, dans bien des cas, de renoncer à l'ambition d'approcher un optimum et d'adopter une démarche plus modeste favorisant la concertation tel que cela est préconisé dans des textes aussi divers que ceux de Bailly (1999), Floc'hlay et Plottu (1998), Maystre et Bollinger (1999), Rousseau et Martel (1996) (pour n'en citer que quelques-uns). Il est en effet souvent primordial de concevoir cette démarche en fonction des possibilités de discussion et de délibération qui peuvent être envisagées. Cette exigence est d'autant plus forte que les situations sont 80 DÉCISION problématiques et controversées. Une démarche d'aide qui prend appui sur des concepts clairs, des procédures de calcul intelligibles (procédures de choix, de tri, de rangement, calcul d'optimisation...) et utilise, si besoin, des outils informatisés peut être appropriée pour structurer un débat et faciliter la concertation, notamment en contribuant à établir un climat de confiance et en faisant partager une compréhension commune du problème (cf. § 8.2). La comparaison des résultats découlant de divers jeux de données peut, certes, faire apparaître des désaccords irréductibles. Elle peut aussi faciliter l'acceptation d'accords partiels, par exemple sur l'élimination de certaines des actions potentielles ou encore sur la manière de comparer certaines d'entres elles et éventuellement d'en introduire de nouvelles. Lorsqu'il reste à choisir entre des actions efficaces (optimum de Pareto) qui apparaissent finalement toutes recommandables, le choix devient nécessairement politique et il doit être montré comme tel, c'est-à-dire sous-tendu par des idéologies et non justifiable par un calcul rationnel. Ainsi conçue, l'aide à la décision peut constituer une source de légitimation des recommandations et/ou conclusions auxquelles le processus aboutit. En effet, quel que soit le degré de scientificité que les diverses parties prenantes peuvent accorder à cette source de légitimation, cette dernière peut être reconnue comme étant pertinente par bon nombre d'entre elles. Certes, l'aide à la décision ne peut prétendre ni unifier, ni synthétiser des systèmes de valeurs, des logiques de traitement de l'information, des formes de rationalité, des fondements de légitimité lorsque ceux-ci s'affrontent au sein d'un même processus de décision. Néanmoins, un débat convenablement organisé autour de possibilités d'action soigneusement discutées et identifiées à partir de critères aussi bien explicités que possible, c'est sans doute comme la démocratie, un très mauvais système, mais les autres sont pires. 10. CONCLUSION . L'impossibilité d'envisager toutes les alternatives pertinentes, de justifier un système de valeurs rendant commensurables les diverses conséquences pertinentes et de prendre en compte, de façon significative, la présence d'imprécisions, d'incertitudes et de mauvaises déterminations pour évaluer ces conséquences oblige, dans bien des cas, à renoncer, en matière d'aide à la décision, à la démarche de quête d'un optimum (au sens donné à cette expression au § 3.2). Il me paraît souvent préférable de lui substituer une démarche moins ambitieuse faisant usage ou non de l'optimisation, prenant appui sur une modélisation des préférences ne relevant pas nécessairement d'une approche monocritère. Une approche multicritère peut notamment favoriser la structuration progressive du problème de décision dans une démarche participative impliquant les parties prenantes. Ce genre de démarche, Réflexions sur lethèmequête de l'optimumet aide à la décision 81 qui privilégie la rationalité procédurale aux dépens de la rationalité substantielle (cf. Simon, 1976), est souvent la plus apte à contribuer à la légitimation de la décision ainsi qu' à la responsabilisation et à l'engagement des parties prenantes. BIBLIOGRAPHIE BAILLYJ.P., Prospective, débat, décision publique, Éditions de l'Aube, 1999. BANAe COSTAC., Structuration, construction et exploitation d'un modèle multicritère d'aide à la décision, Thèse de doctorat pour l'obtention du titre docteur en ingénierie de systèmes, Universidad Técnica de Lisboa, Instituto Superior Técnico, Portugal, 1992. BANA e COSTAC., VANSNICKJ.C., « A Theoretical Framework for Measuring Attractiveness by a Categorical Based Evaluation Technique (Macbeth) », in J. Climaco (ed.), Multicriteria Analysis, Berlin, Springer-Verlag, 1997, 15-24. BOITEUXM. (ed.), Transport : Pour un meilleur choix des investissements, Rapport du groupe présidé par Marcel Boiteux, Commissariat général du Plan, Paris, La Documentation française, 1994. BOLLINGER R., « Un cas concret de la contribution L.Y., SLOWINSKI D., MAYSTRE de l'aide multicritère à la décision à la coordination inter-cantonale pour l'incinération des déchets urbains », in 45e journées du groupe de travail européen « Aide Multicritère à la Décision », Celàkovice, République Tchèque, 20-21 mars 1997. BouYssoU D., « Modelling Inaccurate Determination, Uncertainty, Imprecision Using Multiple Criteria », in A.G. Locklett, G. Islet (eds.), Improving Decision Making in Organisations, LNEMS 335, Berlin, Springer-Verlag, 1989, 78-87. BOUYSSOUD., MARCHANT T., PERNYP., PIRLOTM., TSOUKIÀSA., VINCKEP. (eds.), Applying Multicriteria Decision Analysis: a Handbook of Methods and Model Development, Kluwer Academic Publishers (forthcoming). C. W., ACKOFFR.L., ARNOFFE.L., Introduction to Operations CHURCHMAN Research, New York, Wiley, 1957. DEBRINCAT L., MEYÈREA., « L'aide multicritère à la décision. Des potentialités pour l'évaluation des projets de transport collectif en Île-de-France », Métropolis « Évaluer et décider dans les transports », n° 106-107, 1998, 57-61. . FLOC'HLAY B., PLOTTUE., « Consultation ou codécision ? La question de la partidu citoyen à l'évaluation des projets publics », Métropolis « Évaluer et cipation décider dans les transports », n° 106-107, 1998, 76-79. FODORJ., ROUBENSM., Fuzzy Preference Modeling and Multicriteria Decision Support, Dordrecht, Kluwer Academic Publishers, 1994. GALT., STEWART T.J., HANNET. (eds), Multicriteria Decision Making-Advances in MCDM Models, Algorithms, Theory, and Applications, Boston, Kluwer Academic Publishers, 1999. DÉCISION 82 VANDERPOOTEN GARDINER Some L.R., Reflections GAUTHIER verses, Procédures : Berlin, Springer- (eds.), L'analyse Défis et contro- coûts-avantages. 1993. Économica, Resources: A 177-197. du calcul économique et finanS., DENANT-BOÉMONT L., « Cohérence Le cas de l'autoroute ferroviaire des grands projets d'infrastructures : », HAMMICHE Value Analysis, Environmental R., LICHTENSTEIN S., SLOVIC P., « Valuing 7, 1993, », Journal of Risk and Uncertainty Approach GRÉGORY public Economique, KEENEY M. THIBAULT G., Paris, Constructive Revue Criteria Multiple Multicriteria (ed.), 1997, 290-301. Verlag, cement « Interactive D., », in J. Climaco vol. RAIFFA R.L., New Tradeoff's, 48, n° 2, 1997, H., York, Decisions John LE PEN C., « Théorie de l'utilité HYEs », Économie et Prévision, LESOURNE J., Technique LESOURNE J., Le with Multiple and Wiley Sons, et mesure des Objectives. 1976. états and Preferences de santé : le débat QALYs- 129-130. 1997, et gestion économique calcul 271-294. industrielle, Théorie économique. Paris, et applications, 1959. Dunod, 2e édition, Paris, Dunod, 1972. LESOURNE MAYSTRE J., Cost-Benefit BOLLINGER L.Y., Lausanne, conseils, MORIN Presses E.., La méthode PAWLAK transactions and Analysis D., Aide Economic à la Polytechniques 2. La vie, Paris, Z., SLOWINSKI R., « Decision on Operational Research multicritère. négociation et Universitaires Éditions North-Holland, Theory, Pratique 1999. Romandes, du Seuil, PICTET dans la Université Sets Analysis Using Rough 1 (1), 1994, 107-114. », International dans des préférences collectives en science mention économiques, Lyon 2, 1996. J., Dépasser décision romandes, Lumière l'évaluation globale, environnementale. Presses Lausanne, Procédure ROUSSEAU efficacement J.C., BARBA-ROMERO Paris, Hermès, A., MARTEL les conflits de l'administration, ROY B., Méthodologie économie et insertion universitaires S., Choix J.M., « La décision environnementaux document multicritère La valorisation des béné- 1993. dans l'entreprise. Principes 1993. de travail multicritère ROY B., « Main Sources of Inaccurate in Decision Models », Mathematical 1245-1254. et le marché 1996. POINT P., DESAIGUES B., Économie du patrimoine naturel. de protection de l'environnement, Paris, Économica, et pratiques, d'étude polytechniques fices POMEROL et 1980. PEREZ M., Coût externes et expression des transports, Thèse pour le doctorat des transports, 1975. participative : », Université 96-24, d'aide une démarche Laval, Faculté pour gérer de sciences 1996. à la décision, Determination, and Computer Paris, Uncertainty Modelling Économica, 1985. and Imprecision 10/11, 1989, 12, Réflexions sur lethèmequête de l'optimumet aide à la décision 83 ROYB., « Science de la décision ou science de l'aide à la décision ? », Revue internationale de systémique, vol. 6, n° 5, 1992, 497-529. RoY B., « A Missing Link in OR-DA: Robustness Analysis », Foundations of Computing and Decision Sciences, vol. 23, na 3, 1998, 141-160. RoY B., BOUYSSOU D., Aide multicritère à la décision : Méthodes et cas, Paris, Économica, 1993. SAATYT.L., The Analytic Hierarchy Process, McGraw Hill, 1980. SAATYT.L., Décider face à la complexité. Une approche analytique multicritère d'aide à la décision, Paris, EME, 1984. SCH?iRLIG A., Pratiquer Électre et Prométhée. Un complément à décider sur plusieurs critères, Lausanne, Presses polytechniques et universitaires romandes, 1996. SCH?1RL1G A., « La complexité en gestion : éloge de l'aide multicritère », in Actes du Colloque ARAE, Université Jean Moulin Lyon 3, Complexité, Intelligence et Décision, 1998. SIMONH., « From Substantive to Procedural Rationality » in S.J. Latsis (ed.), Method and Appraisal in Economics », 1976, 129-148. SLOWINSKI R. (ed.), Intelligent Decision Support. Handbook of Applications and Advances of the Rough Sets Theory, Theory & Decision Library, Dordrecht, Kluwer Academic Publishers, 1992. SLOWINSKI R., Fuzzy Sets in Decision Analysis, Kluwer Academic Publishers, 1998. STEUERR.E., Multiple Criteria Optimization: Theory, Computation and application, New York, John Wiley and Sons, 1985. STP (Syndicat des transports parisiens), Direction des investissements, Méthodes d'évaluation socio-économique des projets d'infrastructures de transports en commun en région Île-de-France (Rapport d'étape), 1996. STP (Syndicat des transports parisiens), Direction des investissements, Méthodes d'évaluation des projets d'infrastructures de transports collectifs en région Île-deFrance (Rapport final) 1998. THÉPOTJ., « La modélisation en sciences de gestion ou l'irruption du tiers », Revue française de gestion 102, 1995, 66-70. VINCKEP., Multicriteria Decision-Aid, New York, Wiley, 1992. VINCKEP., « Robust and Neutral Methods for Aggregating Preferences into an Outranking Relation », European Journal of Operational Research, volume 112, n° 2, 1999, 405-412. Nicolas Curien 1 À LAPOURSUITE DUGASPIMILI 1. PROLOGUE À:L'HÔTEL DEBRIENNE L'automne finissant recouvre d'un tapis jaune le bassin de l'hôtel de Brienne et en chasse les canards. Mais le regard bleu intense d'André Giraud ne franchit pas les vastes portes-fenêtres qui ouvrent son bureau sur les jardins : il est entièrement dirigé vers ses deux visiteurs, auxquels le ministre fait savoir ce qu'il attend d'eux, avec une conviction qui ne souffre guère la contradiction. Dès sa prise de fonction, en mars 1986, le nouveau responsable de la Défense nationale a constaté l'absence d'une comptabilité analytique digne de ce nom et désire pallier cette lacune au plus vite : comment, en effet, évaluer un programme militaire et prendre une décision « lucide », dans l'ignorance des coûts de revient et sans pouvoir mettre en regard moyens et objectifs autrement qu'à travers le filtre mal adapté de la comptabilité budgétaire ? Le discours, ferme et sans appel, ressuscite avec talent les ambitions de la rationalisation des choix budgétaires (RCB), morte quelque dix ans plus tôt d'une vision trop naïve des processus de décision au sein des organisations. Le ministre le sait-il seulement ? Je brûle de le lui apprendre, mais Jacques Lesourne adoucit de sa coutumière prudence mes quelques tentatives en ce sens : oui, une comptabilité analytique serait précieuse ; non, elle ne serait pas entièrement suffisante. De ce dernier aspect, le ministre n'est point du tout persuadé, tant il croit aux vertus des systèmes d'information. Il nous À la poursuite du Gaspimili 85 à l'idée que, si l'intelligence des appartiendra de l'amener progressivement en combler un déficit d'information et orienter le phénomènes peut partie recueil des données utiles, l'inverse n'est jamais vrai : l'information ne peut être substituée sans danger à l'intelligence ! Mais pour convaincre, il nous faudra d'abord travailler. L'hiver venu, en février 1987, est créée auprès du ministre la Mission pour le développement du calcul microéconomique (MICM), « chargée d'examiner comment l'usage de ce calcul pourrait être développé afin de contribuer à l'optimisation des dépenses militaires ». La mission est priée de remettre ses conclusions à l'automne 1987. Le ler octobre, à l'heure au les deux chargés de mission restituent le fruit de leurs investirendez-vous, gations au ministre et aux principaux cadres dirigeants du ministère, au cours d'une « réunion de programmes » spécifiquement consacrée au calcul Le relevé de conclusions établi à l'issue de cette réunion décide économique. la création d'une mission permanente, transformée dès la fin de l'année 1987 en l'une des trois sous-directions de la nouvelle Délégation aux études générales, confiée à Henri Conze qui deviendra plus tard délégué général de l'armement. Comment expliquer cette priorité si rapidement accordée à l'analyse éconosans faille du mique ? Essentiellement par la volonté et la détermination ministre, bien sûr, mais un peu aussi, je le crois, par la force de l'exemple et celle de la participation : avec Jacques Lesourne, nous avions organisé notre mission, puis notre présentation d'octobre, autour de plusieurs études de cas concrètes, réalisées en collaboration avec les différentes entités du ministère. Ces études visaient à révéler l'intérêt - et aussi les limites - du calcul éconoà un registre de situations contrastées se rapportant à mique, en l'appliquant différents échelons de décision au sein du ministère : depuis les grandes options stratégiques dépendant directement du ministre et des chefs d'étatsdécisions élémentaires de gestion prises dans les unités majors, jusqu'aux en considérant tels déconcentrées, également des maillons intermédiaires, militaires, un choix entre variantes d'un qu'un arbitrage entre programmes même programme, ou une décision d'intendance relevant du commissariat d'un état-major. Deux de ces études sont ici reprises, sous une forme à peine stylisée, et portées en offrande à Jacques Lesourne, parmi les ingrédients variés de ces « mélanges ». Je les dédie également à la mémoire d'André Giraud, l'ardent et ministre, le redoutable chasseur de Gaspi, à qui elles doivent l'existence en son avait su en tirer d'un La qui, temps, plus enseignement. première, intitulée « Le camp des dragons », illustre l'échelon de base des choix militaires en analysant l'emploi d'une dotation budgétaire exceptionnelle au sein d'un corps de troupe ; la seconde, intitulée « Le pain des armées », considère un échelon de décision intermédiaire et traite de l'efficacité des boulangeries militaires d'infrastructure de l'armée de exploitées par le Commissariat terre. En avant, donc, et sus au Gaspimili ! 86 DÉCISION 2. LECAMPDESDRAGONS Le commandant du troisième régiment de dragons des Forces françaises en Allemagne (FFA) établit son programme d'activités pour l'année à venir. Il dispose, relativement à l'année précédente, d'une dotation supplémentaire de 330 kF affectée au budget de fonctionnement du régiment. Ces crédits permettent, d'une part d'améliorer les conditions de la vie courante à la garnison, d'autre part de réviser à la marge le programme d'instruction initialement prévu, qui comportait, outre des exercices au quartier, deux sorties en camp, l'une à Mourmelon en France, avec trois escadrons de chars, et l'autre à Müssingen en Allemagne, avec deux escadrons. Par rapport à la situation de référence, la dotation de 330 kF peut être employée de plusieurs manières alternatives et choisir rationnellement exige que soient clairement explicités, et les objectifs, et les contraintes. La quantification des objectifs Dans l'emploi de la dotation, le commandant est amené à prendre en considération deux objectifs complémentaires : - un objectif « vie courante », visant à améliorer les conditions de la vie locale à la garnison, notamment en termes de rénovation du casernement et de développement des activités sociales ; - un objectif « instruction », visant à améliorer le volume et la qualité du programme d'instruction. Ce second objectif peut-être réalisé en combinant trois moyens : une augmentation des activités au quartier, sous la forme d'exercices d'équipages, d'instruction au tir, d'entretien du matériel, etc., une extension des manoeuvres, à travers un renforcement du camp de Mourmelon où le terrain offre de larges possibilités de mouvement et produit un effet de « dépaysement » dû à l'éloignement géographique, un développement de la vie en opérations, à travers un renforcement du camp de Müssingen, certes moins riche que celui de Mourmelon du point de vue des manoeuvres, mais offrant à proximité de la garnison une familiarisation avec les conditions de « terrain ». Le premier objectif peut être quantifié par le montant s des crédits affectés à l'amélioration de la vie courante, tandis que les trois moyens qui contribuent à l'objectif d'instruction peuvent être respectivement quantifiés par le nombre j de jours supplémentaires d'activités au quartier, par le nombre m d'escadrons supplémentaires envoyés à Mourmelon, et par celui M d'escadrons supplémentaires envoyés à Müssingen. À la poursuitedu Gaspimili 87 En supposant les trois moyens j, m et fl linéairement substituables les uns aux autres au sein de la « technologie » d'instruction, la « production » d'instruction peut être évaluée sous la forme d'un indicateur agrégé, exprimé en équivalents-jours d'instruction au quartier, soit : q = j + am + afL a à0 a>0, où le paramètre a (resp. a ) est le « taux de substitution technique » entre instruction au quartier et entraînement au camp de Mourmelon (resp. Müssingen) : ainsi, à niveau d'instruction constant, un escadron de chars envoyé en camp est substituable à a ou a jours d'activité au quartier, selon que la destination est Mourmelon ou Müssingen. Par transitivité, le taux de substitution entre Mourmelon et Müssingen est mesuré par le rapport a/a : un escadron à Mourmelon équivaut à a/a escadrons à Müssingen. Selon ce modèle, le choix du commandement consiste à sélectionner un couple (s,q) qui traduit l'arbitrage réalisé entre le budget s affecté à la vie courante et le niveau d'instruction q, ce dernier étant produit à partir des trois facteurs j, m et fl (à la manière du modèle de Lancaster dans lequel les attributs désirés par un individu sont « produits » à partir de ses consommations). Le choix s'effectue en maximisant une fonction d'utilité U(s,q), représentant les préférences du décideur et définie à une fonction croissante près. Cette maximisation n'est évidemment pas libre : elle s'effectue au sein d'un espace des choix possibles, restreint par la ressource budgétaire et par une contrainte de « potentiel », limitant l'utilisation des matériels. Avant de préciser les contraintes, il convient d'abord d'observer que la modélisation précédente est nécessairement réductrice, en ce qu'elle traite de manière purement quantitative des aspects comportant une dimension qualitative. D'une part, la qualité de la vie courante est ici assimilée au budget qui lui est consacré ; d'autre part, le niveau d'instruction atteint par les personnels militaires ne résulte sans doute pas uniquement du nombre des exercices réalisés au quartier, de la quantité de manoeuvres effectuées, et du temps passé sur le terrain : une telle approximation est assez semblable à celle qui consiste à mesurer une production de servives de santé à l'aide d'un indice combinant le nombre de lits d'hôpitaux, le stock d'équipements médicaux, et l'effectif du personnel soignant. Le modèle proposé, pour imparfait qu'il soit, comporte toutefois le mérite d'établir une distinction entre les objectifs, soumis à l'arbitrage du décideur, et les moyens mis en oeuvre pour atteindre ces objectifs. Les contraintes et l'espace de choix Deux contraintes limitent l'espace des choix réalisables : la première est de nature budgétaire, et la seconde porte sur la consommation du « potentiel » kilométrique des chars. DÉCISION 88 - Du point de vue budgétaire, un escadron de chars manoeuvrant en camp consomme pendant cette période 100 kF de carburant ; par ailleurs, le transport des blindés par voie ferrée revient à 300 kF pour un escadron envoyé à Mourmelon, et seulement à 80 kF pour un escadron envoyé à Müssingen, auxquels s'ajoutent 10 kF de frais de déplacement des personnels quelle que soit la destination. Au quartier, une journée d'instruction consomme 45 kF de carburant et mobilise 10 kF de moyens d'instruction. Compte tenu de l'enveloppe disponible de 330 kF, la contrainte budgétaire s'écrit donc : 55 j + 1 10 (1n + fl) + 300 m + 80 fl x < 330 . 55) + 410m + 190 f-i 330 Tenant compte d'indivisibilités dans la programmation de l'instruction, le nombre de journées d'activités au quartier est nécessairement entier, si bien . que la contrainte peut être réécrite : 82 jxE 38 -) . szm II - a ICI où E[.] désigne l'opérateur « partie entière ». - Du point de vue du potentiel kilométrique, un jour d'instruction au quartier mobilise un escadron de chars et le déplace sur 12,5 km, alors qu'un char envoyé à Mourmelon ou à Müssingen parcourt environ 250 km pendant la durée du camp. Afin de préserver le « potentiel » des chars, le commandement s'impose que les activités supplémentaires permises par la dotation budgétaire ne consomment en aucun cas plus d'un équivalent de 250 km x escadron. Cette contrainte s'écrit : 6[ - 12,5 j + 250(m + fl) x 250 , soit encore : 1n + fl < 1 j < 20(l - m - fi) . - Afin de satisfaire à la contrainte de potentiel kilométrique, le nombre total m + f-i d'escadrons supplémentaires envoyés en camp ne peut excéder une unité au total. Il en résulte, en raison d'un certain degré d'indivisibilité dans l'organisation d'un escadron, que l'on a nécessairement m + fl E {0,1 /2,1 } on ne peut briser le « quantum » d'un demi-escadron ! Par ailleurs, envoyer un escadron entier supplémentaire à Mourmelon (m = 1 et fl = 0) ne respecte pas la contrainte budgétaire (car 82/ 11 > 6 ). Il en résulte que l'espace des choix réalisables est défini par les conditions : m E {0,1/2} {m+f-i E {0,1/2,1} j 0Inx+j fl( einf{E 1 /2, 11n ) e-(0, 1 /2) ,20(1 - m - 11) (0, [6 f.c)} 1. - 82m/ll Tout triplet ( j,1n, fl) vérifiant ces contraintes est réalisable et on peut lui associer les valeurs correspondantes des deux objectifs, soit : s = 330 - 55 j - 410 1n - 190 fl + ceti, q =j 89 À la poursuitedu Gaspimili où la première égalité exprime que le budget affecté à la vie courante est égal à la fraction de la dotation qui n'est pas consacrée à l'instruction, et où la seconde n'est autre que la fonction de production de l'instruction. Le problème d'optimisation du décideur peut alors être décomposé en deux étapes : - à la première étape, il recherche, parmi tous les triplets ( j,1n , fl) respectant les contraintes, ceux qui conduisent à des optima de Pareto, c'est-àdire à des couples (s,q) tels qu'il soit impossible d'améliorer simultanément les deux objectifs s et q : développer l'un oblige nécessairement à réduire l'autre ; - à la deuxième étape, s'il existe plusieurs optima de Pareto, le décideur sélectionne parmi eux celui qui réalise le « meilleur » arbitrage entre les deux objectifs s et q, à l'aide de sa fonction d'utilité U(s,q). Les optima de Pareto et la décision optimale Recherchons d'abord les optima de Pareto. Par définition, ceux-ci sont tels que chacun des deux objectifs est maximal lorsque la valeur de l'autre est maximal à s donné, ce qui est exprimé par le fixée, par exemple q programme : + 410 m ++ 190fil +am +exfLI55} cste] = este] 190it = 55 j +4l0m c max[V = (a - 82/ 1 1 )1n + (a - 38 / 1 1 ) fl] m.1l tenu des couples de valeurs admissibles pour les variables m et IL, Compte cinq configurations sont a priori candidates à la Pareto-optimalité dans l'espace des triplets ( j,1n, fl) , soit : QQ= QfL = Qm = fLm = « Müssingen-Mourmelon -titi ' ' » : m = ju = 1/2, j = 0 ; « Tout Müssingen » : m = 0, p, = 1, j = 0 ; Dans les trois premières situations, Q Q, QfL et Qm, où seul un demi-escadron supplémentaire est envoyé en camp, la contrainte de potentiel kilométrique n'est pas saturée et l'instruction au quartier peut être développée dans des limites uniquement fixées par la contrainte budgétaire (la variable j pouvant alors prendre des valeurs strictement positives). Dans les deux et flfl , où un escadron ou deux demi-escadrons sont dernières situations, contrainte de potentiel est saturée de ce seul fait envoyés en camp, la = donc (m + fl 1 ) et elle impose que l'activité au quartier soit maintenue = 0 ). inchangée U DÉCISION 90 La recherche des optima de Pareto revient alors à déterminer la plus grande parmi les valeurs de la fonction V associées aux différentes configurations soit : Qm, um et éligibles Q Q, V* = où : VQQ = 0 V Q/l"-_ 2 a 19 Il1 _a VQM= - 2- - 411 1 38 a + a 60 Vltm –= 2 12 Vilit 111 lIl1 On observe tout d'abord que le choix Q fl est toujours dominé, soit par Q Q (a/2 - 19/11 < 0 si a < 38/11 ), soit par flfl (a/2 - 19/11 < a - 38/111 si a > 38/11 ). Le problème est alors réduit à la recherche de : v sup 1 VQ Q, VQ., VI,., Vgm 1 41 a+a 60 fa 38 , = SUD 1< 0,2- – –,11 –––– 2– 11 a - 38}il 60 et il apparaît que chacune des quatre possibilités est optimale dans un certain domaine de variation des deux paramètres a et a : a < 38/111 a < 82/111 » V* = VQQ V* = VQm a < 38/111 a > = V/lm <a <a-4 V* » 38/11 = V/l/l > V* :::} a sup{38/11,a - 4} Dans les deux derniers cas, flln et gp , la contrainte de potentiel kilométrique exige j = 0, si bien que l'optimum de Pareto est unique et suffit à caractériser complètement la décision : V* = V/lm {} m = ¡L = 1/2 m = 0 ¡L =] ) s = 30 q = (a + a)/2 .s=140 q=a. Dans les deux premiers cas, Q Q et Qm, la contrainte de potentiel est inactive et il existe plusieurs optima de Pareto (respectivement sept et trois), définis par : m = ¡L = 0 e [0, 1, 2,3,4,5,61 = 330 - 55 j q = j } s fl = 0 j E {0,1,2} V*=VQm {} m=I/2 <* s = 125 - 55 j q=j+a/2. La décision optimale dépend alors de la forme de la fonction d'utilité U(s,q) reflétant les préférences entre les deux objectifs. Dans le cas particulier où cette fonction est linéaire, soit : U(s,q) = xs + q , la solution optimale est de type « bing-bang » et elle est simplement obtenue en comparant le taux de substitution x caractérisant les préférences du déci- 911 À la poursuite du Gaspimili deur au taux de substitution budgétaire 1/55 (renoncer à un équivalent-jour la vie au quartier rend 55 kF disponibles d'instruction pour améliorer courante) : - si x < 1 /55 , on doit choisir j = 6::::} s = 0, q = 6 a/2 dans le cas Qm ; dans le cas Q Q, et - si x > 1/55, on doit choisir j = 0 » s = 330, q = 0 dans le cas Q Q , et j = 0 => s = 125, q = a/2 dans le cas Qm. est non linéaire (mais croissante et quasiU(s,q) Lorsque la fonction la solution concave), optimale peut être « intérieure », conduisant alors à un certain équilibre entre instruction au quartier et vie courante. Par exemple, si s'écrit dans le U(s,q) = sq (à une fonction croissante près), l'optimisation cas Q Q : i max jc(O, 1,2,3,4,5,6) d'où un optimum intérieur. atteint « en coin » : Dans le cas Qm, en revanche, l'optimum est = 0» s = 125 , q = a/2. max (125 - 55 j)( j + ) ./<=)OJ,2) max (125 - 55j)(j + -) ::::} } = 02::::} s = 125 , q = a/2. La figure ci-après indique le découpage du plan {a,a} en quatre régions, de l'une des quatre à la Pareto-optimalité chacune d'elles correspondant entre les lieux d'indifférence frontières sont classes de solutions. Les lignes « solutions limitrophes ». a Plu flm –––––––––––––––––––––––––––––––– 38/111 Qm QQ 0 82/111 Figure 1 : Programme d'instruction optimal a ' 92 DÉCISION Sur la figure, un déplacement horizontal vers la droite (a = cste et a croissant) traduit, toutes choses égales d'ailleurs, une augmentation du poids relatif de la composante m « grandes manoeuvres à Mourmelon » au sein de l'objectif d'instruction q ; symétriquement, un déplacement vertical vers le haut (a = cste et a croissant) traduit une augmentation du poids relatif de la composante IL « vie en opérations à Müssingen » ; enfin, un déplacement radial vers l'origine (a/a = cste et a et a décroissants) traduit une augmentation du poids relatif de la composante j « vie au quartier ». Les résultats mettent en évidence un double arbitrage concernant l'instruction : d'une part, entre entraînement au quartier et en camp ; d'autre part, entre Müssingen et Mourmelon. 0 Si l'entraînement en camp est assez peu valorisé au sein de l'objectif d'instruction (région sud-ouest Q Q proche de l'origine), alors toute la dotation doit être dépensée localement au quartier, un partage restant à décider entre activités d'instruction et amélioration de la vie courante. - Si les manoeuvres sont fortement valorisées, mais la vie en opérations faiblement (région sud-est Qm), alors l'instruction doit être développée au camp de Mourmelon où un demi-escadron supplémentaire sera envoyé, et éventuellement aussi au quartier, selon l'intensité relative des préférences entre vie courante et instruction. - Si la vie en opérations est fortement valorisée, alors la totalité du supplément d'instruction doit être consenti en camp à l'exclusion du quartier, soit exclusivement à Müssingen avec un plein escadron (région nord-ouest ILIL), soit à Müssingen et à Mourmelon avec un demi-escadron envoyé à chaque destination (région nord-est flln ) si les manoeuvres sont également fortement valorisées. Dans les deux cas, la fraction de la dotation non dépensée en camp (respectivement 140 kF et 30 kF), sera affectée à l'amélioration de la vie courante au sein de la garnison. La sensibilité du choix à la contrainte budgétaire En raison d'un contexte budgétaire particulièrement favorable, la dotation supplémentaire est finalement augmentée de 110 kF, et donc portée à 440 kF. Comment les choix sont-ils modifiés ? La contrainte budgétaire s'écrit désormais : 55 j + 410 m + 190 fl x 440, si bien qu'apparaît une sixième possibilité, précédemment interdite : celle consistant à envoyer un escadron entier à Mourmelon (m = 1 et fi = 0). Compte tenu, par ailleurs, de l'augmentation permise du nombre de jours d'instruction au quartier dans le cas où strictement moins d'un escadron supplémentaire est envoyé en camp (dans le cas contraire la contrainte kilométrique exige encore j = 0), l'ensemble des solutions réalisables devient alors : ',t 93 À la poursuitedu Gaspimili *66= «ToutQuartier»:m=/i,=0,0< j <8 ; Q[i «Quartier-Müssingen» : m = 0, /L = 1/2, 0 ,ç j ,ç 6 ; Qm = «Quartier-Mourmelon» : m = 1/2, /L = 0, 0 ,ç j ,ç 4 ; flln = « Müssingen-Mourmelon » : m = i£= 1 /2, j = 0 ; -,uti = « Tout Müssingen » : m = 0, fl = 1, j = 0 ; Il MM « Tout Mourmelon » : m = 1 , /L = 0, j = O. La recherche des optima de Pareto consiste désormais à calculer : V* = Supi VQQ, VQI" VQ., Vt,., Vig, Vm.1 où : 82 V"2m=a--. Ili ' a //Mm mm 38/111 ––––––––––––––– QQ 0 82/11 1 a Figure 2 : Desserrementde la contrainte budgétaire On observe que, les situations particulières d'indifférence étant mises à part, le choix Qm est dominé, soit comme précédemment par QQ (si a < 82/ 11 ), soit par mm (a/2 - 41 / 11 < a - 82/ 11 si a > 82/ 11 ) ; de même, le choix flln est dominé, soit comme précédemment par flfl (si a > a - 4 ), soit par mm ((a + a)/2 - 60/11 < a - 82/11 si a < a - 4 ). Par ailleurs, le choix reste évidemment dominé comme précédemment, des possibilités de choix ne pouvant que renforcer cette l'élargissement domination. L'optimum, lorsqu'il est atteint strictement, est donc finale. ment donné par : DÉCISION 94 V* = supi VQQ, Vtp, V.. = sup{O,a - 38/11,a - 82/11} , d'où : a < 38/111 a < 82/111 a > sup{38/11,a - 4} » '* » V* = VQQ V* = VJLJL V*= Vmm Ainsi, lorsque la contrainte budgétaire est desserrée de manière à autoriser l'envoi d'un plein escadron à Mourmelon, il n'est jamais optimal de répartir l'effort d'instruction entre quartier et camp ou entre les deux camps, ce que traduit la « disparition » des solutions Qm et lim et l'émergence d'un « diagramme de point triple » séparant les trois « phases » Quartier (Q Q ), ), et Mourmelon (mm ) : Müssingen (/-L/-L - si l'entraînement en camp est peu valorisé, il faut arbitrer entre un supplément d'instruction en totalité réalisé au quartier et une amélioration de la vie courante (secteur Q Q ) ;1 . - si l'entraînement en camp est valorisé sous son aspect vie en opérations (secteur lili ), un escadron supplémentaire doit être envoyé à Müssingen, exclusivement, le restant de la dotation, soit 250 kF, étant affecté à la vie courante ; - symétriquement, si l'entraînement en camp est valorisé sous son aspect manoeuvre (secteur mm ), un escadron supplémentaire doit être envoyé à Mourmelon, excusivement, le restant de la dotation, soit 30 kF, étant affecté à la vie courante. La morale des dragons L'analyse qui précède peut apparaître comme un exercice d'école, un peu trop étroitement inspiré de la recherche opérationnelle ; même vue sous cet angle réducteur, elle n'est pas dépourvue toutefois de vertus pédagogiques. - Elle montre d'abord que le calcul économique est parfois intéressant sous une forme « renversée » : plutôt que calculer une solution optimale relativement à un ou plusieurs objectifs donnés a priori, s'interroger sur la nature et la structure des objectifs qui rendent optimal tel ou tel choix a priori possible. La démarche « duale » qui consiste à révéler les objectifs à partir des choix effectués est utile pour d'abord mieux comprendre les préférences du décideur, avant d'appliquer ensuite la démarche « primale » consistant à déduire les choix des préférences. - Elle souligne ensuite que l'explicitation de l'espace de choix, délimité par les contraintes qui s'exercent sur la décision, contribue grandement à la détermination de l'optimum, en réduisant considérablement le champ des solutions possibles. La fonction objectif joue parfois un rôle mineur dans cette détermination, permettant éventuellement in fine de choisir parmi un petit nombre d'options admissibles. À la poursuitedu Gaspimili 955 - Elle indique enfin comment le déplacement d'une contrainte peut éliminer certaines solutions et en faire apparaître de nouvelles, dominant celles qui sont écartées. Il est souvent fructueux, dans une étude économique, d'identifier les contraintes qui empêchent la réalisation d'un résultat souhaitable, ou qui forcent l'acceptation d'un compromis peu satisfaisant, en vue de plaider pour une relaxation de ces contraintes. Au-delà de cette utile pédagogie, il n'est pas interdit de penser, comme se plaisait à le faire le ministre André Giraud, qu'un certain souci de l'opportunité des choix, ne se fourvoyant certes pas dans les excès d'une rationalisation systématique, mais imprégnant plutôt l'esprit des décideurs, soit propre à accroître l'efficacité de la gestion dans les unités déconcentrées du ministère : même s'il ne s'agit souvent que de petites sommes, comme dans le cas étudié ici, c'est de kilofranc par ci en kilofranc par là que l'on chasse le Gaspi ! 3. LEPAINDESARMÉES Les boulangeries militaires d'infrastructure (BMI) constituent le dispositif mis en place par l'Armée de terre afin de satisfaire les besoins en pain des Forces, ainsi que des entités qu'elles seraient amenées à soutenir en temps de crise ou de guerre. Ainsi, 40 boulangeries militaires exploitées par le Commissariat de l'Armée de terre (CAT) assurent environ 55 % de la consommation de pain des corps de troupe et ont pour mission de pouvoir fournir, en période critique, les quantités de pain prévues par les « Instructions et données de base » (IDB). L'efficacité économique d'un système consistant à produire du « pain militaire » en temps de paix, plutôt que recourir aux services des boulangeries civiles, suscite quelques interrogations : faut-il supprimer les BMI ? Telle était la tentation forte du ministre André Giraud, à laquelle s'opposait la résistance virulente de l'État-major de l'Armée de terre. Le langage neutre du calcul économique allait-il pouvoir calmer les passions ? Un premier calcul comptable Pour l'année 1986, la production courante des BMI s'élève à 14 639 tonnes de pain et les dépenses comptabilisées par le CAT (en kF) figurent dans le tableau ci-après, où l'on a distingué les coûts variables, proportionnels au volume de la production, et les coûts fixes, ne pouvant être ajustés à court terme en fonction de ce volume. - Les coûts fixes se composent des dépenses de personnel (rémunération des ouvriers boulangers d'État), de l'amortissement comptable du capital DÉCISION 96 (moyenne annuelle des dépenses d'investissement et de renouvellement lissée sur les dix dernières années), de l'outillage, des travaux et services extérieurs (TFSE), et du soutien apporté par les échelons régional et national aux établissements locaux. - Les coûts variables comprennent les approvisionnements (farine, levure, sel), ainsi que les autres consommations intermédiaires nécessaires à la fabrication du pain, notamment l'énergie. Les coûts du pain militaire(kF86) Coûts fixes Personnel Amortissements Outillage Soutien TFSE Totalfixe 31 637 3 288 483 92 591 36 091 Coûts variables Approvisionnements Énergie Total variable 26 686 4 458 31144 67 235 Coût Total Ces chiffres doivent être augmentés du coût de livraison du pain aux corps de troupe, qui est à la charge de ces derniers et ne figure donc pas dans les comptes du CAT. Pendant une tournée, au cours de laquelle il collecte et distribue 1 200 kg de pain, un camion livreur parcourt 150 km (3 heures à 50 km/h) et consomme 35 1 aux 100 km pour un prix moyen du carburant égal 4,13 F/1. Le coût unitaire de transport s'établit donc à 0,18 F/kg (en ne prenant en compte que le seul coût en carburant), d'où un coût total de 2 635 kF (compte tenu de la quantité livrée, égale à 14 639 t). Le coût total du pain livré s'élève ainsi à 69 870 kF (67 235 + 2 635), soit un prix de revient complet cm = 4,77 F/kg (69 870/14 639), qui peut être décomposé en trois éléments : cm=c+t+f > où : c = 2,13 F/kg (31 144/14 639) est le prix de revient des matières premières et des consommations intermédiaires ; t = 0,18 F/kg est le coût unitaire de la livraison aux corps de troupes ; · f = 2,46 F/kg (36 091/14 639) est la quote-part d'imputation des charges fixes. Le « ministère producteur » ne répercute pas sur le « ministère consommadu prix de revient c, mais seulement sa première teur » l'intégralité composante c, majorée du taux de marge de 9 % appliqué par le Compte 97 À la poursuitedu Gaspimili spécial des subsistances militaires (CSSM), par lequel transitent toutes les dépenses variables (approvisionnements et énergie) : le prix de cession interne du pain militaire est ainsi pm = 2,32 F/kg (2,13 x 1,09). Du point de vue des armées dans leur ensemble, le prix de revient du pain militaire, soit cm = 4,77 F/kg, est à comparer au prix d'acquisition du pain civil, tel qu'il résulte des marchés d'approvisionnement passés avec les boulangeries civiles, soit p = 5,41 F/kg en moyenne nationale. La décision de supprimer les boulangeries militaires et de s'approvisionner entièrement auprès des boulangeries civiles conduirait donc, pour le ministère de la Défense, à une perte nette de 9,3 MF ((5,41-4,77) x 14,639). Cette perte serait la somme algébrique d'effets positifs et négatifs enregistrés par différentes entités du ministère : - le budget d'alimentation de l'armée de terre serait grevé de 45,2 MF ((5,41-2,32) x 14,639), la prime d'alimentation versée aux corps de troupes devant, en cas de suppression des BMI, être basée sur le prix du pain civil (5,41 F/kg), et non plus sur le prix de cession interne du pain militaire (2,32 F/kg) ; - le CSSM, privé de sa marge sur les approvisionnements en matières premières et sur les consommations intermédiaires, subirait un manque à gagner de 2,8 MF (0,09 x 31,144) ; - les corps de troupe économiseraient 2,6 MF, n'ayant plus à supporter le coût de livraison du pain désormais incorporé dans le prix facturé au CAT par les boulangeries civiles ; - le CAT réaliserait une économie de 36,1 MF en évitant les dépenses fixes des BMI en personnel et en investissement. Le solde net correspondant à une perte de 9,3 MF, une étude comptable interne au ministère de la Défense conduit par conséquent à maintenir les boulangeries militaires. Cette conclusion, un peu surprenante, reste-t-elle valide si l'on franchit les murs du ministère pour prendre un point de vue plus collectif et si l'on élargit le cadre comptable pour adopter une démarche . , plus économique ? Un calcul économique de temps de paix Le calcul économique complète et modifie le calcul comptable de trois manières : . , - tout d'abord, il prend en compte une rémunération du capital au taux d'actualisation a fixé par le Commissariat général du plan, afin d'évaluer le coût d'opportunité des immobilisations incorporées dans les BMI et le stock de farine qui les alimente ; - ensuite, il considère un coût d'opportunité 8 des fonds publics, également affiché par le Commissariat général du plan, coût traduisant les distor- DÉCISION 98 sions induites par le système fiscal et venant donc majorer de l'État (un « franc public » vaut 1 « « franc privé ») ; - enfin, et Défense, tous les militaire toute dépense surtout, il ne considère pas seulement l'intérêt du ministère de la mais procède à une consolidation des coûts et des avantages de membres de la collectivité concernée, ici composée du secteur et du secteur civil. Si K est le capital immobilisé dans les BMI et le stock de farine, la rémunération annuelle du capital vaut aK. Il en résulte que, exprimée en MF de la filière de producpublics, la fonction de coût « économique Cm (q) tion du pain militaire s'écrit : Cm(q) = F + aK + (c + t)q , où q est le niveau de production (F = 36,1 MF) le coût fixe marginal de fabrication du pain marginal de livraison aux corps (q = qp = 14,64 kt en temps de paix), F c (c = 2,13 MF/kt) le coût comptable, militaire, et t (t = 0,18 MF/kt) son coût de troupes. Pour analyser la filière civile alternative en des termes économiques comparables, il convient d'en décomposer le coût en deux éléments : - d'une part, le coût de fabrication du pain civil et de sa livraison aux clients du pain par le militaires, soit pq/(1 + g), où p est le prix d'acquisition CAT et g le taux de marge incorporé par les boulangers civils dans les marchés qu'ils passent avec l'Administration ; - d'autre d'un transfert monétaire du secteur part, le coût d'opportunité à l'achat de pain par les armées, public vers le secteur civil, correspondant soit (1 + 8)pq pq = ôpq. Ces coûts étant exprimés en francs privés, la fonction de coût économique Cc(q) de la filière civile est obtenue par application du facteur multiplicatif 1/(1 + 8), réalisant la conversion des francs privés en francs publics, soit : C,(q) - 1/(1+IL)+8 1+s 8 pq - (1 - IL (1 + IL) (1 + 8»pq. Si l'on néglige en première approximation la correction du coût d'opportu= des nité fonds publics (8 0), la fonction de coût économique Cc (q ) de la filière civile est inférieure à la dépense comptable pq d'achat de pain par le ministère de la Défense, car elle se base sur le prix de revient réel du pain civil, soit p/(1 + g), et non pas sur le prix de vente de ce pain aux armées, soit p. Le coût d'opportunité des fonds publics (8 > 0) augmente toutefois le coût économique de la filière civile et tend à le rapprocher asymptotiquement (lorsque 8 ---+oo) de son coût comptable, car l'achat de pain au secteur civil implique la sortie de fonds publics (contrairement à la filière de production militaire par les BMI). À la poursuitedu Gaspimili 99 Dans l'évaluation économique, relativement à l'évaluation comptable, le coût de la filière militaire est majoré (rémunération du capital des BMI) et celui de la filière civile est minoré (soustraction partielle de la marge des boulangeries civiles), si bien que la seconde filière est susceptible de devenir préférable à la première. Le niveau de production d'équilibre ii, c'est-à-dire celui pour lequel les deux filières sont équivalentes ( Cm(ii) = C;(§) ) et en dessous duquel la > Cc (§) ) a pour expresfilière civile est moins coûteuse (q < sion : _ - F+aK P-c-t-MP/(l+M)(l+8). En l'absence de corrections économiques apportées aux coûts comptables, la production d'équilibre devient q < iî, soit : . = F -q P - c-t 36,01 = t 5,41-2,13-0,18 8 = 11,6 kt. Il existe ainsi une plage de production, soit (cf. figure ci-après), à l'intérieur de laquelle la filière militaire apparaît comptablement opportune du point de vue des armées (q > q ), mais pas économiquement bénéfique du La production annuelle courante du temps de point de vue collectif (q < = soit vérifie la première inégalité. Satisfait-elle égale14,6 kt, paix, qp ment la seconde ? Cc(q) C pq 1' Cm(q) ,' ,' ' ' , . 0 9 i , ,, , _, ,--,j 11 ; , , ,1 , < ' ' ' " - - F+(c+r)q J-fi i 1 i 1 j 1 , z l 1 1 1 1 1i1 i 1 i i1 i i 1 1 9P q Figure 3 : Comparaison des filières civile et militaire q 100 DÉCISION - Le taux d'actualisation et le coût d'opportunité des fonds publics sont fixés par le Commissariat général du plan, soit a = 8 % /an et 8 = 0,25. - La marge prise par les boulangers civils dans les contrats militaires est certes difficile à apprécier; Il- = 10 % est sans doute une estimation non totalement déraisonnable. - Le parc productif des BMI est composé d'équipements de durée de vie T = 25 ans, dont le renouvellement est échelonné dans le temps de manière relativement homogène. En régime permanent, la valeur économique S de ce stock de capital (capital net) est constante et égale à ce qu'il en sur-coûterait si on devait le reconstituer complètement à partir de rien (puis à le renouveler en bloc toutes les T années) au lieu le renouveler progressivement par tranche de 1 / T chaque année : si R est la valeur de reconstitution (capital brut), on a ainsi : 00 00 1 1 R f Rf S = R Lk=0 (1 + a )kT - T L (1k=I + a )k ' R aT Pour a = 8 %/ an, T = 25 ans et R/ T = 3,29 MF (investissement annuel dans les BMI d'après les comptes du CAT), la rémunération du capital des BMI au taux a peut être estimée à aS = 4,41 MF. - Le stock de farine 4$ peut être évalué en admettant que 90 % des achats de matières premières entrant dans la fabrication du pain correspondent à de la farine et que la période de rotation du stock est de 9 mois. Compte tenu des 26,7 MF figurant au poste approvisionnements des comptes de gestion du CAT, le niveau moyen du stock est <1> = 26,7 x 0,9 x 9/ 12 = 18 ME La rémunération annuelle de ce stock au taux du plan est donc a(P = 0,08 x 18 = 1,44 MF. · Au total, la rémunération du capital S et du stock de farine (D s'élève à : aK = a(S + <1»= 4,41 + 1,44 = 5,85 MF. De ces différentes estimations chiffrées, on déduit la valeur de la production d'équilibre économique : 36,09 + 5,85 q== 5,41 - 2,13 - 0,18 - 0,1 x 5,41/l,l x 1,25 = 15,5 kt kt La production annuelle courante des BMI, soit qp = 14,6 kt, est ainsi légèrement inférieure (de 6 %) au seuil d'opportunité économique q = 15,5 kt. Par conséquent, un calcul économique strictement basé sur la comparaison des productivités économiques respectives des filières civile et militaire préconiserait l'abandon de la filière militaire. 101l À la poursuite du Gaspimili Exprimé autrement, revient économique : Ym = cm + la filière militaire aK 5,85 - =p4,77+- = 14,64 Ce prix de revient est à comparer (exprimé en francs publics), soit : (1 1 + fl ) p (1 + à ) 1,1 de l'achat du coût d'opportunité majoré Or, il apparaît complet du pain civil 5,41 x yu _ 1 +1+8 s S àp _ le pain au prix de 5,17 F/kg. au prix de revient p Y, = à fournir conduit 1,25 ' ' F/kg, public de pain, soit : 1,08 F/kg. que : ym = 5,17 F/kg > Yc + Ya = 5,01 F/kg. Une manière de raisonner équivalente, qui était d'ailleurs celle du ministre André Giraud, consiste à dire que les BMI ne seraient pas compétitives face avec ces civiles si elles devaient entrer en concurrence aux boulangeries dernières pour fournir aux clients civils du pain au prix du marché. En effet, par kilogramme de pain vendu, le coût unitaire public serait égal à ym - ya attachée à une (coût de fourniture du pain diminué de la valeur d'opportunité recette budgétaire non fiscale), et donc supérieur au coût unitaire civil Yc. au maintien des de temps de paix sont défavorables Si les considérations militaires par des du de en raison BMI, boulangeries handicap productivité ce aux maintien, en boulangeries civiles, peut-on cependant justifier rapport valorisant la supériorité du dispositif militaire vis-à-vis du recours à la filière civile, en cas de crise ou de guerre ? La prise en compte du temps de guerre en considérant On a raisonné jusqu'ici que les BMI et les boulangeries c'est civiles rendaient à leurs clients militaires des services équivalents : des chacune des coûts tenu on a engendrés par compte uniquement pourquoi deux filières sans valoriser leurs avantages, réputés identiques. Cette hypothèse, raisonnable en temps de paix - à supposer qu'il n'existe pas de différence de qualité notable entre le pain civil et le pain militaire ! - ne l'est plus en effet, la fiabien temps de crise ou de guerre : en pareilles circonstances, à la lité du dispositif militaire serait très vraisemblablement supérieure ce de vue civiles. Selon des de point boulangeries auprès réquisition pain de BMI en des de le apparaît temps paix handicap productivité élargi, en temps de comme le prix à payer pour leur supériorité opérationnelle raisonner sur deux il alors de convient En termes économiques, guerre. marchés distincts : DÉCISION 102 - d'une part, celui de la fourniture d'un « bien physique », à savoir le pain destiné à la consommation courante des Forces en temps de paix ; - d'autre part, celui de la fourniture d'un « service d'assurance », à savoir la garantie d'une « option de pain » conditionnellement au temps de guerre. Le calcul mené précédemment traite de l'efficacité comparée des BMI et des boulangeries civiles sur le seul premier marché. Qu'en est-il lorsque l'on considère conjointement les deux marchés ? En cas de guerre, les BMI devraient fournir 0,5 kg de pain par jour à 800 000 hommes pendant les cinq jours de la phase dite de préengagement du conflit, d'où une production exceptionnelle qg = 2 kt s'ajoutant à la production ordinaire qp : si un conflit survient, la production de l'année correspondante devient ainsi qp + qg. Pendant la phase de préengagement, la cadence journalière de production des BMI s'élève à 400 t/j, valeur dix fois supérieure à la cadence normale du temps de paix, soit qp /365 = 40 t/j. Cette différence explique sans-doute la surcapacité des fours militaires en temps de paix... Désignant par up l'utilité (exprimée en équivalent monétaire) d'un kilogramme de pain consommé au mess en temps de paix, par ug l'utilité de disposer du même kilogramme de pain frais en temps de guerre, par s la probabilité d'occurence d'un conflit, et supposant le dispositif des BMI parfaitement fiable, l'espérance mathématique de surplus collectif permise par ce dispositif s'écrit : Sm + 8Ugqg - C- (qp + 8qg) , où qp + sqg = (1 - 8)qp + 8(qp + qg) est l'espérance mathématique du niveau de production, compte tenu du risque de guerre. Dans l'hypothèse alternative où les BMI seraient déclassées, on devrait recourir aux boulangeries civiles, en temps de paix comme en temps de guerre, si bien que l'espérance du surplus collectif s'écrit alors : Se = upqp + sugqg - Cc (qp + sqg ) . Si l'on considère enfin l'éventualité d'une défaillance des boulangeries civiles en temps de guerre (ou de la procédure de réquisition) et si l'on évalue à d le dommage (perte d'utilité) infligé aux Forces par kilogramme de pain non livré (en sus du coût de la production ainsi perdue), l'espérance du surplus collectif devient dans ce cas : Sd = Sc - 8dqg . Le décideur public est ainsi confronté à un choix face à l'incertain. L'incertitude provient de deux sources : d'une part, l'occurrence ou non du temps de guerre, mais à cela la décision de fermer ou non les BMI ne peut rien changer ; d'autre part, la fiabilité imparfaite de la filière civile en cas de guerre, aléa que la décision de maintenir les BMI permet en revanche d'éliminer. À la poursuite du Gaspimili 103 Supposant que le décideur manifeste un taux constant a d'aversion pour le maximise l'espérance d'une fonction de von Neumannrisque, c'est-à-dire -e-as à une transformation affine près) où S est le (définie Morgenstern et la de défaillance de la filière civile vaut collectif, que probabilité surplus n, alors la filière militaire (qui est certaine vis-à-vis du risque contrôlable de défaillance) doit être préférée si et seulement si : -e -ces", > En substituant cette inégalité -(1 - les expressions des différents peut être réécrite : Cm (qn + 8qg) ' - surplus et après simplification, C; (qj, + 8qg) ' < 1 In[ 1 + 7r (e"dq, a 1)] . mais que En admettant que le risque de guerre e est infinitésimal (s - 0 ), le produit sd conserve une valeur finie v, qui s'interprète comme la « valeur en temps de paix à la perspective d'obtenir un kilod'option » accordée gramme de pain frais en temps de guerre, l'inégalité précédente peut être réécrite : (Ym - Yc - y,)qp <E = .!.ln[1 a -I- n(eavqM - 1)] . Autrement dit, la filière militaire est préférable à la filière civile pourvu que son handicap de productivité en temps de paix (membre de gauche de l'incertain E de la « loterie » à laquelle on égalité) soit inférieur à l'équivalent en retenant la filière civile, qui ne garantit la valeur d'option vqg s'expose - n < 1. 1 la qu'avec probabilité Selon le niveau d'aversion certain E de la pour le risque, l'équivalent « loterie civile » varie entre l'espérance nvqX du dommage créé par la perte de la valeur d'option, limite inférieure atteinte pour un décideur neutre au risque (a -+ 0), et la valeur vqg de l'option elle-même, limite supérieure atteinte pour un décideur manifestant une aversion infinie pour le risque (a 00 ). En évaluant à n = 1 / 10 la probabilité de défaillance de la filière civile, et sous l'hypothèse de neutralité face au risque (a 0 => E = n vqg ), qui est la plus défavorable aux BMI, ces dernières doivent être maintenues si : 1 qp 10 X - ' n qg qg =11,7 14,6 2 7 F/kg , c'est-à-dire si la valeur d'option est estimée à plus de deux fois la valeur marchande du kilogramme de pain (p = 5,41 F/kg). Le seuil d'opportunité v,s.s'abaisse toutefois si l'on tient compte de l'aversion pour le risque et tend vers 1,17 F/kg en cas d'une aversion illimitée. Il est raisonnable de penser accordée au pain frais en situation extrême est que la valeur psychologique . 104 . DÉCISION largement supérieure à la valeur marchande du temps de paix, et c'est donc là finalement que les BMI peuvent trouver leur justification... Le sel du pain militaire Non, les boulangeries militaires n'alourdissent pas les comptes du ministère, et le Commissariat de l'Armée de terre a raison sur ce point. Oui, les boulangeries militaires présentent un handicap de productivité vis-à-vis des boulangeries civiles, et l'intuition du ministre est à cet égard confirmée, même si la situation est moins nettement tranchée qu'il le pensait a priori. Telle a été la première vertu du calcul économique appliqué à ce dossier : expliquer aux deux parties, au ministre voulant supprimer les BMI au nom d'une gestion efficace, et au CAT défendant jalousement son patrimoine productif, en quoi chacun avait à la fois partiellement tort et partiellement raison. Au-delà de ces bienfaits pédagogiques, mettre en évidence la source du différend a permis de dépasser l'étape stérile du débat passionné, de progresser dans la compréhension mutuelle des enjeux, puis d'engager des actions nouvelles. - Pour le ministre, le progrès a consisté à reconnaître qu'une gestion rationnelle du ministère, une gestion « lucide » selon l'une de ses expressions favorites, ne pouvait pas uniquement reposer sur des considérations de temps de paix, mais devait également prendre en compte des contraintes opérationnelles adaptées au temps de crise ou de guerre. - Pour l'Armée de terre, le progrès a consisté à se placer à l'écoute des préoccupations du ministre et à envisager en conséquence de nouveaux dispositifs, à la fois plus performants en temps de guerre et moins coûteux en temps de paix que les BMI. C'est ainsi qu'a été accepté le principe d'un déclassement progressif des BMI, accompagnant le départ en retraite des ouvriers boulangers d'État, et simultanément mis à l'étude un projet d'ateliers de boulangerie flexibles, pouvant suivre le mouvement des Forces en temps de guerre et ne nécessitant aucune infrastructure fixe en temps de paix. 4. ÉPILOGUE TREIZE : ANSAPRÈS Plus de treize ans ont passé depuis cet étrange samedi de décembre où une voiture militaire, annoncée par un appel aussi matinal que mystérieux de l'aide de camp du ministre de la Défense, est venue me soustraire au biberon d'Audrey, âgée de quelques jours, pour m'entraîner dans l'urgence rue Saint-Dominique. Ce petit arrachement familial en préparait un autre, d'ordre professionnel : comme je le compris vite en écoutant André Giraud À la poursuite du Gaspimili 105 me dévoiler les raisons de cette convocation surprise, l'intérêt que je portais aux études économiques dans le secteur des jusque-là quasi exclusivement télécommunications allait bientôt devoir se tourner vers l'univers bien diffénon marchande. rent d'une Administration Le ministre s'étant montré extrêmement disert quant à la nécessité de s'admes services dans les délais les joindre plus brefs, mais en revanche tout à fait muet sur l'origine de cette bonne fortune, c'est seulement à l'issue d'une déterminante du Corps des Mines petite enquête que j'appris l'influence dans cette modeste affaire : à la recherche méthodique de l'intersection de son corps administratif d'origine avec la science économique, André Giraud en avait assez rapidement Thierry de repéré deux brillants éléments, Montbrial et Jacques Lesourne ; le premier de ces éminents personnages fraîchement recruté suggéra au ministre le nom d'un jeune économiste comme enseignant à l'École polytechnique, tandis que le second accepta la du pilotage du jeune économiste. Ne restait plus qu'un seul responsabilité détail à régler : prévenir l'intéressé, ce dont se chargea le ministre lui-même, de la manière qui vient d'être dite ! Voilà comment Jacques Lesoume, au titre de conseil extérieur, et moi comme chargé de mission auprès du à la Délégation aux études générales, ministre, puis comme sous-directeur avons pendant deux ans vécu ensemble une aventure ardemment voulue et constamment soutenue par André Giraud, nous efforçant de redonner vie au calcul économique dans un département ministériel où l'échec de la rationalisation des choix budgétaires (RCB) l'avait pour le moins asphyxié. La tâche était lourde et, pour réussir pleinement, aurait certainement réclamé une fenêtre de temps plus large que celle d'une éphémère alternance politique. Le successeur immédiat d'André Giraud, porteur de qualités diffési bien rentes, ne partageait pas le même intérêt pour l'analyse économique, que l'élan fragile que nous avions imprimé s'est brisé net, pour laisser la place à d'autres priorités. Au moment d'écrire ces lignes, j'ignore le sort qui fut finalement réservé aux boulangeries militaires. Je ne sais pas non plus ce de gestion « lucide », entreprise au qu'il est advenu de l'expérimentation centre d'instruction des pilotes d'hélicoptères de l'aviation légère de l'Armée de terre, situé au Luc ; ni si le renouvellement des cargos légers de l'Armée de l'air s'est effectué par recours au crédit-bail, procédure administrative innovante, que le ministre André Giraud souhaitait voir appliquer à ce programme d'équipement non stratégique, mais financièrement important. Quant aux décisions d'emploi des budgets de fonctionnement au sein des corps de troupe, je doute qu'elles fassent aujourd'hui l'objet d'un éclai_ - rage économique... L'évocation de ce passé, aux suites vraisemblablement modestes, pourrait au porter regret ou à la nostalgie. Je préfère plutôt conserver de cette période le souvenir d'une parenthèse stimulante et riche en découvertes, au cours de À ce propos, je laquelle une amitié s'est nouée autour d'une collaboration. me rappelle avec beaucoup d'émotion, et un peu d'amusement, le moment 106 DÉCISION où Jacques Lesoume, avec un brin de formalisme cachant la grande cordialité que lui connaissent ses amis, me gratifia d'un tutoiement qu'il n'accorde qu'avec une assez grande parcimonie. Je me souviens aussi de la phrase qui lui est si familière « Ce que tu dis là ne me surprend pas ! », qu'il prononça bien souvent en réaction à ce que, jeune enthousiaste, je lui présentais comme des pépites jalousement sélectionnées parmi mes trouvailles au sein du ministère. Cette réponse du sage à l'exalté fut pour moi toujours « analysante », dans son ambiguité sémantique : « Sait-il donc déjà ici ce que je dis là ? », ou bien « Ne dis-je là rien qui puisse susciter chez lui la moindre surprise ? », ou bien encore « Approuve-t-il et partage-t-il d'emblée ce que je dis là ? » La dernière interprétation, peut-être la moins inquiétante, ne parvenait jamais dans mon esprit à chasser complètement les deux autres. À défaut de pouvoir surprendre Jacques Lesourne, j'ai en revanche beaucoup reçu de lui. C'est à son contact, et à son exemple, que j'ai appris, en matière d'analyse économique comme en beaucoup d'autres, à m'efforcer de ne pas rechercher les clés perdues de la connaissance sous le réverbère de la pensée unique, quelle soit-elle. Que le maître n'en veuille donc pas au disciple de s'incarner dans le Criton un peu impertinent de cette chute socratique : « Mieux vaut tourner ton esprit vers l'ombre que vers la lumière, ô Criton ! » « Ce que tu dis là ne me surprend pas, ô Socrate ! » Alain Bensoussan QUELQUES REMARQUES SURLEPRIXDESOPTIONS, ENCOMPTE DECONTRAINTES AVEC PRISE 1. INTRODUCTION La formule de Black Scholes (1973) fournit le prix d'une option européenne dans une situation idéale de marché complet. Le principe « d'absence d'opportunité d'arbitrage » est à la base de cette formule. Elle est par ailleurs extrêmement « robuste », au sens où l'on obtient aussi, à partir d'autres définitions, notamment celle fondées sur l'utilisation de fonctions d'utilité. De nombreux travaux ont été consacrés à l'extension de cette formule dans le cas où les marchés sont soumis à des imperfections, notamment des contraintes sur les transations. L'objet de cet article est de présenter certains de ces modèles et de discuter les idées qui en sont à l'origine. Il n'est nullement exhaustif et ne présente pas toutes les démonstrations mathématiques requises. . 2. PRIXDESPRODUITS DÉRIVÉS ' 2.1 1 Description dumarché On suppose qu'il existe un marché financier, constitué de n + 1 valeurs, dont une non risquée la « monnaie », dont les prix évoluent selon les formules 108 DÉCISION classiques suivantes So (t) = So, n dSo = Sor(s)ds, dS; = S;[b;(s)ds s> t (2.1 ) + (2.2) j= 1 Si (t) = Si > 0,1 = 1 ... n. On se place sur un horizon T i.e. t < s < T et l'on suppose r (s), bi (s) ,o-¡j(s)) sont des fonctions déterministes bornées (2.3) a (s) =- (ai j (s)) vérifie, notanta(s) = a (s)a*(s) a > 0, tlsE[O,T],i;ER" $*a(s)§ à (24. ) Il résulte de (2.3) et de (2.4) que 0- (s) et 0- * (s)sont inversibles et les normes de sont bornées uniformément en s sur [o,T]. Les processus wj (s) sont des mouvements browniens standardisés définis sur un espace de probabilités pourvu de la filtration naturelle 0/ = o-(w("r),t ( T x s) et 01 = Les opérations sur le marché se limitent à des opérations d'échange d'actions ou de monnaie, sans autre source de revenus ou de dépenses (autrement dit, on peut imaginer que les dépenses de consommation sont réglées par les revenus du travail, sans interférence entre le marché financier et le marché des échanges de biens et de services). Un agent sera caractérisé économique par son portefeuille de monnaie et d'actions de chacune des (yo(s),yi(s), .... y,(s», quantité valeurs qu'il possède (les actifs sont supposés indéfiniment divisibles). On suppose que YO(S),YI (s),... y, (s) sont des processus adaptés à 0/ et ¡Tt (y¡(s))2ds < 00 ¡Ti (y¡(s)S¡(s))2ds < 00, p.s.. (2.5) On appelle richesse de l'agent économique le processus X(s) = yo(s)So(s) + y (s)Si (s) +... + Yn(s)Sn(s). (2.6) Dans le cas où X(s) < 0, l'agent économique est endetté. Les processus yo(s),... yn (s) sont des contrôles, librement décidés par l'agent économique, par des achats ou des ventes, soumis ou non à des restrictions, ou des coûts de transation, et à la contrainte générale budgétaire que l'agent ne peut procéder à des achats que s'il vend des actions ou en payant avec sa monnaie. , Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes 109 En l'absence de coûts de transaction, la contrainte budgétaire est exprimée sous la forme mathématique suivante : n . (2.7) dX(s) = Ly¡(s)dS¡(s) i=O où dX (s) représente la différentielle stochastique du processus de richesse, supposée implicitement exister. La formule (2.7) est la traduction mathématique de l'expression formelle suivante où Ayo,Ayl, .... l'instant par Ayn l'agent à (2.5) Grâce commode par la + + ilYl (S)SI (s) AYO(S)SO(S) les représentent ilYn(s)Sn(s) = différents achats ou est bien différentielle la suite (2.7) stochastique au note À partir de (2.7) introduit y) actions et S*(s) et (2.1) les et au vecteur risquées vecteurs lignes correspondants. on déduit (2.2) aisément prix de ces la relation (2.8) le processus wo défini par sa différentielle dwo = dw + CT-I (b - r lI)ds où b sera z dX(s) = r(X - y*S)ds + y*dS. Si l'on Il : des portefeuille On définie. Si(s) Snes) référant à opérées de noter : et actions. ventes économique. Yi (s) se 0 ... + stochastique (2.9) le vecteur représente b 1 . ( b' et Il La relation (2.8) devient ' n dX = Xrds yi Si aij d woj. (2.10) i,j=l Avec la même notation processus Si deviennent fi j i les dSi = Si [rds + iij d w, j=l (2.11) 1 t0 DÉCISION À ce stade, de référence, il est naturel déduite d'introduire P par de la probabilité P*, appelées probabilité la formule dP* (2.12) - 1FT = Zo(t,T) où Il = Zo(t,T) exp 8(s) [- fT Il ds] (2.13) T B*(s)dw(s) - - 2 1 J r 8(s) = Œ-I(s)(b(s) - r(s)lI). Pour cette l'on introduit (2.14) devient wo(s) probabilité, la fonction d'actualisation = Yo,r(s) un processus de Wiener standardisé. r(T)dT Si (2.15) exp - J r et si l'on valeurs noter la l'instant le t, solutions explicitement X par au par rapport la formule (2.11) Xx,s,t(s)Yo,r(s) une martingale. est de dépendance de (2.10), processus Le processus donné (s), à x,S locale. martingale Pour les désigne par initiales portefeuille pour est on y, des une écrira Xl, S, i (S ) Y0, 1 (S ) = (2.16) x Y0, 1 ( 1 ) fs Si l'on t restreint le portefeuille .i n Yi ( I ) si < I >OEi j < I >d W0 j ( 1 ) . y¡(T)S¡(T)Œ¡j(T)dwoj(T). É y à vérifier la condition supplémentaire y0, t (I ) x+J t alors est XX,s,t(s)Yo,t(s) ' ' = {y satisfaisant At ne dépend alors une P* On surmartingale. Produits produit dérivés dérivé à l'instant les pas conditions du couple x,S (2.5) (S et (2.17)}. > 0). Par (2.18) si y6?, ailleurs, 0. réel à l'échange 00 locale martingale L'ensemble 2.2 y 1 At Un * 0 la notera : (2.17) t v et notion européen T d'une valeur est d'arbitrage un instrument h(S(T)), financier, où l'on suppose consistant que dans la fonction Quelques remarques sur le prix des options, avec prise en compte 111i de contraintes h vérifie CO ah - + ,ç C. aSk (2.19) Le prototype de la fonction h(s) est le suivant (rc = 1) (S - K)+ h(S) = (2.20) ce qui correspond à l'option au prix K. Les opérations sur les produits dérivés consistent à acheter où à vendre à l'instant t le produit h(S(T)) à l'instant T. On évite la notation Ss,r (T ), mais il est sous-entendu que le cours des actions risquées à l'instant t est égal à S. Un agent économique qui vend 8 produits à un prix p, augmente sa richesse à l'instant t dep8 et la diminue à l'instant T de 8h(S(T)). Au contraire, s'il achète produits à un prix p, il diminue sa richesse à l'instant t de pô et l'augmente à l'instant T de Supposons donc que l'agent possède la richesse x à l'instant t, qu'il vend 3 produits h(S(T)) à un prix p à l'instant t, qu'il décide d'un portefeuille il se retrouve à l'instant T avec une richesse S'il 8h (S (T» ' existe x < 0 et E > 0, yeAi tels que Xr+PO,¡(T) - bh(S(T)) 3 0 p.s . Il y une source de profit « infini » sans risque pour l'agent. En effet : n T yo, t (S) ¡j;¡ , et donc en achetant k produits dérivés et en décidant un portefeuille ce -y, 8 qui est possible puisque appartient aussi à At, on obtient une richesse à l'instant T supérieure ou égale à k ; ! ; c j k et donc tendant vers l'infini avec k. On dit dans ce cas qu'il y a possibilité d'arbitrage à la vente, pour ce prix p. _________ (I) On écrit X'+P,,,(T) au lieu de X:+Pu,(T). DÉCISION 112 De façon symétrique à l'achat, si l'agent achète produits h (S( T) ) au prix p il se retrouve à l'instant T à l'instant t et qu'il choisit un portefeuille avec une richesse S'il existe x < 0 et à > tels que + 5 0 p.p, il y a possibilité d'enrichissement « infini » sans risque pour l'agent. On dit qu'il y a possibilité d'arbitrage à l'achat, pour ce prix p. Le portefeuille y qui permet l'arbitrage est appelé portefeuille de couverture. On introduit les fonctions vs (S,t) = ' inf(x > 0[3yeAi (2.21) vb(S,t) supix > 013ycA, 0 p .s. } (2.22) Les arguments S,t rappellent que le cours des actions risquées est S à l'instant t. Posons u(S,t) = E*[h(Ss.r(T))yo.r(T)] (2.23) quantité bien définie, d'après l'hypothèse (2.19). Par définition, on a les propriétés si f.t(5'.f) < 00, alors`dx > 0 p.p. Xx.s,¡(T) - 3yEAr, si vb(S,t) > 0, alors `d0 < x < vb(S,t) 0 p.p. + 3YEA¡, (2.24) (2.25) Dans ces conditions on vérifie aisément que l'on a : Pour un prix strictement supérieur à vs(S,t), il y a arbitrage à la vente. (2.26) Pour un prix x vs(S,t) il ne peut y avoir d'arbitrage à la vente. Pour un prix strictement inférieur à vb(S,t), il y a arbitrage à l'achat. (2.27) Pour un prix à vb(S,t) il ne peut y avoir d'arbitrage à l'achat. Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes En effet, si p > vs(S,t), alors il suffit x + p - vs(S,t) > 0, et 3y45Àt tel que de prendre x 113 3 < 0 avec p.p. Si p x v, (S, t) et qu'il existe x < 0,8 > 0 et y tels que Xx+P8,S,t(T) - 0 8h(Ss,t(T» ) alors S + pà ce qui est impossible. si p < vb(S,t), Symétriquement, -, comme x - p + vb(S,t) > 0 ; il suffit de prendre x < 0, tel que tel que 0 < p - x < vb(S,t),3YEAt Inversement si p à Vb(S,t), il ne peut exister x < 0 et à > O,yEAt tels que 2.3 Intervallede non-arbitrage , On a la propriété suivante : On fait l'hypothèse (2.19), alors on a ' (2.28) vS(S,t). Si Vs = +00. l'inégalité de droite est évidente. Supposons Démonstration < alors 00, v (S,t) d'après (2.24), ds > 0,3YEAt tel que xy v,(S,t)+E,t(T) - h(S(T» ) 0. Donc E*h(S(T))Yo,t(T') = u(S,t). Comme est une sur-martingale, on a vs(S,t) ' donc vs(S,t) + s u (S, t) et comme E est arbitraire, l'inégalité de droite en résulte. L'inégalité de gauche est obtenue de manière similaire. DÉCISION 114 4 Par conséquent, on peut affirmer la Un prix u situé dans l'intervalle [vb(S,t),vs(S,t)] lieu à donner arbitrage, ni à la vente, ni à l'achat. peut ne Si le L'intervalle [vb(S,t),v,s(S,t)] est appelé intervalle de non-arbitrage. prix du produit dérivé est à l'intérieur de l'intervalle d'arbitrage, il n'y a aucune possibilité d'arbitrage, ni à la vente, ni à l'achat. Si le prix est supérieur à vs(S,t), il y a possibilité d'arbitrage à la vente. Si le prix est inférieur à Vb(S,t), il y a possibilité d'arbitrage à l'achat. 2.4 Formulede BlackScholes On note d'abord que la fonction u(S,t) est solution de l'équation aux déri. vées partielles au au at asi = h(S) u(S,T) 1 a2u 2 ôllisj asias; (2.29) et que si l'on pose au alors uk est solution de aUk + (r + at ah _ah uk(S,T) = - a Sk 9? 1 lai Sis 2'' a 2 uk = 00 9?9? (2.30) Il est facile de vérifier que u et uk satisfont les relations : C (2.31) Dans ces conditions, d'après la formule de Ito, on a : f et le portefeuille y (s) i (s) = tel que Ui (s<S>,S> (2.32) 115 5 Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes appartient à At. On en déduit h(S(T» p.s. ce qui implique, d'après (2.21) vs(S,t) x u(S,t) et donc d'après (2.28) vs(S,t) = u(S,t). De même, on vérifie que y x-Y -U(S,t),t (T) donc Vh(S,t) ) u(S,t), + h (S(T)) = 0 p.s. ce qui implique vb(S,t) = u(S,t). On a donc la Sous l'hypothèse (2.19), en l'absence de coûts de transaction ou de contraintes sur le portefeuille, on a la propriété vb (S, t ) = vs (S, t) = u (S, t ) (2.33) Dans le cadre de la Proposition 2.3, il n'y a donc qu'un seul prix du produit dérivé pour lequel il n'y a pas de possibilité d'arbitrage, ni à la baisse, ni à la hausse. C'est le « juste » prix du produit dérivé donné par la formule (2.23), ou solution de l'équation aux dérivées partielles (2.29). C'est le prix de Black Scholes. D'UTILITÉ DESFONCTIONS 3. UTILISATION , , DÉRIVÉS DUPRIXDESPRODUITS DANSLADÉFINITION Dans l'approche précédente, le prix de Black-Scholes est une conséquence naturelle du fait que l'intervalle d'arbitrage se réduise à un point. On peut chercher à introduire d'autres approches plus directes du concept de prix, notamment en caractérisant l'agent par une fonction d'utilité. 1 Problème de contrôleoptimal 3.1 On revient à la formulation initiale (2.2), (2.8) soit : n (3.1)> dsi j=1 DÉCISION 116 6 n __ (3.2) 1 1=1 Si(t) = Si, j (3.3) X(t) = x. On introduit une fonction d'utilité Lf(x) vérifiant l,f localement lipchitzienne, croissante et concave (3.4) et l'on considère la fonction valeur = (3.5) sup y6Ai où À est un paramètre. Le traitement qui suit est formel. On associe à la fonction valeur une équation aux dérivées partielles de Bellman, écrite formellement comme suit 1 a2<t>À + asF sibi 2aijsisjÉ?ÎÔjasiasj xr at + 1 -à- a 2 Sibi + ? -yiS ax (bi - r) (3 .6) (3.6) ° Siai j yjsj}] = 0 si axas¡ En l'absence de contraintes sur l'argument y du sup, la condition d'optimalité s'écrit yJS/ ax (b` ax ? }}./ r) axasjatJ SJ./ 0 (3.7) et (3.6) devient a(I)x at + at 1 + 1 2 2 a2<t>À ax 1 + Si Si asi Si bi 2 aij asiasj asias J 2 (bi 1 r) 1./ (bj - r) axz Si (bi - = 0. r) r) sji ] = O. + axasisiaij axasj (3.8) Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes 117 7 3.2 Définitiondu prix Supposons que l'agent achète 8 produits h(S(T)) au prix p à l'instant t, et il se retrouve à l'instant T avec une qu'il choisit un portefeuille richesse et donc selon la définition (3.5) de sa fonction valeur, il peut obtenir une valeur égale à On peut alors définir le « juste » prix, comme celui auquel, au premier ordre près, l'agent est indifférent à l'opération d'achat. Autrement dit, p = p(x,S,t) vérifie p8,S,t)18=0 = 0. d En remarquant que partir de (3.9) la formule p(x,S,t) (3.9) (Do(x,t) ne dépend pas de S, on obtient à = . (3.10) ""o.. ax ' On peut chercher à obtenir l'équation de en déri9 vant (3.8) par rapport à À. On en déduit l'équation dont xo(x, S, t) est solution. On vérifie alors par le calcul que l'on a xo(x,S,t) 9jc(x,t)u(S,t) (3.11) (3.Il) où u(S,t) est le prix de Black Scholes, solution de (2.29). Il résulte alors de (3.10) que l'on a p(x,S,t) = u(S,t). (3.12) Ainsi le « juste » prix défini par (3.9) ne dépend pas de x et coïncide avec le prix de Black Scholes. On obtient bien sûr le même résultat pour une opération de vente. , 3.3 Étuded'un cas particulier Le résultat (3.12) est d'autant plus remarquable que l'équation (3.8) n'a pas de solution analytique. On peut cependant la résoudre dans des cas particu- DÉCISION 118 liers. Supposons notamment que l'on ait xfl 1 (3.13) ? U(x) = logx, < 0. six (3.14) Alors (3.8) possède la solution fT = Ll((x (x,S,t) (3.15) ks.ds) Jc avec kt = r), dans le cas où U kt = Si U est donnée est par r + donnée et (3.13) r)(a-1(t))¡j(bj(t) - 2 (bi (t) par (3.16) 1) r - 1 (b¡(t) - r). (3.17) (3.14). DERÉFÉRENCE DELAPROBABILITÉ 4. UTILISATION La probabilité de référence P* définie en (2.12) transforme la richesse actualisée Xx,s,r(s)yo,r(s) en une martingale locale. Il est intéressant d'exploiter cette propriété, déjà utilisée dans la Proposition 2.1. 4.1 1 Autreproblèmede contrôleoptimal On reprend la formulation (2.10), (2.11 ), soit n dsi = S¡[rds + £ ai jdwo j 1 j-1i (4.1) n dX = Xrds + £ yiSiQijdwoj i, j-1 Si = Si , (4.2) (4.3) X(t) = x et l'on considère cette fois la fonction valeur 'l/JÀ(x,S,t) = sup YEA, ' ' (4.4) Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes 119 9 D'après la section 3.1, il est clair que e est solution de (3.8), en prenant bi = r, soit att 1 ôx xr à Si SL 1r 1 I}St1 à 2 al? Si à sj Sj 1 , (4.5)) ° 2 a2'l/J)..axasi ax2 = U(x + Àh(S)). Il est alors facile de voir que la fonction 'l/J)..est donnée explicitement par la formule T rds) (4.6) .A quelle que soit la fonction U. 4.2 Autredéfinitiondu prix On introduit alors les définitions suivantes us(S,t) = Ub(S,t) = 0} 0} - 0} (4.7) 0} (4.8) appelés « prix de vente » et « prix d'achat ». Soit xo la valeur telle que Lf(xo) = 0. On fait ici un raisonnement qui n'utilise pas explicitement la formule (4.6), mais simplement les définitions (4.7), (4.8) et qui a des analogies avec la Proposition 2.1. l'hypothèse (2.19), alors on a : On fait us (S,t) x vs(S,t). On démontre tout d'abord que l'on a x ). 'l/Jo(x,t) = yo, t (T) (4.9) Démonstration (4.10) Bien entendu, cela résulte de (4.6), mais on fait ici un raisonnement direct. Par définition = sup y6Ai XI 1 (4.11) 120 DÉCISION En prenant y = 0 (qui appartient à Ad on a, d'après (2.16) x X0 x,S,t (T) = et donc , Par ailleurs, d'après la concavité de U et le fait que de U, on obtient : ' ' est une sur-martingale ainsi que la croissance d'où . On a donc bien (4.10). Il en résulte aussitôt 0) = xoyo,,(T) (4.12) On a ensuite en utilisant les mêmes propriétés de U et la Définition (2.23) p_ j (x , S, t ) x (4.13) (4. 1 3) YO,t(T) En utilisant la définition de u,,., on a Vs > 0 . donc d'après (4.13) Lf xo + ' U Yo.r(T) à 0a / ce qui entraîne us(S,t) - u(S,t) + S> 0 et comme e est arbitraire, on a bien u(S, t) x us(S,t). (4.14) Par ailleurs, par définition de v; (2.21), 3yeAi tel que 0 Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes 1211 ce qui implique xo. Par conséquent, on a aussi soit + V> <s,t> us(S,t) et donc V, (S, t) us(S,t). Les inégalités Vb(S,t) ,,:; Ub(S,t) ,,:; u(S,t) se démontrent de manière analogue, d'où le résultat. Sous les hypothèses de la Proposition 2.3, il en résulte bien évidemment Vb(S,t) = vs(S,t) = u(S,t) et donc également Ub(S,t) = us(S,t) = u(S,t) ce qui peut se vérifier avec la formule explicite (4.6). Mais le raisonnement fait pour la démonstration de la Proposition 4.1 peut s'étendre à des cas ou l'on ne dispose pas d'une formule explicite. TENANT COMPTE DESCOÛTSDEGESTION 5. MODÈLE DUPORTEFEUILLE du modèle 5.1 Description , On suppose ici que l'agent économique paie un coût de gestion de son portefeuille lui donnant droit aux transactions qu'il souhaite. Ainsi formellement sur un intervalle At, on aura la relation : + Ayl (s)(Si)(s) +(S¡y¡ FI (y,S,t) + ... + +... + Ay, (s)S,, (s) = 0 DÉCISION 122 où (Fi (y, S, t) F (y, S, t) = F(y,S,t) bornée ', bornée : (5.1) ((FIFn(y,S,t) Vy,S,t t 0, y*F(y,S,t) de la richesse n L'équation (5.2) s'écrit n (5.3) i=O 1=1 et donc le modèle devient n dSi = Si (b; (s)ds j=1 n dX = [rX + r- F; (y, S,s))]ds ' (5.4) i, j x<t> # X. Cette fois-ci, on ne peut introduire une seule probabilité de référence mais une famille indicée par le contrôle. On pose en effet : dwy = dw + rll - P*, (5.5) F(y,S,s))ds et (5.6) F(y(s),S(s),s)) puis ZY (t, T) (5.7) = exp[- il fr [[ ds] Y (5.8) 1 -dP 1FT = ZY(t,T). Pour la probabilité l'on a : Py,wy devient un processus de Wiener standardisé, et (s) = x ftt n y¡ (r:)S¡ (r:)O'ij (r:)dwj (r:)) (5.9) 123 Quelques remarques sur le prix des options, avec prise en compte de contraintes n = St[(r + + (5 . 1 0) On est amené naturellement la condition à remplacer (2.17) par : M y.! x+ i£ / (5.11) ? - nx,s,t Y>ds, p.s. Y Y 0 y ce qui entraîne que est une PY sur-martingale. 5.2 Prix d'achat (2.5) et (5 . 1 1 )) et prix de vente on fait l'hypothèse technique U(0) = 0. On note, par analogie (5.13) à (4.4) sup On vérifie aisément I (5.14) (5.15) et donc (5.16) ; ' ' ' que (cf. (4.10)) : ; ; ; (5.12) ne dépend pas de x, mais dépend cette fois de S. A(S,t) Pour simplifier, On note cette fois : ( y satisfaisant A(S,t) = car l'ensemble < 00 On introduit alors (cf. (4.7), (4.8)) ; (5.17) ; (5.18) ; ; « prix de vente » et « prix d'achat » du produit respectivement On n'a pas l'équivalent de la formule de Black Scholes, mais l'on peut intro- 124 DÉCISION duire les quantités : ' . y (5.19) vb(S,t) = inf y (5.20) ainsi que les quantités : vs(S,t) = E`''h(Ss,r(T))Yo,r(T) (5.21) Vb(S,t) = (5.22) où ys et yb sont les contrôles particuliers définis par les formules de feedback , 9L\ dj; _ asj (5.23) (5.24) aVb On démontre alors la Proposition 5.1..... les estimations suivantes sont vérifiées vs(S,t) ;? vs(S,t) Us(S,t) Ub(S,t) Vb(S,t) Vb(S,t)- (5.25) (5.26) La démonstration se trouve dans [2]. TENANT DECONTRAINTES 6. MODÈLE COMPTE On présente ici un autre type de modèle discuté dans [4]. 1 Description du modèle 6.1 On reprend les formules (3.1), (3.2) et l'on considère les contrôles y de la forme yt "t (6.1) Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes 125 5 On obtient donc le modèle n dS; = Si (b; (s)ds (6.2) j=1 n n dX = X[(r r))ds + £ n;Q; jdwj] ¡,j=1 i=1 (6.4) X(t) = x S¡(t) = Si (6.3) On suppose que : r < Inl2ds X21nlds < oo,p.s. (6.5) On note S5,t(S) et X;,t(s) les solutions de (6.2),(6.3). On vérifie que x7r x,t(S) et donc (6.5) peut s'écrire : < oc, p.s. < t T ?n ?2ds (6.6) On considère ensuite la probabilité de référence P*, définie en (2.12) et le processus wo défini en (2.9). On vérifie aisément que l'on a : n dS; = S¡(rds (6.7) j=l n dX = X (rds + £ 7riuijdwt)j) . i, j=1 x<Î> # X. (6.8) (6.9) On fait l'hypothèse supplémentaire < oo. E* sup X1.t ' (s) (6.10) Ai = 17rsatisfaisant (6.11) On notera (6.6) et (6.10)}. On se donne ensuite deux ensembles K+, K-, n convexes fermés non vides de Rn (6.12) et l'on pose Ar = 17reA,, 7r(s)cK+l (6.13) 7r(s)éK-I. (6.14) DÉCISION 126 6.2 Intervallede non-arbitrage On introduit les fonctions (cf. (2.21), (2.22)) V_ç (S,t) == inf(x > 0[31eA? p.s.} 013Jl'EA¡,X;,t(T) - h(Ss,i(T)) à 00 p.s.) (6.15) vb(S,t) = sup{x > OI??EAr (6.16) 0 p.s.}. + Une démonstration identique à la Proposition 2.1 permet d'affirmer la Sous l'hypothèse (2.19) on a les inégalités nr 4ui , Vb(S,t) (u(S,t) (6.17) < vs(S,t). 6.3 Expressiondes bornesde l'intervallede non-arbitrage On introduit les fonctions 8(v) = sup (-7r*v), nEK+ P6?" (6.18) â(v) = inf (-7r*v), nEK- (6.19) et l'on fait les hypothèses (6.20) leurs domaines effectifs sont continues sur < > -oo}. (6.21) On introduit l'ensemble des processus D= Il vs(w) 001 (6.22) et l'on définit (cf. (2.14)), pour vED 0,(S) = 0(s) + zv(t,T) = eXpj- / 1 dP" [ = Zv(t, T) dP ,Tt (6.23) Il Il' ds] (6.24) (6.25) 127 Quelquesremarquessur le prixdes options,avecpriseen comptede contraintes dwv = dw + 0v (s)ds. (6.26) Avec ces notations, les processus (6.7), (6.8) peuvent s'écrire sous la forme dSi = Si «r - (6.27) vi (s»ds J n dX = X((r - (6.28) n*(s)v(s))ds i.J=1 . (6.29) x<t> # X. On a alors le (6.21) on a les Sous les hypothèses (6.12), (6.20), '.Ellé()rème 6.t?? formules T vs(S,t) . (r + 8(v))ds] (6.30) (6.30) (r + s(v))ds] (6.31) J v6T Vb(S,t) = inf tJ vED fT La démonstration est délicate (cf. [4]). Montrons simplement la propriété fT - (6.32) t Posons *'! (r + 8(v))dt. D'après (6.28) on a Xx,l(s)Ÿv,t(s) + + 8(v(r)))dr r Jr H y.! t Utilisant (6.10) on vérifie aisément que l'on a T 1T x dx. Comme 7r*p-f- Ô(v) x 0, on en déduit "Ix < 0, VvcD,V7reAt. (6.33) DÉCISION 128 Supposons vb(S,t) > 0, autrement (6.16), que si 0 < ë < (6.32) est évident. tel que Alors on déduit de donc d'après (6.33), Vue'D Eet (6.32) s'en déduit aisément. 7. CONCLUSION On a montré que toutes les définitions possibles du prix des produits dérivés dans le cas de marchés se ramenaient à la formule de Black-Scholes, infiniment où les actifs sont divisibles, en l'absence de complets, supposés coûts de gestion ou de transaction, et sans contrainte. Il ne peut y avoir d'ambiguité sur le «juste prix ». Dans le cas de marchés ne satisfaisant pas les les choses sont évidemment moins simples, et les hypothèses précédentes, définitions ne coïncident plus. Elles sont plus ou moins bien adaptées au type d'imperfection supposée, notamment en terme de simplicité d'utilisation. BIBLIOGRAPHIE [1] BLACK F., SCHOLES M. (1973), « The pricing of Options and Corporate Liabilities », J. Political Economy, 81, 637-659. A., JULIENH. (1999), « Option Pricing in a Market with Frictions », [2] BENSOUSSAN W Fleming, Stochastic Analysis Control, Volume in Honor of Professor eds : W.M. McEneaney, G.G. Yin and and Birkhauser, Optimization Applications, Qing Zhang. T. (1993), « European Option Pricing [3] DAVis M., PANASV.G., ZARIPHOPOULOU with Transaction Costs », SIAM Journal of Control and Optimization, vol 31, 2, pp 470-493. [4] KARATZASI., Kou S.G. (1996), « On the Pricing of Contingent Claims under Constraints », The Annals of Applied Probability, vol. 6, n° 2, pp. 321-369. Jean-Pierre Dupuy DOMINANTE QUANDLASTRATÉGIE SERÉVÈLE IRRATIONNELLE Jacques Lesourne m'a appris à combiner la rigueur et l'irrévérence en matière de discussion des fondements de la théorie de la décision. Je me souviens que c'est à lui que je soumis pour la première fois les premiers balbutiements de qui devait être ma solution au paradoxe de Newcomb. C'est avec plaisir et reconnaissance que je lui dédie ces quelques réflexions. 1. DELALOGIQUE APPAREMMENT IMPLACABLE DELASTRATÉGIE DOMINANTE ' Dans sa lettre du 4 décembre 17** au vicomte de Valmont, la marquise de Merteuil écrit ceci : « Voyons ; de quoi s'agit-il tant ? Vous avez trouvé Danceny chez moi, et cela vous a déplu ? à la bonne heure : mais qu'avezvous pu en conclure ? ou que c'était l'effet du hasard, comme je vous le disais, ou celui de ma volonté, comme je ne vous le disais pas. Dans le premier cas, votre Lettre est injuste ; dans le second, elle est ridicule : c'était bien la peine d'écrire ! Mais vous êtes jaloux, et la jalousie ne raisonne pas. Hé bien, je vais raisonner pour vous. Ou vous avez un rival, ou vous n'en avez pas. Si vous en avez un, il faut plaire pour lui être préféré ; si vous n'en avez pas, il faut encore plaire pour éviter d'en avoir. Dans tous les cas, c'est la même conduite à tenir : ainsi, pourquoi vous tourmenter ? pourquoi, 130 DÉCISION surtout, me tourmenter moi-même ? Ne savez-vous donc plus être le plus aimable ? et n'êtes-vous plus sûr de vos succès ? Allons donc, Vicomte, vous vous faites tort. » > Qui a su mieux dire la logique du rapport de séduction lorsqu'il devient guerre des sexes que l'officier d'artillerie Choderlos de Laclos ? Les théoriciens français qui empruntent, pour décrire cette structure, une fable américaine vulgaire, dénommée « dilemme du prisonnier », seraient bien avisés de puiser dans les ressources de leur littérature nationale. Le raisonnement de la marquise de Merteuil met en scène de façon saisissante la logique apparemment implacable de ce que les théoriciens modernes de la décision désignent sous le nom de stratégie dominante. Selon Merteuil, Valmont n'aa le choix qu'entre deux stratégies : ou bien se montrer jaloux, se plaindre, manifester son ressentiment, se conduire comme un mari trompé, etc. ; ou bien ne jamais cesser de lutter pour plaire et toujours s'efforcer de rester le meilleur dans la guerre de séduction. Or, quelle que soit la situation (inconnue de lui, qui souffre les affres du doute) dans laquelle Valmont se trouve - supplanté ou non par un rival -, le mieux qu'il ait à faire (toujours selon Merteuil), c'est de choisir la seconde stratégie : « Dans tous les cas, c'est la même conduite à tenir. » Le meilleur choix ne fait aucun doute, il n'y a donc pas lieu de se tourmenter. L'incertitude sur la situation n'en entraîne aucune sur la décision qu'il faut prendre, puisque celle-ci est indépendante de la situation. Le meilleur choix constitue, dans ce cas, une « stratégie dominante ». La force de ce raisonnement est telle qu'il a été érigé au rang de vérité axiomatique par l'un des fondateurs de la théorie de la décision, Leonard Savage. Le schéma d'axiome en question, dit « principe de la chose certaine » (noté PCC dans ce qui suit ; Sure Thing Principle en anglais), se dit en termes de préférence : si un sujet préfère une option p à une autre q dans le cas où l'état du monde appartient à un sous-ensemble X ; et préfère également p à q dans le complémentaire de X ; alors il doit préférer p à q même s'il ne sait pas si l'état du monde appartient à X ou au complémentaire de X. L'ennui, allons-nous montrer, c'est que cette logique est responsable d'un grand nombre des maux qui affectent les sociétés modernes. Citons simplement : la très grande difficulté que les hommes ont à mettre leur confiance les uns dans les autres ; leur incapacité foncière à gérer leurs conflits d'une façon non destructrice pour tous. S'ils arrivent néanmoins à faire société, c'est en échappant au joug de la logique en question. Le lien social serait-il donc irrationnel ? Avant d'en arriver à une conclusion aussi désespérante, il convient de peser les termes du débat. La psychologie, d'ailleurs, semble contredire la logique. Des expériences de psychologie cognitive, menées à l'université Stanford par le regretté Amos Tversky, montrent que les sujets violent le PCC de façon systématique (voir encadré 1). (1) Choderlosde Laclos,Les Liaisonsdangereuses,LettreCLII.Je souligne. Quandla stratégiedominantese révèleirrationnelle 1311 Encadré 1 : Le Principe de la chose certaine mis en défaut . Expérience 1 : On dit aux sujets : « Vous avez fait un pari à pile ou face. Vous avez 50 % de chances de gagner 200 $ et 50 % de chances de perdre 100$. La pièce a été lancée mais vous ne connaissez pas le résultat. Décidez-vous de jouer une seconde fois ? Quid si vous savez que vous avez gagné la première fois ? Quid si vous savez que vous avez perdu ? » Résultat : 70 % des sujets rejouent s'ils ont gagné ; rejouent s'ils ont perdu ; ne rejouent pas s'ils ne savent pas. - Expérience 2 : On dit aux sujets (des étudiants de Stanford) : « Vous venez de passer un examen difficile.Vous êtes épuisé (e) et avez les plus grands doutes sur le résultat. Celui-ci ne sera connu que dans deux jours. Or vous avez maintenant la possibilité de vous acheter à tarif avantageux une semaine de vacances à Hawâi. L'offrespéciale expire demain. Allez-vous : - acheter la semaine de vacances ? - ne pas l'acheter ? - payer une somme de 5 $ non remboursable qui vous donne accès au tarif avantageux jusqu'à après-demain - lorsque vous aurez les résultats de l'examen ? » « Supposez maintenant que vous connaissiez aujourd'hui les résultats de l'examen. Êtes-vous prêt (e) à acheter la semaine de vacances dans le cas où vous avez réussi ? même question au cas ou vous avez échoué. » Résultat : Si les étudiants savent qu'ils ont réussi, ils sont 77 % à acheter la semaine de vacances ; et 83 % s'ils savent qu'ils ont raté. En dépit de cela, ils sont 61 % à payer les 5 $ non remboursables pour savoir ce qu'il en est avant de prendre leur décision - et 32 % à acheter la semaine sans attendre, et 7 % à ne pas l'acheter. Interprétation : Tversky conjecture que l'incertitude sur l'état du monde rend difficile de se concentrer sur l'une ou l'autre des branches de la disjonction. L'élargissement de l'attention se traduirait par une perte d'acuité. Quel que soit l'état du monde le sujet a les mêmes préférences, certes, mais c'est pour des raisons fort différentes (ilveut se payer des vacances, dans un cas parce qu'il les a bien méritées, dans l'autre pour noyer son échec dans les loisirs ;s'il ne sait pas, son esprit s'embrouille). Cette interprétation est confirmée, selon Tversky,par l'observation suivante : lorsque l'on rend les sujets attentifs aux raisons de leur préférence dans l'un et l'autre cas, ils ne violent plus le PCC. Sources :E.Shafiret A.Tversky, and ·· Thinking throughUncertaintyNonconsequential : Reasoning Choice··, Cognitive et E.Shafir,< TheDisjunction EffectinChoiceunder 1993 ; A. Tversky Psychology, ··, Psychological Science,1992. Uncertainty " Ces résultats, certes intéressants, ne suffisent pas à résoudre le conflit entre logique et lien social. L'autorité de la logique a valeur normative et s'il est démontré que les hommes doivent, pour vivre ensemble, échapper à son emprise, le fait que leur esprit soit « câblé » pour rendre cela possible, s'il est avéré, ne les dédouane pas pour autant du reproche d'irrationalisme. Celui qui voudrait réconcilier logique et lien social aurait une tâche autrement ardue : il lui faudrait montrer que la force logique du PCC, et donc de la stratégie dominante, n'est qu'apparente. Même si je crois possible de montrer cela, je ne ferai ici qu'effleurer le sujet (cf. bibliographie en fin d'article). 132 DÉCISION 2. LOGIQUE ETCONFLIT L'un des grands mérites de la théorie du choix rationnel est d'avoir montré la possibilité de structures d'interactions telles que, chaque agent cherchant la maximisation de son intérêt, il en résulte une situation désastreuse pour tous - et, en particulier, moins bonne que si tous avaient accepté, ou été capables, de se contraindre. C'est parce qu'ils sont rationnels que les sujets se montrent incapables de gérer leur conflit d'une façon qui préserve les intérêts qu'ils ont en commun. Nous allons insister ici sur le rôle que joue la stratégie dominante dans ce résultat paradoxal. Considérons l'inévitable dilemme du prisonnier. Deux joueurs, Ego et Alter, ont chacun le choix entre deux stratégies : coopérer (C) ou faire défection (D). Quatre cas sont donc possibles, qui donnent chacun un certain résultat aux deux joueurs (le « gain » d'Ego apparaît en bas et à gauche de chaque case ; le gain d'Alter, en haut et à droite). Ainsi, si Ego et Alter tous deux coopèrent, ils obtiennent chacun R (pour « récompense mutuelle »), contre P (pour « punition mutuelle », ou « autopunition »), plus petit que R, si l'un et l'autre font défection. Si l'un fait défection tandis que l'autre coopère, celui-là obtient le gain T de la « tentation », avec T plus grand que R ; tandis que celui-ci récolte le gain S de la « sottise », avec S plus petit que P. En résumé, la condition pour qu'on ait un dilemme du prisonnier est : T > R > P > S. On peut, pour donner chair à ce squelette formel, songer à la guerre amoureuse dont nous sommes partis ; plus banalement, aux comportements de file d'attente (la défection étant la resquille) ; plus tragiquement, à la course aux armements (la coopération étant le désarmement). C D Alter R T C R S Ego –––––––––––––––––––––––––––– S P D T P Quand la stratégie dominante se révèle irrationnelle 133 La très grande majorité des théoriciens qui se sont intéressés à cette structure raisonnent ainsi. Je suis Ego. Mon choix devrait en principe dépendre de ce que fait Alter, mais celui-ci agit par hypothèse indépendamment de moi et sans que je puisse savoir ce qu'il fait. Or j'observe que cela n'a en fait aucune importance car, quoi qu'il fasse, il est dans mon intérêt de faire défection : s'il fait C, de faire D (puisque T > R) ; s'il fait D, de faire également D (puisque P > S). En d'autres termes, j'ai une stratégie dominante, qui est ici de faire défection. Me pliant au PCC, je juge rationnel de faire défection. Alter aussi, qui est dans la même situation que moi. Nous nous retrouvons en (D, D), qui nous donne à chacun P, alors que si nous avions coopéré, nous eussions obtenu l'un et l'autre R > P. Le dilemme du prisonnier constitue un « paradoxe », en ce que les deux agents s'y condamnent mutuellement, et le plus « rationnellement » du monde, à une situation qui, par rapport à un autre possible, se révèle moins bonne pour l'un comme pour l'autre. On admet généralement que le dilemme du prisonnier formalise la structure de « l'état de nature » tel que le représente Thomas Hobbes dans le Léviathan. Le blocage mutuel dans la case (D, D) illustre l'absurdité inévitable de la prétendument « guerre de tous contre tous ». « Du fait de cette défiance de l'un à l'égard de l'autre, écrit le philosophe anglais, il n'existe pour nul homme aucun les moyen de se garantir qui soit aussi raisonnable que le fait de prendre devants. » Toujours agir comme si un rival était prêt à vous supplanter dans le coeur de votre amante. Albert Tucker a formalisé cette structure en Depuis que le mathématicien il a eu un 1950, y toujours petit nombre d'auteurs (je les appellerai les « hétérodoxes ») pour soutenir qu'il est rationnel de coopérer dans le dilemme du prisonnier à un coup. La psychologie semble être de leur côté mais, comme expliqué ci-dessus, son renfort n'est pas décisif (cf. encadré 2). L'un des arguments avancés par les hétérodoxes est celui des « jumeaux ». Supposons qu'Ego et Alter soient de vrais jumeaux. Ego devrait raisonner ainsi : quel que soit mon choix, il est très probable qu'Alter fera le même. Les deux seules cases à considérer sont donc les cases diagonales CC et DD. C'est évidemment C qu'il faut choisir. Or, nous sommes tous des jumeaux en rationalité. S'il est rationnel pour Ego de choisir C (resp. D), il est rationnel pour Alter de choisir C (resp. D). Les cases CD et DC sont exclues par là même de la délibération. On notera que cet argument rejeté par les orthodoxes d'un simple haussement d'épaule du PCC et de la stratégie prétend contourner l'obstacle dominante en faisant dépendre l'état du monde (ici, l'action de l'autre) de sa propre action. Tous les auteurs admettent que si l'état du monde dépend de l'action, la logique de la stratégie dominante est en effet causalement réduite à néant. Supposons que Pierre, grand fumeur, envisage de renoncer à fumer, afin de réduire ses chances de mourir d'un cancer du poumon. 134 DÉCISION Encadré 2 : Coopération dans le dilemme du prisonnier Expérience : Des expériences ont montré que, en moyenne, 40 % des sujets coopèrent dans le dilemme du prisonnier à un coup. Les expériences de Tversky ont conduit à préciser ce résultat et à en changer l'interprétation. Si les sujets savent, avant de jouer, que leur partenaire a fait défection, ils sont 97 % à faire défection - donc 3 % à coopérer. S'ils savent que l'autre a coopéré, ils sont 84 % à faire défection - donc 16 % à coopérer. Et s'ils ne savent pas ce que l'autre a fait, ils sont effectivement 40 % à coopérer - donc 60 % seulement à faire défection. Dans 25 % des cas, on a la configuration suivante (violation du PCC) : on fait défection si l'autre fait défection ; on fait défection si l'autre coopère ; on coopère si l'on ne sait pas ce que fait l'autre. Le résultat obtenu avant Tversky sur les 40 % de sujets qui Interprétation : coopèrent dans le dilemme du prisonnier était couramment interprété de la façon suivante. Placés dans une situation d'interaction, les sujets ne se déterminent pas seulement en fonction de considérations de rationalité ; des éléments éthiques entrent en jeu dans leur décision. Il est « bien » de coopérer - surtout, évidemment, si l'on sait que l'autre a coopéré. Les résultats obtenus par Tversky ruinent cette interprétation : beaucoup plus de sujets coopèrent dans l'ignorance du choix de l'autre (40 %) que lorsqu'ils savent que l'autre a coopéré (16 %). Selon Tversky, l'incertitude sur l'état du monde (ici, la stratégie de l'autre) favorise la pensée « quasi magique ». Si la stratégie de l'autre est connue, l'attitude rationnelle et égoïste a le champ libre. En revanche, dans l'incertitude, le sujet devient sensible à la rationalité collective. Tout se passe pour lui comme si, en coopérant, il incitait l'autre à coopérer. En réalité, il ne croit pas qu'il a un tel pouvoir causal c'est pourquoi Tversky évoque une quasi magie. Cependant, il écarte ce choix pour la raison suivante. est, selon lui : Pas de cancer Renoncer Fumer Le tableau de ses gains Cancer 9 - 1 000 10 0 - 995 Pierre conclut que continuer de fumer constitue une stratégie dominante puisque, qu'il ait ou non le cancer, il se trouve mieux ainsi. Nous serions en droit de nous scandaliser de son illogisme. Il oublierait tout simplement que l'état du monde n'est pas indépendant de son choix, et que les deux cases sont de loin les plus probables. Or les hétérodoxes, dans le diagonales dilemme du prisonnier joué par des jumeaux en raison, ne raisonnent pas autrement. Quelle faute commettent-ils donc, selon les orthodoxes, que le raisonnement orthodoxe, dans le cas du choix de Pierre, ne commettrait pas ? C'est que, dans le dilemme du prisonnier, l'état du monde - l'action d'Alter dépend bien de mon action, mais elle n'en dépend pas causalement : elle n'en dépend qu'en probabilité. Si je choisis C, il est très probable, en effet, qu'Alter ait également choisi C. Mais tout ce que je puis dire, c'est que mon action est le signe qu'Alter choisit C ; elle n'en est pas Quandla stratégiedominantese révèleirrationnelle 135 5 la cause. Le raisonnement hétérodoxe serait coupable de ne pas faire cette distinction. Il constituerait un mode de pensée magique, puisqu'il confondrait le signe et la cause. Que l'affaire ne puisse être tranchée aussi péremptoirement est amplement montré par le paradoxe de Newcomb (cf. encadré 3) qui, mettant également en scène une situation où l'état du monde dépend en probabilité de l'action sans en dépendre causalement, aboutit à un puzzle dont tout le monde reconnaît qu'à ce jour, personne ne l'a résolu. Encadré 3 : Le paradoxe de Newcomb Soit deux boîtes, l'une, transparente, qui contient millefrancs, l'autre, opaque, qui, soit contient un millionde francs, soit ne contient rien. Le choix de l'agent est soit H1 : ne prendre que le contenu de la boîte opaque, soit H2 : prendre le contenu des deux boîtes. Au moment où le problème est posé à l'agent, un Prédicteur a déjà placé un millionde francs dans la boîte opaque si et seulement s'il a prévu que l'agent choisirait H1. L'agent sait tout cela et il a une très grande confiance dans les capacités prédictives du Prédicteur. Que doit-ilfaire ? Une première argumentation conclut que l'agent doit choisir H1. Le Prédicteur l'aura prévu et l'agent aura un million. S'il choisissait H2, il n'aurait que mille francs. Le paradoxe est qu'une seconde argumentation paraît tout aussi décisive, alors qu'elle conclut de manière opposée. Lorsque l'agent fait son choix, il y a ou il n'y a pas un millionde francs dans la boîte opaque : à prendre les deux boîtes, il gagne évidemment mille francs de plus dans l'un et l'autre cas. H2 est donc sa stratégie dominante. Deux tiers des sujets « ordinaires » font le choix H1, qui viole le PCC. Presque tous les philosophes professionnels s'en tiennent à la stratégie dominante H2. ENSOIETDÉVELOPPEMENT 3. LOGIQUE, CONFIANCE ÉCONOMIQUE On connaît la thèse célèbre, en forme de paradoxe, avancée par Max Weber sur les « affinités électives » entre « l'éthique protestante », plus précisément les conséquences éthiques de la doctrine de la prédestination, et « l'esprit du capitalisme (1) Je ne m'intéresse ici qu'à la structure logique de l'argument de Weber, et non à sa validité empirique. En vertu d'une décision divine prise de toute éternité, chacun appartient à un camp, celui des élus ou celui des damnés, sans savoir lequel. Les hommes ne peuvent absolument rien à ce décret, il n'y a rien qu'ils puissent faire pour gagner ou (1) M. Weber,L'Éthiqueprotestanteet l'esprit du capitalisme,trad. fr., Paris, Plon, 1964. Les numérosde pagesrenvoientà cette édition. 136 DÉCISION mériter leur salut. La grâce divine, cependant, se manifeste par des signes. La chose importante est que ces signes ne s'observent pas par introspection, ils s'acquièrent par l'action. Le principal d'entre eux est le succès que l'on obtient en mettant à l'épreuve sa foi dans une activité professionnelle Cette est coûteuse, elle exige de travailler sans relâche, (Beruf). épreuve sans sans jamais méthodiquement, jamais se reposer dans la possession, « de la richesse. La au note est le travail, Weber, jouir répugnance symptôme d'une absence de la grâce. » La « conséquence logique » de ce problème pratique, remarque Weber, aurait « évidemment » dû être le « fatalisme ». Le fatalisme, c'est-à-dire le choix de la stratégie dominante : quel que soit l'état du monde - ici, que je fasse partie des élus ou non -, il vaut mieux pour moi mener une vie oisive. Tout le livre de Weber, cependant, s'efforce et d'expliquer pourquoi comment « la grande masse des hommes ordinaires » a fait le choix opposé. Nous sommes peut-être plus ou moins, que nous le voulions et le sachions ou non, les héritiers de ce choix. Pour la doctrine calviniste populaire, « se considérer comme élu constituait un devoir ; toute espèce de doute à ce sujet devait être repoussée en tant que tentation du démon, car une insuffisante confiance en soi découlait d'une foi insuffisante, c'est-à-dire d'une insuffisante efficacité de la grâce » (p. 134). « Le travail sans relâche dans un métier » (p. 135) était ce qui permettait d'obtenir cette confiance en soi, le moyen de s'assurer de son état de grâce. Le débat qui opposa luthériens et calvinistes est du plus grand intérêt. Les premiers accusaient les seconds d'en revenir au dogme du « salut par les oeuvres », au grand dam de ces derniers, outrés qu'on puisse identifier leur doctrine à ce qu'ils honnissaient par-dessus tout, la doctrine catholique. Cette accusation revient à dire que celui qui choisit de se comporter comme élu raisonne comme si ce comportement était la cause de son élection comportement magique, insiste l'accusation, puisqu'il consiste à prendre le signe pour la chose. Cette accusation n'est autre que celle que de nos jours les théoriciens orthodoxes adressent à leurs adversaires. Où l'on voit que le débat actuel n'est pas seulement ce qu'il prétend être : une défense de la rationalité, et qu'il a des racines théologiques. Cela n'étonnera pas celui qui, se situant dans la tradition durkheimienne, est convaincu que ce que nous appelons Raison trouve son origine dans la pensée religieuse. Je viens d'utiliser l'expression « comme si ». Elle est ambiguë. Si on l'incomme voulant dire conduisent au terprète que les deux raisonnements même résultat, alors l'accusation est fondée, puisqu'en pratique, les deux et même, de façon doctrines, calviniste et catholique, sont indiscernables hautement paradoxale, la doctrine calviniste se révèle beaucoup plus méritocratique que la doctrine catholique (p. 141-143). Mais si l'interprétation est que les puritains prenaient vraiment le signe pour la chose, alors l'accusation devient incompréhensible, et parfaitement Car, montre injustifiée. Weber, le puritanisme ascétique constitue le point final de ce vaste mouvement Quand la stratégie dominante se révèle irrationnelle 137 de « désenchantement » du monde qui rejette " tous les moyens magiques et de sacrilèges » d'atteindre au salut comme autant de superstitions insiste-t-il, qui « a (p. 122). C'est cette conception puritaine de l'existence, veillé sur le berceau de l'homo oeconomicus moderne » (p. 240), donné naissance au rationalisme « l'esprit économique (p. 205) et transformé calculateur » du capitalisme, « de simple moyen économique en un principe général de conduite » (p. 207). On peut, si l'on veut, coller l'étiquette infamante « irrationnel » sur le choix puritain - c'est-à-dire le rejet de la logique de la stratégie dominante. Il faut économique cependant savoir à quoi alors l'on s'expose. Le rationalisme représente pour beaucoup le summum de la Raison dans l'histoire. Sommesnous prêts à braver le paradoxe consistant à le juger... irrationnel ? 4. LOGIQUE ETCONFIANCE ENAUTRUI Considérons la situation Pierre .. C suivante entre deux sujets, Pierre et Marie : Marie · 1 2 D D (0, 0) C (+1,+1) (- 1, + 2) Temps :1 et 2. C : coopération D ; :défection. Un échange mutuellement avantageux entre Pierre et Marie est en principe à savoir le vecteur possible, qui les mènerait de leurs situations actuelles (0,0), dont la première composante représente « l'utilité » de Pierre, et la seconde celle de Marie - à un état (+1, + 1 ) que l'un et l'autre préfèrent. Le problème naît du fait que pour une raison quelconque, l'échange n'a lieu que si Pierre fait le premier pas (C), auquel cas il court le risque que Marie ne fasse pas le second, empochant ce que Pierre lui donne sans opérer de contrepartie (Marie faisant alors D au temps 2, se retrouve avec + 2, laissant Pierre avec - I). Le raisonnement rationaliste affirme que l'échange ne peut se réaliser, alors même qu'il améliorerait le sort de l'un et de l'autre. Partons de la dernière du temps 2 où Marie a la main. Il est rationnel pour elle étape, c'est-à-dire 138 DÉCISION de ne pas jouer son rôle dans l'échange puisqu'elle obtient + 2 en faisant défection, contre + 1 si elle coopère. Au temps 1, Pierre a le choix entre faire le premier pas, auquel cas il anticipe que Marie ne fera pas le second et qu'il se retrouvera avec - l, et ne pas bouger, c'est-à-dire faire D, auquel cas il obtient 0. Donc il ne bouge pas, et l'échange n'a pas lieu. On se dit que ce résultat désolant peut être évité grâce à l'institution de la promesse. Marie, puisqu'elle y a intérêt autant que Pierre, va, à l'instant 0, avant que le jeu commence, s'engager auprès de son partenaire à coopérer en 2 si celui-ci coopère en 1. Peine perdue, selon la logique ! Marie sait bien que le moment venu, c'est-à-dire au temps 2, elle aura intérêt à ne pas tenir son engagement. Pierre, qui peut simuler son raisonnement, le sait également. Marie a beau lui jurer ses grands dieux, elle n'est pas crédible. Pierre ne peut lui faire crédit. Il ne fait donc pas un geste. La confiance est condamnée par la logique. Le rôle crucial que jouent le PCC et la logique de la stratégie dominante dans ce résultat désolant n'est pas immédiatement apparent. Un puzzle inventé par Gregory Kavka, le « puzzle de la toxine », le met brillamment en évidence('). Il faut, pour voir sa pertinence par rapport au problème en cause, considérer qu'une promesse est, en partie, une intention rendue manifeste. Un milliardaire, qui a fait fortune dans les sciences cognitives, vient vous trouver et vous propose le marché suivant : « Vous voyez cette fiole, vous dit-il, elle contient une toxine qui, si vous l'absorbez, vous rendra malade comme un chien pendant deux jours mais ne vous tuera pas et ne laissera aucune séquelle. Si vous avalez le contenu de la fiole, je vous paie un million de dollars. » Vous vous réjouissez déjà de ce deal inespéré, car vous estimez que le désagrément physique sera bien peu de chose en comparaison de la fortune qui vous est ainsi offerte, lorsque votre singulier interlocuteur ajoute ceci : « Ce qui m'intéresse n'est même pas que vous buviez la toxine ; il me suffit que vous en formiez l'intention. J'ai apporté cette machine de mon invention, elle est précisément capable de déceler les intentions. Vous la brancherez ce soir à minuit sur votre cerveau et elle enregistrera alors si vous avez ou non l'intention de boire la toxine demain à midi. Et tenez, je suis bon prince, je n'attendrai même pas que vous ayez bu pour vous donner votre récompense. Si la machine a détecté une intention positive, demain matin, à la première heure, vous trouverez le million de dollars sur votre compte en banque. » Sur ce, le milliardaire vous laisse à vos pensées amères car, en logicien averti, vous n'avez pas tardé à comprendre que le magot qui paraissait à portée de vos lèvres, vous échappe irrémédiablement. Raisonnons selon l'orthodoxie. Demain à midi, que vous ayez ou non trouvé le million de dollars sur votre compte, vous n'avez aucune raison de boire la toxine, et vous en avez une très bonne de ne pas la boire. Le passé (1) GregoryKavka,«TheToxinPuzzle»,Analysis,vol.43, 1,Jan, 1983. Quandla stratégiedominantese révèleirrationnelle 139 est ce qu'il est, et ce n'est pas votre décision qui va le changer. Il existe une stratégie dominante, ne pas boire, et c'est la stratégie rationnelle. Cela, vous le savez dès maintenant, et donc aussi ce soir à minuit. Former une intention n'étant pas un acte volitionnel, il vous est impossible de former l'intention de faire X si vous savez que le moment venu il sera déraisonnable pour vous de faire X. Il vous est donc impossible, ce soir à minuit, de former l'intention de boire, demain à midi, la toxine. Le million vous échappe. On voit l'isomorphie entre le puzzle de la toxine et le problème de la promesse. La toxine, c'est le renoncement de Marie au gain de sa stratégie dominante, faire défection ; le million de dollars, c'est le cadeau que lui fait Pierre en lui passant la main. Marie ne peut en 0 former l'intention de coopérer en 2 parce qu'elle sait que le moment venu, il sera irrationnel pour elle d'agir ainsi. Elle n'aura donc pas sa récompense, à savoir le fait que Pierre lui fasse confiance en faisant le premier pas. Pour sortir de l'impasse, les rationalistes convoquent l'éthique, qu'ils relèguent par là même dans l'illogisme et l'irrationnel. Je ne peux, en conclusion, que manifester deux convictions, qui ont guidé ma recherche de ces dernières années : 1 )renoncer à donner un fondement rationnel à la confiance est une démission inacceptable ; 2) on peut trouver un tel fondement, mais cela exige une reconstruction radicale de la théorie de la décision - laquelle reconstruction ne laisse pas intacte la logique de la stratégie dominante. BIBLIOGRAPHIE DupUYJ.-P., Introduction aux sciences sociales, Ellipses, 1992. DupUYJ.-P., Éthique et philosophie de l'action, Ellipses, 1999. DupUYJ.-P., « Philosophical Foundations of A New Concept of Equilibrium in the Social Sciences : Projected Equilibrium », Philosophical Studies, 1999. Anne Marchais-Roubelat ETIRRÉVERSIBILITÉS DÉCISIONS À propos du supersonique « Pour toute organisation... la notion de stratégie est inséparable de celle d'irréversibilité de grande échelle. » Jacques Lesourne Parmi . les décisions qu'un dirigeant est amené à prendre, beaucoup sont un tourbillon d'activités (Mintzberg, dans 1973), tandis prises rapidement, devoir fortement structurer semblent que d'autres, beaucoup plus rares, l'avenir : pour une entreprise, une OPA par exemple. On considère habituellement que ces décisions sont à l'origine d'un processus nouveau de mise en oeuvre « stratégique », parce que de grande ampleur (Mintzberg, Raisinghani & Théorêt, 1976). On préférera définir ici les « grandes décisions » comme de grande des décisions exceptionnelles qui engendrent des « irréversibilités échelle », l'objet de cette réflexion étant de préciser ce que recouvre cette notion et de l'utiliser dans une optique stratégique. On établira dans un premier temps une typologie des irréversibilités, puis on déterminera celles qui caractérisent une grande décision à partir d'un cas : l'accord international du 29 novembre 1962, par lequel les gouvernements français et britannique à construire commun un en avion le futur s'engagent supersonique, Concorde. Le résumé des événements (annexe 1 ) montre que parmi les décisions les lancement commercial plus marquantes qui se sont enchaînées jusqu'au dans les années soixante-dix, c'est effectivement cet accord qui constitue le plus clairement une « grande décision » : non seulement il a eu un caractère mais encore, en lançant un grand programme qui engageait exceptionnel, ressources financières et qui était stratégique pour les indusd'importantes Décisionset irréversibilités triels de l'époque, il a bien créé une « irréversibilité il s'agira de préciser la nature. 1411 de grande échelle » dont Les théories de la décision et les démarches empiriques qui s'intéressent à la décision comme choix, aux interactions entre les décideurs, ou encore aux processus décisionnels, ne sont toutefois pas adaptées à cette analyse de l'irréversibilité parce qu'elles ne lèvent pas certaines ambiguïtés, notamment celles qui sont dues au déroulement du temps (Marchais-Roubelat, 1999). On examinera donc la grande décision et les irréversibilités qui lui sont liées à l'aide de concepts qui conviennent à la description d'un processus d'action, l'action étant définie comme un processus complexe au cours duquel des acteurs effectuent des choix. Ces concepts, qui ont été regroupés dans l'annexe 2, sont issus de la phénoménologie de l'action mise au point lors de recherches effectuées sous la direction de Jacques Lesourne (Marchais, 1993). Certains d'entre eux, qui justifient la méthode de description des liens entre irréversibilités et décisions, sont présentés dans la première partie. D'autres seront introduits par la suite, en fonction des besoins de l'analyse. À l'aide de ces concepts, on montrera dans un deuxième temps qu'il existe dans le cas du Concorde deux sortes « d'irréversibilités de grande échelle » « une irrégrande décision » : qui permettent de qualifier une décision de à l'échelle de la straversibilité à l'échelle de l'action, et une irréversibilité de grande échelle est tégie des acteurs. La nature de ces irréversibilités différente de celle de l'irréversibilité engendrée par l'évolution des phénomènes après une décision. On analysera ensuite l'intérêt stratégique pour les industriels de provoquer une irréversibilité de grande échelle au moyen d'une grande décision, avant de s'interroger dans une quatrième partie sur les différences entre le cas du Concorde et celui de son éventuel successeur, ainsi que sur les irréversibilités de grande échelle que le projet de supersodu futur est nique susceptible d'engendrer. 1. DÉFINIR L'ÉCHELLE DEL'IRRÉVERSIBILITÉ : LETRANSFERT ETL'IRRÉVERSIBILITÉ STRATÉGIQUE ; '; > ; ; ; ; ; Les études empiriques ont montré que les processus de décision sont extrêmement complexes : les acteurs participent à des processus de choix qui ne à celui annoncé dans la décision finale correspondent pas nécessairement March & Olsen, 1972 ; Brunsson, (Cohen, 1993), leur rationalité est limitée, et leur système d'évaluation perturbé par des biais cognitifs (Meyer & liée aux Rowan, 1978 ; Argyris, 1993). Décrire et analyser l'irréversibilité décisions peut alors sembler d'autant plus difficile que les acteurs participent souvent en même temps à différents processus de décisions. 142 DÉCISION De plus, l'irréversibilité, parce qu'elle marque une discontinuité entre un « avant » et un « après », ne peut s'appréhender que dans la durée. Or, le temps modifie le nombre et la nature des acteurs, ainsi que leurs problèmes décisionnels : dans les années cinquante, l'avion supersonique représente un défi technologique majeur. Dans les années soixante-dix, les hommes et les entreprises ont changé, la préoccupation essentielle devient le coût du programme. Les concepts et les principes d'analyse qui vont être présentés maintenant permettent toutefois de lever ces difficultés (Marchais-Roubelat, 1995, 1998). Au cours d'une action, conçue comme un processus au cours duquel un ou plusieurs acteurs sont susceptibles d'effectuer des choix, on observe l'enchaînement des phénomènes. Si un décideur effectue un choix mais ne l'exprime pas, sa décision reste virtuelle, elle ne constitue pas un phénomène observable. Par contre, dès que le décideur signifie sa décision, il modifie son comportement : cette modification est un phénomène observable. Enfin, la mise en oeuvre de la décision exprimée se traduit par un enchaînement particulier de phénomènes qui modifie le déroulement de l'action à plus ou moins grande échelle. Dans une phénoménologie de l'action, on dissociera complètement ces trois composantes de la décision, alors qu'elles sont habituellement confondues. On nommera acte le changement de comportement d'un acteur, à une condition : il faut que, à la suite de ce changement de comportement, le déroulement de l'action soit modifié. On appellera effet d'un acte la transformation de la trajectoire de certaines variables à la suite de l'acte. L'effet de l'acte et l'acte sont observables alors que la décision, conçue comme un choix particulier (la sélection d'une intention d'acte), ne l'est jamais. Les décideurs sont dans ces conditions des acteurs qui sélectionnent une intention d'acte à la suite duquel l'action sera modifiée. Cette décomposition présente l'intérêt de clarifier les liens entre une décision et les irréversibilités qu'elle est susceptible de produire. Toute décision est réversible jusqu'à ce qu'elle commence à être mise en oeuvre : il est toujours possible de renoncer ou de faire un nouveau choix. Par contre, dès qu'elle commence à être appliquée, la décision introduit une irréversibilité car elle crée une nouvelle situation : pour reprendre l'exemple de l'OPA, à partir du moment où elle est déclenchée, même un abandon ne permet pas de revenir à la situation antérieure. D'une décision à l'autre cependant, cette irréversibilité est extrêmement variable. Sa durée peut notamment varier du court terme (un enchaînement de décisions peut alors permettre de revenir au bout d'un certain temps à la situation antérieure) au long terme (par exemple une fusion-acquisition). Dans la décision de novembre 1962, les gouvernements (décideurs) annoncent une intention commune, mais qui n'est pas encore concrète au moment de la signature de l'accord. Dès que des acteurs commencent à s'organiser pour la mettre à l'oeuvre, des changements se produisent de manière Décisionset irréversibilités 143 concrète, ce sont des effets. À partir du moment où des effets sont observés, la décision annoncée par les décideurs se transforme en acte. L'accord de 1962 est suivi d'au moins deux séries d'effets : - des des décisions de financement... négociations, en oeuvre du projet ; - la construction effective de l'avion. qui organisent la mise de Lorsque l'on a défini la « grande décision » à partir des « irréversibilités une décision et l'acte qui grande échelle », on a associé implicitement exprime cette décision. Pour faciliter la lecture et dans une optique descriptive, comme c'est le cas ici, on pourra continuer à parler simplement de décisions (en sous-entendant des actes) et de leurs effets au cours de l'action. On montrera toutefois que l'observation des effets ne suffit pas à définir ce de grande ampleur susceptible de qualifier une qu'est une irréversibilité décision de « grande décision ». j # Pour analyser la décision dans le temps, il faut la replacer dans le contexte de l'action. Au cours de l'action, un acteur qui doit prendre une décision a tout intérêt à envisager sous des angles différents sa décision, c'est-à-dire son choix, l'acte par lequel il fait connaître cette décision (le moment et la manière dont il la formule, les acteurs auxquels il s'adresse, etc.), et enfin les effets de cet acte. Cet intérêt est d'ordre pratique : au moment où il effectue un choix, l'acteur (le système de prend en compte l'environnement variables transformées l'action ou de la tel transformer) par susceptibles le au fur et à mesure les effets se qu'il perçoit. Toutefois, que produisent, l'environnement ou la perception que l'acteur en avait se modifie, soit parce que de nouvelles variables doivent être prises en compte, soit parce que les trajectoires des effets ne correspondent pas à celles qui avaient été prévues. Il faut par conséquent tenir compte du fait que les phénomènes qui se produisent au cours de l'action, et dont font partie les actes et les effets, dépendent de contraintes qui n'avaient pas nécessairement été perçues au moment de la décision, ou qui ont évolué depuis. On classera ces contraintes à partir des dimensions d'évaluation Ce sont des auxquelles elles appartiennent. dimensions élémentaires commer(technique, économique, politique, Elles exercent résument des de l'environnement. ciale...) qui sous-systèmes des contraintes actuelles ou potentielles sur le comportement d'un ou de plusieurs acteurs et sont susceptibles d'être transformées par un acte ou une combinaison d'actes. L'évolution de ces contraintes est alors susceptible de modifier les données d'un problème stratégique pour un acteur, et parfois même la nature du problème. CI § ) g 3 § o L'évolution de l'action, parce qu'elle modifie les stratégies des acteurs, par dont exemple en modifiant l'ordre de priorité des dimensions d'évaluation elles dépendent, est ainsi susceptible de provoquer une irréversibilité stratégique. Cette irréversibilité, qui est à l'échelle de l'acteur, constitue pour lui une irréversibilité de grande ampleur, dont parfois il ne prend conscience qu'avec retard. [ É § j j DÉCISION 144 Pour analyser l'évolution des contraintes susceptibles d'engendrer des irréversibilités stratégiques dans une action en cours, comme pour prévoir et évaluer des effets à venir, on décompose l'action en phases. Les phases sont des parties du déroulement de l'action pendant lesquelles des relations des règles, restent inchangées. Ces règles sont soit des fondamentales, contraintes de comportement, soit des relations entre les variables. Elles déterminent les durées des phases. Les transformations des règles qui se produisent à l'achèvement des phases sont appelées transferts. Par conséquent, la trajectoire des effets dépend des règles de la phase en cours. Si un transfert se produit, il établit une discontinuité entre deux phases. En modifiant les règles qui conditionnent les trajectoires des effets pendant la durée d'une phase, le transfert crée une irréversibilité à l'échelle de l'action. En résumé, les notions de décision, d'acte et d'effet permettent de décrire les au cours de l'action, tandis que ceux de phénomènes qui se produisent dimension d'évaluation, de phase, de règle et de transfert, permettent d'en analyser la dynamique. Toutes les décisions (actes) engendrent des effets qui dans l'action. D'autre part, tout phénomène provoquent des irréversibilités les de la effets décision) (dont dépend des règles de la phase en cours. Les effets sont donc susceptibles de subir une irréversibilité due à un transfert. On montrera en deuxième partie que l'ampleur des effets ne suffit pas à qualifier l'accord intergouvernemental de 1962 de grande décision. Les seules irréversibilités de grande échelle que l'on peut retenir de manière opérationnelle sont donc le transfert et l'irréversibilité stratégique. 2. ANALYSER LAGRANDE PARL'IRRÉVERSIBILIT DÉCISION ETL'EFFET L'ACTEUR L'ACTION, de grande échelle liée à la décision de construire le L'irréversibilité Concorde sera analysée selon trois niveaux. Le premier est celui de l'action. La décision de novembre 1962 créant de nouvelles règles, elle provoque à ce niveau une irréversibilité de grande échelle, exprimée par le concept de transfert. Le deuxième niveau est celui des acteurs. En modifiant la nature et les données du problème stratégique des industriels (ils sont désormais dans de décider d'arrêter le projet, tandis que leurs enjeux stratél'impossibilité sont modifiés), la grande décision produit une seconde catégorie d'irgiques réversibilité de grande échelle, qualifiée d'irréversibilité Le stratégique. troisième niveau est celui de l'évolution des phénomènes à la suite de la décision, c'est le niveau des effets. On montrera que l'ampleur des effets ne suffit pas à qualifier l'accord de « grande décision ». Les décideurs et britannique, de l'accord s'engagent de 1962, c'est-à-dire les gouvernements français de façon réciproque à respecter une contrainte de Décisionset irréversibilités 1455 durable qui consiste à « respecter l'accord (la construction en comportement commun du TSS) ». Par définition, cette contrainte de comportement est une règle, elle détermine une phase dont la durée est fixée : c'est la durée du projet. Ainsi, en créant une nouvelle phase, l'accord engendre une irréversibilité dans la dynamique de l'action. Il provoque un transfert (modification d'une ou plusieurs règles). Or, les acteurs qui mettront en oeuvre le proles gouvernements ne respecteront gramme n'en sont pas les décideurs : l'accord que parce que les industriels produiront concrètement le supersoest Si la décision mise en c'est oeuvre, nique. grande parce que les acteurs une deuxième à la respectent règle parallèlement première : « les industriels construisent en commun le TSS ». L'accord ne crée donc pas un mais deux transferts simultanés. La durée de la seconde phase est aussi celle du projet. Au moment de l'accord, les gouvernements sur un s'engagent mutuellement programme qui ne sera pas mis en oeuvre par eux. Leur engagement n'est toutefois crédible et efficace que parce que les gouvernements des deux pays sont des acteurs dominants sur les acteurs industriels, c'est-à-dire parce qu'ils sont capables à tout moment de transformer les contraintes décisionnelles des industriels nationaux (dominance forte) ou de modifier les effets faible). Il existe que ces derniers attendaient de leurs décisions (dominance par conséquent une troisième règle, qui exprime le pouvoir durable des gouvernements sur les industriels et qui n'est pas interrompue par l'accord. Selon cette règle : « chaque gouvernement est un acteur dominant sur les acteurs industriels nationaux ». En provoquant un changement de phase (transfert), l'accord intergouvernemental de 1962 a provoqué une irréversibilité à l'échelle de l'action. Cette irréversibilité n'est pas due à l'ampleur de ses effets, mais à la modification de leur mode de production : en transformant certaines « règles » du jeu, la grande décision en a créé un nouveau. ' Les gouvernements différentes de respectent des contraintes décisionnelles celles des industriels, qui seront les exécutants de la grande décision. Les contraintes décisionnelles des gouvernements aux dimensions appartiennent et C'est donc en fonction d'elles diplomatique politique. qu'ils respecteront l'accord ou le remettront en cause. Bien sûr, l'engagement des gouvernements se concrétise par la construction de l'avion et se mesure donc sur les dimensions technique et économique, mais ces dimensions ne contiennent de contraintes décisionnelles pas susceptibles de les amener à remettre en cause la mise en oeuvre du projet. Les problèmes technologiques notamment ne sont pas pris en compte dans l'accord, bien que le projet soit extrêmement innovant. Le jeu stratégique des industriels est alors radicalement modifié car les gouvernements un nouvel ordre des dimenimposent d'importance sions d'évaluation : les dimensions industrielles ne sont plus prioritaires. La grande décision a interrompu le jeu industriel et politique initial entre les industriels et les gouvernements et l'a remplacé par un jeu diplomatique la entre les gouvernements, stratégie des industriels à ce niveau décisionnel 146 DÉCISION étant désormais fixée : la poursuite du projet ne dépend plus que des décisions des gouvernements. S'ils perdent du pouvoir, les industriels gagnent toutefois en contrepartie la garantie de la mise en oeuvre du projet (tant que les gouvernements respecteront leur accord). Désormais, les industriels ne peuvent interrompre le projet puisque les gouvernements se sont engagés sur la production du supersonique... et ils sont contraints de coordonner leurs actes puisque les gouvernements se sont sur la industrielle. Ils en outre au comité engagés coopération participent qui organise et surveille leurs actes. Par lui, ils peuvent jouer sur les modalités de la coopération et sur les caractéristiques du projet. Toutefois, le comité ne les industriels remettre l'accord en intergouvernemental peut pas plus que cause. Pour les industriels, une irréversibilité supplémentaire s'est produite, c'est une irréversibilité stratégique. Elle résulte de ce qu'ils ne sont pas des décideurs de la grande décision mais des exécutants, même si dorénavant ils négocient les modalités de son exécution. L'ampleur des effets aurait-elle suffi à qualifier l'accord de « grande décision », en provoquant une irréversibilité de grande échelle ? L'effet est la transformation de la trajectoire de certaines variables à la suite de l'acte. La transformation la plus radicale est soit la destruction de la variable (sa trasoit au contraire sa création, comme ici la jectoire est alors interrompue), construction du Concorde ou l'évolution du coût du projet. progressive L'accord produit aussi de nombreux autres effets, par exemple la transformation des acteurs industriels. L'effet se produisant dans l'environnement de l'action, il en suit les règles, et pourtant il le modifie aussi en transformant, directement ou par des effets induits, la configuration initiale du système ou les variables qui le composent. L'effet peut alors réagir sur les règles ou sur leur domaine d'application et provoquer ainsi un transfert. L'évaluation d'un effet est toutefois délicate : elle dépend des mesures (critères) choisies et du moment de l'évaluation. Le problème de la mesure constitue à lui seul un domaine de recherche. On a donc choisi d'organiser la discussion à partir de deux effets dont l'ampleur est indiscutable en simplifiant à l'extrême leur mesure, de manière à Le premier pouvoir concentrer la réflexion sur la création d'irréversibilité. est le processus technique de construction du Concorde. Il exprime la production du résultat de la grande décision, sa mesure est binaire : le processus est en cours, ou il est achevé. Le second effet est la croissance du coût du projet, qui constitue un levier essentiel de sa mise en oeuvre, et pour lequel on évoquera simplement quelques ordres de grandeur. L'accord intergouvernemental de 1962 annonce à la fois l'effet recherché la c'est le par grande décision, processus de mise en oeuvre (la construction en commun du supersonique), et son état final (le supersonique proprement La de ce processus dépend des deux nouvelles règles mises dit). dynamique en place au moment de la décision : ce sont les premières irréversibilités étudiées, elles sont à l'échelle de l'action. Cependant, la fin de la phase est aussi Décisionset irréversibilités 147 sera effectivement au moment où le supersonique incluse dans l'accord : achevé, les règles de l'accord deviendront caduques. Dans ce cas précis, on observe que l'effet déclenche bien un transfert, mais l'analyse montre que ce est dû à la nature de l'accord. déclenchement économique et comAprès la grande décision, les dimensions d'évaluation merciale ne peuvent plus interrompre le programme à l'échelle des indusLes triels (la grande décision a introduit une irréversibilité stratégique). et la du supersonique toutefois avec le développement coûts augmentent apparaît sur la scène politique. Le gouvernement question du financement travailliste élu le 25 octobre 1964 décide en effet de réduire les dépenses de prestige, dont celles destinées au TSS. Si le second décideur avait accepté au même moment d'arrêter le projet, celui-ci aurait pu être abandonné. Le gouvernement français, pour lequel la dimension financière n'est pas prioritaire, utilise au contraire l'absence de clause d'abandon pour menacer d'exiger au coût très une indemnisation supérieure prévisible du projet, de l'ordre de En à 3 milliards de francs. 1966 nouveau, quoique connaissant le coût d'une français poursuite du projet (désormais évalué au double), le gouvernement double le financement. Malgré la politisation de la question financière, il n'y a plus de remise en question : le 22 avril 1971, alors que le programme améles gouvernements ricain vient d'être interrompu, français et britannique réaffirment leur décision de construire le Concorde. de la croissance des coûts provoque des effets sur Bien que la médiatisation le jeu politique interne des deux pays, l'ampleur du phénomène ne suffit pas à modifier les règles de l'accord : à aucun moment il n'est lié à des enjeux seul alors que l'accord ne peut être interrompu qu'à ce diplomatiques niveau. Du point de vue de l'action, la croissance des coûts n'engendre pas d'irréversibilité car elle n'en modifie pas de manière significative l'environnement (elle ne transforme ni les règles établies par la grande décision, ni Elle ne remet pas non plus en cause la stratégie leur domaine d'application). initiale des industriels, même si les règles de la négociation au niveau de la Si l'effet est de grande ampleur, les modimise en oeuvre sont réaménagées. fications qu'il engendre à l'échelle du processus et des acteurs ne le sont pas. avaient concordé dans le temps, Si les contraintes des deux gouvernements le projet aurait néanmoins pu être interrompu. Il aurait alors eu une rupture, c'est-à-dire un transfert qui remet en cause l'issue de l'action pour un acteur au moins. Cette remarque entraîne deux conséquences : - l'ampleur de l'effet ne suffit pas, dans la logique de l'action, à définir de grande échelle, donc à qualifier une l'existence d'une irréversibilité décision de « grande décision » ; - sur une dimension d'évaluation si un effet a des conséquences il des décideurs, peut provoquer un transfert. pour prioritaire Par conséquent, l'ampleur des effets n'est pas un bon critère pour qualifier une décision de « grande décision ». D'une part, l'irréversibilité engendrée 148 DÉCISION par le supersonique n'est pas due à l'ampleur du projet mais au changement D'autre part, les très de phase (transfert) qu'il provoque mécaniquement. fortes critiques auxquelles est soumis le financement du projet ne suffisent pas à le remettre en cause. De plus, outre les difficultés de mesure, le recul du temps incite à relativiser cette notion : pendant plusieurs années le coût du projet en a occulté les autres aspects. Alors que l'on évoque actuellement on insiste désormais sur le succès technologique un nouveau supersonique, du Concorde... de 1962 ne peut L'analyse du cas montre que l'accord intergouvernemental des de d'effets s'il modifie façon durable, donc s'il prorègles que produire Par de un ailleurs, le transfert modifie voque changement phase (transfert). radicalement le problème stratégique des acteurs industriels. Ces deux modide grande échelle. Les effets de l'acfications établissent des irréversibilités cord (les nouvelles trajectoires des variables) traduisent ensuite dans les faits À terme, ils sont susceptibles de les ces irréversibilités qui les conditionnent. remettre en cause. Toutefois, ils ne permettent pas de qualifier une décision de « grande décision ». APPLICATIONS L'IRRÉVERSIBILITÉ : 3. CRÉER STRATÉGIQUE semble avoir de construire un supersonique La décision franco-britannique les les les solutions et les décid'un où décideurs, enjeux, émergé processus sions se rencontrent de manière un peu chaotique. Son contenu lui-même semble aberrant : la décision organise la répartition des rôles entre les industriels, mais elle ne tranche pas entre les options moyen et long courrier. Enfin, le projet a été maintenu jusqu'au bout malgré une organisation partiet une croissance culièrement peu efficace d'un point de vue économique affolante des coûts, ce qui a justifié quelques années plus tard le qualificatif de « décision farfelue ». Néanmoins, on montrera que cette grande décision a pu constituer un objectif stratégique dans une logique de gestion du risque de grande échelle, dont on discutera ensuite par la création d'irréversibilité les intérêts et les inconvénients. sont les exéde 1962, les constructeurs Après l'accord intergouvernemental cutants mais plus les décideurs du projet de supersonique. Or, la mise en oeuvre de ce projet (un des effets de la grande décision) est stratégique pour Il existe donc une inégalité stratégique des eux, pas pour les gouvernements. acteurs. Quand, comment et jusqu'à quel point notamment l'avionneur SudAviation, dont les enjeux étaient stratégiques et qui a été éliminé des décideurs, a-t-il contrôlé la genèse et les suites de la grande décision dans le cas du Concorde ? Décisionset irréversibilités 149 Dans les années cinquante, deux projets concurrents sont envisagés à SudAviation pour remplacer la Caravelle : la super Caravelle supersonique, exploit technique, sur lequel on ne sait rien, ou le gros porteur, baptisé « grosse Julie », et dont les compagnies aériennes sont demandeuses. Si les dimensions commerciale et industrielle sont prioritaires, le premier projet n'a aucune chance. En effet, les industriels doivent faire face à leurs risques : comment garantir leur pérennité économique sur un projet qui d'une part des investissements très mais dont d'autre part ils ne lourds, exigera connaissent même pas les caractéristiques techniques ni les débouchés commerciaux ? Par ailleurs, la faiblesse de l'industrie française rend nécessaire une coopération internationale, ne serait-ce que du point de vue technoloLes tentatives construire un supersonique avec les États-Unis et gique. pour l'Italie ont échoué. Restent les Britanniques. Tout le problème consiste alors à éliminer le risque économique en garantissant de façon durable à la fois la sur le projet et son financement. Seuls les États peuvent coopération contraindre les acteurs industriels à coopérer et garantir le financement d'un projet dont on ne connaît ni les débouchés ni même la faisabilité technique. En France, la stratégie des tenants du supersonique consiste à reporter le proen éliminant les compagnies jet de gros porteur à une date ultérieure aériennes des négociations, et à créer, avec la tutelle, un réseau d'alliances C'est ce que traduit l'enchaînement des décifavorable au supersonique. sions qui précède l'accord : 1) un accord décideurs, concurrent ciation ; dont la BSEL et la SNECMA sont les technico-économique en relation étroite avec les tutelles. En France, le projet de gros porteur a été reporté et Air France éliminé de la négo- 2) un accord purement technique entre les bureaux d'études de Sud-Aviation et de BAC. Fin décembre 1961, l'avion n'est toujours pas défini ; de 1962. Les décideurs sont les gouvernements, 3) l'accord diplomatique les industriels, acteurs dominés, mettront en oeuvre cet accord. Pour eux, le problème stratégique change d'échelle et de nature. Il concerne désormais la négociation des caractéristiques de l'avion ainsi que le partage des compétences et du financement associé. , Bien que l'accord de novembre 1962 apparaisse comme un transfert brutal, l'ordre des décisions qui le précèdent traduit la façon dont l'enchaînement des dominances des décideurs prépare progressivement l'irruption des nouvelles règles. À l'échelle de l'acteur Sud-Aviation, la signature de l'accord intergouvernemental apparaît alors comme un objectif, préparé par une strales autres dimentégie. Cette stratégie a consisté à éliminer progressivement sions d'évaluation, d'une part en rejetant du processus décisionnel des acteurs comme Air France, d'autre part en orientant l'enchaînement des décisions successives qui ont conduit à la grande décision. Ainsi, les contraintes décisionnelles des acteurs se transforment au fur et à mesure que les décisions successives font intervenir des acteurs dominants sur les pré- 150 DÉCISION cédents : les motoristes sont dominés par les avionneurs, les gouvernements sont dominants sur l'ensemble des acteurs. À chaque accord, les décideurs, qui sont en l'occurrence les acteurs dominants, imposent leurs critères décisionnels. Une fois l'objectif atteint, les enjeux sont radicalement modifiés. Dorénavant, les dimensions technique, économique et commerciale ne sont plus prioritaires. Le risque initial disparaît, le financement du projet est garanti. Il reste le risque de son interruption, puisque l'irréversibilité dépend des enchaînements de décisions à venir des gouvernements. Toutefois, ce risque est extrêmement faible : il faut que les deux gouvernements acceptent au même moment d'interrompre le projet, car un seul décideur ne suffit pas à rompre l'accord. Les décisions successives des industriels ont préparé la grande décision des gouvernements. L'accord de 1962, replacé dans ce contexte, est autant un objectif stratégique que l'origine de la mise en oeuvre du programme. Le premier problème de Sud-Aviation était commercial : il s'agissait de remplacer un produit (la Caravelle) dont les débouchés semblaient limités. Désormais, la production du TSS est une contrainte. Elle s'accompagne toutefois d'une garantie de financement, quels que soient les coûts engendrés par les problèmes techniques et quels que soient les futurs débouchés commerciaux. Pour Sud-Aviation, la grande décision de 1962 a créé une irréversibilité stratégique dans la mesure où, en tranchant entre les deux solutions possibles (gros porteur ou supersonique), elle a aussi modifié les données du problème stratégique initial : les incertitudes techniques et commerciales n'engendrent plus de risque économique. Cette stratégie est complexe car son objectif la dépasse : pour faire le projet, Sud-Aviation amène progressivement l'acteur dominant à lui imposer certaines contraintes (dans ce cas particulier, la contrainte est la production du supersonique dans le cadre d'une coopération internationale). Une telle stratégie d'acteur dominé a des inconvénients, en particulier le risque que l'acteur dominant impose des contraintes supplémentaires. Son principal avantage (ou inconvénient, selon le moment ou le point de vue) est que le processus devient pratiquement incontrôlable après le transfert. DUFUTUR : 4. DUCONCORDE AUSUPERSONIQUE REPORTÉE L'IRRÉVERSIBILITÉ De même que l'on n'a pas développé en première partie l'analyse du programme américain concurrent du Concorde, on ne développera pas ici les projets concurrents du supersonique européen du futur. Il ne s'agit pas en Décisions et irréversibilités 1 151 effet d'une véritable étude stratégique, mais plus simplement de poser les jalons d'une analyse des conditions d'apparition d'irréversibilités de grande échelle au sein de l'environnement dans lequel s'amorce peut-être aujourd'hui le projet de supersonique européen. Le problème stratégique qui se pose actuellement aux constructeurs est, comme dans le cas du Concorde, d'origine commerciale : il est lié à la structure et à l'évolution du transport aérien et des demandes des compagnies aériennes. Toutefois, l'environnement de l'action est désormais très différent de celui de la fin des années cinquante. La stratégie en faveur du Concorde avait rendu nécessaire l'élimination au cours de la phase précédant l'accord du projet concurrent (la « grosse Julie ») et de la dimension commerciale avec notamment l'absence d'études de marché préliminaires et l'isolement des compagnies aériennes. Ce n'est qu'après l'accord que le projet de gros porteur voit le jour avec le GIE international Airbus. Depuis, les différents acteurs ont évolué, certains ont disparu, d'autres sont apparus. Actuellement, si les gouvernements restent des acteurs dominants comme décideurs politiques et partenaires financiers, l'intervention de la Commission européenne rend plus complexes leurs relations avec les constructeurs. Le secteur s'est entre-temps concentré (Aérospatiale est issue de la fusion en 1970 de Nord-Aviation, Sud-Aviation et SEREB : Société pour l'étude et la réalisation d'engins balistiques). Les constructeurs ont désormais une taille et une maîtrise technologique qui leur procurent les moyens d'exercer à leur tour une dominance autre que faible sur les gouvernements. Ils ont en outre acquis sur d'autres programmes une expérience qui les a rendus capables d'organiser directement entre eux une coopération sur le projet supersonique : en 1994, Aérospatiale, British Aerospace et DASA ont signé un protocole d'accord afin de conduire en commun un programme de recherche supersonique (ESPR : European Supersonic Research Program). , Avec l'affaiblissement relatif de la dominance des gouvernements et la capacité acquise par les industriels d'être des décideurs, les dimensions d'évaluation industrielle et économique sont prioritaires. Sur ces dimensions d'évaluation, l'État n'apparaît plus comme décideur, même s'il reste dominant. Par contre, la taille des groupes représente un enjeu stratégique. L'absorption de Lockheed par Boeing, ou la croissance et le changement de statut du GIE Airbus, ainsi que le récent décret de privatisation d'Aérospatiale, témoignent de ces évolutions. Pour les décideurs des programmes, c'est-à-dire les constructeurs, la dimension commerciale est essentielle : d'elle dépendent les contraintes techniques et industrielles qui détermineront les coûts des projets, le choix des partenaires et des alliances. D'elle dépendent avant tout les débouchés. Réduire le risque suppose alors d'établir la meilleure adéquation entre la DÉCISION 152 demande et l'offre, au moindre coût. durable, elle détermine une phase. C'est une règle de comportement La stratégie des constructeurs consiste dans ces conditions à minimiser le coût des contraintes imposées par les autres acteurs ou négociées avec eux sur la dimension commerciale par la recherche de synergies, d'économies À d'échelles ou d'envergure, des choix de partenariat et d'organisation... l'inverse du cas du Concorde, la participation des compagnies aériennes est des dernières années comd'autant plus stratégique que les restructurations binées à la dérégulation de l'espace aérien en font des décideurs à part entière. Les compagnies introduisent des contraintes qui leur sont propres, de fornotamment la réduction des coûts d'exploitation (de consommation, de la mation des pilotes...) et une demande cyclique (liée au renouvellement flotte et à l'évolution des marchés). Les contraintes imposées par d'autres acteurs (les aéroports et les différents opérateurs de réseaux, les instances sont aussi intégrées au projet. régulatrices... ) L'évolution du marché, avec notamment le développement du trafic transles à à terme deux catéconduit constructeurs envisager moyen pacifique, de concurrents : le gories projets gros porteur (superjumbo pour Boeing ou A3XX pour Airbus), ou le supersonique (notamment les programmes américain HSCT - High-Speed Civil Transport et européen ESPR). Actuella s'effectue à partir d'une famille soit le renouvellement de flotte lement, on ce vers semble tendre soit existante, produit un plus gros quoi Boeing, de demande : c'est le le projet de l'A3XX. Ce proporteur pour prochain pic le tôt les acteurs concernés, notamment les compajet intègre plus possible aériennes et les La dimension gnies aéroports. technologique n'y crée pas de en la contraintes décisionnelles de remettre cause prééminence susceptibles de la dimension commerciale. Les échéances du supersonique sont reportées aux cycles suivants : de 2005, date prévue pour la cessation d'activité ou tard... Concorde, 2010, peut-être plus Par rapport au cas du Concorde, il y a donc inversion dans le temps de d'abord un gros porteur qui resl'ordre de priorité des deux programmes : des autres acteurs sur la dimension commerciale pecte les contraintes (notamment en ne remettant pas en cause les installations aéroportuaires), ensuite peut-être un supersonique. Ces choix industriels s'inscrivent dans la et respectent la phase actuellement en stratégie générale des constructeurs, cours. Au contraire du cas précédent, il s'agit pour les industriels de contrôler à chaque instant la progression du projet, qu'il s'agisse du gros porteur, actuellement le plus avancé, ou d'un éventuel supersonique : si, le projet avançant, les ordres de grandeur des dépenses annuelles augmentent, il faut pouvoir arrêter le processus ou obtenir des garanties supplémentaires de sa faisabilité économique. À l'inverse du cas du Concorde, les enchaînements de décisions conduisent par conséquent à reporter dans le temps l'irréversibilité du projet. Décisionset irréversibilités 153 ont conduit à une évode l'environnement En définitive, les modifications lution des relations de dominances entre les acteurs. Les constructeurs deveen est désormais nant des décideurs des projets, la dimension commerciale cours de laquelle les au une actuellement, phase prévaut prioritaire. Enfin, constructeurs cherchent à établir la meilleure adéquation entre la demande et l'offre, au moindre coût. À l'inverse du Concorde, il s'agit dorénavant d'impliquer le plus tôt possible tous les acteurs de la négociation commerciale et de les faire participer aux décisions jusqu'à la fin du projet, afin d'éviter une stratégiques qu'elle grande décision et les transferts ou les irréversibilités ne semble donc pas le projet de supersonique provoque. Actuellement, devoir provoquer de transfert, ni d'irréversibilité stratégique, tant qu'il ne commerde la dimension d'évaluation remet pas en cause la prééminence ni ciale et qu'il ne contraint pas à reformuler la stratégie des constructeurs, ' à remettre en cause leur rôle de décideurs. de grande échelle sont susceptibles En dehors du projet, des irréversibilités de croissance des liées à la dynamique court à d'être envisagées terme, avec les autres de dominance de leurs relations et à l'évolution constructeurs on acteurs. Par ailleurs, pourrait imaginer qu'à plus long terme, les priorités se modifient, par exemple que les contraintes stratégiques des constructeurs des aéroavec l'encombrement plus importantes techniques redeviennent s'il était suffisamment avancé, serait-il ports. Le projet de supersonique, sur une dimension d'évaluation alors susceptible d'avoir des conséquences prioritaire pour les décideurs ? En supposant que le projet actuel aboutisse, on peut enfin se demander ce que seront les principales règles suivies par les ne serait pas suset si un supersonique acteurs et par leur environnement, le moment là de à ce aérien, provoquant alors système déséquilibrer ceptible mais aussi non seulement des irréversibilités peut-être des stratégiques, transferts. 5. CONCLUSION ; 3 '. ; ; ; ; ; ; ' Parce que la grande décision infléchit l'action, son étude constitue un moyen un aspect essentiel la notion d'irréversibilité, d'aborder qui représente du Concorde, si la Dans le cas de la difficile à étudier stratégie. quoique discontinuité stratégique pour les industriels, grande décision engendre une acteurs son fonctionnement qui l'ont préparée et qui apparaît complexe : les la mettront en oeuvre n'en sont pas les décideurs. Il faut donc chercher à la logique du processus plus vaste dans lequel elle s'insère et comprendre doit s'analyser dans la durée même que l'on appelle action. L'irréversibilité lorsqu'elle est engendrée par une grande décision, car celle-ci ne marque pas seulement une coupure, mais aussi une continuité. 154 DÉCISION de grande L'exemple du Concorde a mis en exergue deux irréversibilités échelle : l'irréversibilité le de et l'irréverpar changement phase (transfert), sibilité stratégique. La première est à l'échelle de l'action, elle est associée au concept de transfert. La seconde est à l'échelle des industriels, elle est due à une modification de leur problème stratégique. Dans le cas particulier du l'irréversibilité Concorde, pour les industriels est due au fait que leurs contraintes techniques et commerciales ne peuvent plus être des causes d'interruption. Par contre, les gouvernements français et britannique ont eu au en et de revenir sur leur décision commoins deux occasions, 1966 1971, mune. Les différents acteurs de l'action sont donc inégaux face à l'irréversisi les industriels subissent désormais des bilité stratégique. Toutefois, contraintes décisionnelles très différentes de celles qui ont motivé leur stratégie avant l'accord, ils ont largement contribué à provoquer l'irréversibilité par une stratégie d'acteurs dominés. Car si la grande décision leur a enlevé du pouvoir, elle a aussi rendu possible un projet qui n'aurait pas abouti autrement. de grande échelle Outre le fait qu'il cumule deux formes d'irréversibilités une décision seulement un trans(on pourrait envisager grande qui provoque ou seulement une irréversibilité certains fert, acteurs), l'acstratégique pour cord établit plusieurs transferts simultanés. De manière générale, les comme les irréversibilités sont et la transferts, plus progressifs, stratégiques, transitoire doit alors faire d'une période l'objet analyse particulière. A contrario, l'intérêt de ce cas réside dans sa clarté : en créant de manière immédiate des irréversibilités de grande échelle, la grande décision a permis de décomposer ce concept en distinguant l'irréversibilité à l'échelle de l'action (le transfert), et l'irréversibilité stratégique à l'échelle des acteurs, et de mettre en exergue que l'ampleur des effets d'une décision ne suffit pas à la qualifier de grande décision. La définition initiale des « grandes décisions » comme des décisions exceptionnelles de qui engendrent des « irréversibilités une grande grande échelle » peut désormais être complétée et précisée : décision est une décision (un acte) qui crée un transfert ou une irréversibilité stratégique. L'environnement a beaucoup évolué depuis la fin des années cinquante, et les constructeurs sont devenus les décideurs des projets. Ils les conçoivent et les enchaînent de manière à maintenir la phase actuelle, donc à reporter la création d'irréversibilité. On pourrait désormais, en utilisant la méthode de et de l'action employée dans le cas du Concorde, envidescription d'analyse des scénarios de changements de sager stratégiques à partir d'hypothèses à venir et où les irréversibilités de échelles résulphases grandes pourraient ter de grandes décisions, mais aussi se produire au cours d'enchaînements de décisions. , .. Les concepts de la phénoménologie de l'action conduisent ainsi à proposer une grille d'analyse des irréversibilités essentiellement fondée sur les enchaînements des décisions des acteurs et sur les règles de l'action. Ils 1555 Décisionset irréversibilités ouvrent des perspectives d'applications stratégiques, où « la stratégie est la conduite de processus d'action qui structurent les choix futurs, qui créent des irréversibilités » (Jacques Lesourne). BIBLIOGRAPHIE ARGYRIS C., Savoir pour agir. Surmonter les obstacles à l'apprentissage tionnel, Paris, Interéditions, éd. originale 1993. organisa- BRUNSSONN., « Ideas and Actions: Justification and Hypocrisy as Alternatives to Control », Accounting, Organizations and Society, vol. 18, n° 6, pp.489-506, 1993. COHENM.D., MARCHJ.G. & OLSEN, J.P., « A Garbage Can Model of Organizational Choice », Administrative Science Quarterly, vol. 17, na 1, pp. 1-25, 1972. LESOURNEJ., Économie de l'ordre et du désordre, Paris, Économica, 1991. LESOURNEJ. « La notion d'enjeu stratégique », note au comité de la prospective d'EDF, novembre 1994. MARCHAISA., « Décision et action. Proposition de concepts et analyses de cas », thèse de doctorat en sciences de gestion, CNAM, 1993. MARCHAIs-RoUBELAT A., « Modélisation et complexité : de la décision à l'action », Revue française de gestion, 102 : 102-105, 1995. MARCHAIS-ROUBELAT A., « Le rapport à l'autre dans le temps : le jeu et l'action », in Gestion et théorie des jeux : regards croisés, Thépot J. éd., Paris, Vuibert, 1998. MARCHAIS-RoUBELATA., « L'articulation dans le temps des décisions individuelles et organisationnelles », Gestion et décision, ESUG, 1999. MEYER J.W. & ROWAN B., « Institutionalized Organizations: Formai Structure as Myth and Ceremony », American Journal of Sociology, 83 (2) : 341-363, 1978. ; MINTZBERGH., « The Nature of Managerial Work », New York, Harper and Row, 1973. 3 3 MINTZBERGH., RAISINGHANID. & THEORETA., « "The Structure of Unstructured" Decision Processes », Administrative Science Quarterly, vol. 21, pp. 246-275, 1976. i. i. ] 3 s ) 156 DÉCISION ANNEXE1 Rappeldes événements À la fin des années cinquante, l'idée de construire un avion de transport supersonique (TSS) mûrit parallèlement en France et en Grande-Bretagne. En 1959, une première proposition du gouvernement anglais de construire en commun un avion supersonique n'obtient qu'une réponse réservée du gouvernement français devant « l'ampleur du projet ». Pourtant, en France, le directeur de Sud-Aviation est persuadé qu'il faut trouver rapidement le successeur de la Caravelle. À peine SudAviation, l'avionneur, commence-t-il à collaborer avec la SNECMA, le motoriste, en liaison étroite avec le ministère du transport, que des rencontres sont organisées entre Sud-Aviation et BAC (British Aircraft Corporation), son homologue anglais, pour mettre au point une politique industrielle cohérente. En 1960-61, des pourparlers en vue d'une collaboration ont lieu entre les deux pays, mais ils n'aboutissent à aucune décision. Parallèlement, les industriels poursuivent des négociations en vue d'une éventuelle collaboration et en 1961 le dossier est ouvert en France, tandis que la pression est maintenue sur le gouvernement britannique. Fin 1961, après un débat à la commission des transports sur l'avenir de la Caravelle, le dossier technique de Sud-Aviation, bien défendu au ministère des Finances, est accepté. Le 28 novembre, un accord a lieu entre les motoristes anglais BSEL (Bristol Siddeley Engines Limited) et français : SNECMA. Le gouvernement français décide le lendemain d'entreprendre les négociations avec le gouvernement britannique. Finalement, un accord est signé le 25 octobre 1962 entre les avionneurs des deux pays (Sud-Aviation et BAC). Un peu plus d'un mois après, le 29 novembre 1962, la France et l'Angleterre s'engagent mutuellement à construire « en commun » un avion supersonique. Fin 1964, la collaboration industrielle organisée après l'accord est remise en cause par une crise entre les deux gouvernements. Cette crise se résout début 1965, mais la « campagne » anti-Concorde commence dès 1966, jusqu'à la concrétisation du programme à partir de 1971 (le premier Concorde de série est achevé fin 1973). 157 Décisionset irréversibilités 2 ANNEXE Glossaire acte : changement de comportement d'un ou de plusieurs acteurs, à la suite duquel le déroulement de l'action est modifié. action : processus au cours duquel un ou plusieurs acteurs effectuent des choix successifs. décideur : acteur qui prend une décision, c'est-à-dire qui sélectionne une intention d'acte à la suite duquel l'action sera modifiée. décision : sélection d'une intention d'acte par un acteur. dimension d'évaluation : dimension élémentaire résumant un sous-système de l'environnement qui exerce une contrainte actuelle ou potentielle sur le comportement de l'acteur ou sur celui d'autres acteurs et qui est susceptible d'être transformé par les effets d'un acte ou d'une combinaison d'actes. dominance faible : caractéristique d'un acte d'un acteur dominant, dont certains effets transforment les effets virtuels que l'acteur dominé attend de son propre acte. dominance forte : caractéristique d'un acte d'un acteur dominant, dont certains effets transforment des contraintes décisionnelles sur un acteur dominé. effet d'un acte : transformation de la trajectoire de certaines variables à la suite de l'acte. environnement : la transformer. système de variables transformées par l'action ou susceptibles de phase : partie du déroulement de l'action durant laquelle des relations fondamentales du système restent inchangées. Il y a changement de phase lorsque l'une ou plusieurs de ces relations sont transformées, soit par suite d'influences exogènes, soit par suite d'actes. règle : contrainte de comportement ou relation entre les variables valable pendant une phase. rupture : transfert qui remet en cause l'issue de l'action pour un acteur au moins. transfert : transformation d'une ou plusieurs règles, qui se produit à l'achèvement d'une phase. Jacques Thépot LETIERS DANSLADÉCISION sur la place du tiers dans la décision peut surprendre. Si la déciS'interroger sion a un sens c'est parce qu'il existe un décideur pleinement identifié dans sa liberté de choix et ses préférences. Certes, dans tout système organisé, son espace de choix est contraint par celui des autres et des interdépendances se manifestent ; il ne saurait être question, au demeurant, de confondre l'individu et son contexte. Mais nous le savons bien, dans le concret de l'action collective, toute décision se réfère au tiers, soit parce que la décision vise à influencer les autres, soit parce qu'elle est soumise au jugement d'autrui, soit, enfin, parce qu'elle s'élabore sous le regard de celui qui conseille et éclaire le choix. L'influence, le jugerrcent et le regard sont ainsi les modalités les plus immédiates par lesquelles le tiers intervient dans la décision. Dans ce texte, nous allons explorer ces trois modalités en empruntant le chemin de traverse de la théorie micro-économique, science de la décision Nous de la de excellence. crête, nous risquerons par éloignant parfois ligne incursions dans le monde tel est. Le qu'il genre littéraire des quelques et la fidélité à la autorise une telle démarche intellecMélanges promenade tuelle de Jacques Lesourne nous y invite quelque peu. 1.. L'INFLUENCE La microéconomie traite des influences que les agents s'infligent mutuellement à travers les échanges : dans les situations de concurrence parfaite, ces 159 Le tiers dans la décision influences déterminent le calcul des prix et des quantités mais, bien évidemment, la conscience que les agents ont de celles-ci n'est pas prise en compte. Elle n'a d'ailleurs chaque agent se détermine pas lieu d'être : à l'équilibre, en fonction des prix qu'il observe sur le marché, dans un type de décision myope. plus le cas lorsque l'on examine des situations de concurrence imparfaite. L'agent économique arrête sa décision en prenant en compte son impact sur la décision d'autrui. L'influence s'inscrit dans ce que l'on appelle l'interaction stratégique. Tel n'est Chacun connaît l'histoire des Robinsons suisses : c'est la version suisse et protestante de Robinson Crusoë où l'on voit un pasteur échouer avec femme et enfants sur une île déserte et y vivre paisiblement grâce aux bienfaits que le Créateur offre dans sa nature. Cependant, pour y parvenir, il leur faut se nourrir. Comment attraper toutes ces noix de coco accrochées au plus haut des cocotiers lorsque l'on n'a ni corde, ni échelle ? Heureusement qu'il y a ces singes, qui se balancent au sommet des arbres ; il suffit alors au pasteur et à son fils de lancer quelques pierres en leur direction ; les singes, sentant la menace, ripostent derechef en renvoyant ce qu'ils ont sous la main, c'està-dire des noix de coco. Ainsi se trouve assurée au centuple la subsistance de nos Robinsons suisses car ils ont eu foi dans le principe de l'interaction stratégique... ' 1.1 l l'interactionstratégique dans la théorieéconomiquede l'entreprise une importance accorde aujourd'hui économique de l'entreprise dans toute structure aux interactions stratégiques s'exerçant primordiale mettant en jeu les partenaires de l'entreprise et que l'on appelle, dans la littéune industrielle rature, une organisation (Tirole, 1988). Schématiquement, dans les industrielle est un agents système économique lequel organisation subissent deux types d'interactions : La théorie - des interactions horizontales de concurrence par exemple concurrence à la Cournot, - des interactions verticales tions de leader-follower. entre agents de même statut, entre agents de statut différent, dans des situa- Le traitement qui est appliqué dans ces deux types de situations est celui de la théorie des jeux, qui permet d'unifier tous les modèles classiques, d'en des agents à des saisir les liens et de ramener l'analyse des comportements concepts standards. Nous pouvons illustrer ceci à propos du second type en montrant la filiation entre le modèle de monopsone et le d'interaction modèle principal-agent. Cette filiation est parfaitement explicite lorsque l'on se réfère à la notion de contrat.. DÉCISION 160 une d'un employeur à un salarié proposant simple de ce dernier offrir deux niveaux travail, que puisse en heures de travail, avec L > L2 et qui correspondent L 1 et exprimées à des profits Pl et P2 pour l'entreprise (avec P2). Soient wl et W2 les désutilités du travail subies par le salarié dans ces deux situations marginales Partons d'un modèle embauche. Admettons enfin que le salarié est en mesure de (avec W2). On supposera d'embauche si celle-ci lui assure un revenu non positif la proposition dont de monopsone, de réserve nul). Il s'agit d'un modèle simplifié à un est à une transformation mathématique près, qu'il équivalent, refuser (salaire on sait modèle de monopole. / ; oui , / L2 ; ( 1 / 1 / to'ol / . / Li / / non j j Figure 1 : Monopsone Trois types - Modèle de modèles être distingués. peuvent horaires ; 1 : le monopsone standard. se présente alors le modèle représenté figure 1. Il est clair salaire supérieur pour un de L'équilibre P2 - Nash wZL2 Le contrat sous à w2. de travail la forme que le contrat n'est stipule un salaire en trois étapes par le salarié que du jeu accepté > = Posons LI de et standard ce IW2, oui, jeu L21 est sinon (où s est L2 } arbitrairement si petit). e Modèle du Le salaire horaire 2 : le monopsone discriminant. dépend sens la notion de contrat au niveau de travail réalisé. On retrouve pleinement à l'étape 1 est alors un doublet IS 1S2 de Arrow-Debreu. Le contrat annoncé , 1, un niveau de travail où s; est le salaire proposé Li, i = 1,2. Le contrat pour si est alors IIWI oui, LII P2 - w2L2, d'équilibre sinon. oui, L21, IIWI,W2 + El, 0 avec aléa moral. Le salaire le monopsone discriminant du niveau de profit et la relation entre le travail et profit ce cas, si désigne le salaire appliqué lorsque le niveau de neutre au risque. Une est Pi. Pour simplifier, le salarié est supposé 4 vient s'ajouter au jeu, comme indiqué sur la figure 2. Soit x (resp. y) Modèle 3: dépend simplement Dans est aléatoire. profit étape Letiersdans ladécision 161 la probabilité que le profit soit Pl sachant que le niveau de travail est L j (resp. L2). On suppose que x > y, de sorte que le profit le plus élevé a une probabilité plus forte d'être réalisé lorsque le salarié travaille LI heures. Soient ?.,? et , les les salaires pour x-y x-y lesquels l'agent est indifférent (en termes d'espérance d'utilité) entre les trois situations : Pl, P2 et le refus du contrat. On montre que le contrat oui, Ld si : d'équilibre du jeu s'écrit fis**+ e, W2L2, (x - y) (Pl oui, Z,2}. sinon. Ils**, s2* 1 1 1l 1 11 : , l :oui ... 1 ( : non ; / / l. , , {0,0} . x 1-x : ", oui (si S21' j :. (1) 1 1 : ; y / 1 ; ;, 1-Y (s2, j, Figure2 : Monopsone discriminantavec aléa moral Le dernier modèle représente une relation d'agence, relation verticale dans laquelle chaque agent économique dispose d'un pouvoir de décision autonome : l'entreprise est dans la position du principal, le salarié dans celle de l'agent. Le niveau de travail de ce dernier est assimilé à une variable d'effort que le principal n'observe pas, d'où l'asymétrie d'information ; le contrat d'équilibre, lorsque la condition (1) est satisfaite c'est-à-dire lorsque l'effort maximum correspond à l'intérêt du principal, est alors un contrat incitatif car il pousse l'agent à agir dans le sens voulu par le principal. 1.2 Larelationd'agence,principerégulateurde l'entreprise Dans les dernières années, la théorie micro-économique a accordé une place prépondérante à l'analyse des relations d'agence dans divers contextes : relations entre client et fournisseur, grossiste et détaillant, actionnaires et dirigeants, employeur et employé, administration fiscale et contribuable. 162 - DÉCISION Pour autant, les relations d'agence ne concernent pas toutes les structures organisationnelles. e Les relations d'agence ne sont pas réductibles à des relations d'autorité l'on rencontre dans les structures hiérarchiques telles conventionnelles, que un orchestre symphonique, un détachement de la garde républicaine ou une équipe de bobsleigh. e Elles sont difficilement dans des organisations envisageables plus dans lesquelles se déroulent des complexes avec des relations multilatérales, jeux de coalition et s'exercent des rétroactions (structure de réseaux). Cette précaution étant admise, la relation d'agence représente un principe industrielles régulateur assurant le pilotage des organisations par combinaison et réplication de contrats incitatifs noués localement entre acteurs. Toute décision y est contrat, parce que contingente aux réalisations des acteurs situés en aval. Ainsi est-on amené, dans la littérature, à définir l'entreprise comme un noeud de contrats organisé autour de deux relations principales : - la relation entre les dirigeants et le groupe des actionnaires, s'exprimant dans des règles de gouvemance d'entreprise, - la relation entre vendeurs et clients, se déclinant à l'intérieur de la structure par application du principe du pilotage aval. Cette conception est intéressante par la conclusion qu'on en tire : dans une telle configuration n'est pas l'acteur dominant ; il tripolaire, l'entrepreneur n'est jamais en situation d'agir comme si les actionnaires et les clients n'existaient Cette double tension fait de pas. l'entreprise l'organisation possédant en soi des meilleures facultés d'adaptation, grâce aux mécanismes incitatifs qui l'empêchent de se replier sur elle-même. La défaillance survient souvent à un moment où l'équipe dirigeante, par inexpérience ou usure du pouvoir, cesse de situer l'entreprise dans une perspective extérieure. 1.3 Larelationd'agencedansle systèmeadministratif On peut s'interroger sur la validité de cette conception pour des organisations autres que l'entreprise, les systèmes bureaucratiques en particulier. Nous nous limiterons ici à quelques observations concernant le système administratif Le moins dire c'est la relations français. qu'on puisse que n'en est le Le d'agence pas principe régulateur. système français reste formellement et car l'incitation ne fait pas partie de hiérarchique myope notre culture administrative. Donnons trois exemples : · Le contrat incitatif le plus simple est celui de la tarification publique qui joue sur l'élasticité de la demande. En effet, la tarification constitue un mode de régulation tout à fait classique pour traiter des problèmes de biens Letiersdans la décision 163 publics ; il pourrait être envisagé, par exemple, pour limiter la circulation automobile dans les villes les jours de pics de pollution. La mise en place combinée d'un dispositif de péages à l'entrée des villes et de parkings urbains avec une modulation des tarifs en fonction du taux de pollution serait probablement plus efficace que les systèmes de circulation alternée. Assez curieusement, ce type de réglementation n'a même pas été étudié par les pouvoirs publics lorsque la question s'est posée. Utilisée depuis des décennies à la SNCF ou à EDF pour gérer les problèmes d'heures creuses, la tarification incitative n'a toujours pas franchi la porte du ministère de l'environnement. C'est peut être l'occasion de relire le Calcul économique de Jacques Lesourne (en particulier le chapitre 14 dans lequel un modèle de tarification des parkings est présenté). e Le caractère incitatif de certaines disposions d'ordre social est limité, quand il ne joue pas dans l'autre sens. L'articulation entre minima sociaux et salaire minimum est source de trappe à pauvreté : ceci signifie que les taux marginaux d'imposition dépassent les 100 % pour les bas revenus, par le jeu des seuils définissant les allocations sous conditions de ressources (cf. Bourguignon, 1998). Aucun mécanisme n'incite à l'insertion, de sorte que toute politique de redistribution est inefficace. a La gestion des emplois dans l'Éducation Nationale est régie par le statut de la fonction publique. Comme on le sait, la rémunération des enseignants est mécaniquement liée à l'ancienneté et l'appartenance à un corps ; elle ne comprend aucune incitation visant à l'amélioration de la pédagogie et l'actualisation des connaissances. Dans les universités, l'incitation à la recherche n'opère que de manière ponctuelle, à l'occasion de l'entrée dans un corps. Mais l'Education Nationale est loin d'avoir le monopole de ce fonctionnement ; dans le système administratif français, seule compte l'appartenance au groupe et l'on y travaille plus pour les uns que pour les autres. Fort heureusement, la coïncidence est plus fréquente qu'on ne le pense ; c'est peut être ce que l'on appelle le service public à la française, mais le miracle va-t-il perdurer ? La réforme de l'État passe par la mise en place de mécanismes incitatifs et de systèmes de gouvernance moins autocratiques. En définitive, une bonne décision publique se ramène toujours à une histoire de Suisses, de singes et de noix de coco. - 2. LEJUGEMENT ' Il n'y a pas de décision sans jugement externe, sans évaluation, c'est-à-dire sans un indicateur objectif proposé au décideur pour mesurer les conséquences de ses choix. Nous commencerons par regarder successivement de 164 DÉCISION traite la question ; nous explorerons quelle façon le marché et l'organisation enfin comment le problème de l'évaluation est abordé dans le cadre de la théorie micro-économique et les enseignements que l'on peut en tirer. 2.1 L'évaluationdans le marché L'économie de marché offre un cadre idéal pour traiter la question de l'évaluation, puisque, comme on le sait, le système de prix qui résulte de la confrontation de l'offre et de la demande sur tous les marchés attribue une valeur aux biens. Ainsi, par le système de prix dont il est porteur, le marché est autant une instance d'évaluation de ressources. Le prix qu'un système d'allocation du marché est un référent extérieur par lequel je vais évaluer mon action. Si les clients désertent mon magasin, si les lecteurs boudent mes livres ou si mon audimat diminue, cela signifie que la prestation proposée ne vaut pas le prix, l'effort ou le temps demandé. Vraie ou fausse, cette évaluation est Dans le monde portée par le marché, de sorte que nul ne peut la contester. de la concurrence pure et parfaite, le commissaire-priseur joue le rôle du tiers évaluant. Par construction, il est incorruptible. En définitive, l'économie de marché est un système dans lequel nul n'est son propre évaluateur. En résumé, l'évaluation est (i) non manipulable (ii) exogène, car elle résulte de la confrontation des préférences d'agents économodifier les prix, libres au demeumiques qui ne peuvent individuellement rant d'acheter ou de vendre comme ils l'entendent. Et, dans un tel système, les outsiders ont autant de poids que les insiders. . 2.2 L'évaluationdans l'organisation Le rôle de l'organisation est de régler les échanges de biens et services qui se réalisent en dehors du marché, soit en raison de coûts de transaction, soit pour assurer des missions d'intérêt collectif. Le problème de l'évaluation, » résolu dans le qui, comme nous venons de le voir, est « naturellement cadre du marché, reste posé dans le monde de l'organisation. Les décisions doivent être évaluées par des institutions prises au sein des organisations créées à cet effet. Deux risques - au demeurant compatibles peuvent alors survenir : - le risque de manipulation, lorsque l'évaluation certaines organisations ou groupes sociaux, est biaisée au profit de - le risque de l'auto-référence, n'est pas exogène car lorsque l'évaluation il n'y a pas indépendance entre ceux qui prennent les décisions et ceux qui vont les évaluer. Letiersdansla décision 165 Illustrons l'un et l'autre sur des exemples tirés du système administratif français. La manipulation La question de la valeur du salaire minimum se pose dans toutes les économies des pays développés. Comment se calcule-t-elle ? - Dans une économie de marché, la question est réglée : aucun entrepreneur ne bénéficie de situation de monopsone lui accordant un pouvoir de marché en matière de fixation des salaires qui, de ce fait, sont toujours égaux aux productivité marginales du travail. Les conditions de fonctionnement du marché de l'emploi déterminent, à chaque instant et en tout lieu, le salaire en dessous duquel, pour une qualification donnée, personne n'accepte de travailler. Emerge ainsi toute une gamme de salaires minimum s'ajustant en fonctions des conditions économiques et techniques et qui, en particulier, dépendent du taux de chômage. - Dans une économie où un salaire minimum interprofessionnel unique est aucun mécanisme de marché n'en fournit la valeur. Une institution imposé, va se substituer au marché pour effectuer cette tâche. En France, c'est l'État en cheville avec les organismes paritaires, qui fixe annuellement la valeur du SMIC. Cet attelage, composant maîtresse de ce que Jacques Lesourne appelle l'oligopole social, ne peut que traduire les préférences de ceux qu'il représente. Le résultat, c'est une évolution du SMIC fortement liée au calendrier électoral et qui procède d'un compromis favorable aux insiders du système : l'augmentation du SMIC est suffisamment forte pour assurer un accroissement des salaires dont profitent ceux qui ont un emploi ; elle ne l'est pas trop pour, à la fois, maintenir les marges des entreprises et préserver la hiérarchie des rémunérations à laquelle sont attachés les salariés. Ce mode de calcul du SMIC surestime les intérêts des uns au détriment de ceux des autres (les chômeurs). En ce sens, il y a manipulation. - Peut-on imaginer un autre dispositif institutionnel ? Observons que le marché de l'emploi non qualifié est d'abord une réalité régionale concrétisée par l'existence de bassins d'emplois. Dans ces conditions, on pourrait envisager de confier au conseil régional la tâche de fixer annuellement le salaire minimum en vigueur dans la région. Instance élue, celui-ci aurait, en la matière, une prérogative économique d'importance, dont il devrait rendre compte auprès du corps électoral dans son entier (chômeurs compris). Les conseillers régionaux seraient amenés ainsi à débattre sur le fonctionnement du marché du travail afin d'évaluer l'impact économique de leurs décisions d'une année sur l'autre. Pour alimenter leurs réflexions, ils auraient tout à gagner à faire de bonnes lectures sur le sujet, en particulier l'ouvrage de Jacques Lesourne, Vérité.%.et mensonges sur le chômage... Moins manipulable, un tel dispositif a des vertus auto-éducatives. 166 DÉCISION L'auto-référence Revenons à l'Éducation Nationale. Il est intéressant d'analyser le rôle des corps d'inspection (inspecteurs pédagogiques régionaux, inspecteurs d'académie et inspecteurs généraux), statutairement chargés de l'évaluation des maîtres. Dans ce domaine, il est notoire que les inspecteurs disposent de marges de manoeuvre bien maigres pour encourager ou sanctionner les personnels enseignants. Ils notent, c'est tout. N'ayant plus guère de grain à moudre de ce côté-là, les corps d'inspection sont devenus au fil du temps les régulateurs de l'ensemble du système éducatif. Dans la pérennité, ils exercent une influence déterminante sur les concours de recrutement, les créations de filières ou de postes, les mutations, enfin et surtout sur les programmes. Et qui dit programmes, dit manuels. Ainsi, nous est offert un système industriel assez original. En symbiose étroite avec de grands éditeurs, les corps d'inspection de l'Éducation Nationale participent directement ou indirectement la réalisation des manuels, rythmant à leur guise les modifications de programmes génératrices de nouvelles éditions. Nous avons là un exemple de filière intégrée unique au monde, isomorphe à la hiérarchie : les utilisateurs (les élèves et leurs parents) paient sans choisir, les prescripteurs (les professeurs) choisissent sans payer, les producteurs (les inspecteurs) élaborent le cahier des charges. Et, last but not least, chacun note celui qui le suit dans la filière. Dans un domaine aussi essentiel que le contenu des enseignements, le système éducatif s'est installé dans l'autoréférence : le processus de décision y est indissociable du processus d'évaluation. Et ne posons pas la question de savoir qui inspecte les inspecteurs... On pourra se consoler en observant que des situations du même ordre se rencontrent dans d'autres sphères du système administratif et que, après tout, la France s'en accommode. 2.3 Lesenseignementsde la théoriemicro-économique ., Sur cette question de l'évaluation, les développements récents de la théorie micro-économique nous offrent quelques éléments prometteurs. Dans une relation d'agence du type de celle considérée dans le modèle 3, comment caractériser les risques de manipulation et d'auto-référence ? La manipulation Dans le modèle 3, nous avons considéré que tous les paramètres du problème étaient connaissance commune du jeu et, en particulier, que le principal était parfaitement informé des désutilités de l'agent Imaginons que, dans une phase préliminaire du jeu (étape - 1), ce dernier soit invité à révéler au principal la valeur de wj (w2 étant supposé connu, pour simplifier). Va-t-il annoncer la vraie valeur wi ? Il est assez facile de voir que l'agent a intérêt à manipuler l'information en annonçant une désu- Letiersdans la décision 167 tilité coi = [w2L2 + (x - y) (Pj - P2)]/LI, (avec WI), valeur pour la relation est une Dans ce le contrat cas, (1) laquelle égalité. d'équilibre du est encore les salaires et + s, oui, L;}, jeu si s2'* étant bien sûr Ils** calculés avec W¡. L'agent obtient alors un paiement espéré wi)Li tandis que le principal réalise Pl - ù) 1 L 1 + x(P! - P2). Il y gain pour l'agent et perte (d'un même montant) pour le principal. Comment empêcher la manipulation de l'information ? Un mécanisme assez simple peut être envisagé : il consiste à introduire un autre agent, identique au premier, mais honnête. Si le principal ne peut proposer qu'un seul contrat de travail, alors il a intérêt à proposer le contrat conforme aux caractéristiques de l'agent honnête. Au terme d'une sorte de concurrence à la Bertrand (cf. Thépot, 1995), l'agent « tricheur » se voit obligé de révéler la vérité. Ce résultat suggère que, dans une organisation industrielle, la concurrence (réelle ou potentielle) entre unités de décision situées en aval est un facteur favorisant la transparence de l'information et, par là même, la justesse de l'évaluation. Cette affirmation rejoint le principe implicitement révélé à propos du salaire minimum, selon lequel ce sont les outsiders du système qui empêchent les insiders de manipuler l'évaluation à leur profit. L'auto-référence La tentation de l'auto-référence est ici celle du principal, lorsque celui-ci est garant de l'exécution du contrat. Dans le modèle 3, il est clair que rien n'oblige le principal à honorer son engagement, c'est-à-dire à verser les salaires s* et s2* selon que le niveau de profit est Pl ou P2. En l'absence d'une instance indépendante de vérification des clauses du contrat, le principal est à la fois juge et partie ; et, dans un tel contexte, l'agent ne peut accepter le contrat de sorte que la relation d'agence ne s'exerce pas. Cette question de la vérifiabilité des contrats, qui occupe une place importante dans la littérature récente (voir Hart, 1995), est essentielle pour le fonctionnement des organisations et, notamment, des entreprises. Des institutions indépendantes doivent être mises en place pour valider les résultats des unités de décision, afin que les contrats soient menés à bonne fin. À l'évidence le système français souffre d'un déficit de telles institutions : - le système judiciaire est trop lourd pour régler tous les litiges survenants à l'occasion des transactions et des échanges qui se nouent instantanément dans une société de l'information où tout va très vite ; - le droit français est fondé sur des textes et non sur une appréciation jurisprudentielle de principes généraux, comme le droit anglo-saxon (common law), de sorte qu'il s'adapte difficilement à des situations nouvelles non prévues par les textes ; - l'État est le premier à renier sa parole et à ne pas honorer ses contrats. Combien de lois n'ont-elles jamais été suivies de décrets d'application ? 168 DÉCISION Avec la mondialisation de l'économie, la question de la vérification des contrats revêt une importance particulière. C'est probablement la forme de coordination internationale la plus urgente à mettre en place, bien au-delà des questions de politique économique ou de traitement de la pollution : que se passerait-il ou une si, un jour, suite à un embrouillamini systémique aucun contrat ne pouvait être conclu parce que les chiffres machination, apparaissant sur l'écran n'ont plus de sens et que la confiance a disparu ? 3. LEREGARD La théorie économique est fondée sur la décision individuelle. L'idéal type n'est autre que Robinson Crusoë, décideur rationnel par excellence ; ce Robinson-là avec autrui. Il est peut élaborer ses choix sans interférence maître de ses actes et de leurs conséquences. Le principe de rationalité enrichi la théorie classique, ne change rien limitée, qui a considérablement à ce schéma : comme on le sait, ce principe postule que les capacités cognitives du sujet sont défaillantes ou contraintes de sorte que celui-ci se trouve des choix possibles ou de les hiérarchiser. incapable de cerner l'ensemble Ceci étant, on reste dans le monde du décideur individuel. Robinson a perdu sa longue-vue, c'est tout. . Ce présupposé ne rend pas compte de l'expérience courante ; même s'il s'en défend par fierté, l'homme d'action sait qu'aucune décision ne se prend dans la solitude absolue. Comme le saint Antoine peint par Jérôme Bosch, le solitaire vit sous l'empire de l'affectivité, de l'inquiétude ou de l'enflure. Il est donc incapable d'organiser dans la durée un choix libre, même s'il disposait de toute l'information nécessaire. Ce qui fait obstacle en effet à la décision ce sont les éléments du comportement humain qui échappent à rationnelle, la raison et empêchent l'individu de mettre en relation l'acte et les conséquences, plus encore, semble-t-il, que les limitations cognitives. Formulée en ces termes, cette affirmation rejoint la question que les philosophes grecs ont posé à propos de la tyrannie. Le tyran, en effet, est celui qui gouverne selon ses pulsions, son bon plaisir ou celui d'une faction. Que faire pour en vue du bien commun ? Et la réponse est qu'il agisse rationnellement raison que s'il consent à écouter le philosophe, à simple : il n'entendra débattre avec lui. En définitive, c'est la mise en regard de l'individu avec un tiers, entité l'affranchit des spirituelle, morale ou intellectuelle, qui, progressivement, pesanteurs et l'ouvre à une démarche rationnelle par laquelle il sera en situation de décider. Peut-on concevoir une rationalité sans altérité ? Non, sans Cette doute, dès lors que le regard du tiers fonde la décision rationnelle. à laquelle tout psychothérapeute n'a guère de observation, souscrirait, Letiersdans la décision 169 répondant dans une théorie économique trop éloignée des données de la psychologie. Reste à savoir de quoi est fait ce tiers qui accompagne, épaule et invite au discernement. La vie collective a besoin de lieux d'échanges, de sociétés savantes et de communautés académiques pour tenir ce rôle. Mais peut-être faut-il d'abord que le sage, dont la bible dit qu'il est « une oreille qui écoute », trouve sa place dans notre société. BIBLIOGRAPHIE BOURGUIGNON, F., Fiscalité et distribution, Conseil d'Analyse Économique, La Documentation Française, 1998. HART,O., Firms, Contracts and Financial structure, Clarendon Press, 1995. LESOURNE, J., Le calcul économique : théorie et applications, Dunod, 1972, 2éd. LESOURNE, J., Vérités et mensonges sur le chômage, Odile Jacob, 1997, 2éd. THÉPOT,J., « Bertrand Oligopoly with Decreasing Returns to Scale », Journal of Mathematical Economics, 24, 689-718, 1995. TIROLE,J., The Theory of Industrial Organization, MIT Press, 1988. Heiner Müller-Merbach FIVECONCEPTS UNDERSTANDING OFHOLISTIC GENERALISTS ASCRITICAL SUCCESS FACTOR OFNATIONS WITH 1.. A GENERALIST'S FIVETRIPLES OFMENTAL COPING WHOLES: A "SYMPHONY OFFIVEWALTZES"? A Generalist tends to see everything through a broader concept, to understand any part through its embedding system, to look at any detail from a whole. A generalist does not get lost in a thicket of single elements, because he senses the unity above the elements. He is a top-down thinker. Leaders in any field - statesmen, top managers, directors, presidents, conductors, coaches etc. - ought to be generalists, at least to some extent; and even specialists who comprehend their field of competence within a holistic frame may be the more competent specialists. Leaders are scarce (possibly in any nation), partly because generalists are scarce. The competence in coping with wholes indicates a person as a generalist, and generalists - in their qualification and in their quantity - can be seen as "critical success factor" of nations, as they will be seen here. The generalist's qualification can be trained, at least to some extent, and it depends on any nation's education system to emphasise (or not) holism, thinking in networks of interdependence, conceiving reality as systems. Five tripartite concepts of holistic understanding shall be presented here (table 1). They should be seen in the context with political and economic leaders. Generalistsas CriticalSuccessFactorof Nations 1711 FiveConceptsof HolisticUnderstanding: Trefoil of development: The development of our world can be understood from the viewpoint of continuous interdependence between technological progress, economic growth, and social change. Each of these components influences each other component (section 3). Triad of geo-economics: The interdependence mentioned can be observed in any nation, but it becomes particularly obvious in the geoeconomic triad: Europe, North America, and Southeast Asia (section 4). Tripod of institutions: There is global competition within the geoeconomic triad - i.e. between Europe, North America, Southeast Asia and all other nations. The competition is not only carried by the enterprises, but also by the states, represented by the public authorities, as well as by the individuals, economically represented by the private households (section 5). Trident of intelligence: The competitive strength of the nations - as it will be argued here - depends upon their organizational intelligence (01), and 01 includes three components: information, knowledge, and opinion (section 6). Trinity of action: Information, knowledge, and opinion are the triggers of action, and three kinds of action will be considered here in idealised separation: technical action, pragmatic action, and ethical action, following Immanuel Kant (section 7). These are the five terminological concepts, and they are related to one another. The five concepts come - is it accidental? - in triples, like five waltzes in a musical arrangement. Table 1 :Morphological box of five tnples as structural frame of this contribution Triple Components Trefoilof development: Technological progress Economicgrowth Socialchange Triadof geo-economics: Europe America SoutheastAsia North 1 of Public authorities Tripod institutions: Enterprises 1 Households Tridentof intelligence: Trinityof action: Information KnowledgeOpinion Technicalaction Pragmaticaction Ethicalaction 2. DEDICATION TOJACQUES LESOURNE This contribution is a dedicated to Jacques Lesourne who celebrated his 70th anniversary on 26th December, 1998. 172 DÉCISION Prof. Lesourne contributed to many fields reflected in this contribution. He is an economist, and he transferred his economic understanding to many fields, such as management of enterprises (such as in his book Technique économique et gestion industrielle) and management of public authorities (such as in his book La gestion des villes). He emphasised the importance of education for the competitiveness of nations (such as in his publication Éducation et Société). He gave thought to the relations between nations and their enterprises (such as in Le pouvoir de l'État et le pouvoir des entreprises). He also saw the economic processes from a global point of view (such as in The Management of the World Economy). He included ethical questions into economic and political strategies (such as in Éthique et stratégie pour les Français des années 1980). This contribution is an attempt to honour Jacques Lesourne in that a "symphony of five waltzes" will be tried to compose. 3. THETREFOIL OFDEVELOPMENT: INTERDEPENDENCE BETWEEN TECHNOLOGICAL ECONOMIC PROGRESS, ANDSOCIAL CHANGE GROWTH, The industrial and post-industrial world develops in a continuous interdependence between technological progress, economic growth, and social change (Müller-Merbach, 1988). This interdependence is a network (figure 1) and not a directed chain in the sense of: technological progress causes economic growth, and economic growth causes social change. Any of the three components (taken as sets of many subsets) has influence on the two other components, e.g.: social change can reinforce technological progress, such as by curiosity, openness for change, and demand pull attitudes of the citizens, as well as impede technological progress by doubt, "angst", objection, and complacence. Technologicalprogress 1 1 Economicgrowth Socialchange 1 Figure1 :Networkof interdependencebetween technologicalprogress, economic growth,and social change FiveConceptsof HolisticUnderstanding: Generalistsas CriticalSuccessFactorof Nations 173 In order to conduct and control national and international development are required who deeply understand this processes, generalists interdependence. They have to bring together (i) scientists and engineers who contribute to the technological progress with (ii) economists and business people who know how to transfer technology into wealth and with (iii) social scientists who not only understand society, but who are also able to design and operate society and their groups. Even if the interdependence between technological progress, economic growth, and social change has been considered and mentioned by several research. Kondratieff authors, there exists still a lack of interdisciplinary cycles for instance concentrate on the influence of technological progress on economic growth, but do not include social change. Many economists, such as Garten (1993), Porter (1990), Thurow (1993), concentrate on economic competitiveness and growth, but pay little attention to technological progress and social change. The interdependence can be spelled out for whole fields of technology, i.e. the information and communication technology, as well as for smaller sections of technology, e.g. text computing, or for any single technological contribution, e.g. Pentium chips. According to the arrows (figure 1), technological innovations, such as those mentioned, (i) require economic strength on the one hand and are (ii) the source for further economic growth on the other hand; at the same time, such technological innovations are (iii) the output of the social willingness and enthusiasm for new technology on the one hand, and the new technology may (iv) continue to change society on the other hand. In addition, economic growth will (v) change society, i.e. the individuals' attitudes and behaviour, on the one hand, and society, i.e. the individuals' readiness for competition, is (vi) a source for further economic growth on the other hand. These mechanisms can be projected to any macro and micro field of technology. Such projections are instructive if applied to the past. More important are the future oriented projections, in particular those which serve the purpose of strategy development for enterprises and nations. ' Leadership - in politics, enterprises, etc. - depends upon the understanding of the interdependence between technological progress, economic growth, and social change. It is the author's firm belief that those nations are in comparative advantage in which the leaders are generalists in this sense. The education in this direction can start very early, i.e. in the kindergarten and in the grammar school and can be continued through all levels of lifelong leaming. This requires change of the education systems in most nations where engineers are trained to become good engineers, and economists are trained to become good economists etc., and it seems as if - worldwide little attention is paid to the virtue of such interdisciplinary generalism. 174 DÉCISION 4. THETRIADOFGEO-ECONOMICS: NORTH EUROPE, ANDSOUTHEAST ASIAASCOMPETITORS AMERICA, With Ohmaes book Triad Power (1985) a new understanding of geoeconomics was bom: global players, i.e. global enterprises, have to be in North present in all the three most influential regions, i.e. in Europe, or extended: Southeast Asia. In these regions, the America, and in Japan choir of economic growth will be conducted. Most investigations into the of nations concentrate on these three advantage regions since competitive nations of these regions, respectively) such as (or on the representative Schmietow ( 1988), Porter ( 1990) with his Competitive Advantage of the United States, Japan and Korea as well as Germany, United Kingdom, Italy, and Sweden, Garten (1993) with his Cold Peace between Switzerland, America, Japan, and Germany, Thurow (1993) with his Head to Head battle among Japan, Europe, and America and - forthcoming Vogel (1999) with his international race of technology. But it is not only economic growth; the triad is also ahead in technological innovations progress as well as in social change. Most of the technological have their cradle in Europe or in North America or in Southeast Asia. And the social change seems to occur much more rapidly in the triad regions than elsewhere: How many individuals began to learn how to handle PCs and as a ratio of the How many individuals have absolutely population? access to the World Wide Web? How many individuals use e-mail? It seems as if social change in this sense - i.e. induced by technological progress - is carried by a larger proportion of the population in the triad regions than elsewhere. The geo-economic dominance of the triad can be measured in many such as world trade traffic dimensions, flow, capital transactions, information etc. Behind the scene there is serious connections, flow, competition for rapid technological progress, for more economic power and growth as well as for purposeful change of society as carrier of further development. Most competitors in the world are representatives of the triad regions. This does not only apply to economics and the competing enterprises, but also to areas - to the sports and culture as well as - beyond such event-oriented value system. The dominance of the triad can be studied by analysing the past. More important, again, is the outlook into the future. No nation or region is permanently entitled to have a seat within the triad. Instead, any nation and region has to struggle continuously for its position in the triad. FiveConceptsof HolisticUnderstanding: Generalistsas CriticalSuccessFactorof Nations 175 5 The triad regions are quite different in many aspects, for instance (figure 2): Europe: The value system of Europe has old traditional roots. Most of the Europeans are Christians (some practising, many in abstention). The Europeans have the same philosophical history - from the pre-Socratics, . the Greek classic, stoicism, the "Fathers", the "Schoolmen", renaissance, but the strongest enlightenment, positivism, existentialism, etc. influence might have had Aristotle, the father of the sciences. Europe has a great variety of languages, but many of the most important ones are closely related to each other. Europe has a strong regional core with the 15 member states of the European Union plus a similar number of other nations. The population is dense. Southeast Asia: Southeast Asia has traditional value systems as well, based upon long national histories. It is stamped by a variety of religions, including several branches of Buddhism. The most influential philosopher was Confucius. Due to the many and quite different languages, communication is difficult. Geographically, the single nations are spread over a wide area with much sea in between (e.g. Japan, Korea, Taiwan, Singapur, Hongkong, Malaysia, Thailand). The population is dense. North America: Contemporary North America has a history of just over 200 years; so has its value system, influenced by many different roots. . Christian religions are predominant, even if all the great world religions are represented by major groups. Insofar the influence of natural and engineering sciences is concerned, again Aristotle can be considered as the most influential philosopher for North America. Only one language, English, is prevalent even if some Spanish, some French, some Chinese and a variety of many other languages is practised. There are only two countries, the United States and Canada; the population is thin. ; j j > ; ( 1 ' ; s / ' ) Southeast Asia V: Traditional R:Variety I:Confucius L: Many, different C: Spread P: Dense Europe V: Traditional R: Christians 1 : Aristotle L: Many, related C: Strong core (EU) P: Dense North America V: Young Mix R: Chriiticiiib ++ Christians -t-t1: Aristotle L: One ++ C: USA + Canada P: Thin Figure 2: The triad of geo-economics - Europe, North America, Southeast Asia (V= Valuesystem;R = Religion;1= Mostinfluentialphilosopher;L= Languages; C = Centralisation; P = Population) 176 DÉCISION Leaders in politics and business of the require a deep understanding three regions of the triad - and their nations. This includes familiarity with their political structures and processes, their education systems, their economic structures and processes, their societal systems including the It is the values, attitudes, beliefs - now and in their historical development. author's firm belief that the deep familiarity with the similarities of the between the regions is fundamental for regions and with the différences success in compétitive between the triad regions. Again, the processes of the triad can start with the kindergarten and the grammar understanding school and continue through all levels of education. 5. THETRIPOD OFINSTITUTIONS: COOPERATION BETWEEN PUBLIC ANDHOUSEHOLDS ENTERPRISES, AUTHORITIES, The competition within the geo-economic triad - i.e. between Europe, North America, and Southeast Asia - is a subject of the whole nations (or the overnational and the nations include many different regions, respectively), institutions as players. The institutions shall here be assembled in three (ii) the state, represented groups: (i) the enterprises, by the public and (iii) the individuals, authorities, economically represented by the households (figure 3). Enterprises Fnrerpr/ses provide goodss ? create goods contribute create wealth to the theGNP GNP /ÎÉ'Î'/ £ 'P °Y people PY wages/salaries ? pay interest taxes, etc. par L· Public authorities , 11(.. ?· provide enact lawinfrastructure a collect taxes . maintain order · provide education keep international relations the citizens protect . employ people etc. pay wages/salaries, Households provide labour · earn wages/salaries · buy goods consume · save money to invest . elect leaders, etc. t Figure 3: The tripod of institutions - enterprises, public authorities, and households FiveConceptsof HolisticUnderstanding: Generatistsas CriticalSuccessFactorof Nations 177 The three institutional groups may be dominated by different directions of interest and may, therefore, be considered as if they were enemies. However, they can as well be understood as cooperators, unified by the shared will to survive and to win. It is any individual's own decision to understand his or her nation as a conglomerate of groups who fight each other - or as a team of groups who strive jointly competing with external competitors. Furthermore, it is in the power of any leader to either encourage internal fight - or to discourage it and find agreement on common internai goals while concentrating all the energy on extemal competition. It depends on the leaders within the institutional groups (figure 3) whether they consider the other groups as enemies or cooperators. In the first case, the group representatives may put first priority on their feuds with the other groups and forget their common goals. In the latter case, they tend to "pull the same rope"; there is basic harmony between the groups even if they have partly conflicting goals, but they try to solve their internal conflicts within the frame of underlying harmony. Some politicians as representatives of the public authorities speak and act as if the enterprises were the enemies of national wealth. Other politicians speak and act as if they despised or loathed their citizens - as individuals and/or as a mass. Some employers give the impression as if they considered their personnel as second-class beings and treat them accordingly. Other managers and business leaders seem to be convinced that the public authorities are their natural enemies. Finally, some individuals seem to suspect any employer guilty of exploitation. Others may be in continuous confrontation with the public authorities, in principle. All those persons mentioned do not really understand the distribution of roles in a nation. ' 9 - As a matter of fact, the three groups depend on one another and are united by national duties and goals. The three groups play different roles and will certainly have different particular objectives in detail. Anybody who has insight into the interdependence will tend to accept that any group's objectives have in the long run the greatest chance to be satisfied if the three groups jointly try to cooperate and support each other. This does not and should not prevent the outbreak of particular conflicts, but may help to solve the conflicts in a fair way and with acceptable results. The understanding of the desirability of cooperation between the three groups can be reinforced by studying the past. More important is the future oriented awareness; actions are required taken in the understanding of the necessity of such cooperation. Leaders in politics and business have to understand the different roles of the groups. It is the author's firm belief that nations will be in comparative advantage the leaders of which think in terms of mutual support between the three groups. They ought to be able to help design and operate the national system of division of roles between enterprises, public authorities, and households. 178 DÉCISION 6. THETRIDENT 0F INTELLIGENCE: MANAGEMENT 0F INFORMATION, ANDOPINION KNOWLEDGE, There are only a few nations which are wealthy because of their natural resources. The (potential) wealth of the majority of nations depends on their intellectual which shall hitherto be called "organizational strength (01), according to Matsuda (1992, 1993). It shall here be intelligence" understood as a nation's capability to develop and apply competence. OI of a nation is quite a complex concept, and abstention from any attempt to try a general definition is recommended here. However, 01 shall be structured by the three components: and opinion information, knowledge, (1998). In agreement with Matsuda, (figure 4), according to Müller-Merbach information shall be understood as purposeful data. Information can be stored on paper, in computers, and in the human brain. In this sense, information does not require it can be instead, any understanding; In contrast, knowledge memorised. shall be understood here as a much in accordance with Mittelstrass (1992, higher form than information; shall be understood as p. 228), a contemporary philosopher, knowledge to teach". in this sense requires "ability Knowledge understanding. refers to "objective and proofs included" facts, grounds Knowledge 1992, p. 228). However, (Mittelstrass people do not act because of information or knowledge only; mostly, people decide and act according to their opinion. Opinion cannot be proven to be true, but should be plausible. Opinion reflects belief, conviction or subjective certainty (Mittelstrass 1992, p. 229). The difference between knowledge and opinion is an old philosophical discussed Plato 427-347 (ca. B.C.), Kant (1724-1804; particularly topic, by etc. The distinction between information and knowledge 1786), Mittelstrass, Information = Purposeful data (Computers, paper, human brain) Knowledge based upon understanding, "objective facts" (Human brain only) Opinion based upon belief, conviction "subjective certainty" (Human brain only) Figure 4: The trident of intelligence - information, knowledge, and opinion FiveConceptsof HolisticUnderstanding: Generalistsas CriticalSuccessFactorof Nations 179 is of the same age and was one of the central themes in Plato's dialogue "Phaedrus": Phaedrus suggests to write down speech, but Socrates rejects (in his terms) to reduce knowledge to information. Mittelstrass added a new warning in that we are all in the danger of becoming "information giants" and "knowledge dwarfs". Leaders in politics and business, researchers, teachers, etc., do not - in a physical sense - deal with material, with products, with machinery, with energy, with money, not even with people. Instead, they deal with information, knowledge, and opinion about material, products, machinery, energy, money, and people. They do not touch the physical things; instead, what they touch is information, knowledge, and opinion. This is the essence of the 01 approach: leadership is management of information, knowledge, and opinion. In Japan, the late Matsuda created the management doctrine "Organizational Intelligence" since 1980. In the meantime, it became a quite influential school. They concentrate on leadership in enterprises. Sumita (1992), a member of the 01 school, even developed a method to measure the OI of enterprises. His formula was adapted to German enterprises by Lebesmühlbacher ( 1993) and applied to German industrial branches by Müller-Merbach (1993). Characteristic for the 01 approach is the holistic understanding of information, knowledge, and opinion as a set - and of their mutual influence. It is the task of management to guarantee the perception, the processing, the storage and the usage of information, knowledge, and opinion - and their cross-fertilisation. This applies to the national level as well as to the enterprise level. . Any nation and its institutions (section 5) need professional information systems. For instance, Becker (1993) developed a concept for a national technology information system in order to make information about new technology easily accessible. In order to take advantage of such a system, a nation needs scientists and engineers who have the sufficient knowledge to understand the information. In addition, their activities depend highly upon their opinion about the particular technology. Comparative advantage does not come with the information system as such; instead, comparative advantage is the result of holistic management of information, knowledge, and opinion. When individuals take a decision and e.g. buy a product or vote for a party or choose a certain service, they make their decision on the grounds of information, knowledge, and opinion. This separation of information, knowledge, and opinion can be enlightening in the analysis of decisions in the past. It is more important, however, for the design and operation of future oriented political and industrial systems. The concentration on information, knowledge, and opinion requires a specific awareness of these key components. 180 DÉCISION Political and industrial leaders should - in this sense - not only concentrate on information systems or on knowledge management or opinion manipulation; instead, they should develop a holistic understanding of the mutual dependence between the three components. It is the author's firm belief that a nation with a leadership focus on the combined to: management of information, knowledge, and opinion is in "organizational intelligence" comparative advantage over its competitors. 7. THETRINITY OFACTION: THEUNSEPARABILITY OFTECHNICAL, ANDETHICAL ACTION PRAGMATIC, Leaders should not only distinguish between information, knowledge, and opinion, but also between technical, pragmatic, and ethical action. This trinity has its origin in Kant (1724-1804), see also Hinske (1980) and Müller-Merbach (1989 and 1995, pp. 81-91). , Kant emphasised that any action has technical, pragmatic, and ethical aspects at the same time. He suggested their separation for the analytical purpose of structuring any kind of human action (figure 5): . Technical action (in Kant's understanding) deals with lifeless objects, such as material, products, machinery, energy, money as well as information. Technical action requires "skill" and is the object of (any kind of) science. . Pragmatic action deals with people who all depend upon their own "intention for happiness". Pragmatic action requires "prudence" and is the subject of practical philosophy. . Ethical action deals with values, with morality, with good and evil. Ethical action requires "wisdom" and is again the object of practical philosophy. As a guideline for ethical action, Kant stated the "categorical" imperative: "Act only according to a maxim by which you can at the same time will that it shall become a general law." In contrast, Kant stated two "hypothetical" imperatives for technical and pragmatic action, a "problematic" imperative for technical action (e.g. in the sense of designing machines with the highest possible efficiency) and an "assertoric" imperative for pragmatic action (e.g. in the sense of taking people's preferences into consideration). Kant emphasised that everybody is inseparably responsible for any of his actions in the technical, pragmatic, and ethical sense at the same time. Unfortunately, most of the education systems concentrate on technical Generalistsas CriticalSuccessFactorof Nations 1811 FiveConceptsof HolisticUnderstanding: Ethical action: . Values Wisdom Categorical imperative . Practical philosophy ' t Technical action: . Objects Skill Problematic imperative . Science .0 Pragmatic action: . People · Prudence a Assertoric imperative e Practical philosophy Figure 5: The trinityof action - technical, pragmatic, and ethical action, according to Immanuel Kant action and neglect pragmatic and ethical action. Therefore, many influential people are "giants" in dealing with objects (in their field of competence), but seem to be imprudent in dealing with people and helpless in reflecting values. The trinity of action can be studied by many major and minor events in the past. More important, however, is the active internalisation of the trinity for practising in decision making for the future; and this requires early emphasis of all the three aspects in the education system. Political and industrial leadership positions require leaders who are aware and its of their technical, pragmatic, and ethical responsibility firm belief that nation would be in It is the author's unseparability. any in if their citizens are trained the skills over others comparative advantage for technical action, sensitised in prudence for pragmatic action and prepared for wise reflection of values for ethical action. EDUCATION FORHOLISTIC 8. THEIDEAL UNDERSTANDING: A SUMMING UP Competition is everywhere: between individuals, between teams, between groups, between universities, between enterprises, between nations, between overnational regions. Competition causes fight for survival and fight for victory, and fight "is the father of all and king of all, and some, he shows as gods, others as men; some he makes slaves, others free", as DÉCISION 182 Heraclitus (ca. 550-480 B.C.), the pre-Socratic philosopher of change because fight keeps things moving (Müller-Merbach 1995, p. 21). said, In the disorder of fight - including al the shades such as contest, struggle, conflict, quarrel, feud, combat, strive, battle, even war - the single actors have different chances. It is the author's firm belief that those actors are in comparative advantage who understand the wholes and not the single parts only, i.e. systems and and not their components not their single elements only, i.e. compositions can be developed by each individual, in each only. Holistic understanding group, in each enterprise, in each nation etc.; and holism can be emphasised at each state of education and life-long leaming: kindergarten, grammar school, high school, university etc. Incidentally, holism is an old principle of education, emphasised by Aristotle (384 - 322 B.C.). He suggested that any instruction should start from the whole, even if the details are not yet understood, and then proceed to the details. Once one is used to perceive anything in the world beginning with the became his wholes and proceeding to the parts the holistic understanding second nature. It should be in any nation's interest to educate its young generation in such a way that they understand wholes and - through the wholes - the parts. five concepts contributions contains of for the education potential leaders suggested such as: and for any field of responsibility), This of holistic understanding, (for any level of influence There is no independent Trefoil of development: progress in technology, in in or Instead, economics, they form a whole and change society. growth influence each other. Therefore, any potential leader should understand in technology, before and while he specialises the interdependence economics or social sciences etc. The three parts form a "trefoil" like a leaf with its three leaflets. There is no isolated Europe, North America, or Triad of geo-economics: Southeast Asia. Instead, the three regions are in continuous competition, not only in commerce, but also in sports, culture, health, education, value systems etc. Therefore, any potential leader should understand the geoeconomic whole, including the similarities of and differences between the three regions. The three regions form a "triad" like a chord in music which can be in major or minor scale, in harmony or in disharmony. of enterprises, public There is no self-sufriciency Tripod of institutions: authorities, or households in a nation. Instead, these groups depend on one another and have to serve each other. Therefore, any potential leader should understand the roles of the three groups and their institutions and always act in the interest of the entity. The "tripod" symbolises the equal importance of the three groups of institutions for the whole; one weak leg would endanger the whole economy. Generalistsas CriticalSuccessFactorof Nations 183 FiveConceptsof HolisticUnderstanding: There is no independent Trident of intelligence: advantage of information, knowledge, or opinion. Instead, their mutual fertilisation and compensation make up for the "organizational intelligence" of a nation. Therefore, any potential leader should understand the processes of perception, processing, storage, and usage of information, knowledge, and opinion as a closely connected network of components. "Trident" is a metaphor of a mighty three-pronged weapon such as the symbol of Neptune, the Roman god of the sea. Trinity of action: There is no separable responsibility for technical, pragmatic, and ethical action. Instead, any action is an entity in itself with technical, pragmatic, and ethical attributes. Therefore, any potential leader should be familiar with the three dimensions of responsibility, such the assertoric, and the categorical as defined by the problematic, as a symbol represents the fundamental idea of a imperative. "Trinity" tripartite unity. Which region of the triad - or which nation of these regions - is educating the "best" generalists? This very region - or nation - has a good chance to come into the top position among the competitors. REFERENCES BECKER, T., Integriertes Technologie-Informationssystem WettbewerbsfijhigkeitDeutschlands, Wiesbaden, DUV, 1993. Beitrag zur GARTEN,J. E., Cold Peace; America, Japan, Germany, and the Struggle ,for Supremacy, New York, Times Books, 1993. HINSKE,N., Kant als Herausforderung an die Gegenwart, Freiburg, München, Alber, 1980. / j i i Î i : t ) h ) ) ! KANT,I., "Was heil3t: sich im Denken orientieren?" In Berlinische Monatsschrift, October 1786, pp. 304-330. LEBESMÜHLBACHER, P., "Die Leistungskraft von fünf Banken und fünf KfzHerstellern - gemessen am 'Totalen Wertschdpfungsquotienten"', in Technologie & Management, vol. 42, 1993, no. 1, pp. 35-37 (part 1 of a series of four, continued in no. 2-4). T., "Organizational Intelligence: Its Significance as a Process and as a MATSUDA, Product", in Proceedings of CEMIT 92/Cecoia 3 International Conference on Economics, Management and Information Technology 92, Tokyo, The Japan Society for Management Information, 1992, pp. 219-222. MATSUDA,T., "'Organizational Intelligence' als ProzeB und als Produkt", in Technologie & Management, vol. 42, 1993, no. 1, pp. 12-17. DÉCISION 184 Mittelstrass, "Der J., MITTELSTRASS, Verlust Frankfurt/Main, MÜLLER-MERBACH, H., des "Der 1992, in Technologie MüLLEtt-MERSa,cH, H., "On Technical, Pragmatic and the Social Research for OR?" In Operational P. Keys, and New S. A. Cropper, H., "Der MüLLEtt-MERancH, wirtschaftliche Leistungskraft", 1, pp. 31-34. H., MüI.LER-MExBncH, DIE, Homburg, Vieweg, PORTER, M. E., The 1990. E. A., EinzelT., SuMiTA, Proceedings Management Management "Die and Intelligence SCHMIETOW für das 1998, Prozessorientierung der Unternehmung' - in Information Excellence Proceedings, The Competitive Coming Shape 3rd Management, der die 1993, no. ed, Bad japanisch-deutschen von Zusammenspiel Management for Business and ed. by W. Hummeltenberg, Die technologische und gesamtwirtschaftliche of Global Competition, New of Nations, Advantage Wettbewerbsfiihigkeit Bad Aspekte, York, der Homburg, The New York, Free Press, bundesdeutschen DIE, 1988. in of Organizational on the Measurement Intelligence", Study 3 International on CEMIT 92/Cecoia Economics, Conference of for The Japan and 92, Tokyo, Technology Society Information 1992, pp. 207-210. Information, "A im internationalen C., Deutschland und Technologiepolitik für 1999 (to appear). ForschungsKaiserslautern, für Mass vol. 42, pp. 3-18. Economic The Coming THUROW, L. C., Head to Head: New York, Warner Books 1993. and America, VOGEL, Ein Wertschopfungsquotient' in Technologie & Management, Philosophie-Splitter H., OHMAE, K., Triad Power: 1985. The Free Press, Industrie. A Challenge Ethical Action. ed. by M. C. Jackson, Sciences, Plenum Press, 1989, pp. 97-104. and 'Totale 'Intelligenz und Meinung", Wissen Competitive Wiesbaden, London, Jürgen 1995. MÜLLER-MERBACH, der Führungslehre Information, York, by wirtschaftliches Fortschritt, vol. 37, & Management, Technischer Dreiklang Wandel", Wachstum, gesellschaftlicher 1988, no. 3, pp. 6-9. ed. in: Leonardo-Welt, pp. 221-244. Wissens", Suhrkamp, Battle Among Technologiewettlauf die technologische Japan, Europe, Bedeutung Wettbewerbsfiihigkeit, der Michel Crozier L'APPROCHE TRANSDISCIPLINAIRE DEDÉCISION ENMATIÈRE ETDEL'ÉNERGIE 1.. LETEMPSDE LAVOLONTÉ , , ' À la fin du xixe siècle, quand le problème de la décision commence à apparaître, la réflexion porte avant tout sur l'acte de décider et sa psychologie. Le décideur idéal est le militaire, l'homme qui a le courage de trancher et qui mettra à exécution à force d'énergie. Que faut-il pour réussir, dit Foch, de l'énergie, encore de l'énergie, toujours de l'énergie. Avec de l'énergie et de la volonté tout est possible. Mais c'est la volonté du décideur, du chef, du général qui brûlera ses vaisseaux pour impressionner l'adversaire. Certes, on admirera les desseins stratégiques et les manoeuvres tactiques du héros et on les fera étudier. Mais c'est toujours la personne qui compte. Préparation et exécution sont déterminées par la demande impérative de l'homme de volonté. D'où l'importance prise en la matière par la réflexion psychologique et morale sur la volonté. C'est l'incapacité à décider qui fait peur plus que la mauvaise décision. L'homme compétent, c'est le psychologue médecin de la volonté. . 2.. LE TEMPS DE L'INGÉNIEUR ', L'expérience de la deuxième guerre mondiale va changer tous les paramètres. Le modèle qui s'impose est celui de la victoire américaine qui est le 186 DÉCISION Eisenhower n'est plus le héros de la volonté triomphe de l'organisation. comme Foch, c'est l'homme qui a été capable de dominer la plus complexe machine de guerre de l'histoire humaine, le général ingénieur, le héros de façon générale, devient l'ingénieur. Le problème sur lequel on se focalise en matière de décision, c'est la préparation scientifique qui va donner la bonne décision. C'est au cours de la guerre que sera inventée la recherche opérationnelle qui permettra de gagner la guerre du transport maritime. La recherche opérationnelle donnera naissance à toutes les formules nouvelles d'aides à la décision qui consacreront la supériorité du modèle américain dans les affaires et la gestion de la guerre. comme dans l'administration Le héros de la décision n'est plus l'homme de volonté ; c'est l'ingénieur, et le calculateur. On a glissé de la personnalité de l'homme qui l'économiste décide à la qualité de la décision ou plutôt à la méthode qui permettra de calculer la meilleure décision. de la science est général. Les think tanks L'enthousiasme pour l'application humaine qui peut tout penser, même sont les hauts lieux de l'intelligence l'impensable. tout de même. C'est la préparation On le remarquera qui constitue le des mêmes ne bénéficiera pas lumières, on l'abanproblème, l'exécution de la volonté et de donnera au début au modèle l'énergie auquel on ne croit interne se voit la de l'organisation gestion plus guère. Très vite pourtant Un nouveau couplage s'établit envahie aussi par la logique de l'ingénieur. des coûts et avanentre la logique de la bonne décision l'optimisation La rationalisation des choix budgétages - et la logique de l'organisation. taires permet de boucler la boucle. À chaque niveau de décision budgétaire, le meilleur choix peut être calculé. L'optimum pourra être atteint. Les années 60 sont les années de l'illusion d'une possible rationalité totale. de ce modèle de réflexion La guerre du Viêt-nam va entraîner l'écroulement le champion de ce modèle de rationalité, sur la décision. McNamara, l'homme qui prétendit gérer le département de la Défense et la guerre ellesur le plus tragique même avec le PPBS, dut abandonner ses responsabilités échec de l'histoire américaine. DELARÉACTION ANTIRATIONNELLE 3. LAMONTÉE à la mesure de la est naturellement La montée de la réaction antirationnelle surestimation extraordinaire de la rationalité à laquelle on était parvenu. Elle a été bien sûr portée par la déception et le dégoût qu'a entraîné l'effondrement moral de la guerre du Viêt-nam, mais elle l'a précédée intellectuellement en matièrede décision L'approchetransdisciplinaire grâce à l'apport magistral d'Herbert années 50. 187 Simon qui date, lui, de la fin des Simon était, il est vrai, très modéré. Il voulait rénover le concept de rationalité et non pas proclamer sa faillite. L'homme, selon lui, est incapable de poursuivre l'optimum, il doit se contenter nécessairement du fait de la limitation de ses capacités cognitives de la première solution satisfaisante qui se présente au cours de sa recherche. Une solution est satisfaisante dans la mesure où elle satisfait aux critères de rationalité qui sont les siens. Le raisonnement de Simon eut un effet libérateur, mais sur une partie minoritaire des sciences sociales. Ce fut seulement quelques années plus tard que son collègue et ami, James C. March, se mit à attaquer le modèle de l'optimisation avec beaucoup de verve et d'agressivité. Simon avait très bien montré empiriquement que dans des décisions d'investissement important, comme par exemple un achat d'ordinateur, la recherche de l'optimum était en fait illusoire. Il avait d'autre part modélisé les décisions des investment bankers et réussi à élaborer des programmes d'ordinateurs capables de reproduire leurs décisions à 95 % des cas. Non seulement l'optimum était impossible et non désirable mais avec des critères de satisfaction bien élaborés, on pouvait arriver à prédire des comportements hautement sophistiqués. James C. March partit d'une autre perspective empirique : il étudia, dans les années 70, les succès et les échecs des responsables universitaires et put démontrer que la variable déterminante du succès des présidents d'université sur un grand échantillon était le moment de leur entrée en fonction. Celui qui prenait la présidence au moment du début de l'escalade révolutionnaire, ne pouvait échapper à l'échec. Celui, au contraire, qui la prenait au début de la décélération avait toutes les chances de réussir. ; > ; ; Mais son apport théorique le plus important c'est l'élaboration du modèle dit de la poubelle. L'issue d'une décision de politique publique ou de choix privé dépend de la rencontre, éventualité fortuite, d'une série de problèmes en attente et d'une série de solutions en magasin. L'inscription sur l'agenda des décisions constitue un élément décisif du choix qui sera fait. C'est le problème qui sortira de la poubelle actuellement disponible qui sera discuté et qui héritera de la solution disponible. La validité d'une vision aussi cynique peut être démontrée dans des systèmes humains très peu intégrés, ce que les Américains appellent « loosely coupled systems ». Les universités en constituent un exemple mais pas le seul, le tout, bien sûr, dans les limites plus ou moins étroites de critères de rationalité acceptables. ; ; ; ; Ces réflexions ont eu beaucoup d'importance pour ébranler les convictions rationalistes ou du moins pour les lester d'un minimum de scepticisme. Elles n'ont pas été suffisantes, en revanche pour établir un nouveau modèle néorationaliste ayant la force et la prégnance de celui de l'optimum. ' v 188 DÉCISION DEL'APPROCHE 4. NÉCESSITÉ ETDIFFICULTÉ SYSTÉMIQUE C'est l'approche systémique qui permet sinon de résoudre le problème du de l'optimum moins de dépasser la contradiction entre la recherche problème par problème et la recherche de l'optimum absolu sur l'ensemble flou et dominé par des critères politiques de d'un système nécessairement pouvoir. Les expériences que nous avons effectuées avec Michel Berry sur les élèves à Paris ont permis de le démontrer. de l'École polytechnique Michel Berry avait conduit avec ses assistants un remarquable séminaire sur la recherche opérationles méthodes d'aide à la décision et naturellement nelle. Ce séminaire eut un très grand succès auprès des élèves. Il se termina par des travaux pratiques effectués dans une série de grandes entreprises où les élèves eurent à résoudre des problèmes de choix de décision importants. concernés furent très favorablement Les chefs d'entreprise impressionnés. Le séminaire était considéré alors comme un succès total reconnu par les de l'École. Les enseignants et l'administration élèves, les chefs d'entreprise pourtant restèrent insatisfaits, ils voulaient savoir à quoi ces travaux avaient réellement servi. Quelles solutions trouvées par les élèves avaient été appliquées et comment ? des difficultés mais furent effarés par les résultats. Sur une Ils soupçonnaient solutions rationnelles trouvées par leurs élèves, aucune n'avait de vingtaine été mise en oeuvre. Ils en choisirent quelques-unes qu'ils étudièrent dans les raisons d'un tel les rejet. C'était chaque fois le entreprises pour comprendre humains du du de système rapports groupe dirigeant qui avait fait problème obstacle à l'application d'une mesure pourtant rationnelle. Désireux de faire partager par leurs élèves cette découverte pour eux impressionnante, ils décidèrent l'année suivante de terminer le même séminaire par l'exposé de leur analyse des difficultés de la mise en oeuvre des solutions rationnelles. La réaction des élèves fut pour eux surprenante. Ceux-ci refusèrent en effet de croire à la réalité de l'échec ou tentèrent de l'interpréter en accusant les patrons à qui on avait proposé des solutions aussi rationnelles de manquer de courage ou de discernement. C'est alors que pour une troisième année, l'équipe de Michel Berry imagina un scénario capable de les convaincre. Ils choisirent un cas particulièrement simple : le transport des voitures produites par une grande firme automobile, Ces voitures étaient des usines de fabrication jusque chez les concessionnaires. insuffisant. La et le nombre de devenait wagons transportées par wagons filiale qui les possédait aurait dû en acheter d'autres et refusait de faire cet investissement. L'analyse menée par les élèves en utilisant la théorie des files Un nouveau avait permis de trouver une solution optimale. d'attente des livraisons soumettant usines et concessiond'échelonnement programme en matièrede décision L'approchetransdisciplinaire 189 naires à un planning serré rendant possible d'assurer tous les transports sans achat de wagons supplémentaires et en même temps, d'économiser 10 millions de francs. Pourquoi les dirigeants n'avaient-ils pas pu se mettre d'accord pour mettre en oeuvre cette méthode si efficace ? Les responsabilités avaient été divisées entre responsables de telles façons que toute mise en oeuvre heurtait si profondément un des protagonistes qu'il s'y opposait violemment. Les enseignants décidèrent alors de soumettre leurs élèves au jeu de l'application. Ils modélisèrent le problème autour des cinq rôles essentiels pour ce problème et répartirent leurs élèves en quatre groupes de cinq chacun devant jouer un rôle de dirigeant en respectant un cahier des charges très serré correspondant aux responsabilités et aux contraintes des patrons qu'ils représentaient. Avec de telles contraintes, non seulement les élèves furent incapables de se mettre d'accord pour trouver le moyen d'appliquer la solution rationnelle sans y contrevenir mais on put leur montrer qu'ils reproduisaient exactement les mêmes blocages que les dirigeants qu'ils avaient accusés d'incapacité. L'équipe de sociologues associés à l'opération les convia alors à un bref séminaire d'une demi-douzaine de séances pour leur donner une méthode d'analyse leur permettant de comprendre une telle situation et de découvrir la source des blocages qu'elle recelait quelles que soient les capacités des protagonistes. Nous eûmes rarement un auditoire aussi attentif et nous eûmes avec les responsables du séminaire d'aide à la décision la satisfaction de constater que les élèves ainsi formés juste avant leur stage d'entreprise furent capables d'effectuer à la fois une analyse de décision et une analyse de système, c'est-à-dire de trouver une solution rationnelle qui n'était plus la solution optimale mais qui devenait une solution applicable, étant donné les contraintes du système humain concerné. À LADÉCISION 5. DUSYSTÈME De nombreuses expériences de formation en France et aux États-Unis montrent l'intérêt d'une telle approche transdisciplinaire pour réussir à la fois à maintenir une logique de la rationalité fondée sur l'existence d'un optimum tout en tenant compte des contraintes du système humain qui devra l'appliquer. On sait d'avance que l'optimum ne pourra être atteint et qu'à s'acharner à vouloir l'atteindre, on risque un rejet complet. Mais calculer cet optimum et le maintenir comme horizon ne reste pas moins indispensable pour réaliser des progrès dans cette direction. La vision systémique sans horizon est dangereuse car elle reste statique. Mais si la recherche opérationnelle ou tout autre technique d'aide à la décision 190 DÉCISION permet d'éclairer la direction à viser et contraindre à la respecter, elle va pouvoir fonder une stratégie. Le problème ne sera plus comment appliquer un modèle rationnel mais comment transformer un système humain pour qu'il soit capable d'atteindre plus de rationalité dans la direction souhaitée. L'intérêt de cette approche est clair et démontrable pour des problèmes de l'ordre technique comme ceux évoqués à l'École polytechnique. Mais ils peuvent avoir des applications beaucoup plus vastes car ils constituent une voie de développement de type inductif pour le management. Il ne s'agira plus de problèmes précis à résoudre mais de réformes. Au lieu que les réformes soient fondées sur des théories à fondements en fait idéologiques : par exemple la décentralisation, les centres de profit, la subsidiarité ou sur les résultats d'un empirisme statistique peu vérifiable (du style, les entreprises qui réussissent ont telles caractéristiques), on va pouvoir les appuyer sur les logiques beaucoup plus dures de l'analyse de la valeur ou du reengineering. Mais en même temps, la démarche restera inductive. On remontera soit du fait au problème humain ou éventuellement, technique, soit à l'inverse du problème humain se manifestant par des conflits, aux problèmes techniques qu'on va pouvoir résoudre. Les Japonais ont très empiriquement développé des méthodes ressortissant de cette démarche et c'est à leur école qu'on a effectué des progrès que l'on peut maintenant formaliser. Prenons un cas spectaculaire, la transformation radicale des processus de réoutillage des grosses presses des usines Citroën. Suite à un voyage d'études au Japon au début des années 80, un groupe d'ingénieurs et de dirigeants de PSA découvre que les Japonais mettent une demi-heure à effectuer le réoutillage des grosses presses d'emboutissage qu'eux-mêmes étaient très fiers d'effectuer en huit heures. Il s'agit d'un problème non trivial car les immobilisations dans les encours de fabrication coûtent des sommes énormes. Profondément choqués, ils décident de se mettre à l'école des Japonais et engagent à prix d'or le meilleur ingénieur japonais qui les conseillera pendant plusieurs années. À partir de ce fait technique, tout le management sera réorganisé. Le réoutillage sera confié aux opérateurs de machine qui seront longuement formés à cet effet. L'intervention des services de maintenance et des services techniques sera supprimée. Mais pour y parvenir, toute la logique du management devra changer et quantité de transformations auront dû être effectuées. On voit le côté inductif du changement qui ne vient pas d'un modèle à la mode de la meilleure formule de management et qui exige donc observations, interviews et remontée systémique. La démarche peut se dérouler en sens inverse. C'est ce que nous avons fait pour la réforme du département de la traction de la SNCF. Pour résoudre les difficultés de commandement des conducteurs, on a finalement repensé les fonctions de tous les échelons intermédiaires en supprimant les deux plus puissants de ces échelons et en repensant complètement les rôles du en matièrede décision L'approchetransdisciplinaire 1911 management. Ce faisant, on a dû résoudre des problèmes techniques auxquels on était incapables de penser jusqu'alors. Le développement de l'approche transdisciplinaire semble devoir offrir des perspectives de plus en plus intéressantes, plus particulièrement avec le succès du reengineering. Si l'on accepte cette nouvelle approche qui a joué un rôle non négligeable dans la revanche du management américain sur les Japonais, le problème de la coopération apparaît comme fondamental à terme. La capacité à communiquer rapidement efficacement et la capacité à coopérer sans blocage, commandent en effet le succès d'une approche fondée sur les rapports horizontaux et non plus sur les empilements verticaux traditionnels. L'action la plus efficace du management va consister à créer les conditions systémiques de ces meilleurs rapports de coopération. Le modèle du manager ingénieur, meilleur calculateur certes, ne disparaît pas mais il perd de son importance par rapport au manager systémiste capable de prévoir à l'avance les blocages et paralysies que produit un système mal agencé. La décision pourra certes encore consister à trancher et à calculer les optima mais elle devra d'abord consister à créer les conditions d'une coopération efficace. Partie 2 PROSPECTIVE Introduction PROSPECTIVE Réfléchir pour agir. C'est sans doute dans cette maxime qu'il faut chercher l'intérêt de Jacques Lesourne pour cette indiscipline intellectuelle qu'est la prospective et découvrir le sens de son implication dans le développement d'une prospective stratégique, ainsi que le rappelle Michel Godet dans « La raison tranquille ». Ici l'économiste se fait « stratégiste », pour reprendre la distinction de Thierry de Montbrial. Avec Jacques Lesoume cependant, la prospective rime aussi avec les « systèmes du destin », fondements méthodologiques de la prospective de la science et de la technologie que présente Rémi Barré. Ainsi, la prospective est aussi l'objet de recherche évoqué par Hugues de Jouvenel et pour lequel Christian Schmidt propose un programme d'investigation par la théorie des jeux, soulignant là le pont entre les réflexions de Jacques Lesourne sur la décision et la prospective. Dans l'entreprise, la prospective stratégique prônée par Jacques Lesoume devient le levier du changement que décrivent Claude Berlioz et Jacques Biais pour la SNCF et Christian Stoffaës pour EDF. Quant à Assaad-Emile Saab, il tire de son expérience avec Jacques Lesourne quelques enseignements sur le bon usage de la prospective dans les entreprises. Comme le souligne Fabrice Roubelat, il apparaît alors que c'est par la constitution de réseaux d'hommes et d'organisations que la prospective devient stratégique et que la réflexion rejoint l'action. Pour beaucoup enfin, l'oeuvre prospective de Jacques Lesourne est aussi marquée par l'exercice Interfuturs, qu'il dirigea pour l'OCDE et que revisi- 196 PROSPECTIVE tent dans leurs contributions, sous des angles différents, Michel Albert et Wolfgang Michalski, montrant ainsi quelques vingt années plus tard la richesse de cette prospective mondiale dont la prospective énergétique discutée par Robert Dautray constitue une des dimensions. À partir d'Interfuturs, c'est aussi à une réflexion plus générale sur le sort du prospectiviste que nous convie Jean-Jacques Salomon, qui présente celui-ci en « Cassandre » des temps modernes, notamment quand il se penche sur la grandeur et décadence du modèle français. Ce faisant il rejoint la problématique de Daniel Bell sur la dynamique du changement dans nos sociétés. 1. 2. 3. 4. 5. 6. 7. MichelGodet Thierryde Montbrial RémiBarré Huguesde Jouvenel ChristianSchmidt Claude Berliozet Jacques Biais ChristianStoffaës 8. Assaad E. Saab 9. FabriceRoubelat 10. MichelAlbert 11. WolfgangMichalski 12. RobertDautray 13. Jean-Jacques Salomon 14. Daniel Bell ,, Michel Godet LARAISON TRANQUILLE Mélanges, vous avez bien dit mélanges en l'honneur de Jacques Lesourne ! Cet exercice académique ne m'est guère familier et pourtant le mot me convient car mon esprit est incapable de considérer séparément le penseur, l'homme et l'ami. Voilà plus d'un quart de siècle que j'ai eu la chance de rencontrer Jacques Lesourne et d'engager avec lui un dialogue récurrent sur tous les grands problèmes de ce temps : l'énergie, la technologie, l'économie internationale, l'éducation, l'emploi, le développement local, la politique, la société, la démographie. Les maîtres mots de nos réunions en tête-à-tête ont toujours été confiance, franchise, simplicité et j'ajouterais pour ma part une bonne dose de naïveté et d'inconscience. J'ai toujours été demandeur de ces moments privilégiés que JL n'a jamais refusé à MG selon la terminologie héritée de la Sema. Très vite, j'ai compris la règle implicite des trois temps. Un premier de courtoisie où le visiteur est libre du sujet : c'est dans ce laps de temps qu'il faut absolument évoquer les points importants et non prévus à l'ordre du jour (une question générale ou personnelle) ; JL ne s'est jamais laissé entraîner par mes tentatives de dérive : si à ses yeux la question le mérite, il propose de fixer immédiatement un autre rendezvous. Ce qui est une manière élégante de reconnaître l'intérêt du sujet, tout en revenant à l'essentiel du jour. Ainsi, commence le deuxième temps consacré, comme il se doit, à l'ordre du jour. L'extraordinaire mécanique intellectuelle de JL se met alors en marche pour sérier les problèmes et énumérer les solutions qui s'imposent. Dans ces moments-là, je ne prends guère de notes, il me remet les siennes et je compte sur ma mémoire pour ne pas trahir nos (ses) conclusions. Tout est dit et il ne lui reste plus (c'est le troisième temps) qu'à remercier le visiteur d'être venu en demandant l'addition s'il s'agit d'un repas ou en cassant la conversation par un brutal : bon ! Je me suis plu- 198 PROSPECTIVE sieurs fois révolté face à cette trilogie, en lui reprochant ce côté trop mécanique et prévisible des relations humaines. À chaque fois, il m'a gentiment accordé une exception à sa règle comme pour s'en excuser et s'est laissé aller à des échanges plus personnels sur ce qui est pour lui comme pour moi l'essentiel : parler de soi et des siens ; mais ce plaisir trop rare est toujours resté mesuré. J'exprime ici à la fois un regret et une reconnaissance du privilège vécu. On comprend ainsi tout ce que je dois à Jacques Lesourne. J'aurais sans doute existé en prospective sans lui, mais j'aurais certainement perdu beaucoup de temps à reconnaître l'essentiel du secondaire. J'ai pu tester sans risque mes intuitions les plus audacieuses et il les a le plus souvent enrichies de ses analyses éclairantes. Parfois aussi, il a reconnu que j'avais pu avoir raison sur des débats antérieurs comme celui sur l'énergie nucléaire : il fallait certes s'équiper en centrales nucléaires, mais à un rythme plus prudent. Seule la question de l'Europe et du vote oui ou non à Maastricht nous a divisés. C'est surtout la passion de son engagement pour le oui qui m'a surpris, lui d'ordinaire si mesuré ! Quant à moi, j'ai voté « non » par réflexe antitechnocratique. En effet, j'ai horreur de me sentir manipulé et victime d'un chantage du type : l'Europe ou le chaos. J'ai toujours été hostile à la pensée unique et j'aurais préféré d'abord une monnaie commune. Le débat est clos, d'autres choix se sont imposés et j'étais aussi content que le oui l'emporte, car le succès du « non » aurait servi de bouc émissaire pour expliquer le chômage et la faible croissance de la première moitié des années quatre-vingtdix. Je reconnais aussi volontiers les vertus des contraintes économiques et budgétaires de la convergence européenne. Cette question de l'Europe mise à part, sur la quasi-totalité des sujets, la convergence avec JL était la règle. À tel point qu'il m'est arrivé de me demander si je ne tenais pas telle ou telle idée d'une conversation précédente avec lui. Il y a aussi des sujets concernant l'économie, l'emploi ou la société que j'ai, à certains moments, volontairement écartés de nos conversations, par peur d'être influencé ou contredit. L'esquive était facile car, en tant que demandeur de l'entretien, c'était aussi à moi de fixer l'ordre du jour. Cependant, sur des grandes questions comme l'emploi, la convergence n'a pas été immédiate, ma formation universitaire et mes origines sociales me préparaient mal à accepter l'explication dite classique du chômage. J'ai mis des années à admettre que le marché du travail n'était pas n'importe quel marché mais qu'il fonctionnait aussi comme un marché. Or, sur un marché, s'il y a un déséquilibre entre l'offre et la demande, c'est que l'on ne laisse pas le système de prix jouer. En d'autres termes, le coût trop élevé avec les charges du travail non qualifié est le principal obstacle à l'emploi de cette catégorie de travailleurs. À l'inverse, les travailleurs dont la compétence relative est rare sont forcément recrutés à des prix plus élevés. C'est à Jacques Lesourne que je dois cette vision réaliste du marché du travail. En me l'appropriant à la fin des années quatre-vingt, je suis devenu libéral, sans La raison tranquille 199 m'en rendre compte immédiatement. Au même moment j'ai eu le sentiment que Jacques Lesourne le devenait un peu moins, est-ce en partie en raison de l'influence de ses enfants ? En tout cas, le deuxième septennat de Mitterrand ne lui procurait plus les mêmes inquiétudes qu'en 1981 où il ne cachait pas l'intérêt qu'il portait aux idées de Raymond Barre. Et je crois qu'aujourd'hui, lui comme moi nous ne nous retrouvons plus dans le débat On peut être libéral dans ses analyses et social dans ses comdroite/gauche. peut réclamer plus de marché, d'initiative et de responsabiportements. On lité là où l'État jacobin est sorti de son rôle et plus d'État et d'intervention publique là où le marché est déficient, notamment pour toutes les questions la santé, les infrastructures, l'enqui concernent le long terme : l'éducation, vironnement. Je partage totalement le diagnostic et les propositions du dernier essai de Lesoume sur le modèle notamment Jacques français, lorsqu'il avance que c'est un modèle soviétique réussi. Il espère toujours convaincre les élites qu'il faut changer de politique et cesser de se réfugier derrière l'exception française. Il ne va cependant pas jusqu'à remettre en cause ces élites dans leur mode de reproduction par méritocratie interposée. Pourtant la nomenklatura intellectuelle qui gouverne ce pays avec une suffisance aussi forte dans les que son ignorance des réalités a une lourde part de responsabilité maux qu'il dénonce. C'est un point sur lequel, je n'ai guère cherché à débattre avec lui. J'ai eu le sentiment, peut-être à tort, que le major de l'X de la promotion 1948 devait être naturellement peu enclin à dénoncer le système des grands corps de l'État. un tel plaisir à rencontrer des Quand on a, comme Jacques Lesoume, brillants cerveaux, on ne peut imaginer que ce système finit par engendrer des effets aussi pervers pour l'économie et la société que ceux de la mafia. J'ai d'autant moins abordé ce sujet que je sentais bien que lui-même n'était pas complice du système. Son appui constant à mon égard ainsi que la disponibilité dont il a toujours fait preuve pour les jeunes cerveaux de tous horizons qui se tournaient vers lui, montrent que les origines des gens ont toujours été à ses yeux secondaires. Pour JL seules comptent les têtes bien faites et bien pleines et éventuellement des idées. Pour JL la l'originalité reconnaissance la Il a horreur des médiocres suffisants, ce suppose qualité. va souvent de Et certains l'ont à leurs il qui pair. appris dépens : y a des personnes qu'il n'a jamais saluées, enfin qu'il ne reconnaît pas, au sens propre comme au figuré. À l'inverse, il peut s'arrêter dans la rue pour parler avec chaleur et plaisir à un ancien étudiant ou collaborateur. J'ai eu souvent le sentiment que Jacques Lesoume rêvait d'un monde qui serait gouverné par les sociétés savantes. L'action ne l'intéresse que dans la mesure où elle est commandée par la réflexion. Si, pour Jacques Lesourne, c'est d'abord la qualité des hommes et des idées qui comptent, notre système social fonctionne sur des critères où les origines et les codes d'appartenance J'ai depuis longjouent un rôle déterminant. 200 . PROSPECTIVE temps remarqué que j'étais quasiment le seul universitaire dans mon environnement professionnel, un peu comme un mouton noir au sein d'un troupeau de moutons blancs. Et je sais qu'à plusieurs reprises la présence de Jacques Lesourne à mes côtés, son soutien sans faille m'a fait prendre pour un mouton blanc. Une anecdote en témoignera simplement. Lors de ma campagne auprès des professeurs du Conservatoire, plusieurs d'entre eux m'ont avoué avoir été surpris par mon CV : ils pensaient spontanément que j'étais X puisque Jacques Lesourne me soutenait. Ce jour de juillet 1987 où je me présentais pour être élu sur la chaire de prospective industrielle, je me souviens aussi qu'au fond de la salle, exactement en face de moi, il a mis sa tête dans ses mains, comme pour mieux écouter et surtout ne pas se trahir ou me troubler par un regard. Dans les premières minutes pourtant, sans lever la tête, mais seulement une main, il m'a fait comprendre qu'il fallait parler plus fort. Un peu plus de dix ans après, la majorité de ceux à qui je m'adressais à l'époque sont partis en retraite (c'est inévitable dans un établissement où l'on ne rentre guère avant 40 ans et souvent après 50 ans), je me sentais déjà orphelin depuis le départ de Raymond Saint-Paul et les mots ne sont pas assez forts pour traduire le vide que je ressens depuis l'été 1998 avec le départ de Jacques Lesourne. À l'avenir, j'essaierai d'éviter de rentrer dans son ancien bureau, forcément occupé par un autre, et de faire comme s'il était toujours là ! Heureusement, il reste président de l'association Futuribles et nous allons continuer à animer ensemble pendant de longues années ce séminaire de recherche en prospective qui se tient depuis plus de quinze ans, le premier jeudi de chaque mois dans la salle des conseils du Conservatoire. Il suit aussi des thèses dans le cadre de la formation doctorale en prospective et stratégie que nous avons créée ensemble. Dommage que le Conservatoire n'ait pas songé à lui réserver les mêmes faveurs que Maurice Allais à l'École des mines ! De toute façon, il a seulement besoin d'un bloc de papier et d'un stylo pour faire avancer les idées et je sais qu'il le fera jusqu'à son dernier souffle. Cet avenir-là, comme les autres, n'est pas écrit mais reste à faire. Parions qu'il nous réserve à nouveau mille et un sentiers de complicités. Et comme il n'y a pas de bonne prospective sans rétrospective, relatons pour la mémoire et le plaisir quelques croisements passés de nos deux sentiers de vie. ' Tout a commencé un beau jour de printemps 1970, encore étudiant en économétrie et introduit par Patrick Cohendet alors stagiaire, je rentre dans les bureaux de la Sema, avenue Georges Pitard, dans l'antichambre du maître de la conjoncture de l'époque : Christian Goux. Je ne savais pas encore qu'il m'initierait à la prospective et que bien plus tard en 1976 je soutiendrais ma thèse d'État ès sciences économiques (« Crise de la prévision, essor de la prospective ») sous sa direction. Par ces curieux retournements de l'histoire, il avait quitté la Sema depuis plusieurs années et j'étais devenu responsable de Sema-Prospective. De ce premier contact en 1970, je garde le souvenir inaltéré d'un bouillonnement de l'esprit, la Sema de cette époque avec sa Laraisontranquille 201 j ( Î direction scientifique d'une centaine de personnes dirigée par Bernard Roy et Patrice Berthier était vraiment le temple de la matière grise en France, son rayonnement était comparable à celui de la Rand Corporation aux ÉtatsUnis. J'ignorais aussi que le grand prêtre de ce temple s'appelait Jacques Lesourne (le major de l'X de la promotion 1948, l'année de ma naissance) et qu'il venait de publier avec Robert Lattès (normalien) et Richard Armand (major de l'X, promotion 1957) : Matière grise année zéro. Je me souviens seulement qu'on m'avait narré l'histoire du fondateur de ce temple, vénéré par ses semblables à tel point que certains élèves des promotions ultérieures de l'X faisaient le mur pour assister à ses conférences sur l'économie dans les années cinquante et soixante. L'histoire est vraisemblable, et en tout cas l'association Ecole polytechnique et Sema était très forte. À tel point que lors de ma première mission aux États-Unis en 1975, j'ai rencontré un Français du FMI, dont le nom m'échappe aujourd'hui, qui s'est présenté à moi en me disant bonjour, je suis X 1928 et vous quelle année ? J'ai décliné mes origines purement universitaires et il m'a répliqué, tout surpris, mais que se passe-t-il donc à la Sema ? La Sema était effectivement en crise depuis le début des années soixante-dix, le marché des études et du conseil s'était retourné. Il fallait, fait nouveau pour des ingénieurs qui y étaient mal préparés, chercher les clients et le premier choc pétrolier était venu balayer les illusions et les croyances dans les vertus du calcul et de la prévision économique. C'est dans ce contexte de crise que je suis entré à la Sema comme jeune ingénieur conseil en 1974. J'avais eu la chance de développer de nouvelles méthodes de prospective et d'analyse de systèmes sur les questions énergétiques au Commissariat à l'énergie atomique et je m'étais retrouvé très vite à la tête d'un îlot de profit dans une entreprise en difficulté. C'est sans doute la raison pour laquelle le père du calcul économique m'a remarqué dès cette époque. Je me souviens lui avoir posé la question des années après et sa réponse fut implacable : « La plupart des lumières étaient éteintes, il n'était donc pas difficile de repérer une bougie. » Le contact avec Jacques Lesourne rend forcément modeste. C'est d'ailleurs la première et la plus forte impression que je garde de cet homme : les grands sont toujours simples et limpides. C'est en pensant à sa référence que depuis, je me garde de tous ces faux savants immodestes et compliqués qui encombrent les colloques. ) ) ` ) ) ) ) 1 : ) : Jacques Lesourne a quitté la présidence de la Sema en 1975 pour rejoindre le Conservatoire national des arts et métiers et prendre la direction du programme Interfuturs à l'OCDE. De mon côté, je prenais la tête du département prospective de la Sema où il exerçait toujours un rôle de conseil scientifique. C'est de cette époque que j'ai pris l'excellente habitude de lui soumettre mes idées et de tester auprès de lui mes intuitions. En 1977, Jacques Lesourne préface la publication de ma thèse Crise de la prévision, essor de la prospective aux PUF ; il parle du sujet, ne dit pas grand-chose de l'auteur encore en herbe, mais le reconnaît et c'est déjà immense. Je découvre alors la curieuse relation de rivalité filiale entre celui qui m'avait 202 PROSPECTIVE initié à la prospective (Christian Goux) et celui qui m'avait reconnu dans ce domaine. Les deux hommes ne pouvaient pas s'entendre et pourtant je les admirais chacun pour leurs qualités complémentaires. D'un côté, l'enthousiasme et la passion jusqu'à l'excès avec Christian Goux et, de l'autre, la retenue et la raison jusqu'à la réserve avec Jacques Lesoume. La relation avec le premier, devenu président de la commission des finances de l'Assemblée nationale, s'est achevée brutalement à l'automne 1981. J'étais demandeur d'un conseil et d'un appui pour me reconvertir après la suppression brutale de l'institut Auguste Comte, il m'a reçu, m'a parlé de lui et a conclu : ne comptez pas sur moi pour aider ceux qui n'ont pas la carte ! Quelle claque pour l'ancien gauchiste jamais encarté de mai 1968 ! Quel contraste aussi avec le comportement de Jacques Lesourne qui a agi de tout son poids et de son autorité auprès de ses collègues et notamment du professeur Saint-Paul pour me faire venir au Conservatoire en tant que professeur associé sur une chaire spécialement créée de prospective industrielle. Ces deux hommes, à l'époque réputés au centre droit, n'ont jamais prêté la moindre attention à mes éventuelles sensibilités politiques. Ils m'ont soutenu uniquement sur des critères scientifiques. Dans le choix de mes collaborateurs, je me suis depuis attaché à respecter les mêmes critères quitte à me retrouver entouré d'opinions plurielles. Dès lors, notre collaboration n'a cessé de grandir. Nous nous sommes retrouvés comme consultants auprès des grandes entreprises et des organismes internationaux à des niveaux et avec des styles différents. Comme d'autres je peux dire que lui, c'est lui et moi, c'est moi. Une génération nous sépare, c'était assez pour évacuer ces questions de rivalité qui empoisonnent trop souvent les relations entre ceux qui ont le même âge. Il y a peu de cas où nous sommes intervenus ensemble. En revanche, il m'est arrivé, plusieurs fois, de retrouver Jacques Lesoume comme conseiller du président de la société où j'intervenais. Il ne se montrait jamais surpris et plutôt content de me voir là. Au passage relevons un des traits les plus marquants de son caractère et sans doute aussi de son extraordinaire efficacité intellectuelle : le cloisonnement. Jacques Lesourne est capable de passer d'un sujet à l'autre, en évacuant le précédent pour se consacrer au suivant avec la même fraîcheur d'esprit. C'est ainsi que des visiteurs réguliers thésards, consultants, clients ou amis, ont pu se succéder dans son bureau sans jamais entendre parler les uns des autres, ni même le savoir. En établissant par recoupements la liste des auteurs de ce collectif, nombreux sont ceux qui ont découvert tel ou tel qu'ils fréquentaient par ailleurs, en ignorant ce lien commun fort mais de fait caché. Je sais qu'il n'y a pas chez Jacques Lesourne de volonté de secret, mais d'abord le souci des idées plus que des relations et certainement une discrétion naturelle. Il n'y a pourtant pas de sujet tabou chez cet homme dont la pudeur a pu intimider nombre de ses visiteurs et être perçue comme de la froideur. Il n'a jamais esquivé les questions, mêmes les plus personnelles ou taboues, mais tout simplement il ne les aborde jamais le premier. La réserve ; La raison tranquille 203 de Jacques Lesourne, m'a paru parfois excessive. Ainsi, lorsqu'il dirigeait le de journal Le Monde, j'ai exprimé le souhait de rencontrer un journaliste renom dont j'appréciais les éditoriaux. Il a réagi sèchement en me disant : ne comptez pas sur moi pour cela. J'ai eu plus de chance en décrochant tout simplement mon téléphone. Le refus des jeux d'influence et l'aversion pour les manoeuvres caractérisent aussi Jacques Lesoume. En ce qui me concerne, je le soupçonne de s'être parfois gardé de suggérer mon nom dans les entrecomme consultants. Nos liens étaient prises où nous nous retrouvions connus, cela suffisait. Cette grandeur dans la réserve est trop rare pour ne pas être relevée. Autant Jacques Lesourne est réservé dans son comportement et mesuré dans ses propos, autant je suis par nature passionné dans mes engagements et tranchant dans mes propos. Je crois que Jacques Lesourne fait partie de ceux qui apprécient un certain bon sens et un sens certain de la formule quitte à la calmer par une nuance bien choisie. Sur les grandes questions comme la crise du système éducatif, nous étions d'accord à 100 % sur le fond, mais, ce qu'il disait entre les lignes et en bas de page, je le contrastais par un titre accrocheur comme « La France malade du diplôme » : lui, c'est lui et moi, c'est moi. Relevant un jour cette différence de tempérament entre nous deux, ce qui ne nous a pas empêchés de diriger ensemble un ouvrage collectif (1), >, il m'a répondu comme un compliment : vous avez fait des pas dans mon sens et moi j'en ai fait dans le vôtre. Il est vrai que le principe de Carnot suppose pour son efficacité la réunion de deux sources : l'une froide et l'autre chaude. Avec les années, j'ai l'impression de m'être assagi dans mes propos alors que Jaques Lesourne est devenu de plus en plus espiègle. Il suffit d'être à ses côtés durant certaines réunions pour ne pas s'y ennuyer tant ses traits d'humour parfois cinglants réjouissent l'esprit. ; ; Je me souviens aussi de Jacques Lesourne après sa démission du journal Le Monde. Il était certes fatigué par l'épreuve d'un choix personnel difficile, mais il n'y avait pas chez lui l'aigreur ou l'effondrement que l'on retrouve chez les grands chênes que l'on abat et qui ne s'en relèvent jamais. Il reprit racine dans le plaisir de la pensée et de l'écriture et presque immédiatement tout simplement ses familiers ont pu le voir comme avant. Pendant trois ans j'avais dû me contenter de quelques rendez-vous du samedi matin au Monde. À son retour au Conservatoire, nous reprîmes nos habitudes d'échanges plus fréquents et je fus frappé par la force de l'esprit et la supériorité de ceux qui ont une vie intérieure et intellectuelle, par rapport à ceux qui n'ont pas d'autre flamme que l'ambition et le pouvoir pour s'animer. Je pense avoir dit le plus important sur l'homme et les traits marquants de il reste à parler de ses idées. Je serai plus bref car il est son comportement, difficile de résumer les dizaines de milliers de pages produites par cet esprit ( 1 )La.fin des habitudes, Seghers, 1986. 204 PROSPECTIVE Le champ couvert est immense : du calcul économique à la encyclopédique. sans oublier la philosogéopolitique, de la prospective à l'auto-organisation phie, l'éducation, l'emploi, l'entreprise, le changement technique, la société. Il faudrait sans doute tout lire pour capter l'essentiel car si Jacques Lesourne écrit beaucoup, il se répète rarement. Il se comporte comme s'il s'adressait aux mêmes lecteurs depuis son premier livre. C'est en un sens dommage car les lecteurs changent ou oublient, et une certaine forme de répétition participe à la pédagogie. Au-delà des idées forces déjà évoquées sur le marché du travail, je dois à Jacques Lesoume beaucoup de repères intellectuels qui m'ont permis d'avancer plus vite. Commençons par le spirituel : la question de l'existence de Dieu est un problème sans fin, quasiment insoluble, il est donc inutile d'y réfléchir éternellement. Il est plus judicieux de mettre sa au service de problèmes qui ont des chances d'avoir capacité intellectuelle des solutions. Je dois aussi à Jacques Lesourne de m'avoir aidé à faire le lien entre la prospective où le projet, commandé par le désir, est force productive d'avenir et l'auto-organisation où tout se passe comme si la finalité était le face aux bruits de l'environnement. Il m'a perpremier principe organisateur mis de mieux faire la part des choses entre hasard, nécessité et volonté, et de reconnaître l'intérêt des travaux de Prigogyne sur les points de bifurcations sources des ruptures de la prospective. A ce point de bifurcations certains acteurs peuvent faire dévier les trajectoires et changer le cours de l'histoire. Certaines actions « infimes dans leur dimension présente » peuvent se transformer en faits porteurs d'avenir, c'est-à-dire, selon Pierre Massé, « immenses virtuelles ». par leurs conséquences Mais c'est sur le lien entre réflexion et action que Jacques Lesourne m'a le plus influencé. En tant que conseiller des princes, il a pu non seulement observer les dirigeants politiques et économiques du monde occidental, mais il a eu aussi la tentation de s'observer lui-même en tant que décideur, comme dirigeant de la Sema puis du journal Le Monde. Peu d'hommes de réflexion ont eu cette chance de se retrouver dans la peau de l'homme d'action. Chez Jacques Lesoume la réflexion n'a jamais paralysé l'action, mais elle n'a jamais cessé même au coeur de l'action. Le souci de mettre la raison au service de l'efficacité l'a ainsi toujours emporté sur les impulsions spontanées et forcément irréfléchies. Je vois dans cette force de caractère beaucoup l'homme de réflexion mais aussi quelque inconvénient d'avantages pour l'homme d'action. Il ne suffit pas d'avoir la bonne décision en tête pour pour dans les faits. L'homme de réflexion ne peut se contenter qu'elle s'impose d'éclairer les dirigeants, il doit aussi les convaincre que les meilleures idées ne sont pas celles que l'on a, ni même celles que l'on donne, mais celles que l'on suscite : l'appropriation est indispensable pour passer de l'anticipation à l'action. Le capitaine éclairé est aussi celui qui sait parler aux troupes et provoquer l'adhésion et l'enthousiasme pour des actions partagées. Un problème bien posé et collectivement partagé par ceux qui sont concernés est résolu. Il faut savoir marier raison et passion pour réussir dans déjà presque l'action. Tout cela Jacques Lesourne le sait mieux que quiconque, ne serait- La raison tranquille 205 ce que parce qu'il a continué à s'observer lui-même dans l'action. Cette extraordinaire maîtrise de soi a sans doute conduit à un déficit de passion dans l'action, mais elle a fourni aux sciences de l'action un précieux matériau. On retrouvera l'essentiel de cet apport dans le chapitre qu'il consacre à « un art difficile pour l'entreprise : réfléchir pour agir » (1). Mieux que des laissons paraphrases parler Jacques Lesourne. Il rappelle que généralement « l'homme est seul face à l'action et à la décision ». Il ne se fait pas non plus « Les comportements d'illusion : la réflexion et intégrant rationnellement l'action ne sont adoptés que par certains dirigeants en certaines circonstances et à certaines étapes de leur vie. » Et même dans ces circonstances-là « le processus de réflexion est-il rarement authentique, conscient et rationnel ». L'homme de raison n'ignore rien du rôle déterminant de l'inconscient et ce n'est pas par hasard si la compagne de sa vie est psychanalyste. Rien de surprenant donc dans les propos suivants : « la décision résulte moins d'une conviction rationnelle que de mobiles inconscients, que seule l'histoire psychanalytique du sujet permettrait de détecter : le besoin de puissance, la recherche de sécurité, la foi en un destin... » Le constat est plein de réalisme : « aussi, la plupart du temps, les dirigeants qui réussissent commettent-ils de nombreuses erreurs et violent-ils les canons de la rationalité » Jacques Lesourne se bat de toutes ses forces pour que la réflexion éclaire l'action, tout en connaissant les limites de la raison. Ces dirigeants imparfaits car faits de chair et d'esprits comme tous les humains s'en sortent par leur génie personnel, par la relativité des choses (« il y a plusieurs solutions acceptables pour un même problème »), par le temps qui dans un environles erreurs » ou qui permet nement en croissance « corrige automatiquement « à des adversaires plus médiocres » de faire davantage d'erreurs. . . On l'a compris, pour Jacques Lesourne, la réflexion doit toujours précéder l'action et il faut beaucoup d'études en amont d'une décision pour bien préparer celle-ci. Une grande partie sera finalement inutilisée, mais c'est le seul moyen d'espérer que la partie utile sera disponible. Il n'y pas de création sans transpiration, le génie se cultive et ne s'épanouit vraiment qu'en étant de connaissance. Pour Jacques Lesourne : « Il n'y a de tête bien imprégné faite que raisonnablement pleine. » Il faut « faire coexister travail et partici« » sans oublier » et le temps long, c'est-à-dire la pation l'imagination mémoire du passé car « la vision du long terme est souvent trop influencée par les vicissitudes du court terme ». Il y aussi de belles formules glanées à l'oral et que je cite sans référence écrite. Ainsi, en 1980 devant les auditeurs de l'institut Auguste Comte pour les sciences de l'action, il déclara : « Les grandes décisions ne se prennent pas, elles deviennent de moins en moins improbables. » Il y a ainsi une succession de petites décisions et de non-décisions que l'on prend sans réaliser leur accumulation et leur portée future. Il serait certainement plus judicieux de s'en rendre compte par des réflexions de prospective aussi rigoureuses stratégique que possible. Et pour cela, (1) In La prospective stratégique d'entrepri.se, InterÉditions, 1996. 206 PROSPECTIVE Jacques Lesoume sait qu'il y a des méthodes certes perfectibles mais tourassembler les données, interroger le passé et formuler jours stimulantes : écrit ses par hypothèses et conjectures. En effet, face à l'incertitude et à la complexité des problèmes, les hommes ne sont pas désarmés. Ils ont façonné hier des outils qui sont toujours utiles Les outils de recherche opérationnelle, aujourd'hui. d'analyse systémique et de prospective sont précieux pour stimuler l'imagination, réduire les incohérences, créer un langage commun, structurer la réflexion collective et permettre l'appropriation. Sans Jacques Lesourne la diffusion de ces outils dans les grandes entreprises comme EDF, la SNCF, Schneider et quelques autres..., serait restée confidentielle. La prospective est un art, une indiscipline intellectuelle. Pour cet art, il faut d'abord l'imagination du poète et, en plus de la connaissance, du bon sens et une bonne dose de non-conformisme. Si la prospective est une indiscipline intellectuelle, elle a aussi besoin de rigueur et de méthodes pour éclairer l'action des hommes et l'orienter vers un futur désiré. Si la passion sans la raison est aveugle, la raison sans la passion est stérile, et je dois certainement à Jacques Lesoume de m'avoir appris à féconder la passion par la raison afin de mieux servir l'action. Thierry de Montbrial LESTRATÉGISTE ETL'ÉCONOMISTE ; Î j ) ' ) ) j [ [ ) ) Toute sa vie professionnelle, Jacques Lesoume s'est voulu chercheur et homme d'action, penseur et acteur. Il est naturel, dans un ouvrage de Mélanges publié en son honneur, de consacrer un article à la notion de stratégie. Pendant des siècles, sinon des millénaires, la pensée de l'action s'est structurée dans le cadre de la guerre. Les stratégistes (je distingue ici les stratégistes et les stratèges : les premiers sont les théoriciens et les seconds les étaient des militaires et des diplomates. Leurs praticiens de la stratégie réflexions se nourrissaient de l'étude des champs de bataille. Ce n'est que très récemment que l'activité économique a commencé à être pensée en termes stratégiques. Les fondateurs de la théorie économique moderne, comme Adam Smith ou David Ricardo, s'intéressaient surtout au résultat global de l'interaction entre une multitude d'agents supposés totalement informés sur leur environnement et individuellement négligeables, ce qui a engendré le paradigme de la concurrence pure et parfaite, radicalement incompatible avec toute notion un peu riche de stratégie. Marx fut probablement le premier auteur à penser l'économie stratégiquement, en introduisant la notion de rapport de forces. Mais son programme était davantage idéologique qu'intellectuel. Son accent trop exclusif sur le concept de la lutte des classes limitait étroitement son champ analytique. Au xixl siècle également, les auteurs comme Cournot qui s'intéressaient aux situations de ce qu'on appelle aujourd'hui la concurrence imparfaite demeurèrent margi- , (1) VoirL. Poirier,Le chantierstratégique,Paris,HachetteLittératures,coll. Pluriel, 1997. 208 PROSPECTIVE naux. Ils n'eurent guère d'influence immédiate, ni sur le développement de la pensée, ni sur les acteurs de la vie économique. Pour la question qui nous occupe ici, la première moitié du xxe siècle est dominée par la figure de Joseph Schumpeter (1883-1950). Dès son premier livre, Theory of Economic Development, rédigé à l'âge de 28 ans, ce grand esprit introduisit la figure essentiellement de l'entrepreneur, acteur central du système stratégique capitaliste. L'entrepreneur occupe également une place éminente dans les deux volumes de Business Cycles (1939), où Schumpeter interprète les En substance, cycles longs de Kondratieff en terme de vagues d'innovations. il décrit ainsi les qualités de l'entrepreneur : une vision d'un projet possible ; un goût du risque suffisant pour l'entreprendre ; un pouvoir de conviction (on pourrait ajouter dans certains cas : ou de coercition) pour rassembler les ressources nécessaires à sa réalisation. Une telle description, originellement, ne pouvait convenir qu'à des individus exceptionnels. À notre époque, elle au sein desquelles une culture peut être pertinente pour des organisations adéquate a pu s'épanouir, généralement sous l'impulsion initiale d'un leader talentueux. Elle est infiniment éloignée de l'image de cette sorte d'automate qu'est le « producteur » dans la théorie de la concurrence pure et parfaite, et même dans la théorie du monopole à la Cournot - ainsi d'ailleurs que de la caricature du capitaliste rapace, campée par Marx. L'entrepreneur schumpétérien est un véritable stratège, dans le sens que la tradition militaire donne à ce terme. les travaux de Schumpeter sur la dynamique du capitaMalheureusement, lisme furent éclipsés par ceux de Keynes, inspirés par un paradigme radicalement différent (particulièrement dans la General Theory of Employment, Interest and Money, 1936), et plus proche des préoccupations politiques à de la Grande En 1942, Schumpeter publia son bestl'époque Dépression. seller et, selon certains, son chef-d'oeuvre : Socialism and Capitalism, Mais la centrale de cet est Democracy. perspective ouvrage remarquable différente (il s'agit de la survie du capitalisme), même si le chapitre VII en particulier, reprend certains (« The Process of Creative Destruction »), clés de ses antérieures. points analyses Après la seconde guerre mondiale, la théorie économique évolua dans deux directions principales : l'approfondissement des idées keynésiennes et la reconstruction du modèle de l'équilibre et de l'optimum formulé initialement par Walras et Pareto. Des travaux qui influencèrent cette reconstruction, nul n'a eu plus de poids que le livre d'Oskar et John Von Neumann, Morgenstern Theory of Games and Economic Behaviour, publié en 1944. Les problèmes auxquels s'intéresse la théorie des jeux sont, par essence, stratégiques. Mais les hypothèses de base de cette construction imposante, dans sa formulation originelle, restent fort éloignées des faits - même « stylisés » - qui intéressent la stratégie militaire, ou la stratégie d'entreprise au sens schumpétérien. De fait, jusqu'aux années les courants dominants de la recherche économique ont ignoré soixante-dix, la pensée stratégique. Un auteur comme François Perroux pour l'essentiel est resté isolé. À l'inverse la pensée stratégique militaire a cependant, Le stratégiste et l'économiste 209 issus de la théorie des jeux, surtout intégré certains modes de raisonnement dans le domaine des armes nucléaires (voir, par exemple, l'oeuvre de l'économiste mathématicien T.C. Schelling). La suite de cet article est organisée de la façon suivante. Dans une première les éléments fondamentaux de la pensée partie, je présente succinctement issue de la tradition en de les formuler de militaire, stratégique essayant à en tirer des utiles dans des domaines autres façon pouvoir enseignements l'art la Dans tente de de une deuxième que guerre. partie, je dégager les caractères essentiels de la découverte stratégique, telle qu'elle se manifeste dans les développements de la science économique des trois dernières décennies. Dans son Introduction de concision et de à la Stratégie(') chef-d'oeuvre clarté dont la première édition date de 1963, le général André Beaufre explique que « notre civilisation a besoin d'une praxéologie, d'une science de l'action. Dans cette science, la stratégie peut et doit jouer un rôle capital pour conférer un caractère conscient et calculé aux décisions par lesquelles on veut faire prévaloir une politique ». En fait - j'y reviendrai plus loin politique et stratégie sont inséparables, et Beaufre a tort de situer la politique sur un plan différent et au-dessus de la stratégie, comme si la stratégie n'était l'effet Peut-être faut-il voir dans cette dichotomie qu'un art d'exécution. d'une tradition où l'armée était encore la « grande muette ». Beaufre utilise donc le terme de praxéologie forgé, à ma connaissance, par le philosophe A. Espinas en 1897, repris en 1937 par le philosophe polonais Kotarbinski, L. Von Mises dans son ouvrage Human Action publié puis par l'économiste en 1949, enfin par R. Aron dans Paix et Guerre entre les Nations ( l n'est concevable que pluridisciplinaire. Je édition, 1962). La praxéologie renvoie à l'un des grands livres de Jacques Lesourne, Les systèmes du destin (1976), pour une illustration profonde de la nécessaire pluridisciplinarité dans les sciences de l'action. ¡ : ¡ i i : ! 4 i Il n'en reste pas moins que la stratégie joue le rôle central dans la praxéodes logie. Beaufre définit la stratégie comme « l'art de la dialectique volontés employant la force pour résoudre leur conflit ». Son but est d'« atteindre la décision en créant et en exploitant une situation entraînant suffisante pour lui faire accepter une désintégration morale de l'adversaire les conditions qu'on veut lui imposer ». Dans ces formules, Beaufre pense à la guerre, mais leur domaine de validité est beaucoup plus évidemment large, à condition d'abord de donner au mot force le sens général de ressources. Toute unité active (État, entreprise, etc. - la locution a été introduite par François Perroux se caractérise en effet, du point de vue ( 1 )A. Beaufre, Introduction à la stratégie, Paris, Hachette, 1998. (2) F. Perroux, Unités actives et mathématiques nouvelles, Paris, Dunod, 1 975. _ 210 0 PROSPECTIVE interne, par des ressources que l'on peut toujours répartir en trois grandes catégories : humaines, morales et matérielles. La première correspond aux au sens le plus large du terme - du caractéristiques démographiques groupe constitutif de l'unité en question ; la seconde traduit le ciment culturel et idéologique du groupe et donc son degré de cohésion ; la troisième se rattache à la terre (portion de volume terrestre et non pas de surface, à cause du sous-sol et de l'espace) et aux forces productives. En fait, ces trois catégories se recouvrent en partie, à la manière des trois catégories de « facteurs de production » distinguées par l'économie politique classique et néoclassique (la terre, le travail et le capital). Comme celles-ci, elles peuvent être plus ou moins substituables les unes aux autres. Pour illustrer la maniabilité de cette classification que l'on pourra comparer à celles d'auteurs comme Morgenthau ou Aron dans le cas particulier des relations internationales, on prendra d'abord l'exemple de la ressource « terre » pour un État, laquelle doit être comprise, au-delà de sa signification économique et humaine habituelle, comme l'espace ou l'étendue (der Raum dans la géographie politique de Ratzel). Selon la position de l'État (die Lage chez Ratzel, notion à la fois géographique et historique) une vaste étendue peut être un avantage (la Russie face à Napoléon ou à Hitler) ou un inconvénient (la Russie contemporaine face à la pression démographique chinoise). Même type de raisonnement pour les petites étendues. Deuxième exemple : les ressources morales sont à la base du sentiment national, et l'on sait depuis longtemps qu'elles sont primordiales en matière de défense. Lénine, s'inspirant de Clausewitz, fixait le but de la stratégie dans une formule dont celle de Beaufre citée plus haut est une variante : « Retarder les opérations jusqu'à ce que la désintégration morale de l'ennemi rende à la fois possible et facile de porter le coup décisif. » Dans une unité active comme une entreprise (au sens économique), on reconnaît aujourd'hui l'importance de la ressource morale, aussi bien pour la productivité que pour l'exécution des stratégies. L'art de la stratégie consiste souvent à identifier le « point décisif » permettant d'atteindre le résultat. Dans les relations internationales ou dans les situations de maintien ou de rétablissement de l'ordre à l'intérieur d'un État, la stratégie implique le recours à la force au sens usuel (militaire, policière) et donc à la violence, ou tout au moins à l'éventualité du recours à la force, laquelle est donc nécessaire. Dans les stratégies des agents économiques privés, le recours à la violence est en principe légalement exclu puisque l'État, selon la formule bien connue de Max Weber, dispose sur son territoire du monopole de la « contrainte légitime ». Notons que, d'une manière générale, l'objectif du stratège est d'imposer une volonté, et non pas de gagner des « batailles », lesquelles ne constituent en fait que des moyens plus ou moins nécessaires. C'est bien aussi le sens des préceptes de Sun Zu (l'idéal est que votre adversaire se plie à votre volonté sans que vous ayez à utiliser effectivement la force) et - quoiqu'on en dise - cette idée se trouve également dans Clausewitz et chez beaucoup de grands penseurs militaires. La Le stratégiste et l'économiste guerre réelle ne saurait être une fin en soi et la gloire des faits d'armes constitue jamais l'objectif ultime d'une stratégie. 2111 ne Dans la définition de Beaufre, l'idée centrale est celle de désintégration Elle n'est pas originale. On la trouve notamment, morale de l'adversaire. comme on l'a vu, chez Clausewitz et chez Lénine. Mais Beaufre lui donne tout son relief en la plaçant au coeur de sa définition de la stratégie. Pour gagner, il faut certainement préserver, tout au long de l'épreuve de volonté, le lien moral qui fonde l'identité de sa propre organisation. Est-il cependant toujours nécessaire d'obtenir la rupture ou la dissolution du lien moral qui adverse ? Pareille exigence théorique me fonde l'identité de l'organisation comme condition générale. On le voit par en tout cas excessive, paraît Pour gagner, il faut et il suffit que l'adexemple en stratégie d'entreprise. versaire soit paralysé, ou encore mat, comme on dit aux échecs, c'est-à-dire ne lui contraintes d'utilisation) (quantités, que l'état de ses ressources tout dépend des permette plus de refuser la loi de l'autre. Concrètement, de tous ses objectifs. Une entreprise a rarement intérêt à la destruction de l'adverconcurrents. Dans le cas extrême où le but est l'anéantissement saire (cf. « la guerre selon son concept » chez Clausewitz) il est effectivement nécessaire de briser son unité et donc le lien moral qui la conditionne. les formules de Beaufre. On Tout ceci me conduit à proposer d'amender des volontés définira donc la stratégie comme « l'art de la dialectique but est conflit ». Son résoudre leur des ressources pour employant des sur l'exploitation d'« atteindre la décision en créant des contraintes suffisantes pour lui faire accepter les conditions ressources de l'adversaire qu'on veut lui imposer ». Ces contraintes peuvent porter sur les ressources ou sur leurs modes de mobilisation. elles-mêmes, j ) / ] ) 1 / [ ) [ On pourrait, dans le même sens, modifier d'autres définitions de la stratégie comme celle de Basil Liddell Hart : « The art of distributing and applying military means to fulfill ends of policy » ou encore celle de T.C. Schelling : « Strategy [...] is not concemed with the efficient application of force but with the exploitation of potential force. » On rapprochera d'autre part toutes straamendées de la définition suivante ces formules éventuellement ou collective d'une organisation tégie est l'art, pour la direction individuelle ou simple ou complexe, de préparer et de mettre en oeuvre, réellement ou réduire les nécessaires les moyens virtuellement, pour surmonter obstacles de toute nature (physiques, heurts de volontés) qui s'opposent à la correcteréalisation d'un objectif atteignable et, ce faisant, d'anticiper le l'évolution dans continu, ment, selon un processus d'ajustement temps du cette de voir, les façon rapport des forces physiques et morales en jeu. Selon être conçus d'optimisation, par exemple, peuvent problèmes mathématiques comme des cas particuliers de la démarche stratégique. j 1 (1) T. de Montbrial, Que Faire ? Paris, La Manufacture, 1990, p. 378 et suivantes. 2122 PROSPECTIVE Dans son Introduction, Beaufre présente cinq « modèles » stratégiques particulièrement dans le champ diplomatico-militaire : (1) la caractéristiques menace directe ; (2) la pression indirecte ; (3) la succession d'actions limitées combinant menace directe et pression indirecte ; (4) la lutte totale prolongée de faible intensité militaire ; (5) le conflit violent visant la victoire militaire. Par exemple, Mao Ze-Dong résumait sa stratégie de conquête du pouvoir, apparentée au quatrième modèle, en six formules : repli devant l'avance ennemie par « retraites centripètes », avance devant le retrait ennemi, stratégie à un contre cinq, tactique à cinq contre un, ravitaillement sur l'ennemi, cohésion intime entre l'armée et les populations. Il convient d'expliciter, au passage, la distinction fondamentale entre et Celle-ci n'est Au début tactique stratégie. apparue que progressivement. de son célèbre Essai général de tactique, publié en 1803, le Comte de Guibert du « principe divisionnaire » et que l'on crédite de l'invention à ce aurait influencé titre, qui, Napoléon décompose la « tactique » en deux parties : « L'une élémentaire et bornée, l'autre composée et sublime. La première [la « tactique élémentaire »], renferme tous les détails de formaet d'exercice, d'un bataillon, d'un escadron, d'un régition, d'instruction ment [...]. La seconde partie [la « grande tactique »] est à proprement parler, la science des généraux. Elle embrasse toutes les grandes parties de la ordres de marche, ordres de d'armées, guerre, comme mouvements batailles ; elle tient par là et s'identifie à la science du choix des positions et de la connaissance du pays [...] elle tient à la science des fortifications [...]. Elle est tout, en un mot, puisqu'elle est l'art de faire agir les troupes, et toutes les autres parties ne sont que des choses secondaires qui, sans elle, n'auraient point d'objet, ou ne produiraient que de l'embarras. » En fait, la grande tactique de Guibert n'est pas encore la stratégie. Elle correspond la « stratégie opérationnelle plutôt à ce qu'on appelle aujourd'hui » qui « se situe [à] la charnière entre la conception et l'exécution, entre ce que l'on veut ou doit faire et ce que les conditions techniques rendent possibles » (Beaufre), ou à « l'art opératif » de la pensée militaire allemande et russe. La binaire de Guibert peut naturellement être raffinée pour décomposition former ce que l'on pourrait appeler un « spectre de l'action », à une extrémité duquel se situent la technique et la tactique, et à l'autre la stratégie et la politique. Des auteurs comme le général suisse Jomini (dans son Précis de l'art de la guerre, dont l'édition définitive date de 1855) et, de nos jours, l'Américain E. Luttwak, ont proposé des classifications de ce genre. Plus au début du livre II de vom Kriege, Clausewitz définit la sobrement, « comme la théorie relative à des forces armées dans l'entactique l'usage » « et la comme la théorie relative à des gagement stratégie l'usage engagements au service de la guerre ». Beaufre, pour sa part, note tout simplement que « le choix des tactiques, c'est la stratégie ». La distinction entre tactique et stratégie étant ainsi clarifiée, revenons aux modèles de Beaufre, qui couvrent en effet une large gamme de situations familières. À juste titre, l'auteur prend cependant soin de préciser que les Le stratégiste et l'économiste 2133 et pour lesquelles je renvoie à son livre « constituent règles correspondantes l'idée de solutions particulières plutôt générale que des lois générales ». L'examen des phases successives de la stratégie militaire classique, depuis montre comment les stratégies l'Antiquité jusqu'à l'époque contemporaine, concrètes sont liées aux caractéristiques d'ensemble d'une époque, de sorte est vain de les à une autre. On qu'il transposer comprend ainsi que prétendre le génie de Napoléon consista avant tout à tirer le meilleur parti des possibilités techniques de son temps, contre des adversaires intellectuellement l'a magistralement démontré fossilisés. Mais, comme Joseph Schumpeter dans le domaine de l'économie avec sa théorie des monopoles temporaires, les meilleures idées finissent toujours par se diffuser, se banaliser. C'est ainsi que, l'adversaire ayant enfin compris les nouvelles règles du jeu, la manoeuvre napoléonienne est devenue de plus en plus laborieuse, jusqu'au des troupes françaises a entraîné la défaite. Ceux qui, jour où l'infériorité ont commis l'erreur philosophique de prétendre enfermer après l'Empereur, son secret dans des formes universelles et donc atemporelles se sont lourdedonne aussi des ment trompés. L'analyse des deux guerres mondiales de malheurs résultant d'erreurs liées à l'anachroexemples conceptuelles nisme. ' On en vient ainsi à cette idée que l'essence de la stratégie tient dans un petit nombre de principes très abstraits, mais éprouvés dans le réel, et inévitablement d'application difficile au cas par cas. Le physicien Roger Balian observe dans l'introduction de son cours de Physique statistique à l'École polytechnique, que « plus la synthèse est vaste, et plus les principes sont généraux, plus la déduction devient difficile ». Ainsi en va-t-il par exemple pour la bonne utilisation par un ingénieur des deux premiers principes de la En stratégie, les deux principes d'économie des forces et thermodynamique. de liberté d'action identifiés par Foch sont peut-être les plus universels que l'on puisse formuler. Un bon stratège doit « atteindre le point décisif grâce à la liberté d'action obtenue par une bonne économie des forces » (Beaufre). Cela suppose généralement une manoeuvre, laquelle se déroule sur un ou abstrait (par exemple, un terrain concret (un espace géographique), on dira qu'un individu à un groupe champ relationnel : appartenant décommanoeuvre plus ou moins bien au sein de ce groupe), éventuellement reliés à une base par des lignes posable en plusieurs théâtres d'opération de communication. Une bonne stratégie suppose également une ligne de retraite pour préserver la cohésion des forces (lien moral) en cas d'adversité. La manoeuvre consiste en des opérations en quelque sorte cinématiques telles que « tourner, contourner, envelopper » (termes équivalents qui se une position, c'est rattachent à l'idée de surprise) ou « déborder » (déborder l'éviter), opérations d'autant plus aisées que l'on est davantage « mobile » etc. Conserver sa liberté d'action, c'est conduire sa propre manoeuvre ce soit tout en empêchant la manoeuvre adverse atteint, jusqu'à que l'objectif de réussir. Garder l'initiative en est le ressort principal. L'économie des efficace (au sens économique du terme), réel ou forces, c'est l'emploi 214 PROSPECTIVE virtuel, de tous les moyens disponibles, y compris des réserves, un point sur lequel Clausewitz insistait fortement. Les réserves sont en effet tout autre dans un chose que des ressources mortes, comme les objets abandonnés dont sont des ressources oublie l'existence. Ce et dont le propriétaire placard à l'occurrence de certains événements pré-idenconditionnelle l'utilisation tifiés comme possibles doit être pensée en fonction de la probabilité estimée (probabilité subjective en général) de ces derniers. la question de la découverte stratégique par la théorie éconodans la sphère diplomatico-militaire, mique, je partirai d'une constatation : la pensée de la « paix et guerre entre les nations » et la pensée de la stratégie Le stratège participe à la définition des objectifs de sont indissociables. l'autorité polil'unité active dans laquelle il s'incarne, et réciproquement Sur le plan manière de les atteindre. se désintéresser de la ne saurait tique il peut être licite de séparer les intellectuel et en première approximation, difficultés. En fonction des questions que l'on se pose, il peut donc être les objectifs comme des commode de penser la stratégie en considérant données exogènes, ou même de penser la politique comme un processus de production d'objectifs, l'exécution n'étant qu'une tâche subordonnée, voire Les limites de pareille dichotomie subalterne. cependant apparaissent aussitôt. Par exemple, les armements et les tactiques sont logiquement déterminés en fonction de la stratégie, alors qu'en pratique on observe souvent, une causalité inverse : d'une part, en raison des au moins partiellement, ou humain qui pèsent sur les premiers ; -, d'ordre contraintes technique de groupes de pression et du pouvoir cause de d'autre part à l'émergence se l'action diplomatico-stratégique exercent. Plus profondément, qu'ils constamment. fins et les la où les durée, moyens interagissent déploie dans on peut dire qu'il n'y En reprenant l'image de l'entrepreneur schumpétérien, des moyens permeta pas de vision d'un projet possible sans appréhension instrument de pouvoir sans ni maîtrise d'un de le réaliser dans le tant temps, l'ensemble du il servir. Et si l'on considère ce à peut conception de quoi « spectre de l'action », l'art d'un chef n'est pas seulement d'en contrôler un segment, mais d'avoir suffisamment d'intuition et de jugeparfaitement éclairer la partie du spectre située au-dessus de la sienne, et d'exment pour dominer celle qui se trouve en dessous. Dans l'armée, on ne périence pour au tour extérieur. Pour les mêmes raisons, dans les entredevient pas général « » sont de moins en moins tolérés. En temps de les prises, parachutages face à des hommes politiques médiocres ou peu avertis des choses guerre, dans les condimilitaires et donc incapables d'exercer leurs responsabilités il arrive souvent tions du moment, qu'un grand général occupe tout naturelsommet du spectre de l'action. Ce genre créneau laissé vacant au lement un à tous les niveaux. de substitution peut se produire Pour introduire auteur comme On comprend donc, avec ce qui précède, que lorsqu'un Clausewitz s'intéresse à la stratégie, il le fait à partir d'une réflexion fonda- Le stratégiste et l'économiste 2155 mentale sur les raisons pour lesquelles le problème de la stratégie se pose en l'occurrence les conflits interétatiques susceptibles de déboucher sur la guerre - puis sur le phénomène de la guerre lui-même. Ce faisant, il dégage les quelques principes généraux de l'action, mais surtout, il les illustre à travers l'étude de situations particulières qui sont autant de « modèles » ou, dans le vocabulaire des Business Schools, de « cas ». Il n'est pas injuste de dire que, jusqu'à ce jour, aucun économiste n'a cherché à accomplir le programme d'un Clausewitz. Schumpeter lui-même ne l'a pas fait parce qu'il ne regardait pas d'assez près l'intérieur de l'entrenée aux États-Unis, prise. La discipline appelée Business Administration, s'est développée en se voulant essentiellement pratique, et donc initialement sans aucun lien ou presque avec l'économie, dont les modélisations théoriques étaient trop abstraites pour ce qu'elles pouvaient avoir d'utile. En revanche, elle a effectué quelques emprunts au moins analogiques à la stramais sans trop pousser le rapprochement. Ainsi tégie diplomatico-militaire, la Business Administration s'est-elle intéressée aux questions proprement stratégiques qui se posent aux entreprises réelles, touchant à la fois aux buts et aux moyens, telles que : choix des activités ou comme on dit aujourd'hui des « métiers » ; degré d'intégration verticale ; part de la recherchecroissance interne, ou externe par fusions ou acquisitions développement ; celles-ci pouvant se faire de façon « amicale » ou « hostile » ; conquêtes de « parts de marché » et choix des « théâtres d'opération » ainsi que des « stra» correspondantes ; modes d'organisation interne effitégies opérationnelles caces par rapport aux objectifs assignés, etc. Toutes ces questions n'ont aucun sens dans le paradigme de la concurrence pure et parfaite. Progressivement cependant, la science économique a introduit des idées et des concepts permettant de mieux comprendre les situations stratégiques et même certaines questions proprement stratégiques dans le domaine de l'allocation des ressources dont les spécialistes de la Business rares, Administration ont pu tirer parti. Par situation stratégique, j'entends des situations obligeant les unités actives à élaborer une stratégie. Par question la fixation de certains objectifs ou, un proprement stratégique, j'entends étant de certains fixé, objectif moyens en vue de l'atteindre. Ainsi la branche intitulée Industrial Organization, initiée par des auteurs comme Joe Bain et Edith Penrose (1) dont l'objet est d'étudier la croissance de la firme et la structure des marchés dans des situations de concurrence imparfaite, apparaîtelle comme une discipline charnière. Par exemple, une notion comme celle de « prix limite » dans la théorie du monopole est proprement stratégique. Il une rente de long terme aussi élevée s'agit d'un prix assurant à l'entreprise mais suffisamment bas que possible, pour dissuader les concurrents potentiels d'entrer dans le marché. Le concept de « marché contestable » introduit par Baumol, Panzar et Willig en 1982 procède de la même inspiration. (1) Voir en particulier E. Penrose, Theory of the Growth of the Firm, Basil Blackwell Publishers, 1959. 2166 PROSPECTIVE Dans les situations d'information imparfaite sur les prix liées, par exemple, à la répartition spatiale des distributeurs d'un produit, on peut analyser en théorie les « bonnes » stratégies de manipulation des prix en vue d'empêcher de découvrir une fois pour toutes le prix le plus faible. les consommateurs <> étudie aussi des La théorie moderne de l'Industrial Organization « sur la qualité problèmes comme la sélection adverse » en cas d'incertitude des produits, les moyens susceptibles d'y remédier en particulier par l'acquisition d'une « réputation », l'intérêt de différencier les produits au sein d'une même gamme ou par des gammes différentes, le rôle de la publicité, etc. Parmi les sujets les plus anciens en la matière, on mentionnera la coordination des choix, illustrée par le « dilemme du prisonnier », qui permet de comprendre par exemple que dans des cartels tels que l'OPEP, les situations optimales (du point de vue des membres du cartel) sont instables tandis que les situations stables sont inefficaces. Cet exemple permet d'observer au passage qu'en stratégie, la distinction entre objectifs et moyens peut être délicate. Le choix des quotas de production pour les pays de l'OPEP est un moyen par rapport à l'objectif de la maximisation de la rente conjointe, mais on doit aussi considérer ces quotas comme des objectifs dont la réalisation suppose également une stratégie. Cette remarque est, dans le cas d'espèce, On utilise une autre manière de formuler le problème de l'instabilité. souvent le mot anglais Enforcement caractériser les conditions de pour d'un accord instable. respect potentiellement Dans l'état actuel des choses cependant, la découverte stratégique par les théoriciens de l'économie consiste moins à s'ouvrir sur la stratégie en tant et dont que telle qu'à se poser deux catégories de questions fondamentales l'intérêt déborde, à l'évidence, le cadre économique proprement dit. Il s'agit d'une part de l'analyse logique des choix, des contrats et des situations de jeux ; d'autre part des raisons profondes qui font que les entreprises ne se comportent pas selon un modèle unique (« l'agent représentatif » de la concurrence pure et parfaite) ce qui ouvre la voie à la compréhension de la diversité des buts et des moyens de les atteindre, et par conséquent à une intelligence des situations stratégiques pouvant déboucher sur des typologies, à l'instar des cinq « modèles » du général Beaufre dans le cadre de l'action diplomatico-militaire. Mais il reste à faire la synthèse avec les théories de l'organisation étudient le fonctionnement interne de l'entreprise et qui de ses en vue d'atteindre les ressources, morales, y compris l'optimisation À ce niveau d'analyse se situent des questions objectifs qu'elle se donne sous l'angle du C4I des militaires : d'organisation pure (en particulier la question Command, Control, Communication, Computing, Intelligence), de l'autorité (les différents types de leaders), les conditions propres à mobiliser des hommes autour d'un objectif (problème de la motivation), etc. De (1) Voir J. Tirole, The Theory <éf'Industrial Organization, Cambridge Massachusetts et Londres, the MIT Press, 1988. (2) Voir cependant P Milgrom, et J. Roberts, Economics, Organization & Management, Prentice Hall, Englewood Cliffs, New Jersey, 1992. Le stratégiste et l'économiste ce point de vue, on notera la pertinence de certains concepts nomie du travail, comme celui de salaire d'efficience. 2177 issus de l'éco- des points de vue, des langages et des domaines (paix et Le rapprochement au sens diplomatico-militaire, c'est-à-dire classique stratégie guerre, différentes branches de science des organisations, Business Administration, ne peut qu'avoir d'heureux effets sur la recherche. Ce serait l'économie...) d'ailleurs un bon sujet d'étude que de démêler toutes les influences intellecdans ces domaines, au cours de la seconde moitié du tuelles réciproques, xxe siècle. En ce qui concerne le présent, nous nous proposons, pour la découverte idées qui sous-tendent les principales terminer, d'identifier concerne et dont le caractère fondamental stratégique par les économistes, en fait la praxéologie au sens le plus large. Elles partent de questions relatives aux notions de temps et d'information. a toujours eu du mal avec la durée. Comment, par La science économique au-delà de la théorie atemporelle de l'équilibre général, formuler exemple, un concept pertinent d'équilibre au cours d'une « période » insérée entre un « passé », révolu mais ayant laissé des traces, et un « futur » ouvert ? Comment formuler une notion d'équilibre intertemporel traduisant l'idée de successifs ? cohérence entre des équilibres temporaires Qu'est-ce qu'une « période » de référence (la « semaine » de Hicks ou la « séance de marché » de Rueff) par rapport au temps physique (un autre découpage classique est la division ternaire d'Alfred Marshall entre court, moyen et long terme, et l'on a ultérieurement ajouté une autre notion de temps long avec des auteurs et Braudel), alors que les temps propres de chaque comme Schumpeter aux rythmes de formation, d'exécution et de révision auteur - correspondant de leurs projets - sont différents ? Comment les traces du passé se manifestelles au sens juridique tent-elles sur la « période » actuelle (obligations les éconoComment effet de mémoire, etc.) ? agents que l'endettement, l'incertitude et comment forment-ils leurs anticipamiques appréhendent-ils tions ? Comment prendre en compte les notions d'information objective et ne font les mêmes les et le fait pas prévisions et agents que subjective, introduire le fait que Comment a des priori incompatibles ? conçoivent plans alors du Comment se modifient au cours des les préférences temps ? agents et de aux deux donner sens l'équilibre, plus généralement, problèmes de leurs le problème de la coordination comment les agents résolvent-ils décisions ? . . Toutes ces questions ont engendré une littérature immense, particulièrement dans les trente dernières années, souvent en exploitant des idées très robustes trois particulièet beaucoup plus anciennes. J'en retiendrai essentiellement la distinction entre risque et rement fécondes et fortement interdépendantes : incertitude ; la notion de coût de transaction ; la notion de rationalité limitée. La distinction entre risque et incertitude remonte à Frank Knight (1885and Profit (dont la 1972). Dans son ouvrage majeur, Risk, Uncertainty son Treatise on l'année où date de 1921 édition Keynes publia première 2188 PROSPECTIVE centré sur la notion de probabilité subjective) Knight introduit Probability, la distinction entre les risques mesurables par des probabilités objectives (comme celles qui résultent des tables de mortalité) et ceux pour lesquels aucune mesure de ce genre n'est possible, auxquels il réserve le terme d'incertitude. Un entrepreneur, au sens schumpetérien, est une personne qui, par définition, se lance dans un projet original et pour lequel, par conséquent, existe au moins une part d'incertitude au sens précédent. Alors même que les de la concurrence et hypothèses pure parfaite seraient satisfaites par ailleurs, d'un ouvre la possibilité d'un profit, dans lequel l'apparition projet original en cas de succès, contreKnight voit la rétribution propre de l'entrepreneur de son audace. Mais il a aussi la partie y possibilité d'une perte, laquelle est alors la sanction de l'échec. Le profit éventuel peut aussi s'analyser dans le cadre du monopole temporaire de Schumpeter. Sur le plan théorique, le concept fondamental est celui de probabilité subjective approfondi dans le traité de Keynes et qui trouvera son cadre presque parfait dans la formulation de l'utilité des perspectives incertaines élaborée en 1944 par Von Neumann et Morgenstern, au début de leur célèbre ouvrage sur la théorie des jeux déjà mentionné. On remarquera incidemment, que toute cette approche de l'incertitude n'a fait que renouer avec les origines du calcul de probabilités La notion de coût de transaction est familière depuis longtemps aux économistes, à travers la monnaie. Mais il leur a fallu beaucoup de temps pour prendre conscience de son caractère infiniment plus général, que Ronald Coase avait pourtant dégagé en 1937 dans un article intitulé « The Nature of the Firm ». L'auteur se pose la question apparemment innocente : d'où vient que les entreprises existent ? Sa réponse est en gros la suivante : l'achat ou la location des facteurs de production requièrent dans la réalité l'élaboration de contrats qui implique la recherche d'informations notamment sur les prix. Tout cela entraîne des coûts réels, qu'on appelle coûts de transaction. Audelà d'un certain point, il devient préférable de remplacer le marché par une organisation centralisée opérant sur un mode hiérarchique, laquelle constitue Coase remarque de plus que le coût de la coordination des l'entreprise. facteurs augmente de telle sorte qu'au-delà d'une certaine taille, le recours au marché - c'est-à-dire à d'autres entreprises - redevient avantageux. En ce qui concerne la taille critique, tout dépend des modalités de l'organisation une matière elle aussi sujette à des innovations comme l'a elle-même, montré Alfred Chandler (2). C'est ainsi qu'au début des années vingt, un certain nombre de grandes entreprises américaines (comme General Motors sous la houlette d'Alfred Sloan) ont adopté un principe divisionnaire (« the celui de Guibert les ») qui rappelle armées, auquel multidivisonal firm pour (1) L. Daston, Classical Probabilities in the Enlightenment, Princeton, New Jersey, Princeton University Press, 1988. (2) A. Chandler, Strategy and Structure : Chapters in the History of the American Industrial Enterprise, Cambridge, Massachusetts, MIT Press, 1962. Le stratégiste et l'économiste 2199 il a été fait allusion plus haut. La fécondité de la notion de coûts de transaction, c'est-à-dire de l'ensemble des coûts qui résultent de la relation contractuelle, n'a été comprise que beaucoup plus tard, grâce à des auteurs comme Armen Alchian, Harold Demsetz et Oliver Williamson. Dans cette perspecen général est considérée comme une collection de tive, une organisation ou contrats, explicites implicites, liant ses membres individuels (lesquels être eux-mêmes des organisations). D'où un paradigme extrêmepeuvent ment gratifiant. Par exemple, si l'on s'interroge sur l'existence ou non d'une « nationalité » pour une entreprise « multinationale », on pourra examiner la nature des liens contractuels entre ses membres en particulier sous l'angle culturel. Le paradigme créé par Coase est également très utile pour réfléchir, par exemple, sur la nature des alliances ou des coalitions dans le domaine des relations internationales. La troisième notion, par laquelle je terminerai, est celle de rationalité limitée (une mauvaise traduction de l'anglais bounded rationality) dégagée par Herbert Simon en 1947. Il s'agit de l'idée que les « décideurs » dans les ne connaissent leur environnement, d'une organisations pas parfaitement part, et ont une faculté limitée à le comprendre (à cause de sa complexité) d'autre part. Une première façon d'exploiter cette idée consiste à considérer que, face à la complexité des choses, les agents se contentent de rechercher une décision « satisfaisante entre le temps », résultant d'un compromis des choix disponible pour prendre cette décision et le coût d'identification Une deuxième façon d'envisager la rationalité limitée est de possibles. considérer que les agents agissent selon des « routines » éprouvées, qu'ils modifient en fonction de l'expérience acquise. Dans les deux cas, la décision dépend des procédures retenues pour l'atteindre, d'où la locution « rationalité procédurale » que H. Simon a introduite ultérieurement. Dans la mesure où le phénomène de la rationalité limitée peut conduire à une certaine ankylose de l'esprit, on conçoit que, s'agissant des procédés de prise de décision, il puisse y avoir - comme pour les combinaisons de facteurs de production ou pour les modes d'organisation matière à innovation et donc un terrain Il n'y a pas jusqu'à la prise de décision ellepossible pour des entrepreneurs. même qui ne soit matière à stratégie ! Rémi Barré LAPROSPECTIVE DELASCIENCE ET DE LA TECHNOLOGIE COMMEINTELLIGENCE SOCIALE DES« SYSTÈMES DUDESTIN » 1. INTRODUCTION Il y a historiquement une forte relation entre le développement de la prospective et le besoin d'anticiper les évolutions scientifiques et technologiques (S & T). La prévision technologique a ainsi été une des préoccupations à partir desquelles s'est constituée la démarche prospective 0. De fait, plusieurs de ses méthodes parmi les plus connues, telles les enquêtes Delphi ou les analyses morphologiques, ont été créées pour éclairer des questions de prévision technologique. La prospective de la S & T a longtemps gardé les traces de cette origine et on peut même suggérer qu'elle n'a longtemps été qu'une sophistication méthodologique de la prévision. Au cours des années 70, deux types d'approches émergent, qui vont modifier en profondeur les modèles conceptuels de l'évolution des sciences et des techniques et, de là, la prospective S & T - à savoir les approches « évaluation technologique (2) et les approches par les « systèmes d'innovation ». L'évaluation technologique vise à permettre le « contrôle social de la technologie » par l'analyse systématique des effets directs et indirects, souhaités et non souhaités de l'introduction d'une nouvelle technologie. Il s'agit alors d'identifier ces effets par rapport à l'ensemble des populations et acteurs (1) Ceci,biensouvent,dansuncontextemilitaireoude défensenationale. assessment ». (2) Ausensde « technology Prospectivede la scienceet de la technologie 2211 susceptibles d'être concernés. En principe, une analyse d'évaluation technologique propose des alternatives au projet initialement prévu, dont les effets sont également mis en évidence. Il y a là une évidente similitude avec les principes de la prospective. Nous considérons que l'ouvrage de J. Lesoume Les systèmes du desiin (1? a jeté les bases d'une conception à la fois systémique et institutionnelle du changement technique, ce qui a permis le développement de l'approche par Si le « système national d'innovation », aujourd'hui omniprésente. R. Nelson (Z> et B.A. Lundvall (3> sont considérés comme les « pères » de cette approche, nous considérons J. Lesourne comme celui des concepts qui l'ont rendue possible. Au total, nous suggérons que la prospective de la S & T telle qu'elle existe effectuée depuis le début des aujourd'hui, résulte de la convergence années 90 - entre : - la tradition de la prévision technologique - occupée du long terme, mais avec une conception restrictive des paramètres à prendre en compte ; - l'approche par l'évaluation technologique - porteuse des concepts de jeux d'acteurs et d'impacts sociaux, mais intégrant difficilement la dimension temporelle ; -, - l'approche systémique - permettant la prise en compte de nouvelles catégories d'interactions, notamment de type institutionnel et politique. Le changement de paradigme relatif à la recherche et l'innovation du déterminisme séquentiel à l'interaction entre réseaux d'acteurs - a induit un changement tout aussi radical dans les processus de préparation des décisions. C'est pourquoi, aujourd'hui, la prospective de la S & T (4) telle qu'elle se pratique renvoie à une problématique qui est largement celle des relations entre science, technologie, économie et société. Reconnues comme appartenant à la sphère où s'exerce la volonté collective qui façonne les futurs possibles, les activités S & T sont ainsi véritablement entrées, enfin, dans le champ de la démarche prospective. Ce passage ne s'est complètement réalisé, en ce qui concerne la préparation des politiques publiques, qu'au début des années 90. Depuis, le mouvement s'est accéléré, (1) Lesourne,J., Les systèmesdu destin,Dalloz-Économie,Paris 1975.Dans cet ouvrage,J. Lesournedécomposela nationen diverssous-systèmes,identifiantnotammentles soussystèmesscience,éducationet économie,dont il étudie les interactions(pp. 393-410) ; c'est ce qu'on a appelépeu après,à l'OCDE, les « systèmesde recherche» et au début des années90 les « systèmesnationauxd'innovation». (2) Nelson, R., (ed) National Innovation Systems - A ComparativeAnalysis, Oxford UniversityPress, 1993 ;Nelson,R. et Winter,S., An EvolutionaryTheoryof Economic change,The BellknapPressof HarvardUniversityPress, 1982. (3) Lundvall,B.A. (ed), NationalSy.rtemsof Innovation -Towardsa Theoryof Innovation and InteractiveLearning,PinterPublisher,Londres,1992. ou simplementtechnology (4) En anglaisles expressionsscienceand technology foresight, foresightont eu tendance,ces dernièresannées,à prévaloir. PROSPECTIVE 222 et la plupart des pays européens ont mis en oeuvre des exercices tive S & T, parfois de grande ampleur. Cet article propose une synthèse des caractéristiques exercices, tant dans leurs finalités que leurs méthodes de prospec- essentielles >. de ces Dans une première partie, nous explicitons les finalités de travaux récents de Nous proposons dans une de la science et de la technologie. prospective de ces exercices. seconde partie une synthèse des aspects méthodologiques les tendances indications sur Enfin, nous concluons en présentant quelques de la science et de la récentes en matière de prospective technologie. RÉCENTS DESTRAVAUX 2. CARACTÉRISATION GÉNÉRALE ETDELATECHNOLOGIE DELASCIENCE DEPROSPECTIVE de la science 2.1. Lesfinalitésde travauxrécentsde prospective et de la technologie Les exercices de prospective S & T conduits depuis le début des années 1990 au Royaume-Uni, en Allemagne, aux Pays-Bas et en France, ont pour objet les évolutions possibles de la science et de la d'examiner systématiquement technologie, de l'économie et de la société afin : (1) L'exemple le plus achevé de ces exercices est celui conduit depuis 1994 au RoyaumeUni, présenté dans de multiples documents. Voir en particulier : B.R. Martin, « Foresight in Science and Technology », TechnologyAnalysi.sand Strategic Management, vol. 7 (2), 1995 ; B.R. Martin, « Technology Foresight : Capturing the Benefits from ScienceRelated Technologies », Research Evaluation, vol. 6 (2), 1996, ainsi que la publication régulière Foresight Link, publié par le DTI, voir aussi le site ww.foresight.gov.uk Les activités de prospective S & T aux Pays-Bas sont également remarquables ; voir à ce sujet : A Vital Knowledge System - Dutch Research with a Viewto the Future, Foresight Steering Committee, Amsterdam, The Netherlands, 1996. Les travaux allemands sur les technologies du futur sont présentés dans : H. Grupp, « Technology at the Beginning of the 21st Century », TechnologyAnalysis and Strategic Management, vol. 6 (4), 1994. Cela est à rapprocher de l'exercice français : Les 100 technologies clés pour l'industrie françaises, Ministère de l'Industrie, Paris, 1995. Par ailleurs, toujours en France, mais au plan de l'énoncé des principes, deux ouvrages méritent attention : B. Dessus, Énergie 2010-2020, Rapport final de l'atelier « les défis du long terme », Commissariat Général au Plan, octobre 1997. Globalisation, mondialisation, concurrence : la planification française a-t-elle encore un avenir ?, Commissariat Général du Plan, La Documentation Française, Paris, 1997. On pourra également se reporter à l'ouvrage de synthèse : « Numéro spécial sur les enquêtes gouvernementales sur la prospective technologique », STI-Revue, n° 17, OCDE, Paris, 1996. Enfin, les travaux importants de prospective S & T conduits en Australie ces dernières années ont donné lieu à des synthèses, par exemple : More about fore.sight, www.dist.gov.au/science/astec/ astec/future/findings/. Prospectivede lascienceet de la technologie 2233 - d'identifier les technologies génériques émergentes ayant le plus grand potentiel ; - de faire tomber les barrières entre institutions, disciplines et secteurs pour améliorer la mise en réseau de collaborations ; - de faire évoluer les structures de financement de la recherche publique ; - de prendre en compte des risques que des politiques de court et de moyen terme font peser sur le plus long terme du fait de l'irréversibilité de certaines de leurs conséquences. Le poids relatif de ces différents aspects est variable, mais il s'agit bien dans tous les cas de s'intéresser aux tendances de la science et de la technologie dans leurs relations aux besoins socio-économiques et de savoir comment les interactions entre la S & T et la société peuvent créer différents futurs possibles. La prospective de la S & T est également reliée à « l'évaluation technologique » (technology assessment) puisque la réflexion sur le long terme est également le point de départ de travaux de « contrôle social » de la technologie. C'est la question de l'acceptabilité sociale de certaines technologies qui est en jeu, et qui est abordée à travers les exercices de prospective de la S & T. Cette motivation, de plus en plus présente dès la conception des politiques de S & T, est un puissant facteur de développement de la dimension participative des processus de décision. Cette tendance constitue ainsi un renforcement du besoin de démarche prospective. Les exercices de prospective de la S & T deviennent ainsi un processus permettant d'articuler les perspectives des chercheurs avec celles de l'industrie, du public et de l'administration. Ils s'inscrivent profondément dans une double dynamique, très forte dans le champ de la S & T : - celle correspondant au nouveau rôle de l'État, axé sur la coordination des acteurs et des marchés, à travers notamment les échanges sur les anticipations ; - celle correspondant aux nouvelles conditions du développement de la S & T et de l'innovation, liées aux capacités d'interactions entre les acteurs, notamment publics et privés. Dès lors, il n'est guère surprenant que la prospective tende à être de plus en plus mobilisée dans le cadre de la préparation des politiques de la S & T, y prenant même parfois une place centrale<' >. La finalité de la démarche prospective de la S & T dont il est question ici est de préparer des décisions de politique publique au vu de besoins et d'opportunités, et ceci en faisant interagir des chercheurs avec les autres acteurs sociaux concernés. Il s'agit au fond d'un mécanisme permettant d'aller audelà du pur jugement par les pairs et du pur jugement politique. (1) De ce point de vue, la Franceest nettementen retraitpar rapportau Royaume-Uniet aux Pays-Bas, mais également,semble-t-il,par rapportà l'Allemagne. PROSPECTIVE 224 2.2 Élémentsd'une typologiedes exercicesde prospective '" de 'a S & T ',, Il reste que dans le cadre des finalités exposées ci-dessus, il existe une de prospective de la S & T. grande diversité de types possibles d'exercices être caractérisé par : Chaque type peut - sa finalité : communication entre acteurs de la recherche, construction d'une plate-forme d'accord, choix de priorités... ; - son échelle de focalisation : macro (global, national), méso (sectoriel, disciplinaire, - régional), son objet principal : tures et institutions, leurs stratégies... ; micro (thème fin, institution) ; les strucla substance scientifique ou technologique, et moyens d'action, les acteurs et les mécanismes - son référentiel principal : internes à la S & T (science les dynamiques l'interaction offre-demande (push-pull), push), les besoins (market pull), les et d'innovation, le système de recherche dynamiques sociopolitiques... ; - son style : démarche normative ou démarche exploratoire ; - son dimensionnement de quelques dizaines à (échelle de mobilisation) : plusieurs , milliers de personnes mobilisées à un moment directes va avoir des implications Le type de l'exercice concentration, processus, sur les méthodes d'extension phase finale. ou à un autre. sur le design du ainsi que sur la DESASPECTS 3. SYNTHÈSE MÉTHODOLOGIQUES DEPROSPECTIVE S &T DESEXERCICES 3.1 Vued'ensemble :les acteurset les phasesdu processus de politique Dans un exercice de prospective S & T à des fins d'éclairage publique, il y a interaction entre un certain nombre d'acteurs qui ont chacun un rôle bien défini : - le commanditaire, qui est souvent un « décideur étant le « client » (maître d'ouvrage) ; », parfois désigné comme (1) Sur les aspects méthodologiques généraux, voir M. Godet, Manuel de prospective stratégique, tome 1, Une indiscipline intellectuelle, tome 2, L'art et la méthode, Dunod, Paris, 1997 ; M. Godet, « La boîte à outils de la prospective stratégique », Cahiers du LIPS, n° 5, oct. 1996. Prospectivede la scienceet de la technologie 2255 - le comité de pilotage (steering committee), en général nommé par le commanditaire, qui a la responsabilité de l'ensemble du processus (maître d'oeuvre), et en particulier du rapport final de conclusions et/ou recommandations ; - l'instance de support méthodologique et organisationnel, chargée aussi de la mobilisation de l'information ; - les instances de production d'éléments analytiques et quantitatifs : laboratoires, bureaux d'études, services spécialisés de l'administration... ; - les groupes d'experts (« panels »), ou experts extérieurs, qui peuvent avoir une grande diversité d'articulations au processus : auditions par le comité de pilotage, destinataires d'une enquête Delphi, constitution officielle en groupes avec leur dynamique propre et leur autonomie. L'exercice se déroule en plusieurs phases : - la phase préliminaire : conception d'ensemble, dimensionnement, du processus, délimitation du périmètre et choix des experts ; design - la phase centrale : mise en oeuvre des processus d'extension - concentration ; apport et génération de connaissances (extension) et synthèse (concentration) avec allers et retours éventuels ; - la phase de finalisation : aspects analyse des résultats, conclusions, recommandations ; aspects communication et diffusion. 3.2 Laphase préliminaire le - designdu processus Le design du processus, c'est-à-dire la définition exacte des missions et des modalités d'interactions entre les acteurs - notamment le comité de pilotage (CP) et des groupes d'experts (GE) - est le point méthodologique majeur. Il dépend du dimensionnement de l'exercice (durée, moyens disponibles), mais aussi du style général voulu. L'exercice peut être en effet de style plutôt normatif (« top-down ») ou plutôt exploratoire (« bottom-up »). Les deux extrêmes sont les démarches normative et exploratoire pures, les groupes d'experts étant purement au service du comité de pilotage dans le premier cas, le comité de pilotage au service des groupes d'experts dans le second ; ' , comité de pilotage (CP) - prééminence service de CP ; top-down - normatif - - prééminence groupes d'experts (GE) - bottom-up - exploratoire service de GE. On peut avoir des situations intermédiaires, tableau 1 ci-après. GE au CP au telles que présentées dans le 226 PROSPECTIVE Tableau 1 : Rôles possibles du comité de pilotage et des groupes d'expert Qualification du style correspondant Décision scénarios ou axes de travail Travaux GE structurent scénarios et axes de travail GE apportent compléments aux scénarios ou axes A CP (1 ) non oui Top down- scénarios a priori - GE pour compléter ex post, purement réactif B CP oui non Top down partiel - scénarios nourris et donc influencés par GE ex ante C CP oui oui mixte - aller-retour CP-GE peut demander du temps D GE (2) oui oui Bottom up pur - problème convergence entre GE et CP et avec problématique client Style . (1)CP comitéde pilotage. (2) GEgroupesd'experts. Le type de design choisi aura des conséquences sur les étapes d'extension sur le type et les modalités de nomination au comité de piloconcentration, sur le mode travail et la nature des tage et dans les groupes d'experts, travaux du comité de pilotage et des groupes d'experts (ordre des interactions, traces des interactions, droits de réponse et de commentaires...). 3.3 Laphasecentrale -la miseen oeuvredes processus d'extension -concentration La phase centrale du processus est structurée par un double mouvement d'extension et accumulation et de concentration d'éléments) (exploration (choix et synthèse), chacun faisant l'objet de deux étapes. À chaque étape, les rôles respectifs du comité de pilotage et des groupes d'experts, mais aussi celui du commanditaire et des instances d'appui méthodologique, vont largement dépendre du design du processus. Dans certains cas, il y aura en plus des rétroactions et donc retour sur des étapes antérieures pour incorporer les résultats obtenus en aval. 227 Prospectivede la scienceet de la technologie a) Le mouvement d'extension - Étape de génération des variables (extension 1) Objet : - génération des variables pertinentes (« drivers ») ; ceci peut prendre la forme de la préparation d'un questionnaire d'enquête Delphi, de liste de variables pour une analyse structurelle ou d'un échange informel... ; - préparation des hypothèses (ou assertions) sur le futur ; - établissement de grilles de critères permettant de définir l'importance la pertinence. et Techniques : .' - synthèses bibliographiques ; - auditions d'experts ou entretiens (« entretiens structurés », « questions ouvertes liminaires ») ; - analyse logique systématique (analyse morphologique, nence). . Étape d'analyse et étude systématique arbres de perti- des variables (extension 2) Objet : caractérisation de chaque variable en sorte de pouvoir juger son importance par rapport au problème étudié (sélection) ainsi que sa proximité avec les autres variables (regroupements). On s'intéressera aux dynamiques et incertitudes relatives aux paramètres, aux relations entre paramètres, aux stratégies d'acteurs. Il ne pourra s'agir en général que d'analyses systématiques, relativement rapides. Techniques : .' - auditions d'experts ou entretiens ; - mise en oeuvre de l'analyse structurelle (pointage systématique des relations entre variables en vue de leur positionnement sur des axes d'influence - motricité - et incertitude) ; - caractérisation de chaque variable par rapport à la grille de critères ; - réalisation et traitement d'une enquête Delphi (1).>. n ', ' ', (1) Voirpar exemple :K. Cuhlset T. Kuwahara,Outlook forJapane,seand GermanFuture Technology,Phisica-Verlag, Heidelberg,1994 ;D. Loveridge,L. Georghiou,M. Nedeva, UK TechnologyForesightProgramme -Delphisurvey,PREST,report to the Officeof S & T, Manchester,1995 ;J.A. Héraudet al, « La méthodeDelphi», Futuribles,mars 1997. PROSPECTIVE 228 b) Le mouvement de concentration - Étape de regroupement - sélection - approfondissement des variables ' clés (concentration 1) et (« clusterisation ») des variables, hiérarchisation Objet : regroupement de leur de la compréhension sélection des variables clés ; approfondissement dynamique par retour sur leurs évolutions passées et étude de leurs condi:. tions d'évolution. Techniques : .' exploitation des résultats de l'enquête Delphi, de l'analyse structurelle ou de la grille critères/variables ; des variables ; groupe de travail pour effectuer le regroupement évolutions, hypothèses analyse ad hoc complémentaires : positionnement, mobilisation sur des variables clés, éventuellement par d'expertise ou de prestations. . Étape de construction Objet : construction du rapport. des scénarios (1) et développement (concentration des scénarios 2) ou des axes structurants La méthode des scénarios est souvent bien adaptée aux finalités des exercices de prospective et la plupart d'entre eux - mais pas tous - utilisent cette méthode. Rappelons qu'un scénario est une « histoire » du futur, plausible et identifiés et de tendances repérées. cohérente, établie à partir d'événements Techniques : .' convergence de manière informelle au sein d'un groupe de travail ; en temps telles que le « mini-delphi - mise en oeuvre de techniques conditionnelleou la combinatoire de variables probabilisées réel » ment. 3.4 La phase finale - l'analyse des scénarios ou des résultats la diffusion Objet : analyse des résultats, évaluation des stratégies dans le contexte de des actions à entreprendre pour se placer sur chaque scénario ; détermination le scénario le plus intéressant ; exploration de la capacité des scénarios à brutales des hypothèses et test de leur robusrépondre à des modifications (1) Outre les ouvrages de méthodologie déjà cités, voir également : Scenario building Convergences and Differences, IPTS Technical Report Series, EUR 17298, Workshop Organized by IPTS and LIPS, 1995 (2) Parfois appelé en France « abaque de Régnier ». Prospectivede lascienceet de la technologie 229 tesse aux aléas ; identification des opportunités et menaces dans les différentes configurations possibles ; identification des scénarios autorisant le plus aisément une réévaluation régulière des priorités ; mise en place d'un monitoring des signaux faibles pour reconnaître le scénario en développement. Techniques : .' - convergence de manière informelle au sein d'un groupe de travail, - mise en oeuvre de techniques telles que le « mini-delphi en temps réel ». 4. CONCLUSION ETÉMERGENCES TENDANCES : 4.1 1 Unetendance la : « société »au coeurdesdynamiques de la scienceet de la technologie>(1) Ce qui caractérise les exercices de prospective S & T, c'est leur centrage sur la relation avec la société et ses « besoins ». Ceci renvoie directement à la problématique actuelle des politiques de recherche et également aux questions posées à la recherche publique, notamment dans les pays anglo-saxons. Ces « besoins » de la société peuvent se décliner selon trois grands axes : - les besoins liés à des innovations de biens et services marchands : on retrouve alors le débat classique sur la « compétitivité » de l'industrie l'excellence technologique et l'innovation sur des marchés porteurs ; - les besoins de nature plus collective ou liés à de grandes infrastructures : les transports ; il l'énergie, la santé, la qualité de l'environnement s'agit alors d'analyser les rapports entre S & T et politiques sectorielles ; - le besoin de sécurité, c'est-à-dire ici l'absence de risques liés aux nouvelles technologies, ce qui renvoie à l'évaluation technologique. 4.2 Uneémergencela: controverse commefacteur scientifique centralde l'incertitude, doncdesscénarioset desstratégies Les problèmes de société dans lesquels la S & T sont impliquées, sont bien souvent caractérisés par l'insuffisance des connaissances scientifiques sur . (1) Voirpar exempleP. Caracostaset U. Muldur,La .société,ultime frontière,Commission européenne,DG XII, études,EUR 17655,1998,ouvragedont le titre est révélateurde cette tendancede fond. (2) Voirpar exemple :Étudeprospectivede la demande« environnementp et .satraduction en fMtermes te ministèrechargé fffmMS&T, rapportréalisépar CDC consultantset IPSOSpour le de l'environnement,l'ADEMEet le CEA, Paris, 1997. 230 PROSPECTIVE lesquelles le débat devrait s'appuyer. Aux incertitudes sur les risques s'ajoutent celles liées au manque de connaissances scientifiques sur ce risque. Cette situation explique l'émergence du « principe de précaution » 0, qui vise précisément à établir des guides pour la décision dans un contexte de manque de connaissance. Il s'agit d'aboutir à un calendrier optimal des décisions, compte tenu d'hypothèses scientifiques et d'avancées des connaissances, susceptibles de donner lieu à des jeux d'influence inédits : « dans un univers avec des controverses scientifiques, la compétition ne se joue plus simplement sur les produits et les techniques, elle se joue également sur les théories scientifiques et les visions du monde qui en découlent » (2). Il y a là certainement un champ nouveau, à peine exploré, pour la prospective et les stratégies de long terme. Les activités de prospective dans le champ de la S & T se caractérisent par leur dynamisme, voire leur foisonnement, et leur position de plus en plus centrale dans les processus sociopolitiques de l'interface S & T et société. Des savoir-faire méthodologiques (y compris dans le design de processus) et des résultats substantifs sont générés dans le monde entier, et particulièrement en Europe. La prospective dans le champ de la S & T a donc parcouru un long chemin depuis les temps - pas si lointains - de la prévision technologique. Un des aspects majeurs de ce cheminement est l'intégration des dimensions sociales et institutionnelles envisagées dans le cadre de l'analyse de système. Ainsi, la prospective dans le champ de la S & T n'est-elle pas devenue, au fond, une démarche d'intelligence collective de ce que Jacques Lesourne avait si justement appelé les « systèmes du destin » ? (1) Voir par exemple B. Dessus, op. cit, N. Treich, « Environnement :vers une théorie économiquede la précaution», Risques, 32, oct.-déc. 1997, repris dans Problèmes économiques,n° 2572,juin 1998.O. Godard,« Débatautourdu principede précaution», Natures,sciences,sociétés,vol. 6 (1), 1998. (2) O. Godard,op.cit. Hugues de Jouvenel POURUNERECHERCHE ENPROSPECTIVE Sans doute serait-il déplacé dans des « Mélanges » qui se veulent scientifiques de faire étalage de l'estime croissante que je porte à Jacques Lesoume pour ses qualités humaines et pour son oeuvre. Une certaine pudeur personnelle fait, du reste, que j'y suis peu porté. Je m'intéresserai donc plutôt à quelques-unes des raisons qui ont amené cet homme à quitter le territoire bien balisé d'une science dans laquelle il excellait pour s'intéresser à la prospective et y apporter une contribution que j'estime essentielle. Cela constituera la première partie d'un chapitre que je consacrerai au développement de la recherche en prospective que Jacques Lesourne, depuis une « discipline » qui, à mes yeux, longtemps, appelle de ses voeux aux humaines de ceux qui la pratiquent qu'aux emprunte davantage qualités méthodes et aux outils. Après donc quelques mots sur Jacques Lesourne luimême, je m'intéresserai d'abord à notre conception du futur et à la philosophie qui sous-tend la démarche prospective, ensuite aux méthodes utilisées pour explorer les futurs possibles et construire un avenir souhaitable. Chemin faisant, j'essayerai d'esquisser quelques pistes nouvelles de réflexion. (1) LesourneJ. « Plaidoyerpour une rechercheen prospective», revueFuturibles,n° 137, novembre1989. 232 PROSPECTIVE La personnalité du prospectiviste Sans prétendre un instant décrire la personnalité de Jacques Lesourne, il me semble utile de souligner combien certains de ses traits ont pu jouer un rôle essentiel dans son parcours professionnelatypique et dans son apport à la prospective. D'abord son intelligence exceptionnelle qui, mêlée à une grande honnêteté intellectuelle, l'empêcha de rester campé dans une discipline qui, quelle qu'elle soit, exige des membres de la corporation qu'ils adhèrent, sans trop de réserve et de scrupules, à un système de pensée qui, inéluctablement, est très réducteur au regard de la réalité, a fortiori des « systèmes humains » qui l'intéressent. Avant de rédiger cette contribution, j'ai relu ces dernières semaines de très nombreux livres et articles de Jacques Lesoume. Les exemples sont innombrables du recul critique qu'il garde toujours vis-à-vis des concepts et théories intellectuels qu'il utilise. Son aspiration à faire preuve de « scientificité » n'a d'égal que son souci permanent de mieux saisir l'évolution des sociétés humaines dans leur globalité et donc dans leur complexité. Mais si Jacques Lesourne possède des qualités exemplaires pour nombre de prospectivistes, c'est aussi et peut-être surtout parce qu'il n'hésite jamais à se remettre lui-même en cause et à s'investir dans des champs nouveaux. Épris de rigueur, il pourrait logiquement s'enfermer dans un système de pensée et ne retenir des évolutions en cours que ce qui vient conforter sa thèse de départ. Mais, plus soucieux de comprendre que de vérifier ses convictions premières, il ne cesse de s'investir dans des champs nouveaux : partant de l'économie, il passe à la géopolitique puis intègre la dimension sociale, puis la révolution technique... et, loin de sauter de l'un à l'autre par investigations successives, il intègre, avec un esprit de synthèse remarquable, tous ces apports nouveaux dans une même pensée. Il y a manifestement deux sortes de chercheurs : ceux qui s'enferment (ou s'enferrent) et ceux qui s'ouvrent (les explorateurs). Il fait clairement partie de la seconde catégorie. Et, comme il manie avec une grande aisance l'analyse de système, plutôt que de s'égarer comme beaucoup risqueraient de le faire, il intègre fort heureusement chaque nouvelle découverte dans un tout. Soulignons cette capacité singulière que possède Jacques Lesoume de s'intéresser à des questions toujours nouvelles. Elle lui permet d'échapper à la sclérose qui menace tant d'intellectuels et lui confère sans nul doute un atout peu commun pour exceller dans une démarche prospective qui se veut « intégrative » et cependant rigoureuse. Il est vrai que Jacques Lesoume est un homme de grande culture appréciant les arts autant que les sciences, ayant une connaissance de l'histoire des civilisations qui, certainement, en fait un observateur particulièrement averti du monde contemporain et qui porte un intérêt tout particulier aux liens complexes qu'entretiennent la réflexion, la décision et l'action. Pourune rechercheen prospective 233 D'un abord austère, comme beaucoup de scientifiques que l'on soupçonne en conséquence d'être peu attentifs à l'humain, Jacques Lesourne est profondément généreux : générosité d'esprit qui va de pair avec l'ouverture que j'évoquais précédemment ; générosité de coeur que, ayant le privilège de travailler à ses côtés, j'ai pu si souvent apprécier. Générosité qui explique sans doute aussi son dévouement au bien collectif et l'importance qu'il accorde aux personnes, celles qui font partie de ses proches, dont il ne parle guère mais dont l'influence me semble forte, celles plus lointaines qui forment l'espèce humaine dont le devenir est l'obsession du prospectiviste. Sans ces qualités humaines, Jacques Lesourne n'aurait sans doute jamais excellé à ce point dans le domaine de la prospective qui, avant d'être une discipline, est davantage une philosophie et, avant d'exiger des aptitudes intellectuelles, requiert une manière d'être, une tournure d'esprit et une posture qui relèvent plus de la psychologie que de la technique, exigeant plus qu'un savoir-faire, une culture. Ces quelques traits que je n'ai fait qu'évoquer rapidement viennent conforter l'image sans doute trop idyllique que je me fais du prospectiviste et donc de la formation qu'exigerait la pratique d'une telle discipline. Que mes amis enseignants ne m'en tiennent point rigueur et que leurs étudiants ne se méprennent pas sur le message. Il est très utile que soient assurés des cours de prospective comme du reste nous en organisons nous-mêmes au sein du groupe Futuribles. Mais l'apprentissage et l'appropriation des concepts (ceci étant le plus important) et des méthodes, pour utiles qu'ils soient, sont insuffisants pour former de « bons » prospectivistes. Au mieux, ils leur ouvrent de nouveaux horizons, les mettent en appétit, leur confèrent quelques clefs. Mais, en fait, tout reste à faire, à supposer qu'ils aient en cette matière quelques prédispositions, sur le plan du savoir-être, de la culture générale et du dévouement à une cause presque ingrate par définition. Revenons cependant à des choses plus simples qui néanmoins exigeraient, comme le souligne Jacques Lesourne lui-même, un effort de recherche plus grand si nous ne voulons pas voir « la prospective se scléroser et s'appauvrir à l'heure même où le succès de sa diffusion multiplie le nombre de ceux qui la pratiquent avec une expérience limitée Je veux parler des concepts et des méthodes. , Sur la nature de l'avenir Jacques Lesourne aime bien dire que l'avenir serait « le fruit du hasard, de la nécessité et de la volonté ». Cette formule, quoique comportant une part indéniable de vérité, me gêne dès lors qu'elle laisse aux individus la possibilité de se soustraire à leur responsabilité (donc à l'exercice de leur volonté) au prétexte qu'ils seraient acculés par les circonstances (hasard ou nécessité) à adopter tel ou tel comportement. ( I )LesourneJ., cit. 234 PROSPECTIVE Loin de moi l'idée que l'avenir n'est qu'affaire de volonté (quoiqu'il en la matière d'améliorer notre connaissance des acteurs et de leur importe et de demain (1». Mais j'ai souvent eu envie stratégie d'hier, d'aujourd'hui de lui répondre que « c'est précisément la preuve de l'imprévoyance que l'on tombe sous l'empire de la nécessité ». Et que « le moyen qu'il n'en soit des situations en formation tandis pas ainsi est de prendre connaissance sont encore avant modelables, qu'elles qu'elles n'aient pris forme impérieu» sement contraignante J'entends de cette manière insister sur la nécessité de l'anticipation, ellemême étant la meilleure garante de notre liberté qui, certes, n'est jamais totale mais, bien souvent, se trouve réduite à néant de notre propre fait. Ainsi en est-il quand, exclusivement occupés à gérer les urgences, nous n'accordons pas d'attention suffisante aux situations en formation lorsque l'on peut encore en infléchir le cours et, à défaut de disposer d'un tel pouvoir, lorsque nous sommes encore en mesure de nous préparer à y faire face. « Quand il est urgent, c'est déjà trop Célèbre est la phrase de Talleyrand : tard. » Il est clair que, à mesure que le changement s'accélère (est-ce en tout domaine aussi vrai qu'on se plaît à le dire ?), se multiplient sur le bureau des décideurs les dossiers appelant décisions et il est alors fort naturel que ceuxci soient traités dans l'ordre que dicte l'urgence. Hélas, les problèmes ne se trouvent ainsi inscrits à l'agenda que lorsqu'ils sont devenus « brûlants » et les décideurs ont alors tendance à justifier leurs actes en arguant du fait qu'ils n'avaient pas le choix. Au jeu d'échecs, on dirait que le coup est forcé. Les circonstances imposent la décision qui ne résulte plus d'aucun choix de la part de l'acteur désormais paralysé. La vérité est qu'ils n'ont alors plus le choix, ayant, faute d'anticipation sufet leurs marges fisante, laissé la situation prendre une forme incontournable de manoeuvre être réduites à néant. Reconnaissons est d'autant plus nécessaire cependant que si l'anticipation le s'accélère elle devient aussi que changement plus difficile : l'exploration des futurs possibles est particulièrement ardue lorsque, à la différence du jeu d'échecs, la scène se déforme, le nombre d'acteurs évolue, la répartition de leur pouvoir et leurs comportements changent en permanence. D'où la nécessité d'améliorer nos instruments d'investigation du futur et d'accorder au jeu des acteurs une attention au moins aussi grande que celle que l'on porte aux tendances. D'où aussi l'importance que revêt désormais la vigi(1) Regrettons à cet égard que si peu d'historiens se soient intéressés à l'analyse causale des événements qu'ils relatent. (2) Jouvenel B. de, L'art de la conjecture, Paris, Sedeis, coll. Futuribles, 1972, p. 338. (3) D'où la métaphore du phare de Gaston Berger : « Sur une route bien connue, le conducteur d'une charrette qui se déplace au pas, la nuit, n'a besoin, pour éclairer sa route, que d'une mauvaise lanterne. Par contre, l'automobile qui parcourt à vive allure une région inconnue doit être munie de phares puissants. Rouler vite sans rien voir serait proprement une folie. » Pourune rechercheen prospective 2355 lance qui, seule, est de nature à fournir les éléments indispensables à une analyse permanente des déformations que subit l'arborescence des futurs possibles. L'avenir n'est pas prédéterminé, n'est pas déjà fait. Il échappe donc par essence au champ de la connaissance, ne peut en aucune manière être prévu - quelles que soient les méthodes mises en oeuvre - de manière scientifique et certaine. De grands progrès demeurent cependant à réaliser : d'abord au plan culturel pour admettre l'incertitude et comprendre qu'elle constitue une opportunité tout autant qu'une menace ; ensuite au plan des méthodes prospectives utilisées dans l'exploration de l'avenir. Sur ce registre des méthodes, je suis particulièrement frappé de la faiblesse de nos outils d'observation du présent, a fortiori de nos instruments de simulation. Notre connaissance du présent L'avenir n'émerge pas du néant ; il prend racine dans le présent et le passé, d'où l'existence de tendances plus ou moins lourdes et empreintes d'inertie. La première tâche du prospectiviste est donc d'essayer de comprendre quelle est la situation présente au travers de sa dynamique temporelle longue. Donc en faisant le tri entre le conjoncturel et le structurel. Se réclamant de l'analyse de système, il s'efforce de recenser les variables de toute nature et leurs interdépendances en même temps que les acteurs, leurs jeux d'alliance et de conflit, qui exercent ou peuvent exercer un rôle important. L'intention est bonne même si le résultat n'est jamais garanti. Mais il me semble qu'il faut aller beaucoup plus loin, d'une part dans l'analyse du système, d'autre part dans l'analyse des données. Dans l'analyse du système, comment ne pas tenir compte davantage de la position spécifique de l'observateur, des « lunettes » qu'inéluctablement il porte sur le nez et qui introduisent un biais inévitable dans son regard, enfin de l'objet observé, souvent tributaire lui-même du lieu d'où on l'observe et de la manière de l'analyser ? . Le sujet à lui seul exigerait de longs commentaires et surtout de plus amples recherches. Mais il me semble indispensable de tenir compte de la capacité visuelle limitée qui est la nôtre, ne fût-ce qu'en raison du poids des habitudes, du refus souvent inconscient de voir, des tabous et de ce que Michel Godet appelle les idées reçues. Cela renvoie à des questions de psychologie individuelle et collective élémentaires aussi bien qu'à des problèmes d'éducation et de culture et à la recherche elle-même. Je ne prendrai que deux exemples pour illustrer les difficultés que nous éprouvons à bien saisir la situation présente : le premier concerne nos instruments d'observation et de mesure ; le second est relatif au poids des concepts et théories régnants. 236 PROSPECTIVE 1. Il se trouve que nos instruments des variables « dures » ont d'analyse fait l'objet d'une attention et d'un effort de recherche beaucoup plus grands que ceux dont nous disposons sur les variables « molles » ; que ce qui peut être aisément quantifié fût-ce à l'aide d'artefacts est autrement mieux cerné que ce qui relève du qualitatif. Mieux saisir la réalité sociale constitue certes un pari immense. On comen d'une science prend conséquence que Pigou, soucieux du développement Lesourne connaît mieux économique que Jacques que quiconque -, invite au début du siècle ses pairs à limiter leur discipline à l'examen des seuls faits mesurables à l'aune monétaire. Cela était certes plus commode. Mais cela excluait d'emblée que cette science puisse toute seule englober l'ensemble des phénomènes sociaux et, d'entrée de jeu, disqualifiait le produit intérieur brut comme indicateur synthétique de bien-être ou l'assimilation de ce même PIB au concept médiéval de bien commun. Rien d'étonnant en conséquence au fait que Denis de Rougemont s'exclame. cinquante ans plus tard que « le PNB habitue les pouvoirs à donner tous leurs soins au coûteux de l'existence, à ce qui coûte cher, mais à négliger le précieux, ce qui nous est cher. Ou encore dans le conflit qui les oppose, à tricher systématiquement en faveur de la technosphère aux dépens de la biosphère ». Rien d'étonnant non plus à ce que la science économique ignore les biens (l'oxygène, par exemple) et les services (le travail domestique) gratuits ou encore, pendant longtemps, les extemalités (pollutions et nuisances) dont on ne prendra conscience de la valeur que beaucoup plus tard (sans pour autant toujours trouver le moyen de l'intégrer dans notre comptabilité nationale). Les données économiques sont éminemment utiles. Mais elles n'ont qu'une valeur toute relative et la science dont elles relèvent n'a donc point vocation à rendre compte de la société tout entière. Au demeurant, quoiqu'on l'oublie souvent, on sait bien qu'une même valeur exprimée en monnaie ou en parité de pouvoir d'achat (PPA), dont l'évolution est retracée à l'aune du taux de croissance ou en valeur absolue, ne confère pas du tout la même image de la réalité. Que dire alors de ce que l'on appelait jadis les indicateurs sociaux qui firent dans les années soixante l'objet de recherches fort intéressantes, hélas très largement abandonnées, y compris en raison de querelles souvent stériles entre les tenants des indicateurs multiples et ceux des indicateurs synthésur les budgets-temps tiques. Pensons à l'enquête internationale que pilotait alors Alexander Szalai, à l'abandon de ce type de travaux et, en conséquence, à notre piètre connaissance de l'usage du temps que font les individus, indicateurs dont l'utilité cependant peut difficilement être mise en doute aussi bien aux modes de vie qu'à des propar tous ceux qui s'intéressent blèmes plus globaux de mobilité, d'accès aux services... Il est vrai que nous sommes très malhabiles pour pondérer des indicateurs très hétérogènes et que ceux qui, dans les années plus récentes, se sont effor- Pourune rechercheen prospective 237 cés de le faire - pensons à l'équipe du PNUD qui a échafaudé le concept d'indice du développement humain (IDH) - font l'objet, non sans raison, de sévères critiques (1). Le fossé entre la réalité et sa perception est encore plus évident lorsque, par exemple, on compare l'évolution du sentiment d'insécurité des Français, tel que le mesure le CREDOC à l'aide d'enquêtes d'opinion, et le niveau « réel » de risque, tel qu'il peut être appréhendé de manière du reste fort imparfaite par les statistiques de la police nationale. Que dire alors de la connaissance encore plus fragile que nous avons des valeurs qui animent les individus, valeurs qui ne sauraient être confondues avec les opinions qu'ils expriment, elles-mêmes très tributaires de la conjoncture et, bien évidemment, de la formulation des questions. Bref, nous sommes très ignorants des réalités contemporaines et encore plus des évolutions passées ; très maladroits pour distinguer ce qui relève d'un effet de période, d'âge ou de génération et, plus généralement, ce qui relève de l'écume des jours et ce qui constitue de véritables tendances lourdes. Beaucoup de progrès et donc de recherches devraient, à mon sens, être réalisés pour améliorer nos instruments d'observation et de mesure de la dynamique contemporaine qui forme la base nécessaire à tout exercice de prospective. Je suis surpris du reste que nos meilleurs manuels de prospective et la plupart des formations à cette « indiscipline » soient si silencieux sur la constitution d'une base de connaissance qui me semble indispensable. 2. J'en viens aux concepts et aux théories régnantes, en priant le lecteur de me pardonner ces propos critiques à l'encontre d'une discipline à laquelle je suis heureux de consacrer l'essentiel de mon temps. : 1 Mais il est frappant de voir combien nous réfléchissons au futur à l'aide de concepts et de théories hérités d'hier et, bien souvent, déjà dépassés. Aux lycéens, plusieurs années après Hiroshima, on enseignait encore que l'atome était insécable. J'observe régulièrement que l'on s'obstine à enseigner des connaissances périmées, à user de concepts dont la pertinence me paraît douteuse, à propager des théories depuis longtemps démenties par les faits, concepts et théories que l'on utilise sans vergogne pour construire ensuite des scénarios sur l'avenir. ' ` Il y aurait beaucoup à dire sur ce chapitre ; je ne prendrai que deux exemples. Sur les concepts, est-il bien raisonnable de s'obstiner à distinguer parmi les activités productives celles des secteurs dits primaire, secondaire et tertiaire, laissant entendre que le développement se traduit par la transition d'une étape à l'autre ? L'agriculture s'est industrialisée à grands pas et aujourd'hui, comme l'industrie, se tertiarise (voir la montée de l'immatériel et des services incorporés dans les produits industriels et ce qu'ils représen- ' ; (1) Voir,par exemple,l'article de BanethJ., « Les indicateurssynthétiquesde développement », RevueFuturibles,n° 231, mai 1998. ; 238 PROSPECTIVE tent dans leur coût) alors que, simultanément, s'industrialisent nombre d'activités tertiaires (pensons hier à l'essor de la machine à laver et aujourd'hui au développement des industries culturelles). Nos concepts n'auraient-ils pas besoin d'une sérieuse révision sous réserve toutefois que, en changeant trop souvent nos nomenclatures, nous ne nous privions pas de séries statistiques longues ? Sur les théories, les exemples sont identiquement innombrables. Je ne suis pas économiste mais n'enseigne-t-on pas toujours la loi de Philipps qui, si je l'ai bien comprise, veut que le chômage et l'inflation évoluent en sens contraire, loi démentie par les faits dans un grand nombre de nos pays ? N'est-on pas extraordinairement réducteur dans l'explication des liens entre la croissance et l'emploi ? Et je ne prends là que deux exemples issus d'une des disciplines les plus rigoureuses parmi toutes les sciences dites humaines truffées, me semble-t-il, de théories tenues pour acquises alors qu'elles mériteraient à tout le moins discussion... L'exploration du futur Il y aurait beaucoup à dire sur la démarche prospective, les méthodes et outils du reste fort différents qu'utilisent ceux qui la pratiquent. Pour ne point trop allonger cette modeste contribution, je me limiterai à trois observations : la première relative aux scénarios, la seconde à la prise en compte de la dimension temporelle, la dernière afférente à l'analyse des jeux d'acteurs. 1. Jacques Lesourne insiste fort à propos dans son « Plaidoyer pour une recherche en prospective » (op. cit.) sur la nécessité de se doter d'un « système de représentation explicite de la réalité ». Il a infiniment raison. Point ne suffit d'engranger des données en tout genre sur le monde actuel ni d'effectuer une analyse structurelle. Il faut à un moment donné être capable de se représenter le système et de comprendre ce qui détermine sa dynamique d'ensemble. Ici plus qu'à toute autre étape s'impose une réflexion de nature systémique qui - les capacités de synthèse sont là indispensables permet de se forger une représentation de ce que j'appelle le système de référence - dont nous explorerons ensuite les évolutions possibles. « Mais, comme chacun sait, le degré de formalisation de ce système reste largement ouvert ; avec, à un extrême, des modèles mathématiques transparents et à l'autre des constructions hétérogènes mêlant avec plus ou moins de cohérence acteurs, éléments et relations. Pour certains, le problème est simple : ayant fait choix de la transparence, ils ne veulent connaître que la modélisation pure et dure. Malheureusement, dans l'état actuel de la connaissance, cette décision engendre le plus souvent une telle mutilation du réel qu'elle ne peut satisfaire le prospectiviste désireux de contribuer à la préparation de stratégies » (J. Lesourne). De surcroît, reconnaissons-le, un tel modèle n'est jamais qu'une représentation à l'aide d'un jeu d'équations d'un sous-système tel qu'on l'a vu fonc- Pourune rechercheen prospective 239 tionner dans le passé qui permettra de faire des simulations qui ne valent, toutefois, que sous réserve qu'il soit pérenne et que « tout demeure égal par ailleurs ». Enfin, si les hypothèses d'entrée sont arbitraires, les prévisions, en dépit de l'apparence de scientificité que confèrent et l'outil et leur précision, n'en seront pas moins arbitraires. Rien n'est plus simple, par exemple, qu'un modèle de projection démographique. Mais les différentes variantes sont éminemment tributaires d'hypothèses d'entrée souvent définies de manière très arbitraire à partir des derniers indices connus (au mépris de leur évolution sur une longue durée passée) et sans véritable analyse causale permettant de raisonner sur les facteurs favorisant ou faisant obstacle à leur occurrence. J'ai tendance à penser que le même reproche peut, à peu de choses près, s'appliquer aux modèles dits dynamiques et à ceux qui reposent sur un principe d'équilibre général. Outre leur caractère inéluctablement réducteur, ils reposent fondamentalement sur le principe de l'extrapolation et postulent la pérennité, tout au long de la période, de la morphologie et de la physiologie du système de référence. Leurs auteurs évoquent souvent les résultats de telles simulations en parlant de scénarios contrastés. L'expression me semble impropre : il s'agit au mieux de différentes variantes souvent qualifiées d'ailleurs de faible, moyenne ou forte si bien, du reste, que l'utilisateur de ces travaux se borne paresseusement à ne prendre en compte que la variante moyenne qui apparaît comme un bon compromis. Cela peut conduire à de graves méprises. Je n'en prendrai qu'un exemple : les travaux récents - comme d'ailleurs ceux qui les ont précédés - menés par le Commissariat général du Plan sur l'avenir des retraites. Hormis le fait qu'ils reposent tous sur l'hypothèse d'une société inchangée (est-ce crédible à l'horizon 2040 ?), ils ne retiennent que la variante moyenne des projections démographiques qui ne nous renseigne pas de manière satisfaisante sur l'ampleur incertaine du vieillissement. ) j ) [ > ] 1 / t / 1 De véritables scénarios contrastés sont des scénarios qui se différencient les uns des autres en raison de la déformation, progressive ou brutale, de la morphologie du système, de sa dynamique d'ensemble, donc aussi de sa logique d'évolution. Nous quittons le système socio-économique de référence (la base) pour nous orienter vers des modes alternatifs d'organisation dont on doit pouvoir se représenter la structure et le fonctionnement. 2. Mais nous n'arriverons à élaborer ainsi des scénarios contrastés que si nous travaillons tout autant sur les cheminements que sur les images finales. Il est curieux de voir que beaucoup d'exercices de prospective se bornent à construire des instantanés sur une année souvent fortuitement choisie. « La France de 2015 » dira la DATAR. Pourquoi 2015 plutôt que 2010 ou 2020 ? À-t-on réfléchi aux marges de manoeuvre dont le commanditaire dispose et aux délais nécessaires à la mise en oeuvre de sa politique ? 240 PROSPECTIVE Le risque est grand de voir alors se télescoper artificiellement sur une année donnée des évolutions qui s'inscrivent dans des temporalités différentes, des phénomènes à cinq ans avec d'autres qui se situent plutôt sur une échelle de cinquante ans. On surestime ou sous-estime les facteurs de changement et d'inertie parce que, fondamentalement, la dimension du temps, comme trajectoire, est absente. Ou, autre exemple, on travaille sur les retraites à l'horizon 2040 en supposant que les évolutions seront lisses sur l'ensemble de la période alors que, tout au contraire, il est fort à craindre qu'il y ait des creux et des bosses qui, justement, seront à l'origine de ruptures structurelles. Aussi étrange que cela puisse paraître, la dimension du temps est très absente de beaucoup de réflexions prospectives : le temps passé qui, à défaut de se répéter à l'identique peut, sous réserve d'analyse causale, nous renseigner sur les acteurs et les facteurs ayant entraîné les évolutions observées ; le temps futur comme trajectoire et non comme un point isolé. J'ai le sentiment que c'est en travaillant sur les cheminements que l'on peut entrevoir des points de bifurcations, de discontinuités et intégrer véritablement des hypothèses sur le comportement des acteurs confrontés à telle ou telle échéance ou tel ou tel défi. : , 3. Je terminerai en évoquant précisément le rôle des acteurs. Il y a dans toute démarche prospective, du moins lorsqu'elle est destinée, comme il me semble naturel, à orienter la stratégie, une dialectique nécessaire entre le registre de l'anticipation des futurs possibles et celui de la construction d'un futur souhaitable. Comme aucun acteur n'est tout puissant, nous sommes toujours ramenés à la problématique de l'acteur et du système qu'a si bien analysée Michel Crozier. Nous sommes tous dans la position du navigateur qui doit simultanément s'interroger (exploration des futurs possibles) sur l'évolution de son environnement stratégique composé de facteurs (le vent) et d'acteurs (les autres navigateurs) et, en tant qu'acteur, sur la stratégie et les actions qui peuvent être les siennes. Ce que Jacques Lesourne appelle fort justement « le macrochoix commandant des décisions subordonnées » 0.>. Dans l'exploration des futurs possibles, il faut s'intéresser plus que nous ne l'avons fait jusqu'à présent à la stratégie des acteurs, donc à l'évolution de leurs valeurs et de leurs comportements, en sachant du reste que les comportements ne sont point exclusivement dictés par les valeurs mais résultent de compromis sans cesse évolutifs entre ce à quoi les personnes aspirent et les circonstances dans lesquelles elles se trouvent. Jacques Lesourne en a bien conscience lorsqu'il amorce une réflexion sur les valeurs dans Les mille sentiers de l'avenir (2).Reconnaissons cependant que (1) LesourneJ., « Dela réflexionà l'action», RevueFuturibles,n° 72,décembre1983. (2) LesourneJ., Lesmillesentiersde l'avenir,Paris,Seghers,1981. Pourune rechercheen prospective 2411 la prospective sur ce double registre des valeurs et des attitudes demeure à un stade embryonnaire et que, ici également, un effort de recherche important s'impose. La construction du futur Je terminerai par quelques mots sur la construction du futur car tenter de l'explorer est une chose qui n'a vraiment de sens que si nous entendons nous-mêmes en être aussi un peu artisans. La question « Que peut-il advenir ? » ne m'intéresse que si elle contribue à m'assurer des marges de manoeuvre (l'anticipation comme gage de liberté) pour réaliser un futur que j'estime souhaitable (que puis-je faire ? qu'ai-je envie de faire ?). Ici intervient un élément de désir personnel ; ici intervient la conception que nous nous forgeons d'un avenir souhaitable qui prend racine dans les valeurs et dans l'imaginaire individuel et collectif. Je regrette que nombre de prospectivistes, soucieux de rigueur, notamment lorsqu'il s'agit d'explorer le champ des possibles, mais en quête aussi d'une légitimité académique, privilégient à l'excès l'esprit d'analyse au détriment d'une part d'intuition et d'imaginaire, accordant parfois à la raison une place plus importante que celle qu'elle exerce en réalité dans les comportements humains. Sans doute serait-il utile de réhabiliter la notion de désir, de reconnaître enfin que les comportements individuels et collectifs sont mus par d'autres facteurs, certes encore plus insaisissables que ceux qui entrent dans la froide logique de la raison. Célèbre est la formule de Sénèque affirmant qu'il « n'est de vent favorable que pour celui qui sait où il va ». Dire que l'avenir est domaine de pouvoir et de volonté n'a de sens que dès lors que ceux-ci sont mis au service d'une intention, d'une vision, d'un projet, d'un dessein. Félibien écrivait : « Le terme dessein est générique. C'est une expression apparente ou une image visible des preuves de l'esprit et de ce qu'on s'est premièrement forgé dans son imagination. » Identiquement le projet (de pro-jacio), c'est jeter dans un temps à venir le fruit d'un désir, le produit de notre imagination. C'est une part de rêve passée au crible de la raison. ' Méfions-nous de ne pas laisser se répandre l'idée qu'une étude prospective - fût-elle stratégique - permettrait de désigner « scientifiquement » le but à atteindre. Celui-ci résulte d'abord de nos valeurs, de ce que nous nous estimons souhaitable, de ce que nous éprouvons comme désirable. Sans doute le démagogue aura-t-il essentiellement pour objectif de répondre à la demande la plus immédiate de l'opinion et l'homme de marketing de satisfaire les besoins du marché qu'il prendra soin d'analyser le mieux possible avant de définir sa stratégie. ( I Cité dans le Dictionnairede Richelet,éd. 1759,Tomel, p. 738. 242 PROSPECTIVE Mais le stratège se doit d'être porteur d'une vision à plus long terme, à charge bien sûr de s'assurer que l'objectif qu'il s'assigne n'est pas hors d'atteinte : une pure vue de l'esprit, voire une utopie. Entre donc dans sa comen même temps qu'une part d'analyse. Et position une part d'imaginaire est de la selon la de Lesourne, l'objet méthodologie, jolie expression Jacques double : « Renforcer les chances d'un bon équilibre entre la liberté de l'imagination et la prise en compte des contraintes du réel ; fournir une boîte à outils permettant de tester des cohérences et de déduire des conséquences compatibles avec les hypothèses En d'autres termes, évitons les excès : et de poursuivre un projet qui ne serait qu'un pur produit de nos fantasmes individuels et/ou collectifs, et d'imaginer que l'objectif découlera logiquement d'une analyse purement rationnelle des options possibles. Entrent dans la décision comme dans l'action stratédans gique une part de rêve et une part de raison, de même qu'interviendront leur mise en oeuvre d'un côté des opportunités et des contraintes qui s'imet de désir qui, pour s'acposent à nous, de l'autre une part d'imagination et volonté. complir, exige courage ici aux décideurs de la prospective N'attendons point - je m'adresse qu'elle dicte nos choix et serve, le cas échéant, d'alibi aux décisions prises. Sa fonction est autre : alerter le décideur sur des défis à venir, de sorte qu'il reste maître de ses choix plutôt que les voir être imposés par les circonstances, l'éclairer sur ses marges de manoeuvre et sur les options qu'il peut prendre tout en lui fournissant une évaluation ex ante de leurs conséquences directes et indirectes, immédiates et à plus long terme. Sa véritable vertu est de mettre chacun face à ses responsabilités dans la construction d'un futur davantage choisi que subi. Ce qui exige sans conteste que l'avenir devienne l'affaire de tous et non d'une minorité de prospectivistes qui prétendraient détenir le monopole d'un savoir impossible. Contrairement à une idée très répandue, la démarche prospective comme instrument d'exploration des futurs possibles n'est point le préalable à comme instrument de construction du futur -, l'analyse stratégique la décision. Si du futur l'exploration part du présent laquelle précéderait construire une arborescence des sentiers de alors l'avenir, pour que la strasouhaitables établir le à rebours des tégie part d'objectifs pour compte actions nécessaires à leur réalisation, les deux démarches, quoique très difet souvent simultanées, l'une férentes, sont éminemment complémentaires et l'autre s'enrichissant mutuellement pourvu toutefois que l'on prenne soin de bien distinguer l'exploratoire du normatif, ce qui relève de la nécessité et ce qui incombe à la volonté. ( 1 )Lesourne J., « De la réflexion à l'action », op. cit. Pourune rechercheen prospective 243 Il y aurait certes beaucoup à faire sur le registre des concepts et des méthodes - sans limiter l'effort à la seule production d'outils plus ou moins formalisés -, sur le registre de la connaissance, des données et des systèmes de représentation, sur le registre de la production de scénarios véritablement dignes de ce nom permettant de balayer le champ des possibles en veillant au fait que l'éventail ne soit ni trop large ni trop serré, sur le registre enfin de nos conceptions heureusement diverses des futurs souhaitables et des conditions à réunir pour qu'ils acquièrent quelque vraisemblance. Je n'ai fait qu'esquisser quelques pistes de réflexion. Un programme de recherche en prospective d'une tout autre ampleur et mieux structuré serait assurément indispensable pour éviter que cette forme de pensée ne fasse long feu. Gageons que si Jacques Lesourne voulait bien en être l'homme orchestre, la prospective et tous ceux qui s'en réclament pourraient grandement progresser dans le domaine des idées et - sait-on jamais - sur le registre de la gouvernance, donc des instances de contrôle dont il dénonce l'insuffisance. Christian Schmidt DESDÉCISIONS INDIVIDUELLES À LAPROSPECTIVE SOCIALE Une médiationpar la théorie des jeux 1. UNMÊMEPROGRAMME DERECHERCHE DIFFÉRENTS POURDEUXCHANTIERS Jacques Lesourne dit parfois de lui-même, non sans malice, qu'il n'échappe pas à une certaine schizophrénie intellectuelle. Ses contributions à la connaissance économique, principalement consacrées à la théorie de la décision individuelle et à l'analyse des systèmes auto-organisateurs sont marquées du sceau de la rigueur la plus exigeante. Lorsqu'il pratique simultanément la réflexion prospective, il recourt en revanche à des représentations partielles des systèmes sociaux et utilise des techniques qu'il qualifie de « semi-formalisées ». Laissons à des personnes plus qualifiées le soin d'une interprétation psychologique de cette boutade, pour nous interroger plus avant sur l'existence d'une éventuelle rupture entre ces deux domaines d'investigation. L'énoncé des thèmes qui ont retenu l'attention de Jacques Lesoume et plus encore l'angle sous lequel il les aborde plaide plutôt en faveur de l'unité. Lorsqu'il étudie les décisions économiques individuelles, il s'emploie à élargir le domaine de la théorie classique : prise en compte des représentations des autres comme argument dans les fonctions d'utilité individuelle, substitution d'une approche multicritère à la simple rationalité maximisatrice dans la définition de leur objectif, intégration du rôle du temps grâce à un découpage en périodes introduisant la mémoire et l'adaptation par l'apprentissage (Lesoume, 1975, 1977). Desdécisionsindividuelles à la prospectivesociale 245 On retrouve un écho direct de ces préoccupations dans son traitement des jeux d'acteurs en prospective : constat de la variété des représentations, insistance sur la complexité de la relation entre l'action et les processus de décision qui le précèdent et/ou l'accompagnent faisant intervenir diverses conceptions de la rationalité, distinction de sous-périodes afin d'identifier les réactions des acteurs aux événements qu'ils ont vécus et d'appréhender leurs éventuels changements de stratégie (Lesourne, 1981, 1994, 1996). Très tôt sensible à une approche systémique des phénomènes économiques, Jacques Lesourne a puissamment contribué à reconstruire sur cette base l'analyse microéconomique à partir de trois idées directrices : les agents économiques ne disposent jamais que d'une information incomplète et imparfaite de l'univers dans lequel ils opèrent ; les processus d'interactions économiques sont intrinsèquement dynamiques ; l'émergence d'institutions marchandes dans leur acception la plus large s'effectue selon des procédures auto-organisatrices (Lesourne, 1991, 1998). Les traces de cette maturation ainsi que le langage des systèmes qui l'a rendu possible sont également repérables dans ses travaux de prospective. L'analyse systémique inspire l'exercice Interfuturs qui servira longtemps de cadre référence à la réflexion prospective de l'OCDE (1979). Dès cette époque, le fil d'Ariane qui guide sa démarche est la recherche de voies de passage des systèmes à apprentissage aux systèmes à auto-organisation (1981). Revenant plus tard sur le versant méthodologique des travaux de prospective, il souligne l'impérieuse nécessité de définir un système de référence répondant à certaines conditions, au premier rang desquelles figure la dynamique de l'évolution (Lesourne, 1989). Si rupture il y a, elle ne porte donc ni sur l'orientation générale des recherches de Jacques Lesourne dans ces deux domaines, ni, de manière plus précise, sur les hypothèses majeures qui sous-tendent les unes et les autres. Leurs voies bifurquent en raison de la nature propre du savoir dans les deux cas. L'économie, quelle que soit la manière dont elle est présentée, se divise en deux branches distinctes, dont l'une est théorique et l'autre appliquée. ' ' Ce diptyque n'a pas d'équivalent en prospective. Toute réflexion sur les avenirs possibles prend sa source en deçà des théories formalisées dans un registre qui relève de la philosophie, comme l'avait clairement conçu dès l'origine Gaston Berger. D'un autre côté, la prospective ne fournit pas de prophéties. Sa finalité principale, si ce n'est exclusive, est d'éclairer les acteurs sociaux. Elle se doit donc d'aider les décideurs appartenant à un environnement déterminé à répondre aux questions concrètes auxquelles ils se trouvent confrontés, ou tout au moins à leur permettre de mieux les formuler. La réflexion prospective relève pour ces deux raisons de ce que Bertrand de Jouvenel appelait joliment, l'Art de la conjecture. Un art qui mobilise certes toutes les ressources mises aujourd'hui à sa disposition par les pratiques scientifiques, mais un art tout de même. Ce grand écart entre la réflexion philosophique, en amont des constructions scientifiques, et 246 PROSPECTIVE l'accompagnement des décisions, en aval des modèles techniques au moyen desquels sont formulées les théories, explique la position singulière qu'elle occupe aux confins des objets plus traditionnels de notre connaissance. Pour réduire cet écart, Jacques Lesourne juge inadaptés les emprunts directs à un formalisme dur, comme on les trouve notamment dans le premier modèle du Club de Rome ou dans le système dynamique de Forrester (Lesourne, 1994). Les avantages tirés de la rigueur formelle s'y trouvent contrebalancés par les inconvénients dus à la rigidité des relations retenues et à la pauvreté sémantique du champ des possibles qui en découle. En prospective, en effet, la formalisation ne peut avoir pour objectif, ni de garantir la cohérence d'une théorie qui serait antinomique au projet prospectif luimême, ni de permettre une représentation stylisée des phénomènes observés, puisque les réalités dont nous entretiennent les prospectivistes sont encore d'ordre virtuel. Jacques Lesourne préconise donc une utilisation souple de techniques semi-formalisées. Nous proposons ici d'explorer une piste quelque peu différente mise à notre disposition par les développements récents de la théorie des jeux. La théorie des jeux garde, certes, de ses origines mathématiques un appareil formel qui peut sembler lourd, mais elle ne vise ni à expliquer des phénomènes relevant d'un domaine particulier, comme la théorie économique, ni à décrire leurs manifestations observables, comme l'économétrie. L'étendue potentielle de ses utilisations lui confère sur ce terrain un avantage qu'il incombe au prospectiviste d'exploiter. En proposant cette voie nous ne faisons du reste que suivre l'une des démarches assignées par Jacques Lesourne à la recherche en prospective dans son « Plaidoyer » : partir des modes de représentation existants en vue de les adapter aux objectifs spécifiques poursuivis par les études prospectives (Lesoume, 1989, p. 87). 2. LIBÉRER LATHÉORIE DESJEUX La mise en oeuvrede ce programme se heurte toutefois à une critique préjudicielle des théoriciens et au scepticisme rampant des praticiens. Pour les premiers, l'analyse du comportement des agents individuels serait en théorie des jeux plus réductrice encore que dans la théorie économique standard de la décision. Pour les seconds, l'exigence du formalisme logique sur lequel elle repose laisserait un trop faible degré de liberté au prospectiviste pour l'utiliser comme grille d'interprétation des diverses informations recueillies sur les questions posées. La première de ces objections est paradoxalement imputable à la longue liaison de la théorie des jeux avec l'analyse économique qui frise aujourd'hui le concubinage. Pour y répondre, il importe de distinguer soigneusement ce Desdécisionsindividuelles à la prospectivesociale 247 qui, dans la théorie des jeux, appartient à son noyau conceptuel irréductible de ce qui relève seulement d'interprétations empruntées à l'économie et transmises de manière routinière par la tradition. Considérons le joueur de la théorie des jeux. On l'assimile volontiers à un agent économique. Le terme de joueur doit cependant retenir notre attention, car il ne désigne pas un individu, mais un rôle. Cette précision permet de le distinguer de l'agent qui, dans une circonstance particulière définie par le jeu, assume ce rôle. Le joueur et l'agent sont eux-mêmes différents du décideur concret qui se trouve en position d'observateur par rapport aux résultats que pourrait obtenir un agent s'il jouait ce rôle. Semblables subtilités sont souvent négligées dans la théorie des jeux classique. Les recherches contemporaines aboutissent aujourd'hui à les faire resurgir à la faveur d'une analyse approfondie des hypothèses des connaissances des uns et des autres sur le jeu. Le joueur se trouve doté d'un ensemble de stratégies entre lesquelles il effectue son choix. À chaque stratégie est associée une valeur de paiement qui traduit l'évaluation faite par le joueur de l'issue du jeu, compte tenu des choix des autres joueurs. Pour des raisons d'uniformisation avec la théorie économique classique des choix individuels, les théoriciens des jeux ont pris l'habitude depuis la seconde édition de Theory of Games and Economic Behaviour (1946) (1) de formuler cette évaluation en termes d'utilité espérée. Il en résulte : 1 ) que chaque joueur ne prend en considération dans son calcul que ses propres préférences, à l'exclusion de l'information dont il dispose sur celles des autres, 2) que son calcul se ramène à la maximisation d'un seul critère. Le caractère réducteur du traitement des comportements des joueurs qui a été rappelé reste parfaitement contingent. L'histoire nous enseigne d'abord que le théorème du minimax garantissant l'existence d'une solution à tout jeu à deux joueurs à somme nulle est libre de toute référence à l'utilité. Dans la première démonstration de Von Neumann (1928), les paiements des joueurs sont évalués en unités conventionnelles (gains ou pertes monétaires). Du point de vue de l'analyse, ensuite, rien ne s'oppose à ce que chaque joueur prenne en compte dans sa propre évaluation les estimations des autres joueurs, ou tout au moins l'idée qu'il peut s'en faire à la lumière des informations dont il dispose sur eux et de son jugement. Plusieurs voies ont été explorées en ce sens. La plus classique consiste à définir des paiements « contextuels » en dotant les joueurs de fonctions d'utilité interdépendantes (Nicholson, 1990, 1994). Une autre direction s'attache à introduire l'empathie éprouvée par chaque joueur vis-à-vis des autres au moyen de « méta( l )La premièreéditionde cet ouvragea été publiéeen 1944sans l'appendicemathématique consacréà l'axiomatiquede l'utilité. 248 PROSPECTIVE préférences » (Binmore, 1994). Quant à la maximisation d'un critère unique, on trouve une preuve indirecte du fait qu'elle ne constitue pas une partie intégrante de la théorie des jeux dans son inaptitude à rendre compte du comportement des joueurs dans certains types de jeux. Dans beaucoup de jeux évolutionnistes, l'évolution prend la forme d'un replicateur dynamique dont l'idée a été empruntée à la biologie (Maynard Smith, 1982). Les joueurs individuels considérés dans cette perspective ne sont plus conçus comme des maximisateurs. Ils tendent, par leurs choix stratégiques, d'atteindre un niveau donné de satisfaction dont la signification est inséparable du.groupe auquel ils appartiennent. Ce comportement peut s'analyser, pour cette raison, en termes de rationalité limitée au sens de Simon. L'important est ici que les concepts fondateurs de la théorie des jeux (stratégies, solutions...) se révèlent compatibles avec des hypothèses alternatives faites sur les paiements des joueurs et sur les ressorts de leurs comportements. Les jeux ainsi obtenus en sortent transformés et enrichis. Restent les stratégies. Par analogie avec la théorie dominante de la décision économique d'inspiration savagienne, la stratégie se trouve traditionnellement interprétée comme un plan complet d'actions couvrant l'ensemble des séquences du jeu jusqu'à sa phase terminale. Ainsi entendu, le déroulement du jeu n'apprend rien au joueur que celui-ci puisse utiliser dans le choix de sa stratégie. Toute dimension temporelle se trouve donc absente du choix stratégique. Cette interprétation conventionnelle de la stratégie a toutefois été récemment remise en cause. D'un point de vue logique tout d'abord. La stratégie ne peut être valablement assimilée à un véritable plan d'actions, car elle formule plutôt un plan d'actions contingentes du type : « Si le joueur... jouait sa stratégie... au coup précédent, alors je jouerais ma stratégie..., au coup suivant... », ce qui suppose que toutes les actions qui ne sont pas mises en oeuvre appartiennent à ce plan. En sens inverse, pour que le plan d'actions d'une stratégie se réalise, il faut, non seulement qu'il soit décidé par le joueur qui en a la disposition au début du jeu, mais encore que les comportements des autres joueurs coïncident avec la conjecture que le joueur qui décide a faite sur eux (Rubinstein, 1991). Le problème se complique encore lorsque le jeu comporte plus de deux joueurs. Si maintenant on introduit la notion d'apprentissage, il est clair qu'il devient nécessaire, non seulement que les joueurs puissent observer l'écart qui sépare les résultats qu'ils ont obtenus à la fin du jeu de ceux qu'ils attendaient, mais encore qu'ils soient en mesure de connaître comment les autres joueurs auraient joué à des séquences du jeu qui n'ont pas été atteintes dans son déroulement réel (Weibull, 1995). Une fois encore, rien ne s'oppose conceptuellement à étendre notre interprétation de la théorie des jeux dans cette direction (Osborne et Rubinstein, 1994). Ce premier repérage confirme notre hypothèse liminaire. La théorie des jeux a vocation à devenir un médiateur entre les deux chantiers de recherches Desdécisionsindividuelles à la prospectivesociale 249 auxquels s'est attaché Jacques Lesoume, pour autant qu'elle se soit victorieusement libérée des entraves qui la rattachent, souvent arbitrairement, à la théorie économique standard. 3. UNUSAGE KALÉIDOSCOPIQUE Le bien fondé de recourir à la théorie des jeux en prospective ne peut être définitivement établi que si l'on répond à la seconde objection soulevée par les praticiens. À première vue, un jeu tel que l'entend la théorie, se présente comme un système formel rigide. On devine sa prégnance en observant que toutes les notions qui ont déjà été discutées (joueurs, paiements, stratégies...) ne prennent un sens que dans le cadre rigoureusement circonscrit du jeu étudié. D'un autre côté, une situation de jeu peut faire l'objet d'un grand nombre de modèles différents. Le rapprochement de ces deux observations met sur la voie d'un usage de la théorie des jeux en prospective, à condition de distinguer soigneusement la situation de jeu des modèles au moyen desquels la théorie permet de la représenter. L'interprétation donnée aux comportements individuels est étroitement tributaire du modèle qui a été retenu pour décrire cette situation. La distinction précédemment énoncée entre le joueur et l'agent en fournit une illustration exemplaire. Supposons un jeu fini qui se déroule sur plusieurs séquences et où les joueurs jouent alternativement. Deux idées différentes sont associées aux centres de décision. D'une part, celle d'une permanence du début à la fin du jeu. D'autre part, celle du changement des ensembles d'information associés aux décideurs en fonction de leur position dans le déroulement des séquences. On peut avec certains auteurs réserver l'appellation de « joueurs » à l'entité qui assure la première fonction et qualifier d'« agents » les entités correspondant à la seconde. Au terme de cette formulation, chaque joueur disposera de plusieurs agents (Harsanyi et Selten, 1988). Cette interprétation singulière de la distinction entre joueurs et agents permet de mieux comprendre les structures profondes qui organisent les informations du jeu. Mais elle n'est évidemment pas transposable à tous les jeux et en particulier aux jeux à un coup (one shot game). On peut pousser plus loin dans cette direction l'analyse de ce qu'est un joueur en considérant le cas de deux entités individuelles dont les intérêts et les préférences sont rigoureusement identiques et qui disposent exactement des mêmes stratégies pour les satisfaire. Faut-il les traiter comme un joueur unique (coalition formant une équipe) ou comme deux joueurs distincts ? La réponse dépend du contexte, c'est-à-dire du modèle de jeu dans lequel ils évoluent. Ils seront assimilés à un joueur unique si le jeu est représenté sous une forme coalitionnelle, mais demeureront irréductibles s'ils prennent place 250 PROSPECTIVE dans un modèle non coopératif. L'analyse de leur comportement soulève dans ce dernier cas un problème nouveau qui échappe à la théorie de la décision individuelle, puisqu'il leur faut coordonner leur action pour atteindre leur objectif. C'est ainsi que le problème de la coordination a été mis en évidence pour la première fois par Schelling dans le cadre d'un jeu noncoopératif classique qui, précisément, n'était pas en mesure de le résoudre (Schelling, 1960). La théorie des jeux offre une grande variété de modèles. Mais, au-delà des formules vagues désignant les interactions de décideurs individuels doués de raison, on chercherait en vain dans toute la littérature consacrée aux jeux une définition générale et précise du jeu. Ces modèles de jeu présentent pourtant trois composantes communes : une forme, au moyen de laquelle la situation est décrite ; une solution, qui résout le problème qu'elle pose et dont on déduit les standards de comportement que doivent adopter les joueurs pour l'atteindre ; une structure d'information, attachée à chaque joueur à toutes les étapes du jeu. Ces trois composantes ont des expressions multiples et partiellement indépendantes. Ainsi, une solution très utilisée comme l'équilibre de Nash peut prendre place dans des jeux de formes différentes (forme normale, forme extensive et même forme coalitionnelle en l'interprétant dans une version dite « forte ») auxquelles peuvent être associées des structures d'information très diverses (depuis l'information complète common knowledge, jusqu'à des systèmes d'information comportant beaucoup de lacunes). Ces modèles de jeu sont des constructions dérivées d'une vaste combinatoire entre les trois composantes qui ont été rappelées. Cela autorise à se servir de la théorie des jeux à la manière d'un kaléidoscope. Il revient au prospectiviste de choisir les données qui serviront d'invariants au kaléidoscope qu'il entend utiliser pour caractériser la situation qu'il étudie. En l'agitant selon certaines règles, il obtiendra plusieurs configurations différentes, toutes compatibles avec les données initiales dont il dispose. Chacune d'entre elles renvoie à un modèle dont la théorie des jeux est en mesure de dégager les propriétés logiques. Les modèles de jeux n'ont pas la prétention de décrire de façon exhaustive la ou les situations sur lesquelles le prospectiviste est interrogé. Ils peuvent, en revanche, l'aider à formuler avec plus de rigueur les problèmes qu'elles posent. Il reste qu'un tel usage des enseignements de la théorie des jeux laisse aux prospectivistes une plage de liberté conforme aux impératifs de cet exercice de pensée particulier. (1) On appelleéquilibrede Nash fort la solutiond'un jeu où les membresd'une coalition n'ont aucunintérêtà s'éloignerensembled'une positiond'équilibre(Bernheim,Peleget Whinston,1987). à la prospectivesociale Desdécisionsindividuelles 2511 4. DESMÉTAJEUX AUXHYPERJEUX Faute de définition générale, tous les jeux partagent une propriété formelle remarquable. À partir de n'importe lequel d'entre eux, on peut toujours construire un autre jeu qui l'englobe et le décomposer en un nombre infini de sous-jeux. Ces opérations permettent d'associer au jeu initial une série de métajeux. Ce qui n'est souvent qu'une facilité pour le théoricien des jeux qui, de cette manière, repousse certaines difficultés plutôt qu'il ne les résout, se révèle être une ressource précieuse pour le prospectiviste. Précisons la procédure de construction des métajeux. À l'origine, une situation est représentée par un modèle de jeu. Le modèle est composé d'informations détenues par le modélisateur et (au moins en partie) par les joueurs. En changeant le statut donné à certaines de ces informations, on obtient ce que l'on appelle un métajeu. Imaginons, par exemple, une situation traitée sous la forme d'un jeu non coopératif à deux joueurs dont l'équilibre de Nash est le concept de solution. Ce modèle comporte deux solutions qui avantagent respectivement l'un ou l'autre des deux joueurs. L'analyse du modèle montre que le joueur qui joue le premier se trouve en mesure d'imposer à l'autre l'équilibre qui lui est le plus favorable. Mais le jeu initial ne dit pas lequel des deux joueurs jouera le premier coup. Cette information peut être considérée comme une question explorée par un métajeu qui prend alors la forme d'un nouveau modèle, celui du jeu pour le premier coup. Une autre voie suivie pour construire des métajeux consiste à dégager les différents niveaux de connaissance que chaque joueur peut avoir sur les informations qui lui sont transmises par le jeu initial. Le premier niveau correspond à ce modèle initial. Au second niveau, le joueur se place mentalement dans la situation où il connaîtrait la stratégie choisie par l'autre joueur au moment où il décide de sa propre stratégie. En procédant ainsi, il élabore un métajeu. Il peut évidemment prolonger cette procédure en construisant le métajeu de ce nouveau jeu qui correspond à un troisième niveau de connaissance par rapport aux informations contenues dans le jeu initial, et cela jusqu'à l'infini. Cette démarche n'est pas nouvelle. On la rencontre déjà chez Von Neumann et Morgenstern (1944) et elle a été systématisée par Howard dans les années 70 (Howard, 1971). L'essentiel ici est de dégager les ressources qu'elle met à la disposition de la prospective. Empruntons l'exemple suivant à Crawford (1991). Il s'agit d'une situation bien connue, communément formalisée par un modèle simplifié de jeu de l'ultimatum. Le joueur 1 fait une offre au joueur 2 qui peut soit l'accepter soit la refuser. Une telle situation se rencontre fréquemment au cours de négociations. Au début du jeu, le joueur 1 dispose d'un ensemble d'offres possibles qui constituent ses stratégies. Elles sont limitées ici à deux pour des raisons de simplicité. Cette situation est généralement décrite par un 252 PROSPECTIVE modèle non coopératif dont la solution est un équilibre de Nash. Sa forme normale est représentée par la matrice suivante : r a A 3,2 B 2,3 1,1 1,1 Dans ce jeu élémentaire, une solution unique s'impose à l'évidence, qui correspond au seul équilibre de Nash (A,a). Cet équilibre est stable puisque les paiements que pourrait obtenir chaque joueur en s'en écartant seraient inférieurs à ceux qu'il leur garantit. De plus, le choix de r par le joueur 2 serait irrationnel puisque cette stratégie est fortement dominée. Quant au choix de B par le joueur 1, sa rationalité demeure discutable, dès lors qu'il s'agit d'une stratégie faiblement dominée qui ne correspond pas à un équilibre au sens de Nash. La construction du métajeu de premier niveau du joueur 2 modifie profondément cette perspective comme le révèle l'analyse de sa forme normale : A a/AVB 3,2 r/AVB 1,1 B 2,3 1,1 a/A,r/B 3,2 1 1,1 a/B, r/A 1'l1 2,3 Deux conclusions se dégagent de son examen. D'une part, la nature des possibilités auxquelles peut donner lieu cette situation dépasse celui des états du jeu de son modèle initial. D'autre part, diverses solutions différentes de celle du modèle initial apparaissent compatibles avec les données disponibles sur cette situation sans que le concept de solution ait été changé. Outre l'équilibre déjà identifié, ce métajeu contient deux équilibres supplémentaires (A, a/A, r/B) et (B, a/B, r/A). Le premier d'entre eux semble difficile à interpréter sans introduire une erreur du joueur 2. Le second, en revanche, ouvre la voie à une analyse intéressante. Le joueur 1, craignant que le joueur 2, refuse une offre qui le désavantagerait, se trouve conduit à opter pour la proposition B qui est pourtant moins avantageuse pour lui que la proposition A. Une telle conduite n'a rien d'irrationnelle dès lors que ce risque peut exister. Quant à la stratégie du joueur 2, qui consiste maintenant à accepter B et à refuser A, elle n'est pas non plus dénuée de fondement. Elle satisfait tout d'abord le sens commun. De manière plus fondamentale, contrairement à la stratégie r dans le modèle du jeu initial, elle n'est pas fortement dominée mais seulement faiblement dominée par la stratégie qui le conduirait à accepter la proposition quelle qu'elle soit. Comme, par ailleurs, cette stratégie coïncide avec un équilibre de Nash, les deux joueurs sont supposés partager la rationalité qui sous-tend leur acceptation de ce concept de solution. Desdécisionsindividuelles à la prospectivesociale 253 La théorie des jeux classique soutient que seul l'équilibre de Nash du jeu initial est une solution véritable (équilibre « parfait » au sens de Selten) sur la base d'un argument d'indépendance de la solution par rapport à l'état d'origine de la situation décrite par le modèle. D'une manière plus générale, du reste, la pluralité des solutions est considérée comme un handicap. Tel n'est pas le souci du prospectiviste dont l'objectif est d'abord de mettre en évidence des états possibles. La théorie des jeux n'a pas pour lui vocation à prévoir l'avenir résultant de la situation qu'elle a modélisée. Son rôle est d'identifier le plus grand nombre de possibilités compatibles avec les données recueillies sur la situation et de recenser celles qui répondent à une certaine cohérence logique au terme de critères explicitement définis. Il revient ensuite à la prospective de les transformer en futurs, en élaborant sur cette base un ensemble de scénarios. L'avantage de la technique des métajeux réside dans la prise en compte directe des différents niveaux de connaissance à partir desquels les décisions peuvent être arrêtées. Mais ces niveaux de connaissance se rapportent tous à un jeu unique. Or, d'une part, les décideurs concrets ne disposent pas, le plus souvent, d'assez d'informations pour identifier le jeu dans lequel ils jouent. Ils évoluent, d'autre part, simultanément dans des jeux différents mais interdépendants. Les hyperjeux permettent de telles extensions. La situation initiale n'est plus cette fois décrite par un modèle unique. Chacun de ses participants imagine plusieurs modèles possibles pour la décrire en fonction des informations qu'il détient sur elle. Chaque modèle représente un jeu différent compatible avec ce que chacun connaît de cette situation. On peut alors utiliser la distinction entre joueur et agent dans une acception différente de celle d'Harsanyi et Selten précédemment évoquée. L'agent correspond ici au centre de décision et le joueur aux rôles de cet agent dans chacun des jeux possibles. À chaque agent i correspond maintenant plusieurs joueurs, chaque joueur j de i étant identifié par le jeu dans lequel opère l'agent i. Soit symboliquement Fi = J2, ... Jn) où ri représente l'hyperjeu de l'agent i et Jp Jn ... les r jeux mentaux qu'il contient. L'exemple suivant offre une application d'hyperjeu à un cas très simple où interviennent seulement deux agents. Considérons l'agent 1. Il connaît l'ensemble des actions dont il dispose ainsi que celles dont dispose l'autre agent. Il en déduit un ensemble d'états possibles correspondant à tous les couples d'actions. Il est en outre capable de définir un ordre de préférence sur ces états. Mais il ignore les préférences du joueur 2. Dans la terminologie de la théorie des jeux, on dira qu'il connaît seulement les paiements associés à l'ensemble des états terminaux de cette situation de jeu. Ces informations demeurent insuffisantes pour lui permettre d'identifier cette situation à un jeu précis. Il peut néanmoins introduire différentes hypothèses sur le profil de préférences de l'autre agent, selon, par exemple, qu'il s'agit d'un « mou » ou d'un « dur », d'un tempérament plus ou moins agressif ou bienveillant. La représentation de l'hyperjeu du joueur 1 correspondant à cet exemple se traduit par le schéma suivant : 254 PROSPECTIVE 2 1 1 4 3 1 Situation initiale A A B BAB 2,2 4,1 1,4 3,3 A A BAB A 2,1 4,2 B 1,3 3,4 2,1 4,2 B 1,4 3,3 A 2,2 4,1 B 1,3 3,4 J,1 Supposons que le joueur 1 sache que la situation initiale est une situation Nashienne. Les 4 jeux Jl,J2, J3, J4 partagent le même concept de solution, des joueurs dans qui détermine à son tour les standards de comportement Le 1 utiliser sa connaissance de chaque jeu. joueur peut l'équilibre dans chacun des jeux comme une information susceptible d'orienter son choix straEn l'espèce, chacun des jeux mentaux tégique au niveau de l'hyperjeu. à un seul équilibre qui correspond à la même appartenant l'hyperjeu possède tous les stratégie jouée par joueurs associés à l'agent 1 dans les différents Il en résulte sa stratégie jeux. que l'agent 1 peut ici choisir rationnellement A sans savoir pourtant par quel joueur et dans quel jeu elle sera mise en oeuvre,. Construisons de la même manière l'hyperjeu de l'agent 2 confronté à cette situation mais manifestant des préférences différentes. On peut le représenter par le schéma suivant : 1 1 4 2 3 1 1 Situation initiale A A B BAB 4,2 2,11 1,4 3,3 J21 A A B 1,1 3,2 2,4 4,3 J22 A B 1,1 4,2 2,4 3,3 J23 B A A B B 2,1 3,2 1,4 4,3 J24 Le même type de connaissances sur la situation initiale que celle dont dis1 n'est suffisante cette fois pour permettre à l'agent 2 de pose l'agent pas choisir rationnellement sa stratégie. La réponse dictée par la théorie des jeux varie en effet avec le jeu considéré (exemple : A, dans J21 et B dans J22). L'agent 2 peut, dans ces conditions, attendre que l'agent 1 ait mis en oeuvre sa stratégie. En apprenant que le joueur 2 a opté pour sa stratégie A, l'agent 2 en déduit qu'il ne joue ni dans J22, ni dans J24, puisque la stratégie A de Desdécisionsindividuelles à la prospectivesociale 2555 l'agent 1 n'est une stratégie d'équilibre dans aucun de ces deux jeux. Il reste donc et J23 comme jeux possibles. Le couple de stratégies (A, B) conduit à la solution d'un équilibre du « vrai » jeu qui correspond à J i pour l'agent 1 et à J21pour l'agent 2. Ce vrai jeu appartient donc aux hyperjeux mentaux des deux agents. Partant d'une situation initiale interprétée au moyen de préférences différentes, les deux agents parviennent à la solution d'un jeu dont ni l'un ni l'autre ne sait s'il est un joueur. La procédure décrite ici est très simplifiée en raison de la réduction des jeux mentaux à leur forme normale. On peut la développer en prenant en compte leurs différentes séquences. Le déroulement du jeu enrichit dans cette perspective l'information de chaque agent. Cela entraîne une révision du concept de choix stratégique comme nous l'avons déjà indiqué. La notion d'hyperjeu ainsi présentée peut être étendue dans diverses directions. Dans notre exemple, les jeux mentaux qui constituent les hyperjeux des deux agents relèvent de la même catégorie (jeux non coopératifs dont la solution est un équilibre de Nash). Rien n'empêche d'inclure dans ces hyperjeux des jeux d'autres catégories, comme, par exemple, certains jeux coopératifs. Le traitement de l'ensemble gagne évidemment en complexité. De manière plus fondamentale, notre présentation suppose que Fjm rz 7:- 0. Cette hypothèse justifie l'idée d'un « vrai » jeu auquel renvoie l'ensemble du raisonnement. On peut également imaginer que Fin r2 = 0, soit parce que l'un ou l'autre des agents (voire tous les deux) n'ont pas été exhaustifs dans le relevé des préférences possibles de l'autre, soit, plus radicalement, parce que leurs représentations mentales de la situation de jeu à la lumière des croyances de chacun sur l'autre sont mutuellement irréductibles. L'idée d'un vrai jeu, au sens où elle a été introduite, perd alors sa pertinence et la référence à la théorie des jeux devient très lâche. C'est dans le cadre de cette seconde hypothèse que les hyperjeux ont été initialement développés (Bennet, 1977 ; Bennet et Hoxham, 1982). La voie des hyperjeux n'a guère été exploitée par les théoriciens des jeux qui préfèrent traiter les situations de jeu en information incomplète au moyen de probabilités subjectives interprétées de manière bayesienne. Une fois encore, le point de vue des prospectivistes est différent. Le problème est moins pour eux d'aboutir à une solution que de pouvoir exploiter toutes les potentialités d'une situation. Les hyperjeux présentent sur ce terrain deux avantages. Ils offrent à travers les jeux mentaux un cadre systématique pour étudier les différentes représentations que les acteurs peuvent avoir d'une même situation de jeu, en intégrant leur croyance sur les autres. Or, les avenirs possibles dépendent d'abord des représentations mentales que s'en font les décideurs au moment où ils prennent leur décision. Les hyperjeux permettent, en outre, de distinguer des degrés de stabilité dans les états résultant de décisions prises par des agents qui, pour une raison ou une autre, n'ont pas exactement la même représentation de leur interaction. La stabilité la plus grande s'observe dans l'exemple présenté où les décisions des agents 256 PROSPECTIV coïncident avec les stratégies d'équilibre des joueurs dans le vrai jeu. À l'opposé, des décisions arrêtées sur la base d'hyperjeux complètement déconnectés ont peu de chances d'être stables. Entre ces deux extrêmes figurent les cas où, bien que le vrai jeu soit présent dans les hyperjeux de tous les agents, aucune procédure ne leur permet à coup sûr de faire coïncider leur décision avec les stratégies de sa solution. Cette distinction s'applique avec profit aux scénarios construits par les prospectivistes. 5. STABILITÉ DESJEUXETROBUSTESSE DESSCÉNARIOS PROSPECTIFS Avec la stabilité, la théorie des jeux passe du rôle de système de référence utilisé pour aborder les problèmes de prospective à celui plus opératoire d'outil dans la construction de scénarios prospectifs. Cette contribution s'inscrit dans le second volet du programme de recherche que Jacques Lesoume assigne à la prospective (Lesourne, 1989). D'une certaine manière, du reste, toute la réflexion prospective tourne autour de la stabilité. Ainsi, les phénomènes de rupture qui préoccupent légitimement les prospectivistes peuvent s'interpréter comme des passages plus ou moins brutaux d'un état stable à un autre, parfois très éloigné de l'état initial. La stabilité d'un modèle de jeu s'entend selon deux perspectives différentes et partiellement complémentaires. D'un point de vue statique, le critère sous-jacent de la plupart des concepts de solution réside dans la stabilité de l'état du jeu correspondant. On qualifie ce point de vue de statique, parce que ces solutions sont définies indépendamment de toute référence dynamique concernant les jeux auxquels elles s'appliquent (1). D'un point de vue dynamique, la stabilité désigne la convergence des trajectoires possibles du jeu vers un état et la propriété d'attraction exercée par lui sur les comportements des joueurs. La stabilité entendue en ce sens porte moins sur la solution du jeu que sur sa dynamique. On montrera quel usage peut être fait de chacune de ces deux acceptions de la stabilité lorsque l'on construit des scénarios prospectifs. Pour passer des scénarios prospectifs aux jeux, le concept de situation sociale forgée par Greenberg (1990) se révèle efficace. Par situation sociale, Greenberg entend une description de toutes les possibilités offertes aux agents qui s'y trouvent confrontés, compte tenu des contraintes de l'envi. d'unjeuoùsontdistinguées sesdifférentes nedoitpasêtre (1) Laformeextensive séquences confondueavecune véritabledynamique, puisqueselonla théoriedesjeux classique l'ordrede cesséquences faitpartiede la définition desstratégies desjoueursdéfiniesau momentoùcommence lejeu. 257 Desdécisionsindividuelles à la prospectivesociale ronnement dans lequel ils opèrent. Les possibilités prennent ici un sens précis, puisque sont éliminés de cette description les états sociaux qui seraient « autodestructeurs » (se(f-defeating). Cette approche par les situations sociales conduit Greenberg à inverser la démarche traditionnelle des théoriciens des jeux. Au lieu de partir de jeux qui modélisent imparfaitement une situation pour leur appliquer ensuite un concept de solution, on part des concepts de solution proposés par la théorie des jeux pour en déduire les situations sociales auxquelles elles s'appliquent. En procédant ainsi, on est presque toujours assuré que la situation décrite renvoie à une organisation sociale « stable » au sens de la première acception de la stabilité Greenberg retrouve de cette manière la notion d'ordre social associée dès Von Neumann et Morgenstern aux standards de comportement des joueurs. Beaucoup de scénarios prospectifs ne sont rien d'autre que des situations hypothétiques mettant en scène plusieurs acteurs sociaux qui interagissent dans un environnement déterminé. À ce stade, il revient au prospectiviste de confronter les hypothèses sur lesquelles sont construits les scénarios avec celles qui sous-tendent les situations sociales associées aux concepts de solution de la théorie des jeux. C'est là qu'intervient l'art du prospectiviste. Au terme de cette confrontation et moyennant certaines concessions et adaptations, le prospectiviste choisira le modèle de jeu le plus proche de chaque scénario sur la base du concept de solution dont la situation sociale est la plus voisine du scénario imaginé. Un exemple illustre cette procédure. Imaginons deux scénarios SI et où plusieurs acteurs interagissent dans un environnement différent. L'environnement de SI est caractérisé par un état de droit très exigeant sanctionnant avec sévérité tout manquement aux engagements individuels. L'environnement de S, correspond à un régime juridique respectueux des libertés individuelles au point de ne pas intervenir dans les engagements qui accompagnent les transactions privées. On suppose, par simplification, que les deux scénarios concernent les mêmes acteurs. S sera traité comme une situation associée à la solution d'un jeu coopératif (le coeur par exemple) et S2 comme une situation associée à la solution d'un jeu non coopératif, (par exemple l'équilibre de Nash). On peut affiner cette procédure en précisant, par exemple, la nature de la confrontation entre les acteurs ce qui permet au prospectiviste d'identifier à l'intérieur d'une famille de jeux, le concept de solution le mieux adapté au scénario qu'il se propose de construire. Traiter les scénarios prospectifs en ces termes chaque fois que c'est possible paraît très fécond. En premier lieu, l'introduction du concept de solution permet un contrôle interne de la cohérence de chaque scénario. À l'issue de ce contrôle trois cas sont possibles : (1) Sauf un conceptde solution,la valeurde Shapleyqui, sans être stable,peut néanmoins s'interprétercommeun ordre socialacceptépar les joueurs sur la base d'une considération d'équité (Schmidt,1999). 258 PROSPECTIVE 1) la solution est un ensemble vide ; le scénario doit alors être abandonné raison de son instabilité par construction ; 2) la solution est unique ; le scénario possède convient d'en privilégier l'analyse ; en un état stable et un seul et il 3) plusieurs solutions sont compatibles avec la situation, il faut alors considérer chacune d'elles comme une variante du scénario initial et comparer la stabilité des états auxquels renvoie chacune de ces variantes. L'existence d'une ou de plusieurs solutions associées aux scénarios ne dit sont atteints par les pas si et comment les états stables correspondants acteurs dans le scénario. Bien que la théorie des jeux ne permette pas encore de répondre à cette question, elle fournit néanmoins quelques indications intéressantes en ce sens. Tout concept de solution définit, comme on l'a vu, des « standards de comportement » qui, si les joueurs acceptent de s'y les conduisent à la à l'une conformer, (ou des) solution(s) du jeu, lorsqu'elle existe. Ces standards ne sont pas des normes. Les acteurs restent libres de les accepter ou de les refuser, c'est-à-dire de devenir ou non des joueurs du jeu au scénario. Le prospectiviste doit légitimement correspondant s'interroger à ce niveau sur les chances que les acteurs qu'il a retenus se conforment aux standards de comportement identifiés par la théorie. Mais le principal problème concerne ici les informations dont disposent les acteurs des scénarios et leur niveau de connaissance qui peuvent ne pas être suffisants pour faire d'eux des joueurs au sens de la théorie. Il est clair que les informations requises par la théorie des jeux classique peuvent souvent sembler trop exigeantes à ce stade. C'est pour cette raison que le recours aux enseignements livrés par les métajeux et les hyperjeux, tels que nous les avons présentés se révèle précieux pour permettre de franchir cet obstacle. Rappelons à ce sujet que les jeux sont des systèmes complexes transformables en métajeux et en hyperjeux. Si cette propriété des jeux offre presque toujours une voie pour résoudre cette difficulté rencontrée dans le traitement d'un scénario en jeu, elle implique en contrepartie que différentes versions peuvent, en règle générale, être proposées pour un même scénario. Il incombe là encore au prospectiviste de trancher. Considérons maintenant la stabilité dynamique. On remarquera que la stabilité dynamique d'un jeu ne coïncide pas nécessairement avec la stabilité stade sa Les deux (ou ses) solution(s). tique exemples suivants, bien connus dans la littérature des jeux, illustrent cette différence : A B M A 1,11 0,0 1/2,1/2 A 0,0 1,-1 -1,11 B 0,11 1,11 1/2,1/2 B -1,11 0,0 1,-1 1/2,1/2 C 1,-1 -1,11 0,0 M '/2,'/2 1/2,1/2 1 ABC 2 Desdécisionsindividuelles à la prospectivesociale 259 La matrice du jeu 1 dépeint un jeu de pure coordination. S'agissant d'un jeu non coopératif, il possède trois équilibres de Nash, dont deux sont des équilibres de stratégies pures (A,A) et (B,B) et le troisième un équilibre de stratégie mixte (M,M). D'un point de vue statique, (A,A) et (B,B) sont des solutions plus stables que (M,M). Supposons que le joueur 1 ait choisi sa stratégie pure A, le joueur 2, s'il y répondait par sa stratégie B, obtiendrait un paiement inférieur à celui que lui assure sa stratégie A (et de même symétriquement pour le joueur 2, si le joueur 1 avait choisi sa stratégie A). Un raisonnement identique sur les choix de la stratégie B conduit au même résultat pour l'équilibre (B,B). Tout incite donc les deux joueurs à rester à l'état d'équilibre (A,A) dès lors qu'il est atteint et il en va de même pour l'équilibre (B,B). Tel n'est pas le cas pour l'équilibre de stratégie mixte (M,M) où, lorsque l'un des joueurs a choisi M, l'autre obtient le même paiement quelle que soit l'une des trois stratégies dont il peut faire usage. Si aucun joueur n'est incité à sortir de l'état d'équilibre (M,M), aucun non plus n'est poussé à y rester. Cette discussion sur la stabilité respective de ces trois solutions reste logiquement indépendante des conditions de leur accessibilité par les joueurs. Les choses changent lorsque l'on adopte une perspective dynamique et que l'on regarde le jeu autrement. Supposons qu'il représente l'interaction de nombreux individus appartenant à une population statistique dont chacun peut choisir de jouer A ou B et modifier son choix au cours du temps. Comme rien ne permet de justifier a priori le choix de A ou de B par l'ensemble des membres de cette population, c'est l'équilibre de stratégie mixte qui s'impose. Les stratégies mixtes signifient seulement ici que la moitié de cette population opte pour la stratégie A et l'autre pour la stratégie B. On démontre que cette solution est a-symptotiquement stable (Fudenberg et Levine, 1998), ce qui signifie que cette proportion de stratégies fonctionne comme un « attracteur » qui tend à faire converger sur elle les trajectoires du système au voisinage de cette position. Il n'est pas nécessaire à ce niveau d'analyse de distinguer cette interprétation des stratégies mixtes, en termes de proportions des stratégies pures retenue par la population dans son ensemble, de l'interprétation traditionnelle d'un individu qui joue A ou B selon certaines probabilités. L'important est de souligner que cet équilibre ( 1/2A, 1/28)dont on a montré la très faible stabilité « statique » présente, cette fois, une forte stabilité dynamique. Ce qui pour des individus rationnels constituait un état instable devient pour une population en mouvement un état de référence tendanciellement stable. La matrice de paiements du jeu 2 a d'abord été utilisée pour représenter le jeu « Pierre », « Ciseaux », « Feuille », mais sa portée est beaucoup plus générale que ce jeu pour enfants. Elle s'applique à toutes les situations de jeux symétriques à plus de deux stratégies pures où il existe une relation de dominance entre ces stratégies qui conduit à un cycle. Appelons D cette relation de dominance, dans le jeu considéré ADB, BDC et CDA. Ce jeu possède un seul équilibre de Nash (1/3A, 1/3B, 113C)dont la stabilité statique est 260 PROSPECTIVE est aussi faible que celle de l'équilibre de stratégie mixte (1/2A,1/2B) du jeu stable. Toute perprécédent. Mais il n'est pas cette fois a-symptotiquement turbation du système E > 0 met en défaut la propriété de convergence de ses trajectoires présente dans le jeu précédent (Hofbauer et Sigmund, 1988 ; Boylan, 1994). L'origine de cette instabilité dynamique réside dans le cycle qui relie les trois stratégies pures de telle sorte que A-B-C-A-... Interprété dans les mêmes termes dynamiques que le modèle précédent, cela signifie que la proportion ('/3A, 1/3B, 1/3C) ne représente pas ici une proportion tendanciellement stable pour l'évolution de la population. Par-delà leur similitude statique, les équilibres de stratégies mixtes ne possèdent pas les mêmes propriétés dynamiques dans les deux jeux. Ce double constat conduit à pousser plus loin l'analyse. Les concepts classiques de solution d'un jeu et leur dynamique renvoient à des objets différents, même lorsque l'un et l'autre sont appliqués à des jeux caractérisés par des stratégies et des paiements identiques. La définition des solutions associe les stratégies à des joueurs individuels dont les choix résultent d'un calcul rationnel, même dans les cas des jeux coopératifs. La dynamique des mais jeux ne dépend pas des choix de chaque joueur pris individuellement, de la répartition de ces choix sur l'évolution d'une (ou de plusieurs) populaTandis que l'ordre social défini par un jeu repose exclution(s) d'individus. sivement sur des standards de comportement et sur la rationalité individuelle de chaque joueur, son évolution fait intervenir des processus statistiques dont les manifestations se présentent à un niveau agrégé. On retrouve ainsi, sous un angle particulier, la partition bien connue en économie entre les perspectives micro et macroéconomiques. De même qu'en économie, il apparaît bien difficile aujourd'hui de relier ces deux perspectives sur les jeux. Ainsi, par exemple, le « réplicateur dynamique » emprunté à la biologie, qui constitue le formalisme le plus utilisé pour représenter la dynamique d'un jeu, a donné lieu dans ses différentes versions à plusieurs interprétations lorsque l'on cherche le sens qu'il peut avoir au niveau du comportement des joueurs individuels : - modèle d'imitation afin en observant le comd'acquérir de l'information portement des autres (Bjornerstedt et Weibull, 1995) ; - modèle de rationalité limitée fondé sur la comparaison entre le niveau de satisfaction obtenu par un échantillon observable et une aspiration prédéterminée (Binmore et Samuelson, 1997) ; - modèle d'un mécanisme d'apprentissage stochastique par l'intermédiaire de « renforcement » des stratégies dont les résultats sont jugés satisfaisants par le joueur qui les a mises en oeuvre (Borgers et Salin, 1995). tirer de ces observations pour l'élaboration de scénaQuels enseignements rios prospectifs ? Elles invitent d'abord le prospectiviste à réfléchir sur la nature des phénomènes dont les scénarios s'efforcent de représenter les issues possibles. Deux catégories de phénomènes susceptibles de retenir son Desdécisionsindividuelles à la prospectivesociale - 2611 attention doivent ainsi être distinguées. D'un côté, le résultat de décisions arrêtées et mises en oeuvre par un petit nombre de centres de décision (acteurs ou groupes d'acteurs) précisément identifiés. Les décisions sont préparées sur la base d'un calcul effectué par ces centres et leurs conséquences se trouvent appréhendées sur un horizon déterminé choisi par le prospectiviste. D'un autre côté, l'aboutissement de l'évolution d'un système de plus large dimension où intervient un très grand nombre d'acteurs dont certains sont connus du prospectiviste et d'autres ne le sont pas au moment où il entreprend son exercice. Ce ne sont pas les mêmes personnes qui sont aux commandes durant la période explorée, en raison de la longueur de l'horizon temporel balayé. L'analyse prospective du premier type de phénomène est appréhendée au moyen de scénarios qui se prêtent à un traitement en termes de jeux statiques dans les limites qui ont été dessinées. On parlera à cet effet d'une microprospective, dont le domaine coïncide assez largement avec celui de la prospective stratégique. Cette microprospective intéresse principalement les entreprises. Pour le second type de phénomène, l'accent est placé sur la dynamique, d'où l'intérêt de traiter leurs scénarios en recourant aux jeux évolutionnistes dont on vient d'évoquer les contours. Il s'agit alors d'une macroprospective. Elle concerne des domaines très vastes comme l'économie mondiale ou les relations internationales. ' Un autre élément enrichit la prospective. Les jeux qui sont utilisés pour traiter les scénarios peuvent être considérés d'un point de vue « statique » et/ou d'un point de vue dynamique. Tel est le cas de beaucoup de jeux non coopératifs dont la (les) solution(s) est (sont) des équilibres de Nash. Le prospectiviste peut se servir de cette propriété pour tester la solidité des scénarios en analysant séparément leur stabilité statique et dynamique, car chacune est détentrice d'une information différente. La stabilité statique d'une solution, au sens où nous l'avons définie, met en évidence l'existence d'un ordre social possible qui permet de caractériser chaque scénario ou chaque variante de scénarios lorsque le jeu possède plusieurs solutions. La stabilité dynamique d'un jeu révèle la robustesse du scénario, c'est-à-dire l'aptitude de l'ordre social correspondant à résister à des perturbations. De telles perturbations peuvent provenir de chocs extérieurs (modifications de l'environnement) comme de transformations dans les comportements lorsque, par exemple, des changements de personnes sont intervenus dans les mêmes rôles. Tels ordres sociaux associés à des standards de comportement facilement acceptés par les acteurs et qui pourraient, pour cette raison, apparaître très stables sont en réalité fragilisés par leur faible résistance à des chocs perturbateurs. Tels autres ordres, plus flous parce que déduits d'équilibres plus fragiles au niveau de leur définition, se révèlent, en revanche, beaucoup plus résistants à ces perturbations. Cette illustration prospective de la fable du chêne et du roseau, est ici rendue tangible par l'intervention de la théorie des jeux. 262 PROSPECTIVE BIBLIOGRAPHIE BENNETP.G., « Towards a Theory of Hypergames », Omega, 5, 1977. BENNET P.G. & HOXHAM C.S., « Hypergames and What They Do: A Soft O.R. Approach », Journal of the Operational Society, Vol. 33, 1, 1982. BERNHEIMB.D., PELEG B. & WHINSTONM.D., « Coalition-Proof 1 : Concepts », Journal of Economic Theory, 42, 1987. Nash equilibria BINMOREK., Game and the Theory of Contract: Playing Fair, Cambridge, MIT Press, 1994. BINMOREK. & SAMUELSONL., « Muddling Through: Noisy Equilibrium Selection », Journal of Economic Theory, 74, 1997. BJORNERSTEDTJ. & WEIBULLJ., « Nash Equilibrium and Evolutionary Imitation », in Arrow K., Schmidt C., Perlmann M. & Colombatto E. eds. The Rational Foundations of Economic Behaviour, London MacMillan, 1995. BORGERS T & SARIN R., « Learning through Reinforcement Dynamics », Mimeo, University College, London, 1995. and Replicator BOYLAN R.T., « Evolutionary Economic Behaviour, 7, 1994. », Games and Equilibria Resistant to Mutations CRAWFORDV.P., « Thomas Schellling and the Analysis of Strategic Behaviour », in Zechauser R.J. ed., Strategy and Choice, Cambridge, MIT Press, 1991. FUDENBERGG.D. & LEVINE D.K., The Theory of Learning in Games, Cambridge, MIT Press, 1998. GREENBERGJ., The Theory of Social Situations, Cambridge, Cambridge University Press, 1990. HARSANYIJ.C. & SELTENR., A General Theory of Equilibrium Selection in Games, Cambridge, the MIT Press, 1988. HOFBAUERJ. & SIGMUNDK., The Theory of Evolution and Dynamical Systems, Cambridge, Cambridge University Press, 1988. HOWARD N., Paradoxes of Rationality: Behaviour, Cambridge, MIT Press, 1971. Theory of Metagames and Political Face aux Futurs, Paris, OCDE, 1979. INTERFUTURS, LESOURNEJ., « Esquisse d'une théorie de l'individu », Revue d'économie politique, 3, 1975. LESOURNEJ., A Theory of the Individual for Economic Analysis, Amsterdam, North Holland, 1977. LESOURNEJ., Les mille sentiers de l'avenir, Paris, Seghers, 1981. LESOURNEJ., « Le marché et l'auto-organisation 1985. », Économie appliquée, n° 34, Desdécisionsindividuelles à la prospectivesociale 263 LESOURNE J., « Plaidoyer pour une recherche en prospective », Futuribles, novembre, 1989. de l'ordre et du désordre, LESOURNE J., Économie LESOURNE J., « La prospective en France LESOURNE J., « Un art difficile C., La prospective pour J. & Stoffaes LESOURNE J. & ORLEAN A., Paris, », La Revue d'entreprise, Advances in vol. XV, Tocqueville, Réfléchir l'entreprise, stratégique 1991. Economica, pour Paris, 1, 1994. agir », in Lesourne 1996. Dunod, Paris, Self-Organization, Londres, 1998. Economica, MAYNARD SMITH University Press, NEUMANN J. von, and J., Evolution 1982. « Zur theorie the der Theory of Games, Cambridge, Cambridge », Mathematical Gesellschaftsspiel Annalen, 100, 1928. NEUMANN J. VON & MORGENSTERN Princeton, Princeton M. NICHOLSON Cambridge, (1992) O., Theory 1946. and Rationality Cambridge and Relations, the and Utility M., « Interdependent Conflict P. & Schmidt », in Allan E. Elgar, 1994. Adelshot, OSBORNE Press, M.J. and analysis of Economic Behaviour, & RUBINSTEIN international conflict, Press. University Functions: NICHOLSON tion of Game.s Press, University A., A C., Course Game Implications and Theory in Game Theory, for Co-operaInternational Cambridge, RUBINSTEIN metrica, 59, SCHELLING A., « Comments 1991. T.C., The on Strategy the Interpretation of Conflict, of Game Theory Harvard Cambridge, i SCHMIDT C., « Prospective WEIBULL J.W., Evolutionary et théorie Game des jeux Theory, », Futuribles, Cambridge, MIT », Econo- University 1960. , MIT 1994. avril, Press, 1999. 1995. Press, Claude Berlioz, Jacques Biais À LASNCF LAPROSPECTIVE La démarche prospective existe depuis plus de 15 ans à la SNCF mais sous des formes qui ont évolué dans le temps, notamment en fonction de la personnalité des (nombreux !) présidents qui s'y sont succédés. La mission de base de la prospective est néanmoins restée constante : éclairer, provoquer la réflexion du président, du directeur général, du comité exécutif. Rien d'original a priori pour une entreprise, mais peut être pas si évident à la SNCF dont l'état-major est littéralement absorbé par le quotidien, les aléas de l'exploitation, la pression médiatique à l'affût du moindre dysfonctionnement ; en effet, le transport n'étant pas stockable et le train étant par définition prisonnier des voies ferrées, le moindre défaut ou arrêt de production, en bloquant tout le système, peut prendre rapidement des proportions gigantesques, en particulier sur les lignes saturées, et nécessiter la mise en place en urgence d'une procédure de gestion de crise à haut niveau. Malgré cette pression événementielle qui s'accentue depuis plusieurs années, il reste heureusement encore quelques plages de sérénité dont peut profiter l'état-major pour mener des réflexions prospectives. Et cette démarche prospective est indispensable : la SNCF engage en effet des milliards de francs d'investissements sur un outil lourd, d'une durée de vie très longue, en regard d'un environnement économique de plus en plus changeant et instable. Ainsi, de par ses exigences de sécurité et de solidité, le matériel ferroviaire « dure » au minimum une trentaine d'années. De même, les cheminots qui Laprospectiveà la SNCF 265 sont recrutés sont censés faire une carrière de trente à quarante ans ; quant aux infrastructures, l'unité de temps est, pour certains ouvrages, le siècle. Cette rigidité de l'outil ferroviaire n'est évidemment pas compatible avec les exigences de souplesse et de réactivité manifestées par les voyageurs, les entreprises, les aménageurs, les collectivités locales. Face à une telle échelle de temps, la visibilité des décideurs est faible et les erreurs d'appréciation qui n'en fait pas ? - peuvent coûter très cher à terme, parce que conduisant à des offres inadaptées voire obsolètes ou à des coûts d'exploitation démesurés enlevant toute compétitivité aux projets d'origine. C'est pourquoi, à défaut de savoir où l'on se situe à un horizon de dix ans, de quinze ans, il est primordial d'avoir en tête des scénarios possibles, contrastés, permettant d'anticiper et de réduire les risques. Les thèmes de prospective étudiés sont extrêmement variés. Ils concernent ainsi : - le devenir régionaux les trains rôle futur de certaines activités ferroviaires, comme le fret, les transports de voyageurs, les transports internationaux au sein de l'Europe, de voyageurs sur moyennes et longues distances, ainsi que le des gares ; - l'environnement immédiat de la SNCF, comme les phénomènes d'insécurité, d'incivilité et de fraude, l'évolution de l'habitat et des habitudes de travail, l'évolution des modes concurrents du fer, air et route, et son impact sur les besoins futurs de la clientèle ; - le jeu des acteurs côtoyant la SNCF, comme les collectivités locales, les défenseurs de l'environnement, les constructeurs ferroviaires ; - le paysage institutionnel européen, avec les conséquences prévisibles de la dérégulation ferroviaire et des alliances entre compagnies ferroviaires ; - les structures et les modes de fonctionnement possibles de la SNCF, avec leur effet sur le management, la politique de recrutement, les équilibres financiers. ; ; . ; '' i ; La structure de fonctionnement de la prospective mise en place à la SNCF depuis cinq ans se veut très simple et très légère : - animation de la démarche par une petite cellule, la « mission prospective », intégrée à la direction de la stratégie, elle-même rattachée au président. Cette cellule, composée de deux membres, bénéficie de l'assistance et du conseil de Jacques Lesourne ; - mise en place d'un comité de la prospective composé des sept membres du comité exécutif, de sept directeurs représentant les directions techniques et les directions d'activité, de Jacques Lesourne, du directeur de la stratégie et du responsable de la mission prospective ; ce comité se réunit en principe huit fois par an, chacune des réunions correspondant à la présentation d'une étude prospective ; 266 PROSPECTIVE - choix, chaque année, d'un programme d'études par le comité de la prospective parmi des propositions présentées par la mission prospective, soit 6 à 8 thèmes nouveaux qui donnent lieu à une présentation au comité six à douze mois plus tard. Il est très important que la démarche prospective soit impulsée, validée et légitimée à haut niveau - comité exécutif élargi -, car cette approche ne doit pas rester seulement celle de quelques spécialistes isolés dans leur laboratoire. C'est à cette condition que des dirigeants de l'entreprise acceptent de se dégager du quotidien pour se tourner vers l'avenir lointain. Chaque étude est conduite par un chef de projet qui anime un petit groupe de travail. Ce chef de projet, qui accepte cette responsabilité en plus de ses missions normales, appartient en général à la SNCF et doit avoir une connaissance minimum du thème de l'étude, sans être toutefois un expert du sujet et sans appartenir au service directement concerné par l'étude : il y va de sa créativité et de sa liberté de penser. Il constitue son groupe en s'entourant des compétences internes et externes utiles et bénéficie de l'appui méthodologique et créatif de la mission prospective et bien sûr des conseils de Jacques Lesourne qui participe à toutes les réunions d'orientation. Le chef de projet rédige le rapport d'étude et le présente lui-même au cours d'une réunion du comité de la prospective. Il ne produit pas de plan d'action mais plutôt des recommandations : sur tel ou tel sujet, voici les points-clés identifiés par le groupe de travail et sur lesquels il est indispensable que les membres du comité de la prospective réfléchissent et se prononcent, par exemple : - les gares du futur : centres commerciaux ou centres d'échanges pour les voyageurs ? - l'activité fret : commissionnaire de transport, ou simple tractionnaire ferroviaire, ou bien opérateur européen à dominante ferroviaire ? Quelques réflexions... Faire de la prospective à la SNCF est une activité passionnante et très instructive. D'abord parce que l'environnement dans lequel évolue la SNCF est très large et concerne à la fois l'habitat, les loisirs, les habitudes de consommation, l'évolution de la société, les activités économiques et industrielles, l'aménagement du territoire, les acteurs institutionnels, la mise en place de l'Europe. Ensuite parce que bâtir des scénarios d'évolution de la SNCF sur des sujets plus ou moins tabous s'avère très fructueux : les discussions et échanges qui en découlent sont très constructifs et servent souvent de révélateur à des courants de pensée différents, voire inavoués, au sein des états-majors. La pratique de la prospective fait évoluer les esprits : les certitudes du présent s'estompent et laissent la place à une nouvelle vision, en quelque sorte à la fois en relief et en dynamique. La prospective à la SNCF 267 Une limite importante cependant : l'impossibilité de partager dans la sérénité les différentes problématiques prospectives avec l'ensemble des salariés de l'entreprise. En effet les études recèlent généralement des données stratégiques exigeant un minimum de confidentialité. De plus, certains scénarios sont pessimistes par construction, pour anticiper les risques, et par là-même susceptibles de briser l'enthousiasme des acteurs d'aujourd'hui, un peu comme si l'on confrontait une personne bien portante et dynamique à la perspective d'une maladie grave ou d'un handicap lourd. Dans la démarche prospective adoptée par la SNCF depuis plus de quinze ans, l'apport de Jacques Lesourne est double. De manière irremplaçable, il apporte son talent, son oeil toujours neuf, ses visions stratégiques, son esprit de synthèse, son impertinence, avec ses critiques et ses questions qui dérangent le « présent », et son expertise à la fois économique et industrielle. Il allie de façon remarquable les qualités pédagogiques et l'aptitude à faire émerger les idées nouvelles. Il est aussi la mémoire à haut niveau de l'entreprise. Il a accompagné la SNCF dans ses réflexions, dans ses réformes, dans ses soubresauts sociaux. Il connaît mieux cette entreprise que la plupart des cheminots et il en a acquis une véritable vision stratégique. . j 2 Christian Stoffaës LEROLE DEJACQUES LESOURNE DEFRANCE AUPRÈS D'ÉLECTRICITÉ Depuis plus de di.r ans, Jacgues Lesourne est le conseiller d'EDF pour la prospective. 1. EDFENTRANSITION UN:CASD'ÉCOLE Pour la prospective stratégique d'entreprise, EDF offre un terrain d'élection, et ce pour au moins deux raisons : - EDF est en effet plus qu'une entreprise. Elle est une institution sui generis, sans équivalent en France et dans le monde : la plus grande compagnie d'électricité celle qui recourt le plus, de très loin, à l'énergie mondiale ; à long terme des investissenucléaire ; une référence pour la planification ments ; le modèle le plus achevé de la conception française du service public ; le corps social de ses agents, doté d'une forte culture d'entreprise, encadré par des organisations syndicales, qui plonge ses racines sur tout le territoire national. dans son secteur, EDF n'est donc pas qu'un objet passif Entreprise-leader serait soumis aux évolutions du monde extérieur sans autre choix que qui mais un sujet actif, ayant la capacité d'exercer celui de s'adapter : une influence sur l'environnement où il évolue, sur son image dans l'opinion Lerôle de JacquesLesourneauprèsd'Électricitéde France 269 publique et auprès des décideurs, sur son positionnement international. Quelques exemples de ses marges de manoeuvre face à un monde qui change : influence sur les législations électriques, nationale et communautaire ; la diversification de ses métiers et l'élargissement de son champ d'expansion ; la conception moderne de l'intérêt général ; l'acceptabilité des choix énergétiques par la société française, etc. Qu'elle soit admirée et imitée (pour ses méthodes de planification, pour ses résultats économiques, pour son statut social, etc.), parfois critiquée (l'État dans l'État, le choix du tout nucléaire, etc.), l'institution EDF fut longtemps et est encore une valeur de référence, dans la société française comme dans le monde international de l'électricité. - Alors qu'elle s'est développée pendant un demi-siècle dans un cadre réglementaire stable - celui du monopole national institué par la loi de 1946 -, EDF fait face à un futur en pleine mutation. L'ère des certitudes appartient au passé : l'avenir apparaît au contraire rempli d'incertitudes, les mutations se précipitent. Cette constatation ne veut pas dire que le cheminement d'EDF fut toujours celui d'un « long fleuve tranquille ». On s'en convaincra si l'on se souvient, entre autres phases troublées, des grands mouvements de grèves des années 1950, de la contestation du nucléaire des années 1970, etc. Significativement, Marcel Boiteux n'intitula-t-il pas Haute Tension son remarquable livre de mémoires ? EDF est engagée dans une grande transition : pour elle, le changement de siècle s'identifie comme une ère nouvelle. Ainsi, entre tant d'autres multiples facteurs de changement, une réécriture de la loi fondamentale qui régit le secteur électrique vient d'intervenir, après un demi-siècle de stabilité institutionnelle. La croissance forte et régulière d'hier - qu'on appela longtemps « loi » du doublement tous les dix ans, comme si la croissance pouvait relever d'une quelconque loi naturelle... - s'est muée en une croissance ralentie et fluctuante. L'ère de l'énergie fait place à la société d'information. Le monopole de service public a laissé la place au marché concurrentiel, avec l'apparition de nouveaux entrants. Le principe de spécialité, tant sectoriel (la restriction du métier à la production et à la distribution d'électricité) que territorial (l'espace géographique national), s'efface devant les perspectives de la diversification et du développement international. Dans ces domaines, comme dans bien d'autres, les points de repère familiers s'effacent. Pour une entité qui s'est longtemps pensée comme immuable et intangible, ayant pour elle le long terme, cela fait beaucoup de changements à affronter. , 2. RECONQUÉRIR L'IDENTITÉ Le secteur électrique a été étroitement associé aux grands débats politico-idéologiques du siècle finissant, incarnant successivement le capitalisme innovateur des entrepreneurs schumpeteriens ; le capitalisme rentier des trusts ; les natio- 270 PROSPECTIVE nalisations et le service public ; l'indépendance nationale énergétique ; en finir avec le xxe siècle, la dérégulation et la globalisation. et, pour À sa fondation, au lendemain de la Seconde Guerre mondiale, EDF incarnait toutes les valeurs positives de la France nouvelle de la Libération et de comme elle symbolise plus tard l'expansion des Trente la reconstruction les nationalisations, le dirigisme industriel d'État, le service Glorieuses : public, les investissements productifs dans les secteurs de base, l'indépendance nationale, les personnels à statuts codifiés comme ceux de la Fonction publique, etc. EDF apparaît en Mais le modèle d'hier est devenu aujourd'hui l'exception. celles aux tendances contemporaines : qui privilégient décalage par rapport immapar exemple les services sur l'industrie lourde ; les investissements tériels sur les investissements sur le techniques ; l'écologie productivisme ; les petites unités, la flexibilité et le management décentralisé sur la planifiles conventions colleccation centrale et sur l'organisation hiérarchisée ; tives et la négociation sociale flexible sur les statuts sociaux inscrits dans loi ; le global sur le national ; l'Europe et le local sur l'État national, etc. EDF serait-elle une sorte d'« Union soviétique qui aurait réussi ? », pour reprendre la métaphore de Jacques Lesoume à propos de « grandeur et décadence du modèle français ». Certes, les modes et autres « pensées uniques » sont parfois passagères. Certes, cette image ne correspond pas à la réalité d'une entreprise engagée Mais elle est parfois complaisamment dans de profonds changements. dans comme dans les regards étrangers. Et pourtant, l'opinion répandue EDF ne saurait en rien être réduite au seul héritage d'une époque glorieuse, mais révolue. Car elle est non seulement la plus grande entreprise de son en termes de compétitivité secteur mais aussi une des plus performantes : tarif du kilowattheure comme par son (le hydro-nucléaire), économique dynamisme à conquérir des domaines nouveaux (tels que l'investissement international et le redéploiement vers de nouveaux métiers). Le monopole d'État d'hier fait déjà partie de la catégorie des global players de l'économie énergétique en mutation. Elle n'est pas un dinosaure condamné à ne pas survivre au changement d'ère qui est en cours : elle a la capacité de changer. Elle dispose pour cela de puissants moyens financiers et des ressources humaines et techniques nécessaires pour investir massivement dans de nouveaux domaines. majeure du xxe siècle, en laquelle s'incarnent beaucoup des grandes options économiques, techniques, sociales et politiques de notre époque, survivra-t-elle au passage au xxi' siècle, dans son intégrité et dans la pérennité de ses valeurs ? La guerre est finie : la « bataille du kilowatt » n'est plus une « valeur d'entraînement », alors que l'équipement énergétique national est achevé, alors que les enjeux traditionnels de l'investissement de productiontransport, qui ont mobilisé son ambition pendant un demi-siècle, s'affaiblissent aujourd'hui du fait du ralentissement de la demande d'électricité. Cette institution Lerôle de JacquesLesourneauprèsd'Électricitéde France 2711 Confrontée à un contexte changeant et à des enjeux très différents de ceux du passé, engagée dans de profondes réformes de structures, EDF n'a pas seulement besoin de nouvelles stratégies : elle a aussi besoin de sens, dans une perspective de long terme. Elle est un enjeu national, intimement associée à l'histoire économique et sociale du pays, un capital considérable ( 1 000 milliards de francs d'actifs techniques accumulés) porteuse d'intérêts stratégiques fondamentaux pour l'avenir du pays au sein de l'économie globalisée. Dernier des Mohicans, mouton de Panurge, ou pionnier de la conquête de nouvelles frontières ? Tel est le paradoxe : l'avenir d'EDF n'est ni totalement autonome - camper dans une superbe indifférence, appuyée sur des positions qui n'ont au fond pas si mal réussi - ni totalement déterminé s'adapter au contexte, de manière purement réactive, sans autre choix que d'accepter des évolutions imposées de l'extérieur. EDF n'est ni une citadelle imprenable, ni un fétu de paille soumis aux caprices des vents. Alors que certains la voient comme un archaïsme, crispé dans des positions défensives, ou aimeraient bien la voir se plier à la pensée unique de la « dérégulation à l'anglo-saxonne », EDF se doit de réinventer l'avenir. Grande réussite française, elle en a les moyens. À la condition toutefois de positionner clairement son identité, de questionner ses stratégies à partir de repères prospectifs, de mesurer ses forces et ses faiblesses face aux risques et aux opportunités, d'évaluer ses concurrents et de choisir ses partenaires. En bref, de réinventer un sens, pour construire un projet qui soit à la fois conforme à son identité, ouvert sur le monde extérieur, orienté vers l'avenir. Les grandes organisations ont besoin d'ambitions partagées, pour mobiliser leur ressource humaine : faute de quoi, elles courent le risque de sombrer dans la morosité, la division, le marasme. Pendant les années de forte croissance, le.« corps social » d'EDF s'est rassemblé derrière l'impératif d'investissement pour la production d'énergie et la construction des réseaux de distribution : vision, identité, projet, coïncidaient alors idéalement. Il faut aujourd'hui réinventer l'ambition : faire rêver pour rassembler et pour agir. DELAPROSPECTIVE À EDF 3. LAMISEENŒUVRE La prospective a été érigée en fonction de direction générale en 1987. ' ' Cette date - on le perçoit clairement avec le recul du temps - marque pour EDF l'entrée dans une ère nouvelle, quarante ans après sa création. Le ralentissement irrémédiable de la demande d'électricité ; les derniers grands investissements électronucléaires ; les débuts de la mise en route du marché unique européen, dont la dynamique juridique allait conduire progressivement à la dérégulation de tous les secteurs de service public, notamment celui de l'électricité ; les origines de la révolution thatchérienne dans le secteur électrique ; la fin de la polarisation du monde entre le bloc de l'éco- 272 PROSPECTIVE nomie planifiée et le bloc de l'économie du marché, dans le sillage de la la montée des d'environnement global dans les perestroïka ; préoccupations milieux internationaux, etc. : toutes ces mutations de l'environnement l'end'EDF se révèlent clairement à partir de 1987, date qui coïncide,,pour avec un de ses de lié au direction, treprise, profond changement équipes renouvellement des générations. Jean son directeur La direction d'EDF, général principalement a alors clairement perçu le besoin d'une réflexion nouvelle et Bergougnoux, d'une pédagogie attentive et organisée pour conduire le changement interne. La planification des investissements par la méthode du calcul économique avait acquis une grande légitimité, interne et externe. Mais la fin des invesen même temps que les changements tissements de production s'annonçait, institutionnels. Il fallait préparer les méthodes stratégiques à cette mutation. Sont alors mis en place : un comité de prospective, composé des principaux directeurs d'EDF et se réunissant chaque mois ; un service de prospective, unité légère constituée d'un nombre réduit d'experts ayant pour mission d'animer des groupes de travail internes et de gérer un réseau dense de connexions externes avec des conseillers indépendants et des instituts de une direction nouvelle en de de la prospecl'économie, recherche ; charge tive et de la stratégie couvrant, en même temps que la prospective, le prestioù s'élabore la des études gieux service économiques générales, des tarifs. des investissements et programmation Jacques Lesourne assure la fonction de conseiller du comité de prospective et, à ce titre, participe à toutes ses réunions. Le comité de la prospective a comme débouché le comité de gestion stratégique, qu'il alimente de ses études, cette instance ayant pour fonction de débattre des grandes orientaet d'arrêter des stratégies. tions de l'entreprise Depuis son installation officielle en 1988, le comité de la prospective aura fait réaliser une cinquantaine d'études prospectives touchant aux sujets les plus divers concernant l'avenir d'EDF. Les thèmes sont sélectionnés par le comité comme étant ceux qui posent les questions les plus sensibles. Des groupes de travail ad hoc, présidés chacun par un cadre dirigeant appartenant et réunissant dix à quinze cadres et au secteur concerné de l'entreprise sont mandatés experts des différentes directions intéressées de l'entreprise, à raison de cinq à dix chaque année - par un cahier des successivement les thèmes retenus, avec un charges détaillé pour étudier en profondeur mandat de travail sur plusieurs mois, parfois un an et plus. Et ce avec comme commun : seule contrainte d'appliquer le guide méthodologique - construire les scénarios, c'est-à-dire des visions des avenirs possibles, cohérentes entre elles, en nombre constituées d'ensembles d'hypothèses réduit par rapport à la complexité des combinatoires possibles, qui forgent et pédagogiques des futurs possibles ; des images compréhensibles Lerôle de JacquesLesourneauprèsd'Électricitéde France 273 - imaginer les options stratégiques, c'est-à-dire les choix qui sont ouverts pour tracer les orientations à prendre, les cibles à viser, les alliances à nouer, les conflits à surmonter ; et ce en apprenant à découvrir ses marges de manoeuvre, à concilier le souhaitable et le possible ; - évaluer les conséquences des choix stratégiques dans l'occurrence où tel scénario se réalise, identifier les avantages et les inconvénients, les chances de réussite, les probabilités d'échec, mesurer les forces et les faiblesses en réfléchissant sur les buts que l'on poursuit, sur les conditions de la pérennité ; sur l'identité essentielle que l'on veut préserver ; sur l'accessoire qui peut être abandonné ou sacrifié. Est aussi encouragé afin d'introduire des manières de voir nouvelles, voire dissidentes, le recours systématique à des experts et consultants extérieurs, qui sont le plus souvent choisis parmi des personnalités de haut niveau, académique, administratif ou industriel, et bénéficiant d'une expérience approfondie et d'une réflexion personnelle sur le sujet traité. Les sujets ont été abordés sans tabous ni restrictions mentales, touchant parfois à des thèmes très sensibles ou dérangeant les idées reçues : par exemple EDF face au risque d'accident nucléaire ; l'émergence du gaz naturel dans la production d'électricité ; la dynamique du modèle britannique de dérégulation, etc. Ce qui paraissait hier à la limite du saugrenu est devenu aujourd'hui monnaie courante, voire sujet rebattu et démodé... Des thèmes majeurs structurant l'avenir d'EDF ont pu être identifiés - comme le développement durable et le changement climatique ; le service public européen - qui ont donné lieu ultérieurement à des actions en profondeur d'influence et de présence de la part de l'entreprise. ; , 4 ; ', Plus de deux cents cadres de l'entreprise, au total, auront été mobilisés au sein de ces groupes de travail ainsi que dans une série de séminaires, sessions de formation et colloques organisés dans la mouvance de la prospective pour diffuser une culture commune : par exemple dans des domaines tels que géopolitique de l'électricité, les relations entre électricité et société, etc. Quel a été l'impact de ces travaux sur les orientations stratégiques et sur les grandes décisions d'EDF ? L'exercice de l'influence est difficilement quantifiable : il est donc malaisé de tracer une filiation directe entre les conclusions des études prospectives et les décisions stratégiques qu'a pu prendre EDF au cours de cette période. On peut néanmoins avancer que la prospective a contribué, principalement par imprégnation progressive des structures décisionnelles - et parfois très directement dans les relevés de décision du comité de gestion stratégique - à convaincre EDF par exemple de l'inéluctabilité du mouvement de dérégulation des monopoles de l'électricité ; de la montée en puissance de l'Europe comme instance de référence au détriment de l'État national ; de la nécessité du développement international et des investissements à l'étranger ; du rôle croissant des collectivités locales et de 274 PROSPECTIVE l'utilité de réactualiser les traités de concessions de distribution électrique ; de l'importance d'ouvrir le dialogue avec les défenseurs de l'environnement, etc. Ces travaux, ciblés sur des questions stratégiques particulières, ont été encadrés par des études transverses de mise en cohérence de prospective à long terme. En 1985, EDF avait mené une étude « EDF dans vingt ans » en modélisant les scénarios de la traditionnelle EPMT (étude prévisionnelle à moyen terme) qui servait de base à la programmation des investissements. En 1987, changement de méthode : l'étude « EDF en 2025 : interrogation sur les avenirs possibles » n'est plus fondée sur la modélisaton mathématique, avec variantes. Elle se relit très bien aujourd'hui. Elle annonce, dans ses scénarios, beaucoup d'événements qui sont effectivement arrivés depuis lors et qu'il n'était pas évident non seulement de prévoir mais seulement d'imaginer.dans le contexte de l'époque, où le monde paraissait encore très stable. La seconde étude d'ensemble conduite en 1998 et 1999, intitulée « Potentiels 2010-2025 », vise à imaginer l'identité d'EDF au xxle siècle sous ses divers visages : producteur d'énergie, groupe industriel et de services, entreprise multinationale, service public. Avec le concours d'éminentes personnalités issues du monde politique et du monde industriel, ces travaux ont contribué à repositionner le sens et la place d'EDF dans le monde de demain. 4. LAMÉTHODE PROSPECTIVE Face à cet « objet prospectif » qu'est EDF, digne de figurer dans les manuels de prospective stratégique, Jacques Lesourne avec sa vaste expérience dans le management d'entreprise comme dans les sciences de la décision, a fait bénéficier EDF d'un apport méthodologique décisif, mais aussi - et surtout sans doute - en expliquant à quoi sert la prospective et en diffusant la culture prospective : c'est-à-dire en légitimant la démarche. Tirant un bilan de son mandat en 1994, au moment de quitter la direction générale d'EDF pour la présidence de la SNCF, Jean Bergougnoux souligna dans son discours que la vertu de la prospective était « d'avoir persuadé EDF qu'elle était mortelle ». Lorsqu'il prit ses fonctions à la SNCF, il y créa d'ailleurs une structure prospective analogue à celle qu'il avait mise en oeuvre à EDF. Et il est bien vrai que la vraie pression en faveur du changement est la crainte de la disparition. Pourquoi changer ce qui va bien ? Voici quelques-uns des enseignements philosophiques importants tirés de notre expérience d'une décennie de prospective stratégique au sein d'EDF. - La prospective est une méthode de réflexion, un processus cognitif : explorer ce qui pourrait advenir (les futurs possibles) et prendre conscience Lerôle de JacquesLesourneauprèsd'Électricitéde France 2755 de ce qui pourrait être fait (les options stratégiques). Mais la prospective stratégique d'entreprise n'est pas un exercice académique : elle a une finalité utilitaire, celle d'aider à l'élaboration de la stratégie, c'est-à-dire à préparer les orientations qui guident l'institution qu'elle sert. - Il y a des points communs entre les actes de « conduire l'armée » (selon la racine étymologique de la stratégie) ou bien une entreprise ou une nation, une association, un syndicat ou un parti politique, la vie d'une famille ou la carrière d'un individu ; comme il en est de la prose, chacun fait de la stratégie, parfois sans le savoir... Mais il vaut mieux en faire méthodiquement plutôt qu'implicitement : c'est la fonction de la prospective que de fournir l'assistance d'une méthodologie rationnelle et, il faut oser le dire, scientifique à la préparation de la stratégie en avenir incertain. Plus précisément, comme le Kriegspiel des militaires, la méthode prospective fournit des instruments d'imagination et d'évaluation qui permettent de mesurer l'impact positif ou négatif sur l'institution, sur ses intérêts, sur les valeurs dont elle est porteuse du choix, de telle ou telle option stratégique, et ce dans l'occurrence de tel ou tel scénario. - La prospective n'est pas le café du commerce où l'on glose sur l'avenir : elle est une science, s'appuyant sur une méthodologie désormais codifiée, qui occupe toute sa place dans la discipline des méthodes scientifiques d'aide à la décision, aux côtés de prédécesseurs qui eurent leur heure de gloire, tels que la recherche opérationnelle, le calcul économique, etc. - La prospective est une anticipation, qui invite à la flexibilité. C'est quand les changements sont rapides, c'est quand l'avenir devient flou, que la prospective est le plus nécessaire. e La prospective est une vigilance : elle est tout à la fois l'évaluation permanente des tendances lourdes et des invariants de l'ordre naturel et la veille attentive des « signaux faibles », le repérage des « détails révélateurs », qui annoncent les temps nouveaux, qui amorcent les tournants, qui préparent les révolutions : « ces idées et ces faits porteurs d'avenir, dont parlait Pierre Massé, infimes par leurs dimensions présentes mais immenses par leurs conséquences virtuelles ». , L · L'image de l'avenir se déforme continuellement : des scénarios s'estompent disparaissent pendant que d'autres émergent. La prospective n'est pas faite une fois pour toutes : il faut l'actualiser en permanence. Le problème de la stratégie, c'est de savoir quand on en change. La prospective c'est se préparer à faire face. À défaut d'y voir clair, il faut se mettre en position de s'adapter à toute éventualité. « Quand il est urgent, c'est déjà trop tard » disait Talleyrand. L'enjeu de la stratégie, c'est précisément d'identifier le moment où il faut changer de stratégie. Déclarer a posteriori qu'on n'avait pas le choix, c'est reconnaître en fait qu'on n'avait plus le choix, parce que l'on n'a pas su anticiper : cela 276 PROSPECTIVE revient à avouer qu'on a laissé dériver la situation jusqu'au point où il n'existe plus de liberté d'action pour infléchir le cours des événements. - La à l'égard des menaces qui prospective est une méfiance systématique sur l'ordre établi. Andrew la Grove, pèsent patron et fondateur d'Intel sucess de la a révolutionné le monde story grande microélectronique qui est aujourd'hui chargé, à temps plein, d'identifier les périls et d'y adapter la survistratégie, après avoir écrit un ouvrage intitulé Seuls les paranoïaques vent... - La et l'action : rendre prospective est une dialectique entre l'anticipation ce est souhaitable. Entre trois attitudes possible qui possibles face aux chanla réactivité (attendre gements - à savoir la passivité (subir le changement) ; le changement (se préparer à un pour réagir) ; la pré-activité/pro-activité changement anticipé ; agir pour provoquer ou pour accélérer le changement souhaitable) - la prospective invite à faire le bon choix, celui de l'anticipation. - La prospective est une imagination : il faut savoir s'abstraire des dogmes et des normes ; penser l'impensable ; se désengager des visions a priori de l'obet des théories ; identifier l'éventail servateur, du poids des idéologies des futurs même et surtout les moins probables et les plus complet possibles, marginaux ; sortir des sentiers battus ; s'écarter des rails tout tracés ; regarder en avant ; ne pas conduire en regardant le rétroviseur. Et ce alors qu'il est si rassurant de refuser de voir en face tout ce qui dérange. - La la pensée qui dérange prospective est une dissidence : l'anticonformisme, ne rendent guère populaire tant il est vrai que toute institution a besoin d'une armature intellectuelle stable qu'il n'est pas aisé de mettre en cause. - La prospective est un état d'esprit d'écoute, une humilité intellectuelle : accepter le relativisme des convictions les mieux enracinées ; apprendre à et l'éphémère, le temps long et l'effet de mode, l'indistinguer l'immuable variant et le fluctuant ; faire l'apprentissage de l'incertitude, d'autant plus douloureux et difficile qu'on a été élevé dans le culte de la vérité absolue. une L'éthique de la prospective est de ne pas conclure, en recommandant option stratégique plutôt qu'une autre, qui serait valable en tout temps et en tout lieu, mais d'évaluer, de douter systématiquement. - La prospective est une pédagogie : la prospective ne prédit pas l'avenir - au sens où il s'agirait de percer le mystère caché - mais elle nous aide à le construire. Anticiper les mutations du contexte et les initiatives stratégiques des acteurs, concurrents et partenaires ; apprendre à changer ; changer quand il le faut, c'est-à-dire quand la nécessité en devient impérative et quand le terrain est prêt. Et surtout, faire partager la conscience des évolutions. La pédagogie du changement, c'est aussi de rassembler le consensus : convaincre les troupes comme les officiers ; les personnels et les cadres ; les militants et les dirigeants ; l'environnement externe et les partenaires. « Le seul vrai avantage comparatif durable, c'est d'avoir la capacité d'apprendre plus vite que Lerôle de JacquesLesourneauprèsd'Électricitéde France 277 les autres » souligne Arie de Geus, un des pères de la prospective de Shell, professeur de management et auteur d'une recherche sur les secrets de la longévité des entreprises pluriséculaires. - Très profondément pour l'institution qu'elle sert, la prospective est le fondement de la responsabilité et de la liberté d'action. Elle établit la maîtrise de l'acteur dans la conduite de son destin par rapport aux systèmes mécanistes autorégulés, où l'acteur n'est qu'un sujet dont la voie est entièrement guidée par un déterminisme tout tracé. La prospective, c'est l'antidestin. Face à la tyrannie du fatalisme, face aux effets de domination de toutes sortes qui cherchent à réduire les marges de liberté, à enfermer dans des impasses, la prospective permet de comprendre que l'avenir n'est pas écrit, de penser le futur comme champ de potentialités qu'il faut mais aussi de il faut se et de contre prémunir ; risques lesquels exploiter à ses choix sont ouvertes stratégiques et prendre conscience des options qui ou à inventer. des marges de manoeuvre existantes - Enfin, la prospective est une invitation à réfléchir sur ses propres buts, sur son projet, sur sa mission, sur son identité. « Il n'est pas de bon vent pour celui qui ne connaît point le cap » disait Sénèque. Penser l'avenir conduit nécessairement à réfléchir sur ce que l'on est, et sur ce que l'on veut - en d'autres termes la recherche du sens. Le but de la stratégie, pour l'armée, c'est de gagner la guerre afin de conquérir de nouveaux domaines, d'assurer l'avenir de la nation. On ne peut pas planifier sa propre destruction : tel est l'unique interdit de la démarche prospective. Le but ultime de la prospective, c'est la survie dans un monde qui change. La prospective vise à permettre de distinguer l'essentiel - qu'il faut conserver - de l'accessoire - qu'il faut changer en cas de besoin. Car à quoi bon changer, si c'est pour se renier ? Attention à ne pas mourir pour une idée dont on s'apercevra qu'elle n'était pas la bonne. Pour toute institution, le but suprême c'est la pérennité dans l'être : comment assurer son développement durable, comment maintenir son identité distinctive, face aux changements du contexte et des enjeux, face aux adversaires et aux concurrents qui veulent votre disparition ? Pour survivre il faut changer tout en préservant l'essentiel. Mais qu'est-ce que l'essentiel ? Au bout de la démarche prospective, c'est soi-même que l'on découvre. L'enjeu majeur de l'introduction de la prospective à EDF était de faire bouger l'entreprise, de relativiser les certitudes enracinées, de mettre en état d'éveil et de vigilance pour s'ouvrir aux impératifs du monde contemporain. Et ce alors qu'EDF avait mis au point une puissante armature intellectuelle, parfaitement adaptée aux enjeux de la période de pénurie électrique, de croissance stable et d'investissements massifs de production. La rigueur et la cohérence sont essentielles pour une entreprise comme EDF, qui a besoin de convaincre pour pouvoir agir : convaincre ses tutelles administratives qui détiennent la plupart des leviers de commande de par leurs 278 PROSPECTIVE convaincre ses personnels et pouvoirs tarifaires, financiers, réglementaires ; d'un rôle d'influence leurs organisations représentatives, qui disposent l'opinion publique, car beaucoup de choix stratégiques majeur ; convaincre d'EDF sont de véritables choix de société. Le calcul économique fonda jadis la légitimité d'EDF au regard de ces puissants partenaires quant au choix des de la structure et du niveau des tarifs. Pour légitimer l'apinvestissements, il fallait une personnalité proche prospective, respectée. Nul autre que Jacques Lesourne ne pouvait remplir cette fonction. sont à nationales où les méthodes économiques Les grandes entreprises constituent son milieu ses débuts de carrière l'honneur, d'origine, depuis des études économiques et de la planification des comme responsable de France. Il bénéficie dans ces d'une donc, secteurs, grande Charbonnages à participer activement à la légitimité qui le prédisposait tout naturellement réorientation de leurs outils stratégiques. Il a d'ailleurs été, ou est encore, conseiller pour la prospective d'établissements publics comme La Poste, la SNCF et d'autres encore. Faire école : la légitimité se gagne non seulement par la rigueur et la cohérence des méthodes mais par leur diffusion dans les milieux décideurs. EDF fut le meilleur élève du Plan et contribua puissamment dans les années 1950 en et 1960 à la généralisation des méthodes de planification économique France. Elle fut un modèle de réactivité stratégique à la crise pétrolière des années 1970, en planifiant le programme électronucléaire. Prenant la suite des initiatives pionnières de Shell en matière de scenario building, EDF en France - et peut-être aussi dans le monde - comme apparaît aujourd'hui l'entreprise qui a entrepris le plus de travaux d'études prospectives et celle le rôle le plus élevé dans son qui a conféré à la fonction prospective processus décisionnel. Mais il faut se garder de la tentation d'avoir raison externe a fait tout seul. Nul n'est prophète en son pays : le rayonnement partie intégrante de la démarche suivie en interne. Sans relais et sans partenaires, il y a peu de chance de faire entendre ses messages. En 1992, EDF prit l'initiative de susciter un club de prospective des grandes en premier lieu de grandes entreprises nationales de service entreprises aux public enjeux similaires aux siens - pour diffuser la méthodologie, pour entreprendre des études communes. Ce groupe apporta un soutien décisif à la le réseau fondé par International, poursuite des activités de Futuribles Bertrand de Jouvenel, qui est une référence mondiale en la matière - pour développer les conceptions d'intérêt général en Europe, en complément de la dérégulation, la prospective EDF suscite initiative pour des Services d'Utilité Publique en Europe ; puis le groupe E7 qui rassemble les plus grandes entredurable. prises d'électricité du monde autour des enjeux du développement Changer sans se renier. La conviction partagée est le préalable à toute réforme réussie et à tout mouvement de repositionnement. La hauteur de et la légitimité intellectuelle de Jacques vue, la culture interdisciplinaire à la réussite. Lesoume constituaient des éléments indispensables Assaad E. Saab DELAPROSPECTIVE DUBONUSAGE DANSLESENTREPRISES Tout le parcours que j'ai pu faire avec Jacques Lesoume depuis 1985 à EDF a été un apprentissage quasi continu à la prospective, perçue et mise en oeuvre comme un art de réfléchir pour éclairer l'action des dirigeants de l'entreprise. La prospective n'ayant rien d'une anti-histoire qui se proposerait de raconter la chronique imaginée des événements futurs, elle est plutôt une discipline active permettant à un groupe d'hommes et de femmes ou à une nation d'exprimer leur volonté, de définir leur stratégie et de construire leur avenir. De ma première rencontre avec Jacques Lesoume j'ai retenu la définition très simple mais très éclairante qu'il m'a donnée de la prospective : la vision de l'avenir est le fruit de la nécessité, du hasard et de la volonté. La nécessité parce qu'il y a des tendances lourdes qu'on ne modifie pas facilement comme par exemple la démographie mondiale à une ou deux décennies. Le hasard parce que l'avenir peut prendre des formes différentes selon les hommes, les événements et les ruptures qui marquent certaines périodes de l'histoire comme par exemple des personnalités exceptionnelles ou providentielles ou des innovations technologiques majeures. La volonté enfin, parce que l'avenir dépend ainsi et surtout de la résolution de conflits entre des individus ou des groupes qui ont des projets d'avenirs différents. À ceci, Jacques Lesoume ajoutait une grande importance de certains points relatifs au rôle et à la mise en oeuvre de la prospective dans les entreprises : - la prospective d'entreprises n'est pas un exercice académique consistant à se poser des questions sur le futur. Elle vise à éclairer les décisions qui engagent l'avenir, au moyen d'une réflexion ouverte sur les futurs pos- 280 PROSPECTIVE sibles et d'une interrogation sur leurs implications en intégrant l'analyse des jeux d'acteurs. Elle se différencie ainsi des méthodes de prévision et de calcul économique souvent fondées sur l'extrapolation du passé ; . - elle opère par condensation de l'information émanant de la base de l'entreprise et de son environnement externe en visant à alerter à temps les centres de décisions des opportunités et des menaces ; - elle contribue à faire partager à l'équipe dirigeante une même vision des futurs possibles, notamment le traitement de l'imprévu dans la mise en oeuvre des stratégies ; - elle suppose une grande discrétion au cours de la conduite des réflexions afin de permettre une liberté de pensée au niveau des interrogations sur l'avenir ; - elle suppose une politique de communication pour alimenter le dialogue entre les dirigeants et le personnel ; - le succès de sa mise en oeuvre repose sur un engagement fort de la direction générale d'une entreprise agissant en tant que catalyseur de la réflexion collective ; - une attention particulière doit être accordée aux profils des personnes engagées dans les travaux prospectifs en privilégiant ceux des « stratégistes » ;; - les méthodes et les outils de la prospective sont moins homogènes et moins élaborés que ceux du calcul économique. Ils doivent être considérés comme des supports à la réflexion prospective, mais ne se confondent pas avec elle. La pratique de la prospective en liaison étroite avec Jacques Lesourne m'a, depuis, appris qu'au-delà de cette énumération très analytique et très rationnelle, il cultive avec passion l'art de la mise en oeuvre de la prospective afin de répondre à trois objectifs : - la combinaison optimale de l'imagination et de la rigueur intellectuelle ; - la prospective comme levier du changement mais au service d'une éthique forte ; - une discipline au service de l'action. C'est à ces ambitions, surtout, que je souhaite rendre hommage dans ces mélanges. La combinaison de l'imagination et de la rigueur intellectuelle L'emploi pur et simple des outils de l'analyse prospective et des techniques complexes de la décision ne conduit pas automatiquement à explorer les futurs possibles les plus pertinents, à construire des scénarios globaux, à analyser leurs conséquences et à identifier les meilleures options. Pour ce Dubon usagede laprospectivedansles entreprises 2811 faire, les dirigeants doivent développer des capacités d'observation et d'analyse pour identifier les variables imprévues, les jeux d'acteurs de leur environnement et les influences inattendues qui ne cadrent manifestement pas avec les modèles mentaux actuels qu'ils ont du monde. En procédant à l'évaluation des environnements externe (opportunités et menaces) et interne (forces et faiblesses) par une vision partagée et une priorité suffisante, les dirigeants font de ces travaux un cadre de référence et de préparation des décisions au sein duquel l'aptitude à apprendre constitue le meilleur indicateur du succès de l'entreprise pour faire face à des évolutions et des mutations profondes de son environnement. À ce titre, l'analyse des scénarios globaux ne doit pas avoir pour but principal de développer des ensembles distincts de prévisions, mais doit viser surtout à mettre en évidence les différentes classes de problèmes auxquels une entreprise peut avoir à faire face et à initier la réflexion sur les classes de réponse à apporter et sur leurs implications. Ainsi, la première étude de prospective globale, « EDF dans le futur », réalisée dès 1986 sous la direction de Jacques Lesoume, jetait les bases d'un nouveau cadre de référence aux travaux de planification stratégique. Trois familles de scénarios contrastés d'environnement étaient proposées : - des scénarios de changement continu, correspondant à une évolution sans heurt, de l'environnement institutionnel et structurel de l'entreprise ; - des scénarios, dits « stratégiques », de remise en cause de la structure de l'entreprise, liés à la pression des prédateurs externes, à l'ouverture à la concurrence et à la déréglementation sur le marché de l'énergie ; - des scénarios de surprise intégrant des événements de déstabilisation de l'environnement, tels que la remise en cause de la filière nucléaire. L'impact de ce travail fut double. D'une part, ces scénarios globaux allaient fournir un cadre de référence aux dirigeants sur les évolutions possibles de l'entreprise et de son environnement. D'autre part, ils allaient permettre d'identifier une première liste de questions stratégiques, c'est-à-dire les domaines sensibles où EDF devrait prioritairement redéfinir sa position. Cela a constitué un programme de travail de plusieurs années du Comité de la prospective d'EDF mobilisant plus de deux cent cinquante experts et cadres supérieurs d'EDF autour de cinq pôles d'intérêt : - un pôle international, regroupant les études de prospective du secteur électrique communautaire, du système électrique britannique et des secteurs électriques d'Europe de l'Est, ainsi que celles concernant l'internationalisation de l'électricité, le rôle d'acteur européen qu'EDF est amené de plus en plus à jouer, jusqu'à ses relations avec le grand Maghreb ; - le pôle technico-économique concernant directement l'électricité et études sur la production thermique décentralisée, les regroupant portant 282 PROSPECTIV sur le partenariat entre EDF et les industries de bases, sur l'évolution des prix des combustibles et des moyens de productions sur le nucléaire et incluant le devenir des combustibles irradiés, les stratégies de veille technologique dans l'électronucléaire et la prévention des accidents nucléaires. Il s'intéresse également à l'étude de l'effet de serre, fortement liée à la technologie, que ce soit l'étude du rôle du C02 ou celle des moyens d'éviter sa libération dans l'atmosphère grâce à l'électricité d'origine nucléaire. Enfin, il explore les effets de la technologie sur la distribution, à travers des études sur l'avenir de la clientèle et sur les interfaces clientèle communicantes, notamment les compteurs intelligents ; - un pôle technologique général, analysant principalement les problématiques d'EDF en tant qu'acteur des télécommunications et face aux évolutions de l'informatique, ainsi que l'avenir de l'industrie nucléaire ; - un pôle institutionnel, analysant les rapports d'EDF avec ses différents partenaires, avec la puissance publique et avec les collectivités locales, l'espace rural et son avenir, la législation de l'eau et la gestion des ressources hydrauliques, et s'intéressant aux industries de l'équipement électrique, actuellement en pleine mutation. Dans un registre un peu différent, il analyse la situation d'EDF en tant qu'acteur commercial ainsi que l'avenir de la mixité EDF-GDF. Enfin il entreprend des études sur les évolutions idéologiques en rapport avec l'électricité ; - un pôle interne « management » et social, étudiant à la fois la prospective sociale, le rôle du contrôle de gestion, et l'avenir du personnel à l'horizon 2010. Pour chacune de ces questions stratégiques, le comité de la prospective s'est attaché à formuler précisément sa problématique. Les réflexions ont été menées autour de projets, qui ont mis en oeuvre des outils et des méthodes rigoureuses (analyse structurelle, impacts croisés, méthodes des scénarios) et ont débouché sur des études et des conclusions. L'ensemble de ces réflexions a contribué utilement aux activités de veille et de planification par scénarios ainsi qu'à la préparation des plans stratégiques d'EDF. La prospective comme levier du changement L'histoire récente du développement de la prospective stratégique va du développement de la planification par scénarios à l'intégration de la prospective en entreprise pour déboucher sur de nouveaux horizons : - ainsi, une première phase, dans les années 70, a vu la planification par scénarios s'imposer comme outil de management et mode de pensée en avenir incertain permettant de composer avec l'incertitude et d'anticiper les adaptations aux futurs possibles et à leurs enjeux ; - une deuxième phase, plus récente, répond à des besoins exprimés par les dirigeants pour une meilleure intégration de la prospective et de la straté- Dubon usagede la prospectivedansles entreprises 283 gie. Il s'agit d'identifier les moyens d'exercer un contrôle sur les événements et les jeux d'acteurs et de se préparer aux discontinuités. Face à la complexité et à l'incertitude de l'environnement, la nécessité d'ouvrir la réflexion sur de nouveaux champs, d'identifier les marges de manoeuvre et les ruptures et de développer une pédagogie de changement s'impose, à mesure que des évolutions culturelles et organisationnelles se développent ; - une troisième phase, nécessaire pour l'avenir, devra s'intéresser aux moyens d'immuniser l'entreprise contre l'incertitude en accroissant sa flexibilité structurelle et sa capacité d'anticiper face à des événements incertains sur lesquels l'entreprise ne peut exercer aucun contrôle. L'entreprise devra désormais être envisagée comme une entité organique au sein de laquelle l'aptitude à apprendre constitue le meilleur indicateur de son succès. Les travaux de prospective menés depuis 1986 sous l'égide de Jacques Lesourne ont largement permis à EDF de se préparer à cette troisième phase en développant une pédagogie du changement et en contribuant à l'évolution des esprits à l'intérieur comme à l'extérieur d'EDF sur de nombreux enjeux stratégiques. Cela a conduit, conjointement avec d'autres travaux et d'autres approches, à la révision ou à la validation d'un certain nombre d'orientations stratégiques et à l'éclairage du système de décision de la direction générale d'EDF, en contribuant par ailleurs à changer l'image externe d'EDF perçue désormais comme une entreprise plus ouverte. Il reste maintenant à mieux inscrire ce processus dans une démarche d'entreprise « apprenante », car des approfondissements restent à conduire. De nouveaux thèmes seront à aborder demain face à un environnement qui continuera à évoluer, où les rails bien tracés des Trente Glorieuses ne se retrouveront pas. Dans un tel processus, la culture d'entreprise ne peut que s'enrichir, et l'aptitude à préparer l'avenir devient une préoccupation collective. C'est là la fonction que la prospective stratégique doit remplir à l'intérieur de l'organisation. La prospective, si elle ne veut pas rester morte, doit aussi être diffusée à l'intérieur de l'entreprise. Cette diffusion doit être participative afin que ses destinataires s'approprient son esprit et ses résultats. Il ne sert à rien d'avoir vu juste si, d'une part, les décisions n'ont tenu aucun compte des possibles évoqués et si, d'autre part, la préparation à des décisions résultant de la réalisation de tels possibles n'a même pas été esquissée. Le travail de diffusion et de sensibilisation à la pluralité des avenirs est donc aussi important que le travail d'exploration des possibles et d'élaboration de scénarios. Jacques Lesourne a apporté, en tant que conseiller permanent du Comité de la prospective, un consensus décisif à la mise en oeuvre de cette pédagogie du changement en l'accompagnant d'une forte sensibilisation permanente 284 PROSPECTIVE aux valeurs des critères et à l'éthique de l'entreprise qui suggèrent une vision partagée au niveau des objectifs poursuivis par l'entreprise d'arbitrage et accomplir les changements nécespour s'adapter à son environnement saires sur le plan interne. Une discipline au service de l'action Dans son parcours d'économiste Jacques Lesourne a toujours privilégié l'orientation vers la recherche appliquée qui lui permettait, tout en cultivant sa passion pour les phénomènes de société et l'innovation scientifique, de rester en relation avec l'action. Ceci explique en grande partie son parcours en tant que créateur et développeur de sociétés et parallèle professionnel conseiller des équipes dirigeantes sur des stratégies d'entreprise. Cette démarche a trouvé une forme de synthèse dans son engagement comme prospectiviste pour promouvoir et intégrer la prospective dans le processus stratégique d'entreprise. Sur le plan conceptuel, les démarches sont plutôt simples : une fois les scénarios construits, il convient d'identifier les options stratégiques et d'évaluer leurs conséquences à la lumière de la réalisation de tel ou tel scénarios ; multicritère l'analyse permet cette évaluation en fonction de la grille d'obde tels sa mission, ses intérêts fondamentaux, sa pérenjectifs l'entreprise, nité. La déontologie implique de ne pas conclure et de se limiter à fournir aux décideurs une grille d'évaluation et des instruments destinés à les aider à prendre les bonnes décisions stratégiques. Toutefois la pratique est beaucoup plus délicate et complexe pour deux raisons : - d'une part, les options retenues doivent garder un niveau suffisant permettant une adaptation aux différents scénarios ment ; de flexibilité d'environne- - d'autre des conséquences des options stratégiques ne part, l'évaluation résulte pas d'une seule grille d'analyse. Très souvent des études complémentaires faisant appel à d'autres outils de prévision, de calcul économique ou de gestion sont nécessaires. À ceci, s'ajoute la prise en compte des profils des décisionnaires, de leur attitude face aux risques et de leurs relations avec les autres acteurs. Là, réside l'art de Jacques Lesourne dans la mise en oeuvre de cette articulation entre réflexion et action en apportant une attention particulière à ces difficultés dont le niveau de perception n'est pas le même selon les niveaux hiérarchiques des personnes impliquées dans les réflexions prospectives. En sur la signification effet, il est essentiel que les prospectivistes s'interrogent des soulevées et sur la nature des politiques suscepstratégique questions tibles de répondre à ces questions. Sinon, le risque est grand de voir se développer la prospective pour elle-même, en oubliant qu'elle n'a de sens que par d'une stratégie suivie de plans d'actions. rapport à l'élaboration Dubon usagede la prospectivedansles entreprises 285 Pour autant, la prospective stratégique n'a certainement pas atteint un état complet de maturité et de stabilité, ni dans ses méthodes et techniques, ni dans sa philosophie - la brièveté de son histoire suffirait à le démontrer. Sans se risquer à une prospective de la prospective, on peut avancer, puisqu'il s'agit d'un art concret de la participation, que c'est la demande des entreprises qui la fera évoluer et qu'elle se redéfinira au point de rencontre et d'échange de leurs expériences. C'est ainsi, qu'avec le concours de Jacques Lesoume, EDF a suscité la création d'un club de prospective des grandes entreprises visant à promouvoir et à enrichir ces ambitions pour faire de la prospective une discipline ouverte et participative au service de l'action. Fabrice Roubelat LAPROSPECTIVE STRATÉGIQUE Deshommeset des organisationsen réseaux S'articulant autour de dirigeants d'entreprises, de pôles de développement (entreprises, associations, institutions), de groupes d'experts et de managers, la prospective stratégique peut être définie comme une activité d'animation de réseaux visant à remettre en cause, à travers une réflexion collective sur les futurs possibles, les représentations des différents acteurs qui forment l'entreprise et son environnement, en vue d'orienter la stratégie de l'organisation. Par la constitution de réseaux d'hommes, experts et décideurs, la prospective stratégique a dans ce cadre pour objectif de faire interagir de nombreuses dimensions à partir de vastes réseaux d'information et d'expertise (Lesourne, 1996). Par l'hétérogénéité des réseaux qu'elle permet de constituer et d'utiliser en fonction des circonstances, la prospective contribue ainsi à couvrir des dimensions portant tant sur l'environnement général que sur l'environnement concurrentiel ou sectoriel des organisations. Aussi les perspectives d'avenir de la prospective stratégique reposent-elles sur l'interconnexion des pôles de développement et sur de nouveaux réseaux. Laprospectivestratégique 287 ETCONSTRUCTION 1.. RÉSEAUX D'EXPERTS DEREPRÉSENTATIONS ALTERNATIVES DUFUTUR 1.1 1 L'expert,le stratège,le manager Se définissant comme une démarche pluridisciplinaire d'inspiration systémique (H. de Jouvenel, 1993 ; Godet, 1997), la prospective met d'emblée l'accent sur la mise en relation de savoirs à la fois différenciés et complémentaires en vue d'une réflexion concernant l'avenir. Il s'agit d'intégrer dans une même vision à caractère global des travaux d'experts de différents domaines, bref de faire travailler ensemble « un philosophe, un psychologue, un sociologue, un économiste, un pédagogue, un ou plusieurs ingénieurs, un médecin, un statisticien, un démographe » pour reprendre l'objectif initial de Gaston Berger (1957). De même le forum prévisionnel (B. de Jouvenel, 1964) se conçoit comme une institution destinée à combiner en prévisions générales les prévisions spécifiques d'experts d'horizons différents. Pour l'entreprise, l'exercice de prospective se traduit par des scénarios de différents niveaux : scénarios concernant l'environnement général, l'environnement concurrentiel et l'entreprise elle-même. Les différentes catégories de scénarios sont recombinées dans des scénarios globaux. À travers la construction de scénarios globaux, il s'agit donc de croiser des dimensions multiples concernant aussi bien l'environnement général que l'environnement concurrentiel de l'entreprise et de faire appel à des connaissances et compétences elles-mêmes hétérogènes. Il s'avère ainsi fondamental de disposer, à travers différents réseaux (académiques, institutionnels, professionnels) auxquels l'entreprise est connectée, d'une base d'experts susceptibles d'être consultés, voire mobilisés dans des groupes de travail en vue de la construction de ces scénarios. En premier lieu, l'expert sera donc une ressource en termes d'informations rétrospectives et prévisionnelles. Cependant, on ne rentrera véritablement dans le champ de la prospective qu'à partir du moment où l'on quittera le domaine de la connaissance pour celui des représentations alternatives de l'avenir. En second lieu, l'expert contribuera à un réseau de communication en vue de produire des représentations collectives. Ainsi, la méthodologie prospective conduira à mettre en place un système plus ou moins formel mettant en relation des hommes en vue de recueillir des croyances et des visions sur l'avenir, qui seront ensuite utilisées pour la construction de grilles de lecture alternatives, et en particulier de scénarios. Afin de construire ces grilles de lecture alternatives concernant le futur, la première étape de la méthodologie prospective conduira à constituer soit un groupe, soit un panel d'experts internes ou externes à l'organisation. Au sein d'un groupe, les experts travailleront ensemble à la production de ces grilles de représentations, tandis que dans le cas d'un panel les experts seront interrogés individuellement comme dans les enquêtes delphi. Groupes et panels 288 peuvent cependant être combinés, un groupe pouvant des experts qui lui sont extérieurs ou faire réaliser groupe discutera ensuite les résultats. PROSPECTIVE décider d'auditionner une enquête dont le En fonction du cadre dans lequel se déroulera l'étude prospective (la prosle groupe ou le panel pective d'une entreprise, d'un secteur industriel...), être soit internes à une organisation, d'experts pourront composés d'experts soit d'experts internes et d'experts externes (groupe mixte) ou être encore différentes. Il en résulte composé exclusivement d'experts d'organisations les ou les seront ou moins que groupes panels plus hétérogènes, ce qui n'est sans sur la nature de l'information pas conséquences produite. En effet, plus le groupe ou le panel sera homogène, plus grand sera le risque d'aboutir à une vision unique de l'avenir, alors que l'objectif de la prospective est au contraire de construire des visions différenciées. Ainsi, sur des sujets pointus ou politiquement délicats comme par exemple les questions de gestion des ressources humaines ou de prospective technologique, le degré d'expertise des membres d'un groupe de travail ne garantit pas la qualité d'une réflexion prospective, les croyances de ceux-ci pouvant être toutes idenCette nécessité de faire apparaître des avis divergents autant que des tiques. consensus conduira aussi à transformer les modalités d'utilisation de certaines techniques comme la méthode delphi en recherchant une distribution multimodale normale des réponses des experts plutôt qu'une distribution (Roubelat, 1994). À ce stade, on s'interrogera aussi sur ce que l'on entend par expert. Sous le vocable générique on regroupe en effet généralement (et de d'expert, manière circulaire) tous ceux dont les opinions peuvent être utiles à la réflexion prospective, le terme « expert » étant en fait une commodité de langage qualifiant tous ceux qui participent à la réflexion prospective et contribuent, d'une manière ou d'une autre, à la construction des grilles de lectures alternatives de l'avenir. Il convient alors de dissocier ceux qui sont consultés en raison de leur connaissance de type scientifique du sujet de ceux consultés en raison de leur rôle dans les processus de décision liés à la problématique. On distinguera donc les experts des décideurs et, parmi les décila stratégie de l'organisation des deurs, les dirigeants qui définissent managers qui gèrent les unités opérationnelles. Dans le cas d'une prospective réalisée dans le cadre d'une organisation, l'exercice de prospective conduira ainsi bien souvent à constituer un groupe de réflexion composé de fonctionnels et d'opérationnels, c'est-à-dire d'exet de D'un de vue ce perts managers. point organisationnel, groupe de réflexion travaillera souvent pour un comité composé de dirigeants de l'entreprise, qui pourront d'ailleurs être auditionnés en tant qu'experts-stratèges, ainsi que parfois d'experts extérieurs. De même, il sera également intéressant de distinguer ceux qui ont une connaissance directe du sujet de ceux qui en ont une connaissance indirecte car travaillant soit sur des domaines connexes, soit dans des domaines qui 289 Laprospectivestratégique par analogie peuvent intéresser la problématique. Ainsi, les enquêtes delphi demandent aux experts consultés d'évaluer leur compétence par rapport aux questions posées, ce qui permet de séparer les « grands experts » des « experts ». On pourra enfin comparer les résultats de différents panels pour relativiser certains résultats, ce qu'illustrent les divergences d'appréciation entre « experts » allemands, français et japonais sur certains développements technologiques futurs comme la supraconductivité ambiante (voir Héraud et alii, 1997). Tableau 1 : L'expertprospectif : typologie Lien avec le processus de décision - direction - management Connaissance scientifique du sujet Dans le domaine de la prospective Dans un domaine connexe expert-stratège expert-manager candide-stratège candide-manager expert-expert candide-expert Autant qu'à une connaissance experte, c'est donc aux croyances, en termes d'anticipations et de conjectures (Munier, 1994), implicites et explicites visà-vis de l'avenir que s'intéresse la prospective. Ces croyances sont celles des différents acteurs liés soit à la problématique de l'étude prospective, soit à l'organisation et son environnement, ce qui conduit le prospectiviste à considérer avec prudence la notion d'expertise et à discuter dans un processus interactif les représentations individuelles et collectives qu'il a contribué à produire. En effet, autant qu'un instrument d'analyse, la prospective est devenue un exercice de création de sens, de mobilisation autour d'un projet (Lesourne, 1985) où l'appropriation des réflexions prospectives par l'ensemble des acteurs de l'entreprise, considérée en tant que système social (Ackoff, 1994), compte autant que le résultat de l'exercice en termes d'aide à la décision (Godet, 1997) et où les experts (au sens classique du terme) doivent « s'abstenir » (Thiétart et Bergadaà, 1990) pour devenir des acteurs parmi d'autres de la réflexion prospective. 1.2 Lescontrainteset enjeuxde la remiseen cause des paradigmesstratégiques À partir de cette fonction de création de sens, l'accent a été progressivement mis sur l'intérêt non seulement de la prospective, mais aussi du processus de planification dans son ensemble, en termes d'apprentissage (Michael, 1973 ; Senge, 1990), de pédagogie collective (Monod, 1974 ; Stoffaës, 1996) et de 290 PROSPECTIVE coévolution (Schwartz et Van der Heijden, 1996). Dans un tel cadre, les études prospectives n'ont pas pour objectif de s'inscrire directement dans un mais de servir à remettre processus linéaire de type réflexion/décision/action en cause les croyances non seulement des décideurs mais aussi des différents acteurs de l'entreprise et de son environnement. La diversité des grilles de lecture proposées par la prospective, tant en termes de scénarios que d'options ainsi les remises en stratégiques, que cause qu'elles suscitent, pose néanmoins le problème des luttes de pouvoir qu'elles peuvent révéler et de la réaction de rejet qu'elles peuvent susciter (Leban, 1992) parmi les différents acteurs impliqués dans la réflexion prospective et stratégique, qu'il s'agisse des experts, des managers ou des stratèges. Ce risque est encore plus grand lorsque la prospective passe d'une fonction d'explicitation et de discussion des représentations à une fonction être aussi bien plus idéologique (Barel, 1971) qui peut explicite (recherche de consensus, mobilisation) que détournée (manipulation ou utilisation à des fins personnelles). Les travaux sur l'application des cartes cognitives à la gestion (Calori et alii, 1995), ainsi que ceux concernant leurs implications en termes de paradigmes au sens de représentations (Laroche et Nioche, stratégiques, partagées 1994), mettent justement en évidence l'intérêt porté au problème de la représentation de l'environnement par les différents acteurs du processus stratégique. Dans le cadre d'un exercice de prospective, il ne s'agit cependant pas seulement d'expliciter les cartes cognitives des décideurs mais de construire des représentations collectives (par exemple les plans influence/dépendance d'une analyse structurelle ou les graphes de convergences et de divergences d'une analyse de jeux d'acteurs). S'appuyant sur les décalages existant entre ces représentations et les logiques dominantes, la prospective constitue un exercice de remise en cause des paradigmes stratégiques. Cependant, les structures des organisations ne sont le plus souvent pas adaptées à la remise en cause de la logique dominante et encore moins à la production de représentations ce qui nécessite la mise en place alternatives, d'une organisation en réseau de la réflexion prospective, c'est-à-dire située en dehors des structures classiques de ces dernières par l'intermédiaire de connexions, sinon informelles, du moins sortant du cadre des relations hiéelle-même. En confrontant les reprérarchiques et même de l'organisation sentations de chacun aux visions de multiples acteurs (experts, managers et stratèges, internes comme externes), la prospective n'apparaît plus seulement comme un facteur de remise en cause mais permet la construction de sinon partagées du moins discutées, des évolutions posreprésentations, sibles de l'entreprise et de son environnement, c'est-à-dire de scénarios et Elle devient dès lors un facteur de mise en cohérence d'options stratégiques. et de remise en ordre qui nécessite que l'ensemble des acteurs qui y participent accepte de se livrer à cet exercice consistant à aller au-delà de l'horizon et de l'espace habituel des décisions et des compétences de chacun. Laprospectivestratégique 2911 Pour l'entreprise, le « voir loin et voir large » de la prospective (Berger, 1959) signifie ainsi remettre en cause les frontières internes comme externes de l'organisation. Cette transgression des frontières et ce regard par-delà l'organisation ressortent d'ailleurs comme des caractéristiques principales de la prospective, telle qu'elle apparaît à partir de l'étude diachronique des pôles de développement de la prospective en France d'une part et du développement de la prospective stratégique au sein de grandes organisations d'autre part (Roubelat, 1996). La dynamique de la prospective stratégique montre ainsi que la question de la recherche de sens non seulement dans l'organisation mais aussi dans son environnement est précisément une des préoccupations centrales des dirigeants d'entreprise ayant contribué au développement de la prospective. Par là même apparaît le lien entre l'attitude prospective de ces dirigeants et le développement de l'activité de prospective, c'est-à-dire entre les réseaux d'hommes et les réseaux d'organisations. 2.. L'ORGANISATION DE LA PROSPECTIVE STRATÉGIQUE ENFRANCE 2.1 1 Desréseauxd'hommes et despôlesde développement L'étude de la genèse de la prospective en France fait apparaître que c'est à l'extérieur de leurs organisations que naît l'intérêt de chefs d'entreprise pour la prospective. Avec la création en 1957 du Centre international de prospective, Gaston Berger met en effet en réseau, selon la règle non écrite des « trois tiers », des chefs d'entreprises (comme Georges Villiers, président du CNPF, Arnaud de Voguë, président de Saint-Gobain et Marcel Demonque, vice-président et directeur général des Ciments Lafarge), des hauts fonctionnaires et des universitaires en vue de réfléchir sur l'avenir. Autant que l'intérêt que suscitent ces travaux sur l'avenir, c'est d'ailleurs cette composition hétérogène, ce lieu d'échanges qui semble important au sortir d'une époque où chefs d'entreprise et hauts fonctionnaires se méfiaient quelque peu les uns des autres. L'activité de ce centre témoigne aussi du passage de l'attitude à l'activité de prospective puisqu'au départ il publie des « vues prospectives » individuelles avant de progressivement déboucher sur des travaux collectifs, participatifs, en particulier en entreprise. L'une des premières expériences de « prospective appliquée », telle qu'elle se diffuse à partir du Centre international de prospective, date de 1961. Elle concerne la Snecma, sous l'impulsion de son président, Henri Desbruères, avec le concours de membres du centre comme Pierre Massé. L'objet de cette application n'apparaît pas seulement comme le fruit de l'intérêt d'un dirigeant pour la prospective mais également comme une nécessité pour la 292 PROSPECTIVE ainsi que le souligne Desbruères. En effet, dès le début des SNECMA, années soixante émerge un nouveau type d'industrie le projet qu'esquisse visant la construction d'un avion supersonique, le futur Concorde. Elle se situe dans le cadre d'un processus à la fois industriel et politique, auquel Pierre Massé n'est pas étranger en tant que Commissaire au Plan. En particulier, quelques mois plus tard, la question du supersonique fait l'objet de débats intenses au sein des commissions du Plan, autre lieu de développement de la prospective. La prospective apparaît ici comme un vecteur de mutation culturelle, non seulement interne mais aussi externe, visant en particulier « toutes les sphères qui forment le contexte de la SNECMA », selon de Desbruères lui-même. Par le discours qu'elle permet de l'expression des pervéhiculer, elle cherche donc à être un instrument de transformation non seulement au sein de l'entreprise, mais ceptions de l'environnement également à l'extérieur de cette dernière, en particulier en associant au processus des personnalités extérieures. Tableau 2 : Réseaux et prospective d'entreprise en France Période/ entreprise Dirigeant/ conseiller Changement stratégique Réseaux externes 1961 SNECMA Henri Desbruères/ André Gros Constitution de l'industrie aéronautique européenne Centre d'études prospectives, CGP 1969 Elf Pierre Guillaumat/ Bernard Delapalme Transformation du marché pétrolier CGP, prospective de défense 1987 EDF Jean Bergougnoux/ Jacques Lesourne Déréglementation européenne Entreprises et prospective, Futuribles 1 À la fin des années soixante, la prospective commence à se développer au sein d'entreprises énergétiques telles Elf et Shell, et en particulier la filiale de cette dernière. Là encore, une relation nette peut être établie française entre les exercices de prospective internes et externes dans une période où la du marché plupart des acteurs énergétiques anticipent la transformation pétrolier. En 1969, Pierre Guillaumat, qui dirige l'ERAP et la SNPA, les deux sociétés constitutrices de ce qui deviendra Elf au milieu des années 70, commande à Bemard Delapalme, son directeur de la recherche, du développement et de l'innovation, une étude sur Elf à l'horizon 1985. Pour les deux hommes, il s'agit donc de réaliser un travail similaire à celui de « réflexions pour 1985 » du Commissariat général du Plan (que Pierre Guillaumat avait présidé et dont Delapalme avait été le rapporteur). Ce n'est cependant pas de manière fortuite que Pierre Guillaumat lance un tel exercice de prospective globale, près de cinq années après la fin des travaux du groupe « réflexions La prospective stratégique 293 de temps entre les deux études est en effet trop pour 1985 ». L'intervalle En fait, l'animportant pour qu'il puisse s'agir d'une simple transposition. née 1969 apparaît comme une année charnière pour l'ensemble du secteur de l'énergie. C'est par exemple au cours de cette année qu'est décidé le proélectronucléaire et que les premiers gisegramme français d'équipement ments pétroliers sont découverts en mer du Nord. Or ce que deviendra Elf dépend alors à 70 % de son pétrole algérien. Le groupe de travail composé par Bernard Delapalme comporte d'une part des membres de l'ERAP et de la SNPA, six au total, mobilisés à temps partiel pour l'occasion, et d'autre part des membres extérieurs à l'entreprise dont Hugues de l'Estoile, le chef du centre de prospective et d'évaluation du ministère des Armées, et Michel Pecqueur, alors directeur délégué pour l'uranium enrichi au CEA. Il constitue donc une ouverture sur des réseaux extérieurs certes, mais en territoire connu, Pierre Guillaumat ayant été administrateur général délégué du CEA et ministre des Armées. À la même époque, l'ensemble des acteurs du secteur énergétique se retrouve dans la commission de prospective de l'énergie du Plan. On y retrouve Bernard Delapalme, Michel Pecqueur, Jacques Lacoste des études éconode la planification miques d'EDF et Pierre Wack, l'initiateur par scénarios au sein de la Shell française, puis de la cellule de planification du groupe à Londres. À travers cet exemple, prospective publique et prospective stratéinterconnectées. Ainsi, la prospective contribue à relier gique apparaissent les centres de préparation des décisions de l'époque, tant au niveau public confronter les visions des princiqu'au niveau des entreprises, c'est-à-dire acteurs d'un le souvent des experts appartenant aux serdomaine, paux plus vices fonctionnels des entreprises et administrations. L La prospective publique est aussi un vecteur de diffusion de la prospective Ainsi, le parcours des membres de la commission de la prosd'entreprise. de pective l'énergie du Plan est révélateur de la relation forte entre l'attitude prospective des dirigeants et de leurs conseillers et l'activité de prospective au sein des organisations. C'est ainsi que Michel Pecqueur, devenu président la troisième grande étude de prospective du groupe au d'Elf, commandera milieu des années quatre-vingt, tandis que Bernard Delapalme deviendra conseiller de Jérôme Monod (qui avait travaillé avec Bernard Delapalme lors de l'exercice « réflexions pour 1985 » du Plan et mis en place le dispositif de prospective de la Datar) à la Lyonnaise des Eaux au début des années et que Jacques Lacoste sera l'un des conseillers de Jean quatre-vingt-dix, lors de la mise sur pied du management Bergougnoux stratégique intégré d'EDF à la fin des années quatre-vingt. Depuis le milieu des années quatre-vingt, avec notamment les entreprises de service public, la prospective devient plus explicitement un outil d'accomen contribuant à l'anticipation et à la comprépagnement du changement Les entreprises publiques ont hension des évolutions de l'environnement. de réseaux joué (et jouent toujours) un rôle particulier dans le développement 294 PROSPECTIVE cette implication des entreprises publiques peut prospectifs. Historiquement, être divisée en deux phases. La première, de la fin de la guerre aux années quatre-vingt, est liée au processus de conception puis de mise en oeuvre par des entreprises publiques de lourds programmes d'équipement à long terme notamment) nécessi(électricité, transport ferroviaire, télécommunications tant une vision prospective non seulement sectorielle et technologique, mais et géopolitique (en particulier dans le cas de l'éneraussi macroéconomique n'est plus gie). La deuxième phase, depuis la fin des années quatre-vingt, seulement liée à cet effort de programmation mais à une mutation de l'environnement institutionnel de ces entreprises publiques. Ainsi, ces entreprises se sont trouvées dans une période de changement de phase (Marchais, 1993) d'autant plus difficile à opérer que les consensus étaient anciens et les intensités capitalistiques importantes. Pour des entreprises dont le statut, la forme juridique et les domaines d'activités sont réglementés, ce processus de changement de paradigme stratéest complexe et s'appuie sur des décalages dans le gique particulièrement ces Ne maîtrisant leur aptitude au changement, temps. que partiellement alors trouvé dans la un outil à la adapté prospective préparaentreprises ont tion de celui-ci. Il s'agit ainsi pour ces entreprises d'anticiper et de préparer tant dans l'entreprise qu'à l'extérieur des changements de règles du jeu. La caractéristique de règle du jeu est son principale d'un tel changement caractère irréversible à l'échelle de l'organisation, ce qui signifie que l'enest concerné, ainsi que l'ensemble des semble des niveaux de l'entreprise dimensions s'intéresse la réflexion et stratégique. auxquelles prospective diffusés, les changeLorsque les scénarios sont construits et éventuellement de ments qu'ils évoquent restent virtuels et n'impliquent pas nécessairement de l'activité de décision à court terme. Dans un tel cadre, le développement du changement des règles du jeu par prospective participe à l'anticipation l'ensemble des acteurs qui forment l'entreprise et son environnement, dans et de négociation de scénarios possibles. Ce un processus de construction processus coopératif engage un nombre important d'acteurs tant internes individus et organisations. qu'externes, Ainsi, ces travaux débordent le cadre des entreprises elles-mêmes. Au début sous l'impulsion et de des années quatre-vingt-dix, de Jean Bergougnoux « Entreprises et prospective », comJacques Lesourne, un club d'entreprises de service public, est constitué afin de posé principalement d'entreprises mener en commun, dans un cadre non formel, des travaux de prospective, par exemple sur les régimes spéciaux de retraite ou sur les questions liées au concept de service public européen. Dans un tel cadre, la prospective stratégique n'apparaît pas seulement comme un processus interne de création de sens mais aussi comme une occasion de confrontation des visions propres à avec celles d'organisations rencontrant des problèmes simil'entreprise laires. Dans ce processus, l'implication des dirigeants est essentielle pour permettre la transgression des frontières tant internes qu'externes de l'orga- Laprospectivestratégique 295 nisation, et donc permettre à la prospective de se développer. Réseau informel sans existence juridique, le club « Entreprises et prospective » fonctionne donc d'une part autour de groupes de travail coordonnés par les responsables de la prospective des différentes entreprises, et d'autre part autour de la réunion des présidents des entreprises du club. Cependant, si dans sa phase initiale le club était plus un réseau d'individus que d'organisations, il a bénéficié d'un noeud de réseau (en l'occurrence EDF) qui a contribué à sa permanence. 2.2 Desgroupesaux réseaux :le cas EDF Depuis la seconde moitié des années quatre-vingt, EDF est devenu un cas d'école pour la prospective stratégique. Pour EDF, le changement de paradigme, mis en évidence au milieu des années quatre-vingt par l'étude « EDF en 2025 », réalisée par les experts des études économiques générales, reposait d'une part sur le changement de comportement des pouvoirs publics (État, collectivités locales) vis-à-vis de l'entreprise et d'autre part sur l'émergence d'un nouvel acteur (l'Europe) dans le jeu institutionnel. Dix ans plus tard, les scénarios de surprise sont devenus réalité et la prospective a contribué à diffuser tant dans l'entreprise qu'à l'extérieur de celle-ci l'idée de telles évolutions. Entre temps, la réflexion s'est déplacée des experts des études économiques générales vers un comité composé des directeurs fonctionnels de l'entreprise et de quelques grands experts, définissant des thèmes d'études prospectives approfondis par des groupes de travail composés d'experts et de managers internes, et parfois d'experts externes. Dans ce nouveau cadre, le développement de l'activité de prospective dans l'entreprise implique la création d'une structure de pilotage et de coordination du processus, apportant notamment un soutien logistique et jouant le rôle d'interface entre les différents acteurs, de l'activité de prospective ainsi qu'avec les réseaux de prospective externes. Ainsi cette structure contribue à la composition des groupes de travail, selon que la création du groupe découlera de la mise en oeuvre du programme de travail défini par le comité de prospective ou que le sujet se sera imposé de manière émergente. ' La constitution d'un groupe de travail interne obéit dans tous les cas à la nécessité d'impliquer l'ensemble des acteurs concernés, c'est-à-dire, s'agissant de problèmes globaux, l'ensemble des niveaux et des directions de l'entreprise. Elle implique alors les experts et managers internes, et parfois externes, du domaine concerné. Cependant, l'expert n'est qu'un des membres parmi d'autres du groupe de travail prospectif, au même titre que le manager qui contribuera également à appliquer et diffuser les enseignements de la prospective. La prospective apparaît alors comme un exercice d'apprentissage collectif au niveau des groupes et du comité de prospective, susceptible de s'étendre dans l'organisation. 296 PROSPECTIVE En tant que processus, ces exercices de prospective conduisent à élargir l'audience de la prospective dans l'entreprise par la constitution de groupes de travail impliquant l'ensemble des directions de l'entreprise, qu'elles soient fonctionnelles ou opérationnelles. Par leur hétérogénéité, les groupes de travail apparaissent comme des éléments constitutifs de la mise en réseau d'experts surtout, de managers parfois, sur des chantiers stratégiques. Cette mise en réseau est néanmoins temporaire et s'apparente à une gestion par projet puisque le groupe disparaît une fois l'étude terminée. En confrontant les caractéristiques des groupes de prospective ayant contribué à la réflexion de prospective stratégique d'EDF depuis 1989 à la grille d'analyse proposée par Rojot et Bergman (1989), il apparaît qu'il s'agit là de groupes semi-formels. En effet, leurs caractéristiques les rapprochent des dont ils se toutefois leur formels, groupes distinguent par grande flexibilité. Tableau 3 : Caractéristiques des groupes de prospective d'EDF (À partir de la grille de Rojotet Bergman, 1989) Groupes Appartenance Caractéristiques des groupes de prospective Naturels Formels Volontaire Désignation ou élection Cooptation plus que désignation Possibilité de désignation sur des sujets sensibles Structures Changeantes Stables Type think tank avec secrétariat + membres Direction Émergente Désignée Un facilitateur ou un président qui pilote plus qu'il ne dirige Tâche Indéterminée Bien délimitée Une problématique souvent large + une grande latitude dans la méthodologie mais presque toujours production de scénarios Durée Variable Indéterminée Prédéterminée Variable, souvent déterminée mais avec une longue durée (6 à 18 mois) En premier lieu, les membres d'un groupe de prospective sont plus souvent cooptés qu'ils ne sont désignés. Ainsi, la composition du groupe est le résultat d'un processus heuristique et peut même évoluer durant le processus. Cherchant à mettre en évidence des futurs possibles contrastés, la composition du groupe ne suit cependant pas toujours des critères d'hétérogénéité choisies, en particulier sur des sujets sensibles quant aux personnalités comme la prospective des personnels. Dans de tels cas, le choix des Laprospectivestratégique 297 membres est alors guidé par le souci de représentation de telle ou telle direction ou fonction. Lorsque cette règle n'est pas suivie, l'exercice s'expose cependant à une trop grande homogénéité susceptible de freiner sa créativité par un phénomène de type groupthink (Janis, 1971). Il peut aussi se former un consensus, ainsi que des phénomènes d'autocensure, pour écarter certains scénarios ou certaines hypothèses qui ne semblent pas acceptables du point de vue du paradigme dominant. On aboutit alors à un échec de la réflexion prospective par un rétrécissement de la perspective aux seules hypothèses consensuelles. La structure des groupes apparaît quant à elle particulièrement flexible, organisée en réseau. Cette organisation en réseau signifie en fait que l'activité du groupe est coordonnée par un noeud de pilotage (composé du responsable du groupe et de membres de la structure de coordination de l'ensemble des études) mais que les différents membres proviennent de différentes organisations ou de différentes parties de l'organisation. En outre, il n'y a pas de relation hiérarchique entre les différents membres du groupe, y compris le responsable qui à l'occasion de la réflexion devient un membre du groupe comme les autres. Néanmoins, le groupe de prospective peut se trouver perturbé par des problèmes de pouvoir qui lui sont extérieurs ou par la prééminence d'un membre hiérarchiquement supérieur (effet de leadership). Pour fonctionner, il doit donc être clairement dissocié de l'organisation existante et bénéficier d'une légitimité au plus haut niveau. Lorsque cette légitimité fait défaut, les membres du groupe de travail arbitreront en défaveur de l'exercice de prospective, ce qui pose alors des problèmes d'assiduité et montre la limite du modèle du réseau. , ' ', ', I, ', ', , ,' Le responsable du groupe est le plus souvent désigné par le comité de direction chargé de la prospective. Il choisit les membres du groupe, il est plus considéré comme un animateur (on emploiera aussi le mot de facilitateur) de la réflexion prospective. La direction du groupe pourra dans certains cas revêtir la forme d'un binôme composé d'un expert/manager faisant le lien avec le processus de décision que la réflexion prospective est chargée d'éclairer et d'un expert/expert qui apportera soit une connaissance scientifique du domaine étudié, soit une méthodologie pour la conduite de l'exercice. Ce dernier pourra d'ailleurs être un consultant externe. In fcne cependant, le lien avec le processus de décision, notamment par l'intermédiaire de la présentation des travaux devant les instances de décision, sera toujours de la responsabilité d'un membre de l'entreprise. Par rapport au processus de décision, la tâche à accomplir est relativement bien déterminée puisqu'il s'agit d'éclairer un processus de réflexion stratégique, de mettre en évidence des tendances lourdes, des incertitudes, les stratégies des acteurs sur des domaines précis. Néanmoins, le choix des dimensions d'analyse et des horizons peut varier en cours d'analyse. De même, la méthodologie varie d'une étude à l'autre mais se conclut presque systématiquement par la construction de scénarios. Sa durée est extrême- 298 PROSPECTIVE ment variable (6 à 18 mois), mais une durée longue est souvent accordée à ce type d'exercice afin de permettre une grande latitude dans la réflexion et éviter que le groupe n'écarte a priori certains scénarios du fait d'un manque de temps. Une fois la tâche terminée, c'est-à-dire l'étude thématique réalisée, les membres du groupe ont toutefois la possibilité de rester en relation avec l'ensemble des membres de l'entreprise ayant participé à de tels travaux. Audelà des projets que sont les études thématiques, il s'agit en effet de développer une activité permanente à laquelle contribue l'ensemble des membres de l'entreprise ayant contribué à la réflexion prospective. De membres d'un groupe de travail, les experts et managers concernés deviennent membres d'une communauté réfléchissant prospective plus largement à l'ensemble des évolutions de l'entreprise et de son environnement. Cette communauté forme le réseau de prospective interne à l'entreprise, que la structure de coordination des études, véritable noeud de réseau, s'efforce de faire vivre et d'interconnecter avec les réseaux externes. Ces réseaux externes, comme le club « Entreprises et prospective », permettent de poursuivre dans un cadre plus large certaines réflexions et dans certains cas de jouer un rôle précurseur pour des réflexions qui ne pourraient se développer dans l'entreprise. Ils permettent également d'étendre géographiquement le cadre de la réflexion à des « think tanks » et des prospective et stratégique, avec la participation réseaux internationaux comme le Global Business Network ou européens comme le CEPS (Centre for European Policy Studies), même si ces réseaux regroupent plus souvent des experts chargés d'animer la réflexion prospective des entreprises que des décideurs. Ainsi, la participation au processus de prospective ne se limite ni dans le temps, ni dans l'espace, ce qui est une dénotant son fonctionnement en réseau. caractéristique 3. LESRÉSEAUX DELAPROSPECTIVE FUTURS STRATÉGIQUE 3.1 L'interconnexion et l'expansion desréseaux Comme le montre l'analyse de l'interaction entre les différents pôles de de la en la France, développement prospective dynamique de la prospective se fonde principalement sur l'interconnexion d'hommes, experts, stratèges et managers. Le premier de ces pôles, le Centre international de prospective apparaissait d'ailleurs comme un réseau d'hommes, qui, à travers leurs fonctions, ont permis à la prospective de se diffuser dans un certain nombre d'orce centre peut ainsi être ganisations. Par la diversité de ses composantes, considéré comme la matrice des pôles de développements qui l'ont suivi en contribuant à l'essaimage de la prospective. Laprospectivestratégique 299 Le Commissariat général du Plan et la Datar ont également joué un rôle important dans la genèse de la prospective. Si on ne peut complètement lier le développement de la prospective d'entreprise à celui de la prospective publique, l'influence de cette dernière est néanmoins loin d'être négligeable. En effet, les hommes qui ont développé les activités de prospective au sein des organisations ont le plus souvent participé à des travaux de prospective publique. Une première rupture pour la prospective stratégique pourrait alors résider dans le fait que les actuels décideurs et leurs conseillers ont été marqués par les travaux de prospective publique, dont ils ont appliqué les principes aux organisations qu'ils dirigent, et que leurs successeurs ne le seront peut-être pas. Avec le déclin de la planification publique, on peut penser qu'un des pôles de développement de la prospective pourrait à terme disparaître, à moins que les institutions de prospective publique ne connaissent un nouvel essor. Cependant, pour qu'elles puissent vraiment oeuvrer au développement de la prospective stratégique, il conviendrait par exemple que des forums comme le Commissariat général du Plan ne soient pas uniquement des lieux de réflexion mais redeviennent des lieux de pouvoir et d'influence. Sur ce dernier point, le niveau national n'est d'ailleurs pas le seul niveau pertinent de décision. Ainsi sont apparus au niveau européen des lieux de réflexions prospectives comme le CEPS où se rencontrent entreprises, fonctionnaires européens, organisations non gouvernementales en vue de confronter leurs réflexions sur l'avenir. ', ',, ', ', _ Dans le prolongement des travaux de la Datar, l'émergence récente d'une prospective territoriale, en liaison avec les processus de définition des contrats de plan État-régions, constitue quant à elle non seulement une évolution pour une partie de la prospective publique mais offre aussi des perspectives nouvelles à la prospective stratégique. S'appuyant sur un processus de concertation entre les acteurs locaux, voire entre les différents niveaux de décision (conseils généraux, conseils régionaux, communes notamment), cette prospective territoriale pourrait favoriser la constitution d'une prospective stratégique appliquée aux PME, dans la mesure où les scénarios issus de ces travaux de prospective territoriale constituent pour ces dernières des éléments pour la construction de scénarios portant sur leur environnement général. Cette question de la possible diffusion de la prospective du monde des grandes organisations à celui des PME constitue d'ailleurs une interrogation récurrente (Godet et Roubelat, 1994). Il s'agit ici de se demander comment la prospective stratégique, activité presque exclusivement réservée aux grandes entreprises, peut être adoptée par de plus petites structures. Le coût pour des entreprises qui ne disposent que rarement de directions fonctionnelles serait tel qu'une transposition des pratiques de prospective des grandes organisations serait impossible. Là encore pourrait être émise l'idée d'une organisation en réseau d'une telle activité, autour par exemple des chambres de métiers ou encore des chambres de commerce et de l'industrie. Du côté des grandes entreprises, la constitution de pôles de développement externes aux organisations est susceptible de répondre à une grande diver- . 300 PROSPECTIVE sité de besoins et de permettre à des entreprises qui ne souhaiteraient, ou ne pourraient pas abriter de structures propres, de poursuivre des activités de prospective. Se pose cependant dans ce cas le problème de l'interface entre l'entreprise et ces réseaux externes, car en l'absence de relais internes, seuls quelques cadres dirigeants ou experts des services fonctionnels peuvent bénéficier de telles activités. Ces dernières constituent en outre un prolongement de la réflexion prospective des organisations, que celles-ci souhaitent effectuer avec d'autres entreprises des analyses globales ou sectorielles, organiser une veille concurrentielle ou soutenir des opérations de lobbying. L'un des tout premiers clubs d'entreprises explicitement consacré à la prospective, « Prospective et santé publique », réunissant des entreprises du secteur pharmaceutique, remplissait d'ailleurs cette dernière fonction au cours des années quatre-vingt. Regroupant des entreprises pouvant appartenir à un même secteur, et même des entreprises concurrentes, ces groupes ne peuvent cependant faire porter leur activité que sur des scénarios globaux ou des scénarios d'environnement, et en aucun cas sur des options stratégiques. En quelque sorte, il s'agit donc d'une prospective préstratégique qui peut prendre plusieurs formes. En effet, une telle prospective peut se développer dans le cadre de structures communes, comme des filiales de recherche du type de l'ECRC, centre de recherche commun des groupes ICL, Bull et Siemens, qui a organisé en 1992 une réflexion prospective sur les scénarios globaux à l'horizon 2000 et sur des scénarios sectoriels concernant le développement des technologies de l'information et de la communication. Il peut aussi s'agir pour une entreprise de regrouper autour d'elle les entreprises de sa filière comme l'a fait depuis quelques années BASF Agriculture sur la problématique de la sécurité alimentaire. Ainsi que nous l'avons déjà souligné, certaines entreprises ayant des caractéristiques proches, telles celles du club « Entreprises et prospective », conduisent régulièrement ensemble des études prospectives sur des problématiques communes. Dans le cadre du Global Business Network, qu'anime Peter Schwartz, les entreprises membres bâtissent avec les experts membres du réseau des scénarios globaux, ainsi que, pour certaines d'entre elles, des scénarios sectoriels comme dans le secteur de l'énergie. De même, les membres du club CRIN (clubs Recherche-Industrie) spécialisé dans la « prospective scientifique et technique » constituent également des groupes de travail interentreprises dans le domaine de la prospective technologique. Nombre de ces regroupements d'entreprises sont cependant par nature limités dans le temps, car organisés autour de projets, tels ceux constitués dans le cadre d'études multi-clients de cabinets de conseil ou liés à une évolution particulière d'un secteur. Plus difficile est de maintenir des structures permanentes de prospective et seules peuvent se pérenniser quelques interfaces organisées en noeud de réseau comme l'association Futuribles, le Global Business Network, le club Entreprises et prospective. Pour maintenir une telle activité, ces réseaux doivent cependant atteindre ce que les économistes Laprospectivestratégique 3011 des réseaux de télécommunication appellent l'effet de club (Curien, 1987), selon lequel le réseau ne peut subsister et se développer qu'au-delà d'un certain nombre de membres. En effet, seule la variété des thèmes traités et des interlocuteurs permet de maintenir l'intérêt des membres existants et d'attirer de nouveaux membres. C'est cependant par l'intermédiaire de membres communs, entreprises ou individus, que peut émerger et se développer une interconnexion de réseaux, c'est-à-dire un « réseau de réseaux », qui permet, en fonction des problématiques, de construire des projets de prospective utilisant les ressources de différents réseaux. Pour les interfaces que constituent les noeuds de réseaux, il s'agit donc de construire des « trous structuraux » (Burt, 1995) de manière à offrir à leurs membres des contacts non redondants avec ceux qu'ils peuvent avoir par ailleurs, ainsi que de leur proposer des thématiques innovantes. 3.2 Uneméthodologierenouveléepar de nouveauxréseaux Avec la métaphore du « réseau de réseaux », l'on songe immanquablement à l'intérêt pour la prospective des réseaux d'information et de communication qui se sont développés depuis une dizaine d'années autour d'internet. Pour la prospective cependant, cet intérêt va au-delà de la métaphore. Dès les années soixante-dix, un certain nombre de recherches se sont portées sur la définition de procédures permettant de structurer un processus de communication de type delphi pour animer des panels d'experts. Ainsi, les prospectivistes figuraient parmi les pionniers d'Arpanet, l'ancêtre d'internet, avec le projet de Murray Turoff qui concernait la mise en place d'un delphi informatisé (Linstone et Turoff, 1975). Ce projet s'élargit rapidement à un système de téléconférences entre experts puis s'inséra dans un programme plus large de constitution par l'administration Nixon d'un réseau permettant de collecter des informations en provenance de bureaux géographiquement dispersés (Rheingold, 1993). ' Avec l'avènement des groupwares (Johansen et alii, 1991), outils d'aide au travail coopératif, ces différentes recherches permettent non seulement la consultation d'un réseau d'experts physiquement dispersés mais aussi la constitution de groupes de travail virtuels, susceptibles de se former et de se défaire au gré des besoins de l'organisation. Le groupe de travail est également virtuel au sens de non-actuel (Granger, 1995), car le réseau préexiste à la formation du groupe de travail et porte en lui les éléments (experts connectés) permettant de le mettre en oeuvre. Ainsi, la création de réseaux interentreprises vise l'interconnexion d'experts et de planificateurs d'entreprises, notamment par le réseau internet ou par la constitution de réseaux plus sélectifs (extranet). Au sein de l'entreprise elle-même, on parlera d'intranet pour qualifier le réseau interne à l'entreprise d'information et de communication contribuant à faire circuler l'information et à créer des modèles collectifs de représentation de l'environnement. Par le biais des réseaux 302 PROSPECTIVE d'information et de communication, on retrouve les dichotomies réseaux internes/réseaux externes et réseaux d'hommes/réseaux la d'organisations, ressource mobilisée par les réseaux d'information et de communication restant principalement ici une ressource humaine. Concernant la généralisation de ces réseaux, on fera cependant remarquer les réseaux d'information et de communication ne portent pas nécessaique rement des fonctionnalités leur conférant un caractère prospectif. Quelques comme le Millenium project de l'Université des expériences intéressantes les scénarios réalisés dans le cadre du MBA de l'Université Nations-Unies, de Rotterdam ou encore les travaux du Global Business Network méritent d'être soulignées. Dans ce dernier cas cependant, en dépit des forums de discussion supportant les « conversations » (Van der Heijden, stratégiques les de travail virtuels sont loin d'avoir 1996), groupes remplacé les réunions bien réelles qui rythment le processus de construction de scénarios auquel de telles technoloparticipent les membres du réseau. Ainsi, si l'utilisation semble concevable l'ensemble des de gies pour étapes du processus construction de scénarios (Noonan et Tenaglia, 1998), leur diffusion n'est dans un premier temps envisageable que pour les étapes de préparation des réunions et de communication sur les scénarios eux-mêmes. Cette contribution est cependant radicalement différente selon que l'on se trouve dans un réseau fermé ou dans un réseau ouvert. Dans le premier, il s'agit en effet de faciliter l'interaction avec des experts présélectionnés. Dans le second cas, l'effet de club peut permettre d'accroître la variété des membres du groupe et donc recruter de nouveaux membres en cours de processus, de faire parde managers, de stratèges. On ticiper une plus grande variété d'experts, ici l'idée du forum de Bertrand de Jouvenel. Pour une rejoint prévisionnel de tels forums de discussion organisation, peuvent également être une occasion de diffuser les résultats d'études de prospective, en particulier les scénarios, et de tester les réactions des visiteurs de leur site sur ce sujet. Contrairement aux autres étapes qui constituent une exploration faisant différents futurs on entre alors dans une de créaémerger possibles, stratégie tion intentionnelle de sens dans l'environnement de stratégique l'organisation. 4. CONCLUSION ETPERSPECTIVES DERECHERCHE À travers l'analyse du rôle des hommes, des groupes et des réseaux caractérisant l'activité de prospective, la contribution de cette dernière au processus stratégique de l'entreprise apparaît complexe. À partir de la dialectique scénarios globaux/options de la prospective dans et stratégiques, l'organisation hors de l'entreprise autour de réseaux internes et externes conduit en effet à considérer la dialectique réflexion sous stratégique/action stratégique Laprospectivestratégique 303 l'angle de processus d'apprentissage et plus seulement sous l'angle de l'expertise. Il découle de cette analyse que le cadre de l'activité de prospective stratégique ne saurait être un cadre stable mais au contraire un cadre mouvant qui ne peut être restreint à la seule entreprise, ce qu'offre précisément une organisation en réseaux. Cette caractéristique de la prospective, telle qu'elle se développe dans et autour des organisations, positionne les recherches et perspectives en la matière dans deux domaines : celui de l'apprentissage organisationnel afin de mieux comprendre les comportements individuels et collectifs vis-à-vis de l'avenir, celui des technologies de l'information et de la communication comme support des techniques utilisées en prospective. Pour la prospective en effet, la création de représentations alternatives s'appuie principalement sur des données subjectives, issues de la mise en relation d'experts et de décideurs, que les technologies de l'information et de la communication peuvent faciliter. Dans le cadre d'un changement de paradigme, la prospective, en tant que processus s'appuyant sur des réseaux d'hommes, contribue ainsi à modifier les représentations collectives dans l'organisation et son environnement. La prospective apparaît ainsi non seulement comme un processus de réflexion, mais aussi, à travers la création de sens, comme un processus d'action. , BIBLIOGRAPHIE ACKOFFR., The Democratic Corporation, Oxford University Press, New York, 1994. j j ;' / § > > j ] ( j / ) BARELY., « Prospective et analyse de systèmes », Travaux et recherches de prospective, n° 14, La documentation française, 1971. BERGER G., « L'attitude prospective », L'encyclopédie française, 1959 ; repris dans Berger G., Phénoménologie du temps et prospective, PUF, Paris, 1964. BERGERG., « Sciences humaines et prévision », La revue des deux mondes, n° 3, février 1957 ;repris dans Berger G., Phénoménologie du temps et prospective, op. cit. BURTR., « Le capital social, les trous structuraux et l'entrepreneur », Revue française de sociologie, XXXVI-4, p. 599-628, octobre-décembre 1995. CALORI G. & SARNIN R., JOHNSON P., « CEO's Cognitive Maps and the Scope of the Oorganization », Strategic Management Journal, vol. 15, n° 6, p. 437-457, 1995. CURIENN. « L'accès et l'usage téléphonique : modélisation conjointe et tarification optimale », Revue économique, vol. 38, n° 2, mars 1987. GODETM., Manuel de prospective stratégique, 2 tomes, Dunod, Paris, 1997. GODETM. & RouBEt,ATF., « Prospective de la prospective d'entreprise », Revue française de gestion, n° 100, p. 91-96, septembre 1994. 304 PROSPECTIVE GRANGER G.G., Le probable, le possible et le virtuel, Editions Odile Jacob, Paris, 1995. HÉRAUD J.A., MUNIERF. & Na,NOPOULOS K., « Méthode Delphi : une étude de cas sur les technologies du futur », Futuribles, n° 218, p. 33-53, mars 1997. JANISI., « Groupthink », Psychology Today Magazine, pp. 43-46, novembre 1971. JoHArvsEN R. et alii, Leading business teams, Addison Wesley, Reading (Ma), 1991. JOUVENEL B. de, L'art de la conjecture, Éditions du Rocher, Monaco, 1964. JOUVENEL H. de, « Sur la démarche prospective : un bref guide méthodologique », Futuribles, n° 179, p. 51-69, septembre 1993. LAROCHE H. & NIOCHEJ.-P., « L'approche cognitive de la stratégie d'entreprise », Revue française de gestion, na 99, pp. 64-78, juin-août 1994. LEBANR., « Prospective et stratégie d'entreprise », Encyclopédie du management, tome 2, Vuibert, Paris, p. 534-548, 1992. LESOURNE J., « Vers un retour en grâce de la prévision et de la prospective », Revue de gestion, n° 54, p. 14-18, septembre-décembre 1985. française LESOURNE J., « Plaidoyer pour une recherche en prospective », Futuribles, n° 137, p. 85-89, novembre 1989. LESOURNE J. & STOFFAËS C. (ed.), La prospective stratégique d'entreprise : concepts et études de cas, InterÉditions, Paris, 1996 ; réédition Dunod, 1997. LESOURNE J., « Un art difficile pour l'entreprise : réfléchir pour agir », in J. Lesourne & C. Stoffaës (ed.), op. cit., p. 51-75, 1996. LINSTONE H. & TUROFFM., The Delphi Method: Techniques and Applications, Addison-Wesley, Reading (Ma.), 1975. MARCHAIS A., Décision et action, proposition de concepts et analyses de cas, thèse de doctorat en sciences de gestion, CNAM, 1993. MICHAELD., On Learning to Plan and Planning to Learn, Jossey-Bass, San Francisco, 1973. MONODJ., Transformation d'un pays, pour une géographie de la liberté, Fayard, Paris, 1974. MUNIERB., « Décision et cognition », Revue française de gestion, n° 99, p. 79-90, juin-août 1994. « How Information Technology Helps Scenarios NOONANP. & M. TENAGLIA, Advance from Consensus to Deciseveness », in Fahey L. & Randall M. (eds), Learning from the Future, Wiley, Chichester, p. 384-401, 1998. RHEINGOLD H., The Virtual Community,Addison Wesley, Reading (Ma), 1993. ROJOTJ. & BERGMANN A., Comportement et organisation, Vuibert, 1989. RousELA'rF., « Les méthodes de consultation d'experts », in Hatem F., La prospective :pratiques et méthodes, Économica, p. 279-296, 1994. ROUBELAT F., La prospective stratégique en perspective : genèse, études de cas, prospective, thèse de doctorat en sciences de gestion, CNAM, 1996. Laprospectivestratégique 305 SCHWARTZ P. & VANDERHEIJDEN K., « Culture d'entreprise et planification par scénarios : une relation de coévolution », in J. Lesourne & C. Stoffaës, op. cit., p. 117-134, 1996. SENGEP., The Fifth Discipline, Doubleday, New York, 1990. STOFFAËS C., « La prospective stratégique : les logiciels de la pérennité », in Lesoume J., C. Stoffaës, op. cit., p. 11 -47,1996. THIÉTART R.A. & BERGADAÀ M., « Experts s'abstenir », Harvard L'Expansion, été 1990. p. 98-105, VAN DER HEIJDENK., Scenarios, The Art of Strategic Conversation, Wiley, Chichester, 1996. ) Michel . Albert IINTERFUTURS VINGT NTERFUTU RSVINGT ANSAPRÈS APRES Q y En 1975, l'OCDE a demandé à une équipe internationale spécialement constituée à cet effet et dirigée par Jacques Lesourne, d'étudier « l'évolution future des sociétés industrielles avancées en harmonie avec celle des pays en développement ». Pendant trois années, cette équipe permanente, composée d'une vingtaine de chercheurs et de conseillers a travaillé intensément avec l'aide d'une quarantaine de consultants en provenance de nombreux pays ainsi que des observateurs d'un groupe consultatif formé de personnalités éminentes et d'un comité de direction auquel presque tous les gouvernements de l'OCDE dont certains étaient au départ quelque peu réticents - se sont progressivement associés. Au total, c'est près d'une centaine de responsables et d'experts aux origines les plus diverses qui ont contribué plus ou moins directement à la préparation de cette réflexion dont le sous-titre est : « Pour une maîtrise du vraisemblable et une gestion de l'imprévisible » et qui, par l'ambition de son propos comme par l'importance des moyens mis en oeuvre n'a eu ni précédent ni suite : Interfuturs est en quelque sorte, à la prospective, ce que l'opération Overlord est à l'histoire militaire. Une autre analogie avec le débarquement de juin 1944 en Normandie est l'importance exceptionnelle, dans les deux cas, de l'investissement logiciel et méthodologique d'amont. Cependant, l'essentiel est ailleurs. Le rapport Interfuturs a été déposé il y a tout juste vingt ans, à la fin de 1978 et, à la Interfutursvingtans après 307 veille de l'an 2000, nous sommes tout près du point visé par sa ligne de mire. Sa relecture, aujourd'hui, est un exercice encore plus passionnant si, comme je viens de le faire, on l'associe à celle des « Mille sentiers de l'avenir » que trois ans plus tard, qui vise le même Jacques Lesourne a publié fin horizon qu'Interfuturs et en reprend la démarche générale, mais sous sa seule responsabilité, et donc avec une liberté de réflexion et d'expression qui en vivifie le contenu. Les liens sont d'ailleurs le plus souvent si intimes entre le rapport collectif et le témoignage personnel que j'ai pu aisément me référer à l'un ou à l'autre dans les pages qui suivent. Il n'aurait guère été possible à l'OCDE de trouver une autre personnalité aussi bien préparée que Jacques Lesoume à animer le plus grand « think tank » de prospective internationale de tous les temps. Né en 1928, il est major de l'X de la promotion 1948 - voici exactement 50 ans. Cet ingénieur des Mines, qui traverse la vie toujours équipé de sa lampe frontale, a la passion d'explorer pour éclairer et d'éclairer pour avancer. Ses compétences, à la fois macro et microéconomiques, sont rapidement reconnues. En 1975, il bénéficie de l'autorité que lui ont conférée, en Europe et aux États-Unis, son activité de président de la SEMA (Société d'économie et de mathématique appliquées) et, au Japon le séjour de six mois fait pour le compte de la Banque mondiale en 1956. Sa formation est donc multipolaire, à l'instar du monde qu'il anticipe, et son expérience est appréciée dans l'ensemble de la Triade, c'est-à-dire de la zone OCDE. Tout l'oeuvre de J. Lesourne est de portée prospective, implicitement ou explicitement. Il se caractérise par un étonnant alliage entre la rigueur et l'intuition, la discipline de la pensée et la fécondité de l'imagination : une personnalité intellectuelle qui associe en quelque sorte l'ardente sobriété d'Hubert Beuve-Méry dont J. Lesourne a été le successeur à la direction du Monde, la puissance visionnaire de Gaston Berger - fondateur du Centre international de prospective en 1957 - et l'intuition culturelle de Bertrand de Jouvenel. Quant au néologisme « Interfuturs », il apparaît prédestiné à l'époque qui le voit naître. Son premier terme inter traduit la montée de l'interdépendance, thème central des deux ouvrages. Or, c'est dans les années de leur publication que la France, par exemple, a découvert que la croissance à moyen terme de son économie dépendait étroitement de sa compétitivité interna- . (1) Paris,Seghers.Ce titre prendle lecteurà contre-pied.Il faut moinsde millesentierspour se perdredans la complexitédu mondecontemporain.Cela ne donneguère envie d'entrer dans le labyrinthe.En fait, le paysageest fort vaste,mais bien balisé. (2) Le Japon venait d'entrer depuisdix ans à l'OCDE,jusque là réservéeà des pays occidentaux.C'est en l'honneurde cet anniversaireque le Japona été le premierpromoteur du projetInterfuturs. . 308 ; ; tionale. Auparavant, on pensait qu'un judicieux usage les marges d'action internes. augmenter durablement c'est seulement après le premier croire aujourd'hui politique économique de la France a progressivement la « contrainte extérieure ». PROSPECTIVE de l'inflation pouvait Oui - on a peine à le choc pétrolier que la accepté de reconnaître Le second terme futurs se réfère évidemment au caractère prospectif de Contrairement à la cette nôtre, l'entreprise. époque réfléchissait beaucoup à son propre avenir. En 1970, un comité créé par le président Nixon et animé par son conseiller Daniel Moynihan avait publié un rapport intitulé vers une croissance équi« La nécessité dans une société complexe aux librée, qui soulignait : multiples interactions, de prendre une vue globale des problèmes au lieu de les aborder au coup par coup ; l'utilité qu'il y avait à fournir à l'avance au public les données essentielles sur lesquelles se prennent les grandes déciEn 1975, la chambre des représentants décidait de sions publiques. généraliser les travaux de prospective de ses commissions pour « faciliter l'identification précoce des problèmes qui pourraient appeler une action de la part du législateur ». Mais, surtout, le Club de Rome avait publié en 1972 son fameux rapport Les limites de la croissance (2), un extraordinaire succès d'édition qui s'était vendu à trois millions d'exemplaires et prophétisait à l'horizon d'un siècle une insupportable combinaison des ressources naturelles, d'épuisement d'insuffisance des denrées alimentaires et de pollutions insoutenables. Aussitôt après, fin 1973, le premier choc pétrolier paraissait la plus saisissante vérification concevable des thèses du Club de Rome et entraînait une récession internationale dès 1975. Le glas des Trente Glorieuses avait retenti jusqu'aux États-Unis où le président Carter décidait, en 1977, plus d'un an avant la publication d'Interfuturs, de confier à l'administration fédérale un rapport Global 2000 encore plus alarmiste que celui du Club de Rome et qui commençait ainsi : « Si les tendances actuelles se maintiennent, le monde de l'an 2000 sera plus surpeuplé, plus pollué, moins stable d'un point de vue écologique, et plus exposé à des bouleversements que le monde dans lequel » (-3) nous vivons aujourd'hui. Ainsi, dès 1975, c'en était fini du « grand espoir du xxe siècle (4). La fécondité du progrès technique au service du développement économique et de la justice sociale paraissait brutalement mise en cause, la crise avait remplacé l'espoir dans l'ensemble des pays industrialisés et l'avenir, devenu incertain, devait désormais se conjuguer au pluriel. L'avenir au pluriel, (1) Bernard Cazes, Hi.stoiredes futur.s, Paris, Seghers, 1986. (2) D.H. Meadows et divers, The limit.sto growth, Earth Island Ltd, Londres, 1972. (3) Bernard Cazes, op. cit. (4) Jean Fourastié, Paris, Gallimard, 1 949. Interfutursvingtans après 309 autrement dit les futuribles, c'est bien ce que, sur la ligne philosophique illustrée par Bertrand de Jouvenel, J. Lesourne pensait depuis longtemps et cela, indépendamment du contexte conjoncturel. Dans un tel contexte, ce néologisme Interfuturs était particulièrement bien adapté à la mission qui consistait à « présenter aux gouvernements membres de l'OCDE une évaluation de différents schémas possibles d'évolution à long terme de l'économie mondiale » dans le cadre de l'interdépendance des pays et des « interactions entre la croissance, l'adaptation des structures et l'évolution des valeurs ». Le mot valeur mérite d'être relevé. En effet, l'une des originalités les plus marquantes d'Interfuturs est d'embrasser une matière qui va des limites physiques de la croissance jusqu'à l'évolution des valeurs et aspirations des sociétés et des individus, et de dépasser les fractionnements corporatistes des sciences sociales établies, pour proposer des représentations synthétiques intégrant la richesse d'une grande variété de recherches analytiques. En somme, un vrai travail d'« honnête homme », qui a distillé méthodiquement des connaissances encyclopédiques. À plusieurs reprises, J. Lesourne a décrit avec grand soin la méthode prosCe n'est pas ici le lieu de l'analyser. Je me pective dont il est l'architecte bornerai à en marquer la validité confirmée par le temps, notamment sur trois points : - le concept central de la prospective propose, à la place des probabilités recherchées par les exercices de prévision, une recherche des futurs possibles en vue d'éclairer les décideurs et notamment les gouvernements sur leurs stratégies ; - il s'inspire d'une vision qui fait de l'avenir le fruit de la nécessité issue de tendances lourdes telles que la démographie, du hasard concernant les hommes ou les événements, et enfin de la volonté des individus et des groupes de réaliser les projets dont ils sont porteurs ; - l'architecture générale de la démarche suivie a été résumée comme présenté dans le schéma page suivante. On voit bien la position centrale des scénarios. Ils n'ont été définis qu'après dix-huit mois de recherche et traduisent la systématisation nécessaire de (1) À l'époque,ce termeétait beaucoupmoinscourantqu'aujourd'hui.C'est l'une des innovationssignificativesd'Interfuturs que de prendreen compte« les aspirationsnon satisfaites capablesde trouverdes moyensd'expressionpolitique(qui) sont d'une ampleur plus grandeque par le passé ». (2) En particulier,dans la deuxièmepartie du rapportInterfuturs ; dans deux numérosde Futuribles2000 (septembreet octobre 1979),avec DanielMalkin ;dans le chapitresur la prospectivede l'Encyclopédieéconomiquepubliéepar Économicaen 1990.Enfin,il est significatifque le premierchapitredes Millesentiersen rendecompte. 310 0 PROSPECTIVE Phases A et B _________________ Construction de la base analytique et historique l Phases C Études complémentaires Prospective partielle j Scénarios modèle Cadre macroéconomique mondial Politiques -–––––––––-)t L ––––" Rapport final "*––––––––– Futuribles,octobre 1979 l'approche multiple des futuribles selon quatre combinaisons d'hypothèses à la fois plausibles et ouvertes à un large éventail d'avenirs : - scénario A : une croissance vigoureuse qui prolongerait en quelque sorte les Trente Glorieuses en faisant une large part au Tiers-Monde ; - scénario B : la « croissance douce ». Parce qu'il est le plus probable, il trois variantes. La 1 variante est la plus intéressante, car le comporte ralentissement de la croissance fait ici l'objet d'un consensus. C'était à l'époque d'autant plus vraisemblable que ce concept avait été valorisé par le président Giscard d'Estaing, inventeur de l'expression « croissance douce ». Mais il est apparu à l'expérience que la croissance douce peut être dure à supporter politiquement et socialement. Aussi bien, dans les variantes 2 et 3, le ralentissement de la croissance n'est-il pas consenti, mais subi, et résulte-t-il principalement de difficultés d'adaptation structurelles encore largement hypothétiques à l'époque, mais aujourd'hui si avérées qu'elles sont passées dans le langage courant, notamment en Europe continentale ; - scénario C : la rupture Nord/Sud. Alors que les pays du Nord accentuent la libéralisation interne de leurs échanges, une majorité de pays en développement opte pour le découplage et leur développement économique s'en trouve freiné ; - scénario D : le règne du protectionnisme. Il s'agit d'un protectionnisme modéré, de caractère inter-régional, fondé sur la constitution de zones d'influence autour des États-Unis, de la CEE et du Japon, lequel renforce 3111 Interfuturs vingt ans après sa coopération avec l'Asie du sud et du sud-est. négatifs que dans le scénario C. Les résultats sont moins si souvent aléatoire des bouleversements Ainsi, malgré l'entrecroisement technologiques, stratégiques, politiques et sociaux qui ont caractérisé les deux dernières décennies, la validation globale de cette partie centrale de l'exercice paraît peu discutable. Non moins pertinentes sont les réponses à l'époque fort audacieuses à la des limites physiques à la croisapportées question préalable : quid sance ? En effet, depuis 1974, l'opinion mondiale était obsédée par la crise pétrolière et hantée par la crainte de toutes sortes de limites physiques à la croissance de l'économie, en matière agroalimentaire, face particulièrement au déferlement démographique si bien prévu. Les punks inventaient le « no de comme un enchaînement future ». Le chemin de l'an 2000 s'annonçait aura été de faire la lumière dans malheurs. Le premier mérite d'Interfuturs tout ce méli-mélo de ténébreuses angoisses, de distinguer, sur l'océan de nos les vagues (surtout les « nouvelles vagues ») des marées, de incertitudes, faire le point et de proposer de nouveaux départs. Sur l'un des problèmes les plus controversés, J. Lesourne n'hésite pas, pour une fois, à poser une prévision univoque : il n'y aura pas « de pénurie générale pour les minerais ». Il était encore plus courageux de conclure en ce temps-là que nous n'étions pas voués à faire la queue devant les pompes à essence. N'empêche que la situation de l'économie mondiale était présentée comme précaire aussi longtemps que la part du pétrole n'aurait pas été substantiellement réduite dans l'approvisionnement mondial. énergétique Économies d'énergie, nucléaire, charbon, sont les trois voies qu'il importe, était-il précisé, de poursuivre avec vigueur et simultanément. Aujourd'hui, cette conclusion. Nous sommes devenus beaucoup beaucoup contesteraient plus optimistes sur la plupart des limites physiques à long terme. Raison de avec l'écosphère plus pour nous souvenir que les relations de l'humanité à l'horizon d'une génération. C'est sont, elles, de plus en plus préoccupantes dire qu'après les résultats décevants des conférences de Rio de Janeiro, de de J. Lesourne est plus que jamais Kyoto et de Buenos Aires, l'avertissement actuel : les problèmes d'environnement physique risquent d'être de plus en difficiles à résoudre dans un monde d'États souverains en concurrence, plus où l'activité de chacun inflige des dommages écologiques aux autres. ' Cette contradiction entre le caractère mondial des problèmes d'environnement et la multiplicité des États souverains constitue ce que J. Lesourne appelle « la troisième déficience de contrôle ». Nous sommes ici en présence d'une pensée fondamentale, d'une qu'il a naturellement pu exprimer manière plus radicale dans les Mille sentiers que dans Interfuturs : « La troisième déficience de contrôle est la conséquence des trois propriétés du c'est un système hiérarchisé sans régulation globale. système international : 3122 PROSPECTIVE C'est un système où, pour cette raison, la recherche de la sécurité est une nécessité constante, aucun exécutif national n'osant mettre en péril l'existence territoriale. C'est un système qui n'offre aucune protection contre la fait peser sur guerre [...]. » Ainsi, la déficience de contrôle supranational l'humanité les plus grands risques : « Ces risques ne s'éloigneront probablement que lorsque l'intégration politique aura donné le jour à une organisation hiérarchique du système mondial. » Faute de quoi, le monde risque de devenir une « colonie de hérissons ». Ce n'est évidemment pas avec des propos de ce type que l'on séduit ni les foules, ni les médias, ni les pouvoirs en place. Mais, qui contesterait que ces constats ne sont guère moins actuels qu'il y a vingt ans, en dépit de l'effondrement du communisme ? À ce propos, il convient de noter que l'URSS et les pays de l'Est n'entraient dans la mission confiée au groupe Lesourne. Aussi bien pas spécifiquement n'a-t-il pas étudié qu'une seule hypothèse quant à leur évolution, Interfuturs celle selon laquelle « la rigidité structurelle du contrôle politique interne éliminera les changements radicaux de l'organisation économique » des Tenons-nous là, enfin, la belle et bonne erreur d'anticipays communistes. ceux qui regardent l'avenir dans pation propre à remplir d'autosatisfaction leur rétroviseur ? Non, car sur ce sujet Les mille sentiers se sont écartés d'Interfuturs. Après avoir rappelé que l'histoire de l'URSS avait été un bloc de continuité depuis 1950, et tout en notant comme un fait essentiel que l'URSS soit devenue la première puissance militaire mondiale, tant pour les forces nucléaires stratégiques que pour les forces classiques, J. Lesourne estime cependant que la « rupture » n'est pas exclue. Il conclut même que la puissance soviétique devrait atteindre le sommet de sa puissance relative vers 1990. Or, comme on le sait, la chute du mur de Berlin a eu lieu le 9 novembre 1989... En dehors des développements consacrés à la montée des interdépendances, c'est évidemment l'évolution des sociétés industrielles avancées qui a prinretenu l'attention de J. Lesourne. Le plus important des cipalement nouveaux problèmes qu'elles doivent affronter est celui de la deuxième déficience '> de contrôle : « Rien n'assure dans un monde de plus en plus (1) Quant à la première déficience, elle illustre la diversité des disciplines maniées par J. Lesourne : « La déficience individuelle naît des relations entre l'affectivité et les facultés intellectuelles (...).Dirigée par l'affectivité, le dragon de l'intelligence n'est libre que lorsqu'il la sert, et s'il a le pouvoir d'explorer le monde, sa capacité d'anticipation est insuffisante pour lui permettre en retour de canaliser l'agressivité affective. » Il est beau - et probablement dû à son entourage familial - que ce macroéconomiste, de surcroît conseil en stratégie industrielle, soit également capable de montrer de manière aussi aiguë comment les processus de néo-cortex peuvent brider l'imagination et limiter les capacités intellectuelles. Interfuturs vingt ans après 3133 complexe et changeant que les systèmes nationaux soient capables d'engendrer des réponses leur permettant de faire face à long terme aux pressions extérieures et intérieures qu'ils subissent [...]. Le défi interne de la supersociales traditionnelles et de demandes sociales position de demandes nouvelles résultant d'une évolution des valeurs, demandes aussi difficiles à satisfaire les unes que les autres, est susceptible de remettre en cause les institutions économiques et politiques. » Il est frappant que dans ce rapport consacré principalement à l'économie, le discriminant essentiel en ce qui concerne l'évolution des pays développés soit celui des valeurs. Ce concept était à l'époque beaucoup moins courant C'est l'une des innovations significatives d'Interfuturs que qu'aujourd'hui. de prendre en compte « les aspirations non satisfaites capables de trouver des moyens d'expression politique ». Ne disons pas trop vite qu'il ne s'agit de 68. Mais n'oublions pas, que d'une onde venue du choc psychologique allemand par ailleurs, que la tendance dominante du nouveau gouvernement élu en septembre 1998 est à tonalité soixante-huitarde, avec un fort accent » reposant sur des mis sur l'expression de valeurs « post-matérialistes concepts de libération individuelle et de respect de la nature. À l'inverse, on est aujourd'hui frappé de voir que l'État et le marché sont et également « D'un côté, le placés en position symétrique critiqués : marché, aux yeux de certains, semble escompter l'avenir de manière inadéquate, négliger les économies externes et ne pas s'adapter à la diffusion de nombreux services non marchands. De l'autre, l'État protecteur est critiqué de ses mécanismes régulateurs qui se traduit, par d'autres pour l'insuffisance selon eux, par un développement excessif de certains services non » Aujourd'hui, les critiques adressées au marché se sont bien marchands... estompées par rapport à celles dont l'État est l'objet ! Le rapport souligne que les sociétés industrielles avancées ont été marquées depuis un quart de siècle par la croissance du rôle de l'État protecteur qui des dépenses publiques, lesquelles explique pour l'essentiel l'augmentation sont passées de 28 % du PIB en moyenne vers le milieu des années 50 à 45 % au milieu des années 70. Cette évolution s'explique par un phénomène » de la vie sociale par que J. Lesourne désigne comme « l'oligopolisation des groupes sociaux abrités de la concurrence internationale et capables de ce fait, d'obtenir des privilèges par rapport aux plus exposés. Il est remaret que les représenquable que ce terme ait pu être repris dans Interfuturs tants des gouvernements n'aient pas fait trop d'objections à une image qui les institutions comme un de lobbies sociaux présente jouet démocratiques « à leurs droits ». agrippés acquis Quelques mois après la publication d'Interfuturs, Margaret Thatcher arrivait au pouvoir et, l'année suivante, en 1980, Ronald Reagan. La déferlante de la révolution conservatrice qui en est résultée était-elle extérieure aux limites de l'épure des futurs étudiés ? 3144 PROSPECTIVE Certes, la position symétrique du marché et de l'État paraissait encore, selon Les mille sentiers, en voie de stabilisation : « Les deux institutions majeures de régulation de la production et de la distribution de biens et de services, le marché et l'État Protecteur(') se heurteront toutes deux à des difficultés : elles verront leurs relations se modifier profondément, tant sur le plan national que sur le plan international, sans que l'on puisse déceler un sens unique à cette évolution. Tout au plus peut-on avancer que la croissance de dépense publique qui a caractérisé les trente dernières années devrait tendre à se modifier et que la distinction entre secteurs productifs public et privé pourrait devenir plus floue. » Cette dernière nuance n'empêche que globalement, l'extension du rôle de l'État soit présentée d'une manière plutôt positive, de même que son rôle de redistribution des richesses. À l'appui de cette mentionne une étude alors récente de l'OCDE (mai philosophie, Interfuturs 1978) qui aurait pu faire sourire depuis lors : « Un niveau de richesses moins élevé rend moins tolérable les inégalités relatives. » Au total, ni le succès des thèses de Milton Friedman (prix Nobel 1976), ni la popularité des économistes de l'offre, ni le stupéfiant essor des marchés financiers, ni le triomphe ne s'inscrit vraiment dans le « cône politique et social du néo-libéralisme des futurs esquissés ». Mais ce nouveau pées pourraient suivantes : - courant en tangente la périphérie : les sociétés dévelopévoluer vers l'une ou l'autre des deux situations extrêmes « la combinaison d'un marché du travail très flexible, très concurrentiel et très par conséquent anxiogène pour les demandeurs d'emploi et d'une étendue des et sociales déshéritées. protection catégories économiques le rejet de ces catégories dans une classe de Avec, pour conséquence, désaeuvrés exclus du système économique ; -, - une sclérose de progressive du marché du travail avec un resserrement l'éventail des rémunérations très forte et des nettes, une protection mesures assurant un niveau élevé mais factice de l'emploi. » Qui disait mieux à l'époque ? back n'est pas envisagé. Au contraire : Malgré tout, le fameux America is « Devenus seulement la première puissance mondiale parmi d'autres, détenant une part régulièrement décroissante du revenu mondial, n'ayant plus de supériorité indiscutable quant à la productivité, ayant besoin d'adapter à l'ère de l'interdépendance des attitudes individuelles et des formes d'organisation développées dans un contexte différent, bref, ayant cessé d'être (1) J. Lesoume a été président de la commission de l'emploi du 81 Plan au moment où il préparait Interfuturs. Il a été le premier à mettre l'accent, en France, sur l'importance du coût du travail comme facteur de chômage. Il aura fallu vingt ans pour que sa démonstration soit admise. Interfuturs, pourtant, y faisait aussi référence, ce qui constitue la présomption d'un certain consensus international. Interfutursvingtans après 3155 exceptionnels, les États-Unis [...] » Dans Les mille sentiers, le chapitre consacré aux États-Unis est intitulé « Le début du déclin ». On y lit : « Nous avons été la génération du défi américain [...]. J'abats mes cartes : le monde vit la fin de ce que Daniel Bell a appelé « l'exceptionnalisme américain ». Des risques de sclérose se font jour dans la société américaine au moment même où sa puissance relative fléchit. » Je peux sans doute d'autant mieux me permettre de noter ces écarts que moimême, en 1991, dix ans après J. Lesourne, j'ai commis la même erreur dans Capitalisme contre capitalisme (1). Il est vrai que nous n'en avons pas eu le monopole, puisque le MIT avait dit la même chose et que la préface de l'édition américaine de mon livre était signée par l'actuel ambassadeur des ÉtatsUnis en France, Félix Rohatyn lui-même ! Qui pourrait d'ailleurs affirmer avec certitude que les succès actuels de la révolution conservatrice et de l'économie New Age sont durables ? Beaucoup de ceux qui ont vécu de l'intérieur la crise financière de l'automne 1998 en doutent. Et pense-t-on vraiment qu'il sera, en démocratie, indéfinisans inconvénient majeur les inégalités ment possible d'augmenter sociales ? Les Américains pourront-ils continuer à oublier que, vers 1970, la pauvreté était encore considérée comme une survivance « inadmissible » du passé, en Amérique tout autant qu'en Europe ? Le sujet central d'Interfuturs est l'évolution des sociétés industrielles avancées et la montée de leurs interdépendances. On est frappé, dans ce contexte, par l'importance des développements consacrés au Tiers-Monde. Ce parti s'inscrit dans une véritable vision : « La civilisation occidentale a, dans l'ensemble, réussi dans les cent cinquante dernières années à intégrer son prolétariat interne grâce au développement d'une classe moyenne toujours croissante. Mais cette civilisation est maintenant confrontée à son prolétariat externe : plus de cent vingt pays avec une population rapidement croissante, représentant déjà les trois quarts de l'humanité », à l'égard desquels les nations industrielles ont une responsabilité collective. C'est pourquoi, comme on l'a vu, deux sur quatre des scénarios présentés constituent en quelque sorte des repoussoirs face à ce défi majeur que constitue le Tiers-Monde dans son ensemble : - le scénario C de rupture Nord/Sud, fondé sur l'hypothèse qu'une majorité des pays en développement optera pour des stratégies de « découplage » par rapport au Nord ; - le scénario D qui explore une fragmentation protectionniste avec constitution de zones d'influence Nord/Sud animées par les États-Unis, la CEE et le Japon. (1) Paris,Le Seuil. 3166 PROSPECTIVE Dans ces deux scénarios, mais aussi dans les scénarios A et B centrés sur les sociétés industrielles avancées, le Tiers-Monde perd son unité. Interfuturs a été, semble-t-il, la première étude prospective à avoir aussi bien montré l'hétérogénéité croissante des pays du Tiers-Monde fondée sur la différenciation des rythmes de développement. font l'hypothèse Néanmoins, Les mille sentiers comme Interfuturs qu'un consensus social devrait pouvoir s'organiser dans les pays développés en faveur d'efforts communs accrus de coopération internationale au profit du du Tiers-Monde. Ainsi, il fallait « augmenter les transferts développement destinés à la satisfaction des besoins essentiels et notamment ceux au profit des pays les plus pauvres [...] ; permettre aux pays en développement d'avoir accès à des prêts » et envisager « l'établissement de caisses de compensation pour protéger les agriculteurs contre la montée des prix des tout ce volontarisme est engrais en période de pénurie ». Aujourd'hui, Plus nous parlons de mondialisation (2) et plus grandit notre disqualifié. indifférence à l'égard des « pays moins avancés ». Le trade not aid se substitue de plus en plus à la politique des transferts publics au Tiers-Monde. Ceux-ci, il y a vingt ans, ne devaient pas être inférieurs à 1 % du PIB des pays riches. Michel Camdessus constatait récemment que ce ratio est tombé de 0.3 à 0.2 % depuis cinq ans, soit le taux le plus bas depuis un demisiècle (2). N'y a-t-il pas dans cette évolution comme une ombre portée de la nouvelle révolution conservatrice ? Il semblerait que oui, à en juger par le rôle si puissamment positif joué par la dérégulation des marchés, et particulièrement des marchés financiers, pour l'essor des dragons d'Asie - que la crise financière de 1997 ne doit pas faire oublier. Pour le reste, notre vocabulaire a au sous-développement, nous les désichangé. Ces pays qui s'arrachent désormais non comme des mais comme des marchés, les gnons pays, « marchés émergents ». Les autres ont tendance à perdre leur identité jusque dans la conscience collective internationale. Ce sont en quelque sorte des innommés. Un autre facteur d'affaiblissement des solidarités internationales est constitué par les conséquences du passage du régime des taux de change fixes aux taux de change flottants au début des années 1970. Interfuturs consacre trois pages seulement à ce sujet et sous un titre prudent : « L'adaptation du système monétaire ». Il n'évoque pas le projet d'Union monétaire européenne sans évoquer les préventions américaines concernant la constitution de sous-ensembles monétaires régionaux : « Son principal (1) À noter que ni « mondialisation », ni « globalisation » ne figure, semble-t-il, dans nos deux textes. (2) Conférence du 22 octobre 1998 à l'Université de South Orange, NJ. Interfutursvingtans après 3177 danger est évidemment, si les précautions ne sont pas prises, de cristalliser les forces protectionnistes latentes par une fragmentation institutionnelle des relations internationales. » Allusion évidente au mythe évanoui de « l'Europe forteresse ». Dans Les mille sentiers, au contraire, un chapitre de huit pages est intitulé « Le désordre monétaire jusqu'à quand ? ». Ce texte est d'une puissance et d'une actualité telles qu'il mérite toujours d'être recommandé aux étudiants. Il relève en particulier les fausses promesses du régime des taux de change flottants qui a « substitué à la recherche d'une solution coopérative, des politiques nationales où chacun s'efforce de trouver la stratégie la meilleure à comportement donné des autres [...]. Ainsi les conflits s'aggravent entre les impératifs de politique intérieure et les nécessités internationales » (ce qui a notamment favorisé l'indépendance d'un nombre croissant de banques centrales). Partant de là, il est particulièrement intéressant de voir comment J. Lesourne montre la nécessité d'aller vers « l'écu » en attendant « de créer une sorte de banque centrale mondiale, munie de pouvoirs étendus en matière d'émission de monnaie internationale, de surveillance des taux de change, d'octroi de crédits aux gouvernements en difficulté de paiement... ». Ne croirait-on pas cette phrase datée précisément de l'automne 1998, après la crise financière qui a suivi le défaut de la dette russe ? Et, plus précisément encore, son plaidoyer en faveur de « l'écu », relu au moment même où l'euro va être créé ? Wolfgang Michalski 1 THEOECDINTERFUTURES PROJECT REVISITED 20 YEARS LATER (1) The OECD Interfutures Project, launched in 1976 on the initiative of the Japanese government and directed by Jacques Lesourne, was the Organisation's first major exercise involving a more global approach to the longer-term future. The purpose of the Project was "to provide OECD Member govemments with an assessment of alternative patterns of longerterm world economic development in order to clarify their implications for the strategic policy choices open to them in the management of their own economies, in relationships among them, and in their relationships with developing countries". The results of the project were centred around the following four main issues areas: - Limits to growth: the comparative irrelevance of the physical scarcity of resources compared to political, economic and social constraints; - Long-term prospects for economic growth and employment in the industrialised countries: with special reference to the need for, and (1) The author,formerDeputyDirectorof the OECDInterfuturesproject,is today Director of the AdvisoryUnitto the OECDSecretary-General. This unit acts as secretariatfor the OECDInternationalFuturesProgrammeand assiststhe Secretary-General in identifying and analysing - from a mediumand long-termperspective - emergingdomesticand internationalpolicyissueslikelyto confrontOECDMembergovernmentsand the world at largein the yearsto come.The viewsexpressedin this articleare those of the author and do not necessarilyrepresenta positionof the organisationto whichhe is affiliated. TheOECDInterfuturesProjectRevisited20 YearsLater consequences of structural change and the resulting implications economic and social policy; 319 9 for - Future aspects of relations between advanced and developing countries: political alternatives for the North-South Dialogue in the light of progressive economic diversification of the Third World; - Global interdependence: the increasing need for, and possibilities of, international arising from future world economic co-operation development. In terms of its underlying research philosophy and methodological approaches, Interfutures was far ahead of most other attempts pursued in the 1970s to address longer-term future economic and social development. From the outset it was acknowledged that it is impossible to forecast the future. Thus the emphasis was on the identification of fundamental trends, on the evaluation of past, present and perhaps new driving forces, and on the analysis of possible trend breaks. A centrepiece of Interfutures was a series of six global scenarios which, on the basis of explicit assumptions about certain major geopolitical, economic and social trends, provided a coherent framework for the analysis of process and policy implications in an increasingly interdependent world economy and society. The principle dimensions of these scenarios were the internai dynamics of developed societies; the relationships between the advanced countries; the evolution of relative productivities in the world; and the relationships between the industrialised and the developing countries as well as those within the developing world. From the outset it was recognised that the images of the world which these scenarios proposed were not complete, that future reality could be a composite of elements of different scenarios, and that trend breaks and other surprise factors could lead to quite different outcomes. Moreover, and this was another aspect that distinguished Interfutures from most other studies, Interfutures did not restrict prospective analysis just to the scenario of different approach. The analysis was based on a multiplicity methodologies, including more direct and sectoral approaches, which were all used simultaneously to examine and shed additional light on the various options for economic and social development and possible related policy issues in the future. This careful and innovative approach was well received and understood in the academic world. However, appreciation by OECD Member governments was less enthusiastic. Interfutures was a salient illustration of the fundamental dilemma facing a government-financed international whose is vocation centred around organisation forward-looking analysis, policy dialogue and intellectual persuasion. If such an organisation contents itself with telling governments what they want to hear, it is a waste of taxpayers' money. If, conversely, its analysis and advice are too far ahead of 320 PROSPECTIVE conventional wisdom, then it runs the risk either of not being listened of creating resentment. to or In many Member govemments, Interfutures generated suspicions from the outset. A time horizon of 25 Years (from 1976 until the end of century, and some parts beyond) was not and still is not the customary reference period for reflection in and design of economic and social policies. The horizontal nature of the problematique and the interdisciplinary approach chosen had, in most cases, no corresponding centre of responsibility in governments. the which a of with Finally, project, enjoyed very high degree independence little direct government was carried out an international supervision, by team whose members were practically all recruited from the academic world. it was not surprising that the messages of Interfutures were in careful diplomatic language; that the analysis touched upon of great political or ideological and that the sensitivity; many areas was not confined to the narrow band of more or less opinion. These attributes generated some discomfort, not only but within some parts of the OECD Secretariat as amongst govemments well. The sources of this dissonance can be found by looking at each of the four major problem areas on which Interfutures was focused: the limits to growth, the prospects for economic growth and employment in the OECD and the management of area, the relations with developing countries, Consequently, not wrapped many areas reasoning in conventional interdependence. 1. THEPHYSICAL LIMITS TOGROWTH The main conclusion of Interfutures was that the overall physical scarcity of resources (energy, raw materials, food and land) was a non-issue. Even though mankind was seen as having increasingly to cope with the effects of economic activity on the environment in the widest possible sense, the study concluded that the process of world-wide economic growth could continue over a 50 year horizon without running up against any absolute physical limits. It was however emphasised, first, that transitional problems and also difficulties could that in many second, probably regional appear; countries economic growth would have to undergo qualitative changes; and third, that political, economic and social obstacles to growth would become increasingly important. Although there were wide differences between individual countries and the different social groups within them, even in what was then called the Third in population growth rates seemed to be appearing. World, a deceleration The divergence between the demographic situation in the North and the InterfuturesProjectRevisited20 YearsLater TheOECD 3211 South was nevertheless so significant that it was considered a cause of possible tension. Examples include differences of behaviours and attitudes between societies with different age structures, pressure of migration from South to North and the consequences of continuous high birth surpluses, particularly among the poorest population groups in the least developed countries. It was assumed that world population would reach around 12 billion by the year 2075 and stabilise at this level in the long term. At the same time potential world agricultural production appeared adequate to feed this population, even on the assumption that per capita food consumption in the Third World would reach levels prevailing in middle income countries. It was thought that three circumstances could give rise to serious problems: first, a serious deterioration in the climate; second, if it were impossible to prevent the further extensive loss of arable land, e.g., due to soil erosion or urban development; and third, in the event of the Third World adopting diets similar to those of the OECD countries in terms of quantity and quality. Interfutures considered that in the long term, there need be no limits to world energy production in terms of the physical availability of resources. In the transition period from oil to new forms of energy it was seen as being possible to place increased reliance on other fossil fuels, notably coal, and on nuclear energy. Aside from such global economic considerations, geopolitical issues would of course be critical in this connection. This refers on the one hand to political developments in the oil-producing countries (events in Iran at that time were an example). On the other hand, attention had to be paid to the differing availability of energy resources in the various consumer countries. In this respect Japan in particular and to a large extent Western Europe clearly seemed to be at a comparative disadvantage. ' As concems other mineral resources such as ferrous and non-ferrous metals, it was thought that no problems would arise from any overall limits to physical resources. The critical issues here were also - as in the case of energy - political, economic and social. The key factors identified were: the danger of short- and medium-term interruptions of deliveries as a result of political crises in the main producing countries for particular metals; the problem of the introduction of direct or indirect restrictions on exports; resistance to the expansion of mining on environmental and other social grounds, particularly in the advanced countries; and insufficient investment in the development of raw material supplies in the medium term in the light of low profit expectations and unacceptably high political risks. As far as environmental problems were concerned, global aspects such as relations between human activity and the climate were viewed as being of far greater significance than the local problems (however important in their own right). In particular the provision of adequate finance for research on the climate seemed a matter of urgency, not merely to improve knowledge in this field, but so as to lose no time in introducing appropriate, 322 PROSPECTIVE scientifically based measures to counteract deep-seated harmful trends at an early stage, before remedial measures might become too expensive or even inadequate. _ Looking at the evolution of the real world since the publication of the Interfutures report in 1979, the record of the Interfutures team in identifying the pertinent issues and discounting the others is quite good. Even if current population projections for 2075 are somewhat different from what they were at the end of the 1970s, the real issues are not about the absolute carrying capacity of the earth. They are about: demographic tensions such as migration; famine arising from unresolved access and distribution problems; and global environmental concerns. These problems are not rooted in any absolute limits to growth, but in inadequate policies and human behaviour. Finally, in the absence of any politically induced supply interruptions such as the two oil crises, there is no prospect of scarcity regarding energy and mineral resources such as ferrous and non-ferrous metals. On the contrary, oil and mineral raw material prices are at their lowest level since the early 1970s - an evolution which Interfutures failed to anticipate. It is interesting to note that the position of Interfutures was regarded by large parts of the broader public and by quite a few OECD governments, who were impressed at the time by the "limits to growth" study of the Club of Rome, as an unacceptable provocation. The fact that Interfutures implicitly considered the possibility of a second oil-shock was generally not welcome on political grounds. With respect to the environment, some governments found the statements made on the primary importance of the climate issue exaggerated, while others found the warning against precipitous activism and the plea for intensified research and assessment in this field misplaced. 2. PROSPECTS FORGROWTH ANDEMPLOYMENT INTHEOECDAREA The Interfutures team argued that apart from temporary bottlenecks, particularly in the energy field in the event of further supply interruptions of a political nature, economic growth in the industrialised countries would not encounter any extemal limits within the foreseeable future. This applied, as already mentioned, to the availability of natural resources, but also to the possibilities of continued technological and organisational innovation. At the same time, however, it was stressed that certain intrinsically politicoeconomic obstacles to growth would gain increasing importance. This led to the proposition that the period of high growth in the 1950s and 1960s was exceptional; that OECD economies would move onto a more moderate growth path; that conflicts over income distribution, market rigidities and TheOECD lnterfuturesProjectRevisited20 YearsLater 323 budget deficits would fuel inflationary trends; that a major new thrust in economic policy would be needed to cope with structural adjustment; and that unemployment could be a major problem in Europe at least until the mid-1990s. It was significant for the multidisciplinary approach of Interfutures that the analysis went beyond the purely economic realm to include fundamental affecting modern industrial society as such. A first developments observation in this context was that the economy and society in the advanced countries were expected to show an increasing potential for social conflicts. This would be expressed on the one hand by a growing social oligopolisation and confrontation over income distribution. On the other hand, the situation would be characterised by the appearance of an evergrowing number of minorities promoting particular interests on the basis of differing (and partly newly-emerging) values. Since at the same time economic growth would become less able than in the past to resolve social conflicts, it would be increasingly difficult for governments to maintain the balance between traditional economic policy objectives and the new, more quality-related values. A second observation was that the two basic institutions for co-ordinating production and solving distribution problems as regards both goods and services, i.e., the market and the welfare state, would encounter increasing difficulties. This was expected to be true of the market because it is partially unable satisfactorily to discount future needs, can internalise extemal effects only imperfectly, and is by its very nature unable to assume those coordinating functions which do not lend themselves to market-based solutions. The problems of the welfare state arise from a serious lack of any self-regulating mechanism to prevent excessive growth of its services, from its inability to adapt flexibly enough to provide for individual needs, and from an inherent tendency to be more sensitive to the expressed interests of organised groups than to the unexpressed needs of the unorganised majority. Structural change in the economies of the advanced countries was viewed by Interfutures as a continuous process. However, the need and pressure for adjustment, would, unlike in the past, result less from the process of economic growth than from prevailing social conditions and international interdependence. On the whole, the tension between the needs of structural adjustment and the actual capacity and motivation of the economy and society to meet this challenge was likely to increase rather than decrease. The factors exerting continuing and in some cases increased pressure for structural change included the following elements: demographic trends and changes in the size and composition of the labour force; new patterns in the structure of overall demand; an upward trend in the cost of using natural resources such as energy, industrial raw materials and the environment; significant variations in the international competitive positions of major industries; and new trends in international technology and capital transfers. 324 It is of special significance structural adjustment not variables, but are also to influence of differing rates an illustration. PROSPECTIVE in this connection that the forces which compel only affect the economic process as external a considerable extent internally induced. The of increase of labour unit costs was presented as Other factors that were considered crucial concerned trends towards greater structural rigidity. Prominent examples of these were the growing inflexibility and qualitative mis-matches in the labour market; negative effects of the increasing influence of the state on the economic process, as a result of both rapidly expending regulatory activities and as a consequence of direct state intervention in certain sectors; rigidity due to capital-intensive not only of the increasing protectionism, large-scale technologies; traditional kind, but also, and especially, in the form of various types of subsidies and export promotion measures, the introduction of voluntary export restraints and other attempts at the closer control of international trade. Moreover, economic decisions were seen as becoming increasingly political in nature - not only in government administration but also in relations between workers and employers and in initiatives by consumers and environmental groups. For Interfutures it was essential that the factors referred to above as influencing the process of structural change in the economy should not be seen in isolation. The multiplicity of interactions often results in a reciprocal strengthening of negative effects. In this connection low rates of economic growth make structural adjustments more difficult in a number of ways. For instance increasing tensions between the need for structural adjustment and the ability of the economy and society to respond in a positive manner tend to impede the achievement of higher growth rates together with both high employment and price stability. This interaction between structural change and economic growth was, according to Interfutures, of paramount importance. Taken together it was thought that the cumulative impact of the factors mentioned above involved the risk that the relatively slow growth of the world economy (e.g., an annual rate of real GNP growth of 3.5 % or less for the OECD area as a whole) would be a distinct possibility even in the longer term. This idea of the probability of a more moderate growth path was in total contradiction to the views of most of the OECD Member governments and of experts in the Organisation's Secretariat. Only a few months earlier the OECD had published a report "Towards Full Employment and Price Stability" by the so-called McCracken Group and "A Growth Scenario for the 1980s" in a supplement to the Economic Outlook, both suggesting a recovery path which would lead the OECD economies back to a sustained increase in real incomes in the order of 5.5 %. Interfutures adopted a rate of 4.3 % for its high growth scenario, and a rate of 3.4 % for its moderate growth scenarios. The actual average rate of economic growth for the OECD area between 1978 and 1998 turned out to be no more than 2.3 %. TheOECD InterfuturesProjectRevisited20 YearsLater 3255 Moreover, the prospect that the combination of high increases in the labour force, moderate economic growth and structural rigidities in the labour market could lead to persistent and high structural unemployment, in particular in Europe, was for most European governments unacceptable at that time. Apparently there was a lack of institutional memory when in 1994 Member countries accused the OECD Secretariat of having neglected to draw their attention sufficiently early to the possibility of long-standing and unacceptably high rates of unemployment. Another issue area where the warnings expressed in Interfutures may have come several years too early to be taken seriously by OECD Member governments as a basis for early action, was the economic and social implications of ageing populations. Interfutures not only dealt with the possible impact of the increasing share of the elderly on the composition of final demand, on the labour market and on societal values, it also clearly spelt out the expenditure consequences of ageing populations on pension and health care systems. It is interesting to note that despite the fact that OECD work on this problem, partly as a follow-up to Interfutures, started in the early 1980s, the necessary fundamental reforms of health care and pension systems are still at a beginning stage in many Member countries, even though early action would have greatly facilitated the task. Finally, the emphasis which Interfutures put on the need for structural adjustment in order to overcome fundamental constraints on noninflationary, job-creating growth was viewed with great scepticism. Government experts in many Member countries had the greatest difficulties with the Interfutures plea for policies favouring positive adjustment. With hindsight, it nevertheless seems fairly safe to say that the call for positive adjustment policies was perhaps the most important contribution of Interfutures to the international policy debate of the 1980s. As a follow-up to Interfutures, the OECD embarked on a four-year exercise to investigate the interactions between macro-economic performance and structural adjustment and the optimal design of policies for structural adaptation. The highlight of this OECD activity was a 1982 Ministerial Statement on Positive Adjustment Policies and a groundbreaking publication one year later. Both represented a major contribution to the shift in the economic policy paradigm in OECD countries in the mid-1980s. COUNTRIES WITHDEVELOPING 3. RELATIONS North-South relations were seen by Interfutures as increasingly important, not only for political, economic and social development in the Third World, but also for OECD countries. Beyond the areas of energy and raw materials, this was because of the expected globalisation of industry and technology as 326 PROSPECTIVE well as an increase in international financial flows. The attitude of the advanced countries vis-à-vis the South would therefore have to undergo a fundamental change. In the 1960s and 1970s the OECD countries all too in North-South to the developing often left the initiative negotiations countries and in most cases reacted to their proposals more or less in concert, with small, and only rarely with major, concessions. Interfutures clearly stated that this would not be good enough in the future. The industrialised countries would themselves have to work out active, global strategies for the of world-wide maintenance political and economic stability which took account of their relations with the Third World. Even if population growth rates in less developed countries were to fall sharply over the following 20 years as already expected at that time, by the end of the century 75 to 80 % of the world's population would be living in the Third World. Provision for the basic needs of an additional 2 billion a problem human beings by the year 2000 was according to Interfutures which could scarcely be resolved through the strategies applied in manyy countries until the 1970s and through the then prevailing type of NorthAside from the need to reduce existing underSouth co-operation. in least million new would have to the Third at 700 World, employment jobs be created to give work to the expected addition to the labour force. Here again prospects were not promising and by the year 2000, Interfutures stated, some 350 million people would in all probability be suffering from hunger, not due to the impossibility of producing sufficient food but due to the inability of those countries concerned to purchase or produce the foodstuffs. the considerable necessary Despite progress in the developing world this figure is not 350, but about 800 million today. Another important message of Interfutures was that the policies of OECD countries vis-à-vis the South would have to take into account the growing of the Third World and the likely widening of the differences heterogeneity in terms of income, degree of industrialisation, health and nutrition, education. Already in the 1970s, Interfutures noted that per capita income in a number of smaller, industrialising countries had reached the level of the less industrialised countries of the OECD. It was thought probable that by the year 2000 a number of developing countries with a total population of more than 500 million would have caught up with many of the advanced countries. In less than 50 years those countries would have attained a level of income which the old industrialised countries took some 100 years or more to reach. Interfutures argued that it was essential, in order to support this process, that OECD countries accepted the newly industrialising countries as full partners in the international division of labour and trade. This meant that they must and particularly be given the possibility of further economic diversification of continuing to increase exports to the industrialised countries. Only by removing import restrictions and accepting the resulting structural changes, countries to introduce could OECD countries expect the industrialising TheOECD InterfuturesProjectRevisited20 YearsLater 327 similar measures. Interfutures demonstrated that this was not only in the interest of the advanced countries but of great benefit for the entire world economy, since, among other things, new export markets would thereby also be created for those developing countries which were only just embarking on the process of industrialisation. Apart from paying special and separate attention to the problems of and the relationships with the OPEC states and the raw-material producing developing countries, Interfutures also highlighted the needs of the least developed countries. With respect to the poorest countries, situated predominantly in South Asia and Black Africa and only to a lesser extent in Latin America and South-East Asia, the conclusion was that selective aid had to be provided to cover basic needs. In particular it seemed meaningful, in addition to direct food aid, to give effective support for the development of agriculture. The advantages of such action were then and still are multiple, ranging from direct orientation towards the needs of the majority of the population, through comparatively favourable effects on employment and the balance of payments, to a slower process of change in traditional social structures. The key aspects of implementing such a programme include: adequate training of the labour force, development of appropriate technologies, less emphasis on capital-intensive large-scale water supply projects for limited areas in favour of simple rain water supply systems, and longer-term planning of development programmes accompanied by corresponding long-term financial commitments on the part of the OECD countries. Aside from such special propositions with regards to particular groups of countries, Interfutures also advanced some general conclusions concerning the overall relationships between OECD and developing countries. The three most important of these were the following: First, if the advanced countries were in the long term to refute successfully the constantly reiterated demands of the Third World for a structural policy of central controls and anticipatory reform, it had to be emphasised that the mere statement of the advantages of the free market system was not sufficient, and not credible unless the OECD countries themselves refrained from suspending the market economy in favour of domestic industries where competition from newly industrialising and other developing countries became too intense. Second, and in this same context, the decisive factor would not simply involve the rejection of any proposal for world-wide bureaucratic structural planning but rather the convincing presentation of a constructive, future-oriented alternative. Only in this way would it be possible to prevent the involuntary emergence of a world-wide controlled economy following continuous partial and uncoordinated concessions. And third, in view of the difficulties and the limited success of global NorthSouth negotiations, it seemed important at the time that, wherever possible, greater emphasis be placed on solutions through functional agreements specific to given regions or countries. This did not mean that the advanced 328 PROSPECTIVE countries should attempt to call into question or undermine the unity of the Third World. The issue was merely one of paying greater attention to the different problems and interests of individual developing countries and groups of developing countries and - on the basis of an overall strategy entering into concrete negotiations on a set of clear-cut objectives. In dealing with the future of the developing world, the Interfutures team ran into trouble once again. There was, at the time the report was written, a tacit understanding that the OECD should deal with the economic prospects and policy issues of its Member countries, but (with the exception of the Development Centre) not with the economic evolution and problems of non-Members. Interfutures did not and could not stick to this rule. The message of Interfutures, that the Third World was in the process of increasing differentiation, was in sharp contrast to the simplified view of the world that corresponded to the North-South divide represented by the industrialised countries on one side and the Group of 77 on the other. The consequence of an increasingly heterogeneous Third World, in terms of the need for differentiated approaches in North-South relations, was in 1979 for many OECD Member governments still extremely problematic. 4. MANAGING GLOBAL INTERDEPENDENCE International interdependence has many facets. They range from global environmental problems and global information systems, through more narrow economic issues such as international trade, investment and capital such as the evolution of flows, to new institutional developments multinational enterprises and the related deepening and widening of the international division of labour. The speed and intensity with which the process of increasing global interdependence has progressed over the past 20 years has had a number of significant process and policy implications, many of which were already addressed by Interfutures. Regarding process implications, Interfutures emphasised in particular two: first the higher intensity of competition not only in the markets for products and services, but also in capital and labour markets; and second an acceleration of structural change both between and within the various sectors of economic activity as well as within individual companies. For the OECD countries these developments were expected - at least in those parts of the economy exposed to international competition - to result in a shift toward high-value added business with a growing emphasis on technology and high quality service content. With respect to the policy implications of increasing global interdependence two effects were viewed as being of particular importance. The first was the loss of effectiveness of national policies. This applied on the one hand to TheOECD InterfuturesProjectRevisited20 YearsLater 329 fiscal and monetary policy and on the other to certain micro-economic policies, for instance in the area of competition. The second effect was a reduction of the room for manoeuvre. Should tax burdens be pushed too high or environmental standards set at too ambitious a level, the competitiveness of a country or a location could be easily undermined. Another limitation for the design of national policy in an increasingly interdependent world was expected to arise from the fact that certain policy approaches such as subsidies for industries in difficulty tend to shift the adjustment burden to other countries, which are usually unwilling to accept this reallocation. Taking into account this new environment for policy making, Interfutures left no doubt that in order to support non-inflationary growth and higher employment, well designed economic and social policies at the national and international levels were as important as ever. Responding to the anti-growth ideology propagated at the time for instance by the Club of Rome, Interfutures clearly stated the necessity of rehabilitating the idea of economic growth - not as an aim in itself, but as an instrument to achieving other social goals; that in so doing the quality of growth must be taken into consideration alongside the rate of increase in production, was not a matter of dispute. Interfutures also highlighted the need to accept structural change, not at any price, but through the most efficient form of socially acceptable and politically feasible adjustment; this also means that measures to alleviate the social consequences of structural change must be temporary in nature, at least as far as individual cases are concerned. Furthermore, and again this has not lost any of its relevance today, Interfutures cautions against a form of development which would exclude specific social groups from in participation increasing welfare over long periods; it was considered in necessary, particular in the field of employment policy, to work out specific programmes for young people, women, older workers and the handicapped. , . Although the debate about "globalisation with a human face" took off around twenty years later, the policy recommendations of Interfutures already clearly recognised such concerns. The Interfutures team also warned against the temptation to limit interdependence, already expressed at the end of the 1970s by some countries, as a way to regain policy autonomy or reduce uncertainty. The consequence of raising the barriers to international trade, investment, technology and capital flows - probably the only way to reduce interdependence would be enormous losses in efficiency of the world economic system. And empirical evidence suggests that those countries who introduce protectionist measures end up the greatest losers at least in the longer-term. Interfutures recommended a forward-looking strategy, namely improving international co-operation. In order to ensure the success of international policies, usually conceived with reference to national objectives, four approaches were considered to be of particular First, the political will to co-operate importance. 330 PROSPECTIVE internationally, with the implication above all of a readiness to accept and share responsibility for future world political and economic development both among the OECD countries themselves and between industrial and developing countries. Second a definition of the main problem areas where international co-operation would be necessary and likely to be successful. Third, a minimum consensus concerning guidelines for action would have to be established. For example, agreement that national strategies should be designed so that they do not result in burden-shifting from one country to another. Fourth and finally, Interfutures concluded that the institutional consequences of increasing global interdependence have to be made explicit at both national and international levels. National governments must reflect on how to co-ordinate and reconcile national and international policy. For international organisations it was considered important to constantly review areas of activity and organisational structures in the light of emerging problems. Furthermore, it seemed important at both levels to orient shortterm programmes more intensively than had hitherto been the case towards longer-term concerns and in general to ensure greater consideration of the process and policy implications of increasing global interdependence. 5. SOMECONCLUDING REMARKS Today many academics and government officials still see Interfutures as one of the most thought-provoking reports the OECD has ever produced. However, twenty years ago views were more mixed since quite a few of the messages appeared too provocative. The project's high degree of intellectual independence greatly benefited both the analysis and the conclusions, but it also left governments on the sidelines, thereby failing to help prepare the ground for the new ideas that were to emerge. Comprehension and appreciation of Interfutures was also impeded by its departure from the traditional segmented approach to policy analysis. Instead the project touched upon nearly every field of government responsibility, and its method was in every respect horizontal and interdisciplinary. The result was that there was no single Ministry or government agency which ultimately felt that it was in charge of evaluating the many insights, conclusions and policy recommendations. Nor was the Steering Committee of Interfutures, which was composed of high-level government officials, able to overcome the conceptual and political unreadiness which the final report met. The Steering Committee made significant contributions by providing critical and constructive comments on initial drafts and in particular in making the project policyrelevant ; but most members came from specialised Ministries and government agencies and not from the Prime Minister's office. As a result TheOECD InterfuturesProjectRevisited20 YearsLater 3311 there was little chance that the various messages of Interfutures could be conveyed to the most appropriate operational structures of government. The OECD has taken these lessons to heart. Nearly all the subsequent work on longer-term economic, social and related policy issues has been carefully focused on specific topics and prepared for clearly defined constituencies. This applies, for example, to the various studies on the implications of ageing populations for health care and pension systems; long-term demand and supply projections in the energy field; and recent work on environmental sustainability. The experience of both Interfutures and the more specialised studies of long-run issues shows clearly that an international organisation such as the OECD is well placed to fulfil a kind of long-term "radar" function - that serves as both an early warning of poorly understood risks and as a catalyst for identifying hidden opportunities. By the early 1990s, in recognition of the importance of identifying and taking into account long-term opportunities and risks in today's decision making, the OECD embarked on a permanent, interdisciplinary effort - the OECD International Futures Programme. The Programme upholds the legacy of Interfutures in its long-term time horizons, interdisciplinary approach, policy relevance and a high degree of intellectual independence. But the Programme avoids some of the difficulties faced by Interfutures because it is an on-going activity centred around a series of major conferences; it examines one important future relevant topic at a time; and key constituencies like government ministers and company chief executives are involved extensively throughout the process. In retrospect, Interfutures not only provided a legacy of analytical and policy insights, but also a useful precedent for finding a better way to ensure that long-term issues are more effectively integrated into the decisions that will shape tomorrow's world. BIBLIOGRAPHY INTERFUTURES, Facing the Future: Mastering the Probable and Managing the Unpredictable, OECD, Paris, 1979. Face aux futurs: Pour une maîtrise du vraisemblable et une gestion INTERFUTURES, de l'imprévisible, OCDE, Paris, 1979. . De Cara Al Futuro: Par un control de lo probable y una gestién de INTERFUTUROS, lo imprevisible, Madrid, 1980. INTERFUTURES, Japanese translation, Tokyo 1980. OECD INTERFUTURES, Herausforderungen der Zukunft, Hamburg 1981. Robert Dautray PROSPECTIVE ENÉNERGIE NUCLÉAIRE Je suis heureux d'avoir pu, en rédigeant ces quelques pages, apporter mon tribut en l'hommage qui est dû au grand esprit, à l'excellence et à la lucidité exceptionnelles de Jacques Lesourne. Grâce à la limpidité de ses exposés, issue d'une maîtrise totale des sujets les plus ardus de ses spécialités si complexes, il ouvre des champs de compréhension et d'action inexplorés. 1.. L'IMPORTANCE DEL'ÉNERGIE DANS LESCIVILISATIONS de l'une des sources d'Énergie de notre siècle, le pétrole, dans L'importance tous les conflits des hommes, a été souvent citée depuis la dernière guerre mondiale inclusivement. L'offensive allemande vers le Caucase (avec pour but le pétrole de Bakou et plus loin de l'Iran) en 1942, dont le flanc gauche devait être protégé par la prise de Stalingrad, en a été un exemple. Le des chars allemands lors de l'offensive allemande des manque d'essence Ardennes, fin 1944, en a été un autre. La montée de l'importance planétaire d'un certain nombre de pays producteurs de pétrole en témoigne également. Elle a conduit à des épreuves de force et même à des guerres lourdes en enjeux, en moyens mis en oeuvre et en malheurs humains. Dans les périodes précédentes, le charbon avait déjà cette importance. Il faut évoquer le charbon de la Ruhr, de la Sarre en Allemagne au x,xe siècle et Prospectiveen énergie nucléaire pendant la première Bretagne. moitié du xxe siècle, ainsi que le charbon 333 de la Grande- Rappelons d'autre part que la révolution industrielle est née au xvili' siècle en Grande-Bretagne avec l'invention et la mise au point pratique, au long du siècle, de la machine à vapeur, qui, au départ, avait pour mission de faire fonctionner les pompes destinées à dénoyer les fonds des mines de charbon, quand elles étaient infiltrées et inondées par les eaux souterraines. Tout cela se fit par le seul jeu des créateurs de ces machines à vapeur industrielles et les besoins des industriels des mines, sans que l'État intervienne si ce n'est par des dispositifs de protection légale des inventions. De progrès pratique en progrès pratique, on aboutira à des machines à vapeur (mues par la combustion du charbon produisant l'ébullition de l'eau) qui feront foncet ses tionner les usines (textiles, métallurgiques, chimiques, mécaniques machines outils), qu'on pourra bientôt placer sur des plates formes mobiles. D'où les chemins de fer et les bateaux à vapeur, c'est-à-dire tout l'essor industriel du xixc siècle en Europe occidentale et aux États-Unis. La mise au point au x,xe siècle de la maîtrise de l'électricité, qui procède de la machine à vapeur pour faire tourner les génératrices de courant électrique, aboutira au xxe siècle à un réseau de transport amenant l'électricité à chacun (particulier, artisan, industriel) et va lui donner la maîtrise de ce dont il a besoin comme Énergie sous une forme simple, adaptable à de nombreux besoins. la maîtrise de l'extraction, du raffinage et de la distribution du Parallèlement, pétrole fournira à chacun une Énergie stockable, aisément transportable (car c'est un liquide), et utilisable dans des moteurs de plus en plus légers (en kW/kg) pour les usages divers, dont les transports et les machines agricoles. Cette maîtrise de l'Énergie, donnée à chacun dans les pays concernés, contribuera à la transformation de la société vers de plus en plus d'indépendance des bénéficiaires (par exemple aux agriculteurs à la ferme, ou encore aux femmes pour les travaux ménagers...). . , C'est bien dire que la disponibilité de l'Énergie est un des aspects essentiels pour comprendre les sociétés humaines. On pourrait aller plus loin en disant (le néolithique, au huitième millénaire que, depuis les débuts de l'agriculture avant Jésus-Christ) au Proche Orient, en Chine, dans la civilisation de chez les et toute l'Indus, », l'Énergie Amérindiens, pendant « l'Antiquité nécessaire aux travaux de cette agriculture est essentiellement celle produite par les muscles des hommes, depuis les travaux des champs à la mise en oeuvre de l'irrigation, des rotations de meules aux transports, même si les des apports attelages de boeufs s'y ajoutent (le cheval pendant cette « Antiquité », est encore un instrument de guerre). Maîtriser l'Énergie à cette époque, c'est donc maîtriser les hommes : d'où le fait que ces sociétés (1) Grâce à la mise au point des moteurs à explosion et des diesels. 334 « agricoles » s'appuient bien souvent sur l'esclavage. des fleuves, ne sont qu'un apport à cet immense hommes. PROSPECTIVE Les Énergies du vent, effort musculaire des Même si le Moyen Âge va perfectionner et développer l'utilisation du vent et des rivières (moulins, bateaux à voile), même si le cheval va apporter une aide substantielle, la force et l'endurance des hommes sera toujours au centre de ces sociétés, fondées sur le servage ou l'esclavage. Pendant bien longtemps, et quand elles en sortiront localement sur la les nouvelles sociétés planète, changeront les statuts, mais pas la condition voués à l'ef(et de l'artisanat), quotidienne de ces hommes de l'agriculture fort musculaire écrasant de chaque jour. Même les transports seront basés sur des rameurs, des haleurs ou des coolies... Tout cela pour dire que les problèmes de l'Énergie sont très graves pour les sociétés humaines, que l'éclaircie (sur le plan du travail des muscles) de ce xxe siècle est une courte partie de l'histoire de la peine des hommes et qu'il faut les traiter avec d'infinies en essayant d'abord de les précautions comprendre. 2. QUELLE ESTLASOURCE DECESÉNERGIES ? PHYSIQUE Pour l'effort musculaire, après cueillette et chasse, digestion et assimilation, il provient donc de la photosynthèse produisant les tissus des végétaux à directe ou via les herbipartir de l'Énergie solaire et de leur consommation, vores ou/et leurs prédateurs (avec un cycle parallèle dans l'océan, partant avec un rendement de l'ordre de presque toujours de la photosynthèse 1/10000). Cette photosynthèse met en ouvre le rayonnement solaire issu de la région de la « surface » du Soleil. L'Énergie y est amenée en cheminant à partir de la région centrale du Soleil ' où elle a été produite par les réactions thermonucléaires de fusion des éléments légers et au premier chef, issus de la transformation de l'hydrogène en deutérium, réaction nucléaire d'interaction faible qui donne sa constante de temps (se comptant en plusieurs milliards d'années) au Soleil et aux étoiles « moyennes » de même type. En un mot, notre Énergie biologique est issue des réactions nucléaires basées sur l'hydrogène qui formait 76 % de la matière de l'univers. Depuis leur allumage, dans notre galaxie par exemple, environ 6 % de cet hydrogène aurait déjà été consommé par ces réactions nucléaires. (1) Ce cheminement se fait d'abord sous forme radiative, par les photons X qui « diffusent » (avec aussi : absorption et émission, bremsstrahlung et effet photoélectrique qui s'ajoutent à l'effet Compton), puis par convection dans les parties les plus extérieures. Le « voyage » de l'Energie du centre à la périphérie du soleil dure de 105 à 106 ans. Prospectiveen énergienucléaire 335 Pour le charbon, il provient de la végétation du permien, du carbonifère et du début du trias, donc essentiellement entre il y a trois cents et deux cent quarante millions d'années. Ces végétaux enterrés durant l'évolution de la Terre (évitant leur oxydation en étant relativement rapidement enterrés) ont conduit par des réactions chimiques et physico-chimiques lentes, au charbon. La source de ces végétaux, donc du charbon, est encore le rayonnement du soleil, par l'intermédiaire de la photosynthèse, donc la lumière du soleil et donc encore, en fin de compte, les réactions nucléaires au centre du Soleil. On ferait une histoire analogue pour le pétrole, en montrant par exemple que les dépôts pétroliers de l'Afrique septentrionale, de l'Arabie et du MoyenOrient proviennent des marges océaniques de la mer qui a précédé la Méditerranée, la mer Thétis. Là encore, l'Énergie stockée provient de la photosynthèse (à l'époque du Jurassique et du Crétacé, il y a 180 à 90 millions d'années, pour les gisements cités ci-dessus), elle-même ayant pour source les réactions nucléaires au centre du Soleil. En somme, les combustibles fossiles, charbon, pétrole (et on dirait la même chose du gaz naturel), proviennent de l'Énergie solaire et sont par conséquent des produits de réactions nucléaires « stockées ». Nous n'irons pas plus loin dans cette analyse, mais le lecteur verrait par une autre analyse, que la « lumière (1) solaire met en mouvement l'atmosphère, les océans et les eaux « suspendues » dans l'atmosphère de la Terre (et donc les rivières), comme une immense machine thermique avec une source chaude décroissant à partir de l'Équateur et des sources froides dans les régions polaires. On voit ainsi que les Énergies hydraulique, éolienne, etc., sont issues du rayonnement solaire et donc encore des réactions nucléaires du centre du Soleil. Quant au carbone présent sous forme d'élément, ou combiné dans les hydrocarbures de ces réserves fossiles, la photosynthèse et l'enfouissement l'ont transformé ainsi à partir du gaz carbonique de l'atmosphère. Les hommes d'aujourd'hui le renvoient dans l'atmosphère en brûlant des combustibles fossiles. De là, il se répartira dans d'autres « puits », océan, biosphère... La contribution à l'effet de serre qui en découlera (3) avait donc déjà lieu quand ce carbone était présent dans l'atmosphère. Il ne faut pas d'ailleurs le consi; dérer comme un stock constant dans l'histoire de la Terre puisqu'il s s'échange avec le gaz carbonique stocké dans l'eau des océans (bien plus abondant) et aussi, pour de si longues périodes, le carbone contenu dans les ; ; carbonates (encore plus abondants) déposés sur le fond des océans, ce fond ,.i étant mis en mouvement par la tectonique des plaques. Une partie de ce gaz ID carbonique remonte des plaques en subduction par les volcans, etc. i : ¡ (1) Le visible,l'infrarougeet l'ultraviolet. (2) Depuis4,5 milliardsd'années, le Soleil aurait ainsi consommé6 % de son hydrogène , commeon l'a dit plus haut. (3) Et qui sera différentede celle du passé. 336 PROSPECTIVE Le point essentiel (pour les hommes) de ce qui précède, est que notre époque a mis à la disposition de chaque individu de l'Énergie sous diverses formes (électricité sur réseau, gaz sur réseau ou bouteille livrée, essence sur parc de stations-service, piles pour appareils isolés : radios, téléphone, GPS, lampes, etc.). 3. L'ÉNERGIE NUCLÉAIRE Le dernier demi-siècle a vu la montée de l'Énergie nucléaire pour la production d'électricité au programme (effort supplémentaire par rapport Manhattan, dû aux suites des pénuries de la dernière guerre mondiale, puis aux chocs pétroliers) et dans certains pays, la stagnation ou le reflux de cette et techniques Énergie nucléaire. Quels en sont les aspects scientifiques dominants au point de vue français et plus globalement, européen ? Du côté des réacteurs nucléaires, le succès des réacteurs à eau (et parmi est devenu le ceux-ci, au premier rang de ceux à eau sous pression, fait de base tant pour le renouvellement des parcs que pour la référence de des autres filières. Ce succès a rendu caducs et risqués les comparaison de filières envisagés encore il y a une à deux décennies, changements donnant à ces nouvelles (et futures) filières un niveau de comparaison trop difficile à égaler. Grâce à cette filière à eau, la centrale nucléaire est devenue un équipement de maintenance, de industriel, susceptible d'exploitation, rentabilité, de sécurité, de fiabilité, de prévisions exemplaires ; pour tout dire, un équipement technique de pointe fabriqué en quantités notables ; ce dernier aspect (équipement de pointe) a son importance puisque l'expérience a montré qu'en dehors des pays d'un niveau technique élevé et constamment la maintenance (et les divers services) de ces rigoureux, l'exploitation, centrales nucléaires n'avaient pas le niveau de qualité requis et constituaient même un équipement potentiellement dangereux. Du côté du cycle du combustible, certains aspects sont à mentionner : minières reconnues sont inférieures aux 1) Les ressources aujourd'hui ressources réelles car la prospection a cessé depuis longsystématique minières temps à cause de l'absence de marché suffisant. Les ressources en uranium aujourd'hui avec la technologie des prouvées permettent, suffisamment de « combustible » fissile la REP, d'avoir jusqu'à deuxième moitié du xxle siècle (voir figure 1 page suivante), c'est-à-dire en « brûlant » en partie seulement (par fission) l'uranium 235 (235U) qui forme 0,720 % de cet uranium naturel et une portion du plutonium (surtout le 239pu) formé (2) par capture des neutrons sur le reste de l'ura(I) Toutefois, ceux à « ébullition utilisée » ont aussi montré des qualités. (2) Par la réaction nucléaire 238U + n -+ 239U + fJ -+ 337 Prospectiveen énergie nucléaire Uranium Gaz Pétrole Charbon Gigatep Conv. Non-conv. Con Non-conv. REP RNR Réserves 606 150 145 140 192 57 0 810 Ressource 2794 145 380 280 258 203 3390 Total 3400 295 525 420 450 260 4200 15 540 Gtep Gtep 4 000 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 78% _ 3 4M Gtep -----------'" 3000 ___ ------------------------------------- 82% ----------------------------------- 22000 000 - 1000 -- j 82% ------------------------------------ - ------------------------------------- ------295 Gtep 18% 49% 525 Gtep 420 Gtep 66% 450 GtepP 260 Gtep ––– 57%° ' E 0 51 °l0 28°l0 34°l0 43°!0 Nucléaire Gaz Pétrole Charbon / e RNR REP Non-conv. Non-conv. Conv. Conv. ) * 19/48 * 69/168 * 67/124 * 93/178 / **21/72 ** 75/215 5 ** 85/207 ** 114/265 j O Ressources ; "/(:1 Réserves ) . Valeurs inférieures :1 cumu!ée(en GP) !a productioncumulée >. Gtep) :1990-2020/1990-2050 }jde la * Valeurs inférieures Valeurs supérieures de j Source:CEA/SEE i ) Figure 1 : Réserves et ressources de base d'énergie dans le monde (d'après CME-95) 338 PROSPECTIVE nium (essentiellement le U 99,27 % de l'uranium qui constitue naturel). Il est possible de « fissionner » également cet par la techoù la réaction nucléaire : nologie des surgénérateurs, z39pu a un très bon rendement. Le rapport des teneurs en 238U et 235U (c'est-à-dire des atomes à « consommer ») est de 99,2/0,72 soit de l'ordre de 138. En fait, à cause des pertes, on ne gagne qu'un facteur 40. C'est dire que les réserves actuellement connues d'uranium permettraient des millénaires de consommation de combustible fissile au taux actuel si elles étaient utilisées avec les technoloon vient de dire que ces technologies sont celles des gies nécessaires ; où les problèmes actuels sont surtout ceux liés au refroisurgénérateurs, dissement par métal liquide mais où la très grande majorité des problèmes restent pour l'utitechniques a été résolue. C'est dire que les surgénérateurs lisation de l'uranium naturel une technologie nécessaire qu'il faudra tôt ou tard avoir mise totalement au point, en un mot, maîtrisée (à l'échelle du demi-siècle). Les déchets miniers relatifs à l'extraction du minerai et à la séparation de l'uranium des à ceux des autres déchets posent problèmes analogues miniers (1). >. de l'uranium provient de 2) La teneur naturelle relativement faible en la désintégration plus rapide pour l' 235U (vie moyenne de 7.10g années) (vie moyenne de 4,4.109 années). À leur formation dans que pour une supernova, avant leur intégration dans le système solaire, on estime 1,16. que leur rapport isotopique était de l'ordre de Il y a environ 2 milliards d'années, à l'époque du fonctionnement des réacteurs naturels d'Oklo, en Afrique, à faisait, qui l'époque, partie de ce qui précéda le supercontinent nommé la « Rodinia », la teneur en 235U¡238U était de l'ordre de 4 %. La décroissance radioactive naturelle à cette teneur de 0,720 %. depuis, nous a amenés aujourd'hui Mais pour ce qui est du maintien d'une réaction en chaîne dans le milieu formé d'uranium et d'eau, c'est bien cette teneur de 3,5 à 4 % qui est souhaitable. Il faut donc aujourd'hui enrichir l'uranium en l'isotope si on veut l'utiliser comme « combustible » des REP. Des procédés industriels ont été mis au point depuis les débuts des technologies nucléaires les années et ont et donné toute satisfaction (dans quarante cinquante) par (1) (2) (3) (4) Avec toutefois, de plus le problème des très faibles radioactivités (TFA). Donc, il y a plus de 4,5. l0y années. Dans ce qui est aujourd'hui le Gabon. On estime aujourd'hui que ce supercontinent « Rodinia » précède le Gondwana, formé il y a environ 600 millions d'années. Prospectiveen énergienucléaire 339 rapport à tous les critères industriels, économiques, d'exploitation, de maintenance, basés d'abord sur la diffusion gazeuse à travers des parois poreuses (comme au Tricastin), puis ensuite par l'ultracentrifugation (dans le cadre, par exemple, d'une association d'industriels, allemand, britannique et hollandais). Un procédé plus sélectif, la séparation par laser, est en cours de mise au point, en France et aux États-Unis. La faisabilité scientifique et technique en a été démontrée. On étudie actuellement les aspects industriels qui permettront d'en évaluer l'économie. Cela sera un progrès très important permettant, de plus, de séparer isotopiquement d'une manière massive d'autres corps que l'uranium. Les procédés comme celui de la diffusion conduisent, pour une production recherchée d'une tonne d'uranium enrichi (à 3,5 %), à environ 6 à 7 tonnes d'uranium à faible teneur en 235U (de 0,2 à 0,3 %) à stocker pour un usage futur, quand on aura mis au point la technologie des surgénérateurs. L'entreposage pour de longues durées de ces matériaux ayant un flux annuel de l'ordre de 7 000 t pour le seul élément uranium est aujourd'hui une réalité industrielle. 3) La fabrication d'un combustible ayant la tenue en irradiation souhaitée a été une longue aventure industrielle. Elle est aujourd'hui une réalité industrielle, tant pour le cas de l'oxyde d'uranium que pour celui des mélanges d'oxyde de plutonium et d'oxyde d'uranium (dit MOX pour « Mixtes OXydes »). À ce jour, la réalisation et la tenue en irradiation des MOX constituent une grande réussite technique. 4) Après que les éléments combustibles ont été irradiés, sortis, puis refroidis suffisamment pour que leur manutention et leur entreposage ne posent pas problème, deux voies sont envisageables : a) entreposer, puis stocker définitivement ces éléments combustibles, plus ou moins démantelés. C'est la solution suivie aux États-Unis, en Suède, en Finlande, au Canada par exemple. En tout, près des deux tiers du flux massique mondial de combustibles suit cette voie ; b) après refroidissement, les parties fissiles des éléments combustibles sont traitées par des réactifs chimiques aux températures nécessaires pour en séparer le plutonium, les autres actinides (dits mineurs), les produits de fission et le reste d'uranium. C'est ce qu'on appelle le retraitement. C'est ce que font les électriciens possédant des centrales nucléaires, en France, en Belgique, en Grande-Bretagne, en Allemagne, en Russie >, au Japon. Cela représente en tout environ le , (1) Les deux facteurs,températureproche de la températureambianteet procédéaqueux relativementdilué, sont essentielspour la réussitetechniquede ce procédé(dit PUREX, et déjà étudiépar Seaborg,à Berkeley,dans les années40). (2) En Allemagneet en Russie,les électriciensont le choixentre les solutionsa) et b). 340 PROSPECTIVE tiers du flux massique mondial. Le retraitement par voie aqueuse à de l'ambiante est, par exemple, mis en oeuvre à température proche l'usine de La Hague (COGEMA) et à celle de Sellafield (BNFL, avec un succès industriel et économique. Grande-Bretagne) grand dans le cas de La a très bien fonctionné. Aucun détriL'usine, Hague, ment de sûreté et de radioprotection n'est intervenu, ni envers les travailleurs, ni envers les riverains, de manière prouvée. 5) Le devenir des corps radioactifs. Les problèmes relatifs à ce devenir sont étudiés dans toutes les nations concernées et certains organismes comme l'AIEA (Agence internationale de l'énergie sise à Vienne, nucléaire, à l'ONU), l'AEN de l'énergie nucléaire de appartenant (l'Agence et très l'OCDE) et l'UE (Union européenne) confrontent, régulièrement en détail, les résultats des travaux des pays concernés. En France, la loi du 30 décembre 1991 a dessiné, précisé et organisé en trois axes parallèles un programme d'études de quinze ans, devant donc aboutir en 2006, pour permettre au Parlement français de prendre les décisions nécessaires à cette date pour le devenir des corps radioactifs en France. produits Ce programme étant en cours, il est évidemment trop tôt pour en dire les résultats. Une étape importante de l'un des axes en sera la réalisation de laboratoires souterrains dans des formations géologiques appropriées, leur et des résultats expérimentaux. S'il puis exploitation l'interprétation est permis à mi-parcours de dire les orientations qui semblent aujourd'hui se dégager, et sous toutes réserves, ce serait pour penser que des solutions diverses vont permettre de traiter efficacement des problèmes différents, ces déchets étant extrêmement hétérogènes. Pour ce qui est des études internationales (1), elles montrent que chements à la surface du sol de stockages souterrains dans des étudiés avec précision (études PAGIS, EVEREST) ne dépassent doses admissibles de rayonnement d'après les normes acceptées tionalement. L'idée générale de ce concept de stockage souterrain les relâterrains pas les interna- est : a) qu'il faudra un délai de temps très élevé (de l'ordre de 105 à 107 années) pour que les corps contenus dans les stockages en sortent et migrent ; b) quand ces corps auront ainsi migré, ils se dilueront parties du sous-sol ; dans de très grandes (1) Signalons, en outre, les études de transmutation par irradiation avec des faisceaux de neutrons dans le but d'arriver à des noyaux stables à Los Alamos (Etats-Unis), au Japon (projet Omega), en Europe (assemblages sous-critiques avec source de neutrons puissante, créés par des protons de l'ordre de 1 à 1,5 Gev convenablement accélérés, etc.). Prospectiveen énergienucléaire 341 c) au bout de ce temps si long, la radioactivité des corps radioactifs aura fortement (suivant les périodes radioactives) diminué. De plus, leur dilution les rendra moins concentrés en chaque point de la surface de la Terre. Ainsi, on pense protéger, avec un large facteur de sécurité, toute personne vivant à la surface de la Terre, buvant et se nourrissant sur des comestibles où ces corps (ou leurs « descendants nucléaires ») auront pénétré. Cela peut être encore affiné en faisant une hiérarchie des corps apportant la dose d'effet des radiations ionisantes. On parle alors de doses en Sievert par an par exemple. Un certain nombre de pays ont établi de telles hiérarchies (y apparaissent alors dans tel exemple par ordre de nuisance : l'iode 129, de vie moyenne 1 ,7. 1 0 années ; le césium 135, 135Cs, de vie moyenne 3.106 années ; le technétium 99, 99Tc, de vie moyenne 2,1.105 années ; le sélénium 79, de vie moyenne 6.104 années ; l'étain 126, et certains descendants des actinides, 23aU, qui désignent les corps présentant les nuisances les plus grandes. On envisage actuellement l'intérêt éventuel de les ôter des déchets, et de les transmuter au lieu de les enfouir. Enfin, certains corps radioactifs émettent de la chaleur d'une manière plus intense que d'autres, ce qui conduirait à des perturbations trop grandes des régimes thermiques et de mécanique des milieux où on les aurait enfouis. On pense donc à les entreposer (1). Ce peut être également le sort des corps dont l'avenir est incertain. Finalement, on est conduit à trier et à adapter le sort des corps radioactifs selon leurs propriétés plus spécifiques. Le plutonium produit par le retraitement, s'il est replacé dans des éléments combustibles MOX, conduit en France à un flux de combustible de l'ordre de 100 à 200 tonnes par an contenant ce plutonium ; ce qui donnerait donc, après irradiation, la quantité à entreposer chaque année, au lieu du flux annuel de combustible irradié et déchargé du parc de centrales nucléaires de France de 1 200 tonnes par an sans utilisation du procédé MOX, ce qui gagne un facteur 10 à 5, ce qui est considérable. Ce plutonium entreposé ou inclus dans les MOX conduit-il à des dangers de prolifération ? Signalons à ce sujet une étude de la National Academy of Sciences des États-Unis et une de la Royal Society en Grande-Bretagne qui concluent dans ce sens. Le point de vue opposé a été également étudié, mais n'a pas fait l'objet de publication, par souci de non-prolifération. Ce sont les termes de référence de ces études qui permettraient une analyse équitable. Ces termes, le plus souvent implicites et non écrits dans les textes et les (1) Pendantcet entreposage,c'est le conteneurqui garantitla sécuritédes travailleurset du public :c'est dire son importance. 342 PROSPECTIVE réunions internationales, ne permettent donc pas une vraie comparaison des divers risques. Chacun a raison, mais par rapport à ses hypothèses, qu'il ne précise pas suffisamment, et cela pour des raisons, légitimes à ses yeux, qui sont justement liées au voeude non-prolifération. De ce tour d'horizon scientifique et technique, nous souhaitons que le lecteur tire ses propres conclusions. Pour notre part, nous pensons avoir montré que les solutions classiques (au sens qu'elles sont démontrées par de longues et nombreuses expérimentations) sont encore susceptibles de fournir pour la première moitié du prochain siècle, la part substantielle d'Énergie qu'elles ont donné durant les dernières décennies. Cela nous semble indiquer que le renouvellement du parc de centrales peut se faire sur les mêmes concepts, avec des mises en oeuvre convenablement améliorées pour certains de leurs composants en tenant compte des progrès scientifiques, techniques, d'exploitation, de maintenance et de maîtrise de l'aval du cycle. Cela repousse l'utilisation de nouveaux concepts vers la fin du xxle siècle. Cela laisse le temps au progrès de la Science et de la Technique de faire son oeuvre bien souvent inattendue et imprévisible, comme dans le passé. Cela sera-t-il dans le domaine des réacteurs nucléaires (réacteurs à neutrons rapides, réacteurs à combustible fluide, réacteurs à haute température, réacteurs sous critique...) ? Les progrès seront-ils dans la fusion thermonucléaire (avec ses diverses voies, TOKOMAK, lasers, puissance pulsée, striction axiale...) ? Va-t-on innover dans le domaine de la séparation des déchets, dans celui de la matière première (uranium, thorium...) ? La radiobiologie (réparation de l'ADN, et épidémiologie, notamment des travailleurs du nucléaire), et donc l'évaluation à partir de bases scientifiques comprises des nuisances éventuelles des faibles doses des rayonnements ionisants va-t-elle mieux nous éclairer ? Le champ du possible reste très vaste. Dans les années trente, avant la fission, avant les calculateurs électroniques, avant la biologie moléculaire, qui aurait pu prévoir les bases scientifiques des problèmes d'aujourd'hui ? C'est dire les difficultés des aspects scientifiques de cette prospective technique et industrielle à laquelle nous nous sommes essayé ici. L'immensité des résultats obtenus en un peu plus d'un demi-siècle démontre l'importance de l'effort accompli et l'espérance soulevée par sa continuation. Reactor(EPR)quireprésente unenouvellegéné( l )Ceciconduità l'EuropeanPressurized rationintégranttouslesperfectionnements intéressants à notreépoqueet marquantune sûretétrèssupérieure à cellede la génération précédente. Jean-Jacques Salomon DECASSANDRE LATRISTESSE Je ne sais pas s'il est de bon ton, dans une contribution au genre solennel et académique des Festschrifte, de commencer par parler de soi plutôt que de celui auquel on est heureux de rendre hommage. Si je n'hésite pas à le faire, c'est que ma rencontre avec la prospective n'a pas été indifférente à ma rencontre avec Jacques Lesourne, et donc à mes liens de profonde estime et amitié pour lui. Quitte à céder à des anecdotes, on me pardonnera d'évoquer d'abord des souvenirs. , , C'est à travers la lecture des livres de Gaston Berger et de Bertrand de Jouvenel que je me suis intéressé très tôt à la réflexion sur la prospective. Mais c'est surtout auprès d'Erich Jantsch, dont je partageais un bureau lors de mes débuts à l'OCDE, que je me suis familiarisé avec les institutions et les méthodes de ce qui, dans les années soixante, devenait une véritable vogue sous l'influence des think tanks américains. Retour de son enquête à travers le monde, Jantsch rédigeait le rapport qui devait devenir La prévision technologique, le plus grand best-seller, je crois, de toutes les publications de l'OCDE : un livre plein d'informations et d'enthousiasme pour ce domaine, livre aussi touffu que tout fou, reconnaissons-le, à l'image du personnage fascinant qu'était Jantsch, mélange d'ingénieur et de philosophe sorti tout droit du roman de son compatriote autrichien Musil, L'homme sans qualités. Dans le tourbillon des espoirs que levait alors la prospective, son livre offrait une sorte de manuel où la plupart des pays européens, administrations et universités, découvraient tout simplement une terre nouvelle. Jantsch avait interviewé un nombre ahurissant de spécialistes et une foule de non spécialistes, scientifiques pour la plupart : il suffit de se reporter à la liste des « contacts établis » en vue de la préparation de son rapport et de sa 344 PROSPECTIVE bibliographie pour se rendre compte de la richesse de son enquête. Au point sans doute de donner le vertige à ses lecteurs comme à son auteur, qui n'était pas loin de voir dans la prévision technologique la clé scientifiquement fondée des voies non seulement du succès industriel, mais encore du destin des sociétés occidentales. Quand son livre a été publié, il n'était question dans les débats dont se nourrissaient alors les deux bords de l'Atlantique que du technology gap : Jantsch n'hésitait pas à écrire que l'écart tenait précisément au fait que les entreprises américaines s'appuyaient sur les méthodes de la prévision technologique, alors que la plupart des entreprises européennes en ignoraient jusqu'à l'existence. Grâce à Gaston Berger, à Bertrand de Jouvenel et à tous ceux qui, praticiens à des titres divers de la recherche opérationnelle, tenaient l'étude probabiliste des voies du futur pour un enjeu majeur des processus de décision au sein des entreprises comme du gouvernement, la France n'était d'aucune façon en retard par rapport aux Etats-Unis. Le domaine était même l'un de ceux, très rares certes à l'époque, où nous leur tenions tête plus qu'honorablement, où nous passions même aux yeux de certains pour un modèle grâce aux travaux du Commissariat général au Plan et à la place que celui-ci occupait dans l'appareil gouvernemental. Le Plan était par vocation l'institution qui produisait et consommait le plus grand nombre d'études prospectives, et nul n'était plus convaincu que Pierre Massé, qui l'animait depuis 1959, que les décisions devaient se fonder sur la mesure des « espérances optimales », d'où l'idée du Plan comme « l'anti-hasard ». C'est à son initiative que fut lancé le Groupe 1985 auquel j'ai été associé, chargé « d'étudier, sous l'angle des faits porteurs d'avenir, ce qu'il serait utile de connaître dès à présent de la France de 1985 pour éclairer les orientations générales du Ve plan ». Mais déjà le ministère des finances, à l'initiative de Jean Saint-Geours et celui de la défense, à l'initiative du futur général de l'Estoile, avaient multiplié enquêtes et séminaires sur la prévision technologique, tout comme le BIPE et, bien sûr, les sociétés de conseil semi-publiques semi-privées, constituées autour des économètres, mathématiciens et spécialistes de la recherche opérationnelle, dont la SEMA fondée en 1957 et dirigée par Jacques Lesourne. Grâce à la direction des affaires scientifiques, à la tête de laquelle se trouvaient Alexander King et son adjoint Ron J. Gass qui avaient soutenu l'enquête de Jantsch, l'OCDE était bien placée en apparence pour tirer parti de ces recherches et de ces méthodes. En apparence seulement : le précédent de cette enquête menée sous les auspices du Comité de la politique de la science et de la technologie, loin d'inciter d'autres départements de l'organisation à institutionnaliser ces travaux de prospective, suscitait plutôt la méfiance des économistes qui s'en tenaient à l'approche quantitative des projections macroéconomiques. Pensez donc : introduire une réflexion qualitative sur l'avenir supposait que les « examens » des politiques économiques menés par les pays et les analyses de leurs interactions sur le plan international ne fussent pas du seul ressort, de la seule compétence des économistes ! La direction des affaires scientifiques était la seule à faire appel Latristessede Cassandre 345 à des consultants venus d'autres disciplines, historiens, sociologues, politologues, ce qui faisait passer tous ses membres, aux yeux des autres départements et du Conseil, pour « les enfants terribles » de la maison, d'autant plus hétérodoxes que ceux-ci se réclamaient tous, d'une manière ou d'une autre, de Schumpeter - sinon méconnu à l'époque, du moins résolument récusé au sein de l'Organisation. L'aventure d'Interfuturs Il n'a pas fallu moins que la crise du pétrole au début des années 1970 pour introduire le vilain petit canard dans la basse-cour. Non sans mal, car de toutes parts les résistances ne manquèrent pas, du côté des délégations comme des directions économiques. Les Perspectives publiées en 1970 par l'OCDE pour célébrer ses dix d'existence prévoyaient tout simplement un taux de croissance très semblable à celui de la décennie précédente. Avant même la guerre du Kippour, les signes s'accumulaient, depuis la fin de la convertibilité du dollar, d'un ordre économique mondial qui ne ressemblerait en rien à l'expansion de la décennie précédente, mais l'Organisation se contentait d'extrapoler à partir du succès des « Trente Glorieuses » un taux de croissance tel que le produit de l'ensemble de la zone serait automatiquement doublé ! Autant l'Organisation semblait faite pour surfer sur les vagues connues d'une croissance sans chômage ni trop d'inflation, autant elle semblait et se montra peu en mesure de faire face aux contraintes d'une croissance modérée, accompagnée de taux d'inflation élevés et de la montée du chômage. L'Organisation décida de créer un groupe d'experts, sous la présidence de l'ancien conseiller du président des États-Unis McCracken, dont la mission essentielle était de rassurer : tous ces troubles étaient éphémères, une parenthèse de peu de durée dans la continuité d'une croissance irrésistiblement soutenue. Le fine tuning devrait suffire à remettre de l'ordre dans les économies occidentales et, suivant le titre même de son rapport, rétablir « le plein emploi et la stabilité des prix ». ' Peu convaincu par cette démarche, conscient tout au contraire du vent de turbulences qui s'annonçaient, le Dr Alexander King pressa le secrétaire général de constituer auprès de lui une unité chargée de la prospective, qui ne serait pas faite exclusivement d'économistes et dont le statut serait permanent. Et c'est encore le Dr Alexander King qui obtint des autorités japonaises les ressources financières permettant de lancer le programme Interfuturs : une occasion pour elles de célébrer l'entrée du Japon au sein du club des pays les plus riches que constituait l'OCDE. C'est ainsi que la prospective à l'échelle mondiale a fait son entrée à l'OCDE, malgré les réticences des autres directions et de plusieurs délégations, dont celle des États-Unis. Un programme d'une grande ambition, qui ne visait à rien moins que l'étude de « l'évolution des sociétés industrielles avancées en harmonie avec celle des pays en développement », en évaluant non seulement les possibilités et les contraintes liées aux facteurs matériels tels que l'énergie, les matières pre- 346 PROSPECTIVE mières et l'environnement, mais aussi « l'évolution future des structures et en fonction de l'interdépendance internationaux, systèmes économiques croissante », bref en abordant des sujets, institutions, comportements, valeurs, participation politique, qui conduisaient à penser les problèmes des peuples, des nations et du monde dans d'autres termes que ceux de l'économie stricto sensu. Tout naturellement, le nom de Jacques Lesourne s'est imposé en premier les Et de fait le parmi spécialistes qui pourraient mener à bien Interfuturs. fut mené à bon mal tous les efforts de terme, projet gré gré malgré torpillage des uns et des autres. Bien entendu, il n'eut aucune suite institutionnelle au sein de l'Organisation. « L'incitation à la prise de conscience et à l'action », que le rapport final revendiquait par sa vision et ses scénarios des futurs possibles, déboucha sur un objet de librairie parmi d'autres, ce qui favorisait le retour de l'Organisation à une lecture et à une gestion essentiellement écoà court terme et donc à courte vue des et des évolunomiques, problèmes tions. Business as usual, comme si rien ne s'était passé, ni l'exceptionnel effort de prospective alertant sur les menaces et les décisions à prendre ni à plus forte raison la succession de déboires que les économies de l'OCDE allaient affronter dans la décennie qui suivit. La perspective du long terme adoptée par Interfuturs, tout autant que les difficultés rencontrées par le projet au sein de l'Organisation, m'ont rendu plus de Lesourne alors travaillais de mon côté au rapport proche Jacques que je sur « la science et la technologie dans le nouveau contexte socio-économique », publié en 1980 sous le titre de Changement technique et politique économique. Loin qu'il y eût entre les deux projets concurrence et encore moins rivalité, une forme de coopération s'établit tout naturellement, certains membres de mon ont nourri les réflexions puisque groupe d'experts de l'équipe d'lnterfuturs sur l'avenir des activités de recherche-développement, les promesses d'innovations grâce aux nouvelles technologies et leurs dans le domaine et social. De plus, possibles répercussions économique cherchant à fuir les pressions quotidiennes du château de la Muette quand je m'attelais à la rédaction des premières versions du rapport, j'ai été accueilli à Neuilly. par Jacques Lesourne dans les bureaux d'Interfuturs C'est Christopher Freeman qui avait attiré mon attention sur ce que lui et Carlotta Peres allaient appeler le « nouveau paradigme techno-éconodans l'hismique », en bref, le démarrage d'un cycle nouveau d'innovations toire du changement technique, cycle « révolutionnaire », analogue par la diffusion de ses effets dans toute l'économie à ce que furent la révolution de la machine à vapeur et celle de l'électricité. La prise en compte de cette vision schumpetérienne, héritée des cycles de Kondratiev, était alors aux de l'OCDE. Seuls les membres antipodes des perspectives néo-keynésiennes du Comité de la politique scientifique et technique, pour la plupart des scientifiques ou des gestionnaires de la recherche, plus attentifs aux conséquences du changement technique sur l'économie et la société qu'ils n'étaient (et ne La tristesse de Cassandre 347 se revendiquaient) soucieux d'étudier praticiens de l'économie, se sont montrés immédiatement d'un «biais» prole problème, en partant de l'hypothèse des nouvelles voqué par l'explosion technologies (information, communicanouveaux matériaux, tion, biotechnologies, etc.) tendant à substituer le au travail. À la même le capital époque, rapport McCracken rassurait les membres du Comité de la politique économique et les gouvernements en la crise n'était court mauvais moment à Obsédé passer. expliquant que qu'un par la persistance de l'inflation, on ne jurait que par la « courbe de Philips » instituant une relation inverse entre inflation et chômage - qui est d'ailleurs aujourd'hui contestée. L'inflation maîtrisée, les difficultés du marché du travail devaient « naturellement » se résoudre avec la croissance revenue. Ni la croissance n'est revenue au rythme qu'on espérait ni la montée du chômage n'a été jugulée en Europe. À l'époque, ce qui frappait les économistes, c'était le spectacle contradictoire (renversement du « paradoxe » actuel) qu'offrait l'économie américaine caractérisée par un investissement massif dans la recherche-développement, un niveau d'innovation mais un taux de croissance de la probouillonnant, ductivité stagnant dans la durée (aux yeux de certains, déclinant). Au-delà des interrogations la question posée, assuque soulevait cette contradiction, rément prématurée compte tenu du fait que les nouvelles technologies étaient très loin encore de se propager dans l'économie -, revenait à demander si la théorie et l'expérience du passé pouvaient confirmer que la révolution technique en cours se traduirait par un nombre d'emplois supérieur à comme l'agricelui des emplois supprimés. Si l'industrie manufacturière, culture, est vouée à produire de plus en plus avec une main d'oeuvre de plus en plus réduite, le secteur des services sera-t-il en mesure, une fois exposé à son tour aux effets de la révolution de l'information, de « compenser » les Les réponses données furent, comme on pouvait s'y emplois supprimés ? crainte de trop anticiper sur un avenir attendre, nuancées et prudentes, imprévisible. Elles soulignaient en particulier qu'il n'y avait pas d'échappatoire à la nécessité d'accroître la productivité pour surmonter la crise, mais qu'une ombre demeurait sur la nature des politiques à suivre pour remédier aux dommages sociaux qu'entraînerait fatalement la « période de transition Le spectre , . des robots Si j'évoque ce rapport, ce n'est pas pour insister sur ce qu'il avait à l'époque face au conformisme des spécialistes de la macroéconomie, et d'original encore moins pour le comparer à l'horizon plus lointain et aux enjeux plus nombreux dont traitait l'équipe d'Interfuturs, mais parce que, d'entrée de jeu, Jacques Lesourne a pris au sérieux les questions qu'il soulevait et dont, (1 ) J'en parle plus précisément dans Survivre à la science. Une certaine idée du futur, Albin Michel, Paris, 1999. 348 PROSPECTIVE bien sûr, nous nous entretenions. Ces questions sont celles-là même qu'affrontent aujourd'hui les économies occidentales dans un contexte qui ne peut plus ignorer l'impact de la nouvelle révolution technique, des questions qui sont au coeur même de plusieurs des livres qu'il a publiés par la suite. Le ralentissement du taux de croissance de la productivité dans les années 1970 n'empêchait ni une croissance économique ni un rythme de changement technique importants. Davantage, si le taux de croissance de la productivité était inférieur à celui de la période précédente, surtout aux États-Unis, son niveau ne continuait pas moins à s'élever, de sorte que les économies occidentales devenaient substantiellement plus riches dans l'absolu (de 1970 à 1990, le revenu réel par tête a augmenté de 38 % aux États-Unis, de 53 % en France). Mais, simultanément, ces économies étaient confrontées à un accroissement de la misère, aux États-Unis sous forme de la baisse des salaires des plus mal payés et d'une diminution des revenus des « cols blancs », en Europe sous forme d'un chômage massif frappant peu à peu toutes les catégories sociales. Si différentes que soient les réponses institutionnelles en Europe et aux États-Unis, on espère qu'au terme de l'ajustement au choc des nouvelles technologies, l'augmentation de la production et l'accroissement de richesse qui doit s'en suivre permettront de rééquilibrer les dysfonctionnements du système économique, ici réduction du chômage et là reprise en hausse des salaires moyens. L'exemple américain des dernières années de ce siècle montre assurément que la diffusion de la révolution de l'information entraîne l'accroissement de la productivité et que le cycle du chômage et du tassement des salaires des classes moyennes peut se renverser. Mais, d'une part, l'appauvrissement des classes défavorisées, des minorités, des jeunes et des femmes sans compétence technique n'est pas pour autant en recul. Et d'autre part, la création d'emplois n'a manifestement plus rien à voir avec celle des révolutions techniques précédentes. La mécanisation du travail tendait à soulager l'homme des travaux physiques pénibles en multipliant la quantité d'énergie disponible. Aujourd'hui, si la « société digitale » le soulage des travaux de routine, elle tend aussi à le remplacer dans la maîtrise des activités non seulement de production, mais encore de service, activités directement gérées par les machines. Point n'est besoin d'être devin pour percevoir qu'il s'agit d'une véritable mutation des sociétés industrielles, dont les répercussions commencent à peine à se manifester dans tous les domaines de la vie économique, sociale, politique et culturelle : du télétravail à la guerre électronique, des activités menées en réseaux au cybermonde virtuel, les repères du processus d'industrialisation fondés sur l'énergie, les matières premières et le travail salarié à la chaîne sont tout simplement effacés par un paysage nouveau dont nous n'identifions que les premiers contours. Les pages que Jacques Lesourne consacre dans le Modèle français au « tremblement de terre de la société d'information » sont à cet égard parfaitement explicites : le plein d'emploi n'a d'avenir que si l'on accepte le « bouleversement de la hiérarchie des Latristessede Cassandre 349 coûts du travail des diverses compétences ». Les comportements, les habitudes et les politiques sont condamnés à s'adapter à cette révolution qui remet tout à la fois en cause l'éducation, le travail salarié, le système des retraites, les monopoles des entreprises publiques et l'État providence. Le « nouveau paradigme techno-économique » est la source directe de la redistribution des cartes qu'entraînent la libéralisation et la mondialisation des activités et des échanges. Si l'on n'élabore pas « des stratégies permettant de s'immuniser contre les effets pervers de cette révolution tout en exploitant les opportunités qu'elle offre », les moins compétents - jeunes non qualifiés et cadres déqualifiés seront de plus en plus exclus du marché du travail. Au bout, le spectre de robots se substituant au travail humain, dont la science-fiction entretenait les fantasmes de ce siècle alors que l'automatisation n'était qu'en gestation, envahit l'horizon du capitalisme comme une menace généralisée de substitution de la machine au travail humain. Il est clair - et plus que probable que beaucoup de pays en développement seront hors course, sinon de plus en plus profondément décalés par rapport aux pays industrialisés et donc voués au sous-emploi. Du côté des pays industrialisés, les générations de jeunes gens que l'on n'aura pas formées à la maîtrise du nouveau système technique seront tout autant écartées du marché du travail. ' C'est très exactement la domination de la « surclasse » que Norbert Wiener, un des pères fondateurs des technologies de l'information, a annoncée dès les débuts de la cybernétique - avec un sentiment de culpabilité parce qu'il a contribué de près à l'éclosion de cette révolution, mais aussi, peut-être, parce qu'il se savait et se présentait lui-même comme un « surdoué » : « l'ordinateur dévaluera le cerveau humain comme la machine à vapeur a dévalué le bras humain. [...] De même que le charpentier qualifié, le mécanicien qualifié et l'administrateur qualifié ont survécu à la première révolution industrielle, le scientifique qualifié et l'administrateur qualifié survivront à la seconde. Cependant, quand le seconde sera accomplie, l'homme ordinaire aux accomplissements médiocres ou pires n'aura plus rien à vendre qui mérite d'être acheté. » Wiener ajoutait, sans trop d'illusions : « la réponse est, bien sûr, d'avoir une société fondée sur des valeurs humaines plutôt que sur l'achat et la vente », et il faudra pour arriver à cette société « une bonne dose de planification et d'effort qui, si le mieux arrive au mieux, doit se situer sur le plan des idées - et autrement, qui sait ? Qui sait, en effet, à voir la persistance du chômage en Europe, les dégâts que causent le creusement des inégalités et l'augmentation du nombre des exclus ? Les débuts de la révolution industrielle ont été le théâtre de tensions et de luttes dont nous avons à peine, pour reprendre la formule de Jacques Lesourne, cicatrisé les plaies. Mais déjà, avec les jeunes des banlieues, blacks, beurs et bien de chez nous, réapparaissent les fantasmes et les peurs du thème des « classes laboor Controland Communicationin theAnimaland he Machines, ( l )N. Wiener,C_vbernetics 1. Introduction,(1948),MIT Press, 1961. 350 PROSPECTIVE rieuses, classes dangereuses » à nouveau privées de travail et marginalisées avec la même topographie de l'exclusion et de la répression. Les points de suspension de l'histoire Tous les livres que Jacques Lesourne a consacrés à sonder les reins et les coeurs de l'avenir, des Systèmes du destirt aux Mille sentiers de l'avenir, reviennent à s'interroger, au-delà de l'économie proprement dite, sur le coût de la régulation des sociétés et la capacité dont elles disposent de maîtriser les défis qu'elles rencontrent dans leur processus d'auto-organisation ce a les insuffisances de contrôle. Chacun de ces livres se termine qu'il appelé par des notes d'espoir, quels que soient la part d'imprévisibilité et surtout le poids d'expériences décevantes, combien lourdes de massacres et de victimes dont témoigne l'histoire de ce siècle. Dans l'Économie de l'ordre et du désordre, la tension est encore plus évidente entre l'affirmation de la rationalité des agents, si limitée qu'elle soit, et l'omniprésence du hasard : « ce livre, dit-il, pourrait s'achever sur des points de suspension ou des points d'interrogation », entre autres raisons parce que le balancement de l'ordre et du désordre doit nous rappeler que le marché n'est pas seulement organisateur, mais destructeur au sens même où l'entendait Norbert Wiener. Aucune modélisation, assurément, ne peut venir à bout de ces tensions qui dénoncent la finitude de l'homme, des sociétés, des civilisations aux prises avec les dérives des tentations de leurs propres folies. Bref, les progrès du savoir, si grands qu'ils soient, ne permettent pas de maîtriser les contradictions de « la trilogie de la création et de la destruction, du changement et de la permanence, de l'adaptation et de la sclérose » que constituent «le hasard, la nécessité et la volonté». Rien n'est plus révélateur que cette trilogie de la distance que Jacques Lesourne a toujours mise entre ses travaux d'économètre et la recherche d'un sens à donner aux tribulations mortelles des institutions et des civilisations. Comme le souligne l'introduction à l'Économie de l'ordre et du désordre, « le noyau dur de la théorie économique ignore l'histoire ». En somme, l'historien et l'homme de culture qui s'inspire de Thucydide, Tacite ou Michelet a plus à nous dire que tous les économistes embarqués dans la seule recherche des équilibres de concurrence parfaite et la mise au point de modèles mathématiques. C'est que le jeu constant du hasard, de la nécessité et de la volonté entraîne trop de complexité et d'imprévisibilité dans les affaires humaines pour que les comportements n'y révèlent - au mieux qu'une rationalité très limitée. Quel que soit le progrès de l'économie, à plus forte raison celui des méthodes de prospective, la simple leçon de l'histoire est que l'avenir n'est qu'un point de suspension et d'interrogation. C'est bien pourquoi il serait intéressant, avec tous ceux qui participèrent à l'aventure intellectuelle d'Interfuturs, de voir l'OCDE se livrer à une « rétro prospective » analogue à celle que réalisa en 1985 le Commissariat général Latristessede Cassandre 3511 au Plan, à l'initiative de Henri Guillaume, autour des Réflexions pour 1985. - non pas, comme l'a dit Henri Guillaume en ouvrant les débats, pour distribuer de bons ou de mauvais points, mais pour comprendre les raisons des divergences et des convergences entre les différents scénarios proposés et la sanction que l'histoire leur a données Le propre de la prospective n'est pas de démontrer qu'elle a eu raison ou tort, mais de comprendre pour quelles raisons, dans quelle mesure et par quels mécanismes ses conclusions ont été ou non suivies d'effet : c'est tout le problème - et le malheur - de Cassandre. Mais la prospective n'a pas à faire des prévisions, encore moins des prédictions. Ce qu'elle peut faire de mieux est d'offrir une idée générale des possibles, le dessin exploratoire des paysages inexplorés qu'entrouvre l'approximation des données, des méthodes et des témoignages. Dans les années soixante, quand commençait la vogue des think tanks et de la prospective, l'American Academy of Arts and Sciences de Boston avait confié à Daniel Bell le soin de réfléchir aux possibles de l'an 2000. Beau projet mené par une commission de quarante membres venant tout aussi bien des sciences de la nature que des sciences sociales. Les éditions du MIT viennent de rééditer le résultat de ces travaux, publiés alors par la revue Daedalus, qui passèrent à l'époque pour un modèle de prospective. (2) La rétro prospective est éclairante, comme le soulignent avec honnêteté Daniel Bell et Stephen Graubard, rédacteur en chef de la revue Daedalus, avec des thèmes que la suite des événements a confirmés et d'autres dont personne n'avait anticipé l'importance. Par exemple, les problèmes soulevés par la « gouvernance » dans les sociétés avancées, l'influence des sciences de l'information, la montée de la violence individuelle et collective, les menaces pesant sur l'environnement et les perspectives ouvertes par les développements de la biologie moléculaire ont été incontestablement plus qu'entrevus. En revanche, les scénarios de rupture ont été en dessous de tout, l'extrapolation des éléments de continuité interdisant, par définition, d'imaginer l'impossible, en premier lieu la fin de la guerre froide, la chute du mur de Berlin sans « montée aux extrêmes » d'une guerre atomique planétaire. Mais qui peut, sans être devin ou prophète, imaginer l'impossible ? À la veille des années tumultueuses commençant avec les « événements de 1968 », on tenait encore pour acquis, inévitablement cumulatif et promis à perdurer, le processus de croissance qu'on avait connu depuis la fin de la Deuxième Guerre mondiale, avec un modèle dé développement social luimême voué à se reproduire dans la continuité. Bell et Graubard ne se défendent pas de souligner tout ce par quoi l'exercice a pu être démenti ou plus simplement encore des changements essentiels ignorés : les rôles nouveaux exercés par les femmes, le problème des minorités, les mouvements extracommentvoyait-on1985en 1962», annexe1dans Faire gagner la (1) « Rétro-Prospective: France (sousla directionde HenriGuillaume),Hachette/Pluriel,Paris, 1986. in Progress,MIT Press,Cambridge, (2) D. Bell et R. Graubard,Towardthe Year2000. Work Mass., 1997. 352 PROSPECTIVE et, plus effarant encore, la montée en puissance du Japon. parlementaires C'est dans le domaine des relations internationales que Toward the Year 2000 a été pris le plus en défaut. Par exemple, Samuel Huntington qui inventa récemment le « clash des civilisations » où sectes, religions et cultures doivent s'affronter au siècle prochain comme au temps de la guerre des paysans, prévoyait avec le plus grand sérieux la décadence des États-Unis et l'élimination définitive des Européens de la scène mondiale. La surprise technologique De ce point de vue, c'est l'archétype des oracles installés dans les think tanks comme la Pythie sur son trépied, Hermann Kahn, qui présente un bilan de scénarios particulièrement décevant. La France ne devait-elle pas être, à la fin de ce siècle, la plus forte puissance industrielle en Europe ? Il suffit de lire le best-seller que fut L'an 2000 de Herman Kahn, publié en 1967 comme « un canevas de spéculations pour les 32 prochaines années », pour mesurer tout le chemin qui n'a pas été en fait parcouru. (1) Passons sur les nombreux scénarios de guerre nucléaire entre les États-Unis et l'ex-Union soviétique, qui ont fait la gloire de Herman Kahn : aucun, bien entendu, n'a imaginé que la fin de l'antagonisme entre le monde communiste et le monde capitaliste aurait lieu, sans le moindre coup de fusil, par l'implosion du système communiste. Faut-il s'étonner, s'agissant précisément de l'électronique et de l'idée du CD-rom et du multimédia l'informatique, que n'y apparaisse pas, à plus forte raison celle d'INTERNET ? Mieux, Herman Kahn nous annondes robots non seulement dans les çait pour l'an 2000 la généralisation mais encore dans tous les usines, foyers sous forme « d'aides ménagères ». Ces robots esclaves de la ménagère, entraînés « dans le but d'accomplir un travail particulier à chaque maison », ne seraient pas « plus capables d'émotion qu'une voiture, mais posséderaient une mémoire pour enregistrer les ordres » et « pourraient bien diriger d'autres machines plus spécialisées comme l'aspirateur ou la machine à laver ». . -' Ce qui est encore plus révélateur - ce qui révèle le plus combien la prévision technologique peut être liée aux fantasmes de ceux qui la font passer pour une méthode à la manière des augures et des haruspices de rigoureuse, c'est le caractère essentiellement (le mot est de l'Antiquité apocalyptique Kahn) des usages et des effets sociaux anticipés de la diffusion de l'informatique. Obsédé de stratégie et de relations de pouvoir, ne pouvant concevoir le monde qu'en termes de violence, de délinquance et donc de police, le fondateur du Hudson Institute, après avoir été l'un des piliers de la Rand a essentiellement vu dans le traitement de l'information les Corporation, menaces qu'il ferait peser sur la vie privée : centralisation des dossiers individuels, écoutes des conversations téléphoniques par les individus et les gou( l ) H. Kahn, et A.J. Wiener, L'an 2000 : Un canevas de spéculations pour les 32 prochaines années, Robert Laffont, Paris, 1967. Latristessede Cassandre 353 vemements, traque des automobilistes en excès de vitesse ou des criminels en puissance, etc. En somme, il n'a pas prévu d'autre monde que celui qu'a imaginé Orwell, à ceci près que le système généralisé de surveillance s'appuierait, nous dit-il, sur des « calculateurs simples », dont « les critères pourraient être soit certains mots : argot, obscénités, ou pari, course de chevaux, tuer, subversion, révolution, infiltrer, pouvoir noir, organiser, opposer, soit des combinaisons plus complexes [...] comme d'être sensibles à des informations non verbales telles que le ton menaçant ou coléreux d'une voix ». Et ces calculateurs, « capables d'un certain degré de logique déductive, pourraient devenir une sorte de Sherlock Holmes à transistors émettant des hypothèses et menant des investigations d'une manière plus ou moins autonome ». Scénario plausible, assurément, puisque l'informatisation croissante de la société place de plus en plus les individus sous le contrôle du fichier électronique : on peut déjà suivre à la trace tous ceux qui utilisent une carte de crédit comme la preuve de leur passage à telle heure, tel jour, dans tel quartier d'une ville, dans tel pays. Demain les cartes d'identité ou de sécurité sociale pourvues de puces accroîtront encore les capacités panoptiques du Big Brother surveillant la vie privée et menaçant les libertés individuelles. Mais, fût-ce demain, faut-il pour autant désespérer des contre-pouvoirs que, dans un système démocratique du moins, on pourra instituer ou renforcer (comme la Commisssion Informatique et Libertés) pour nous protéger contre les dérives à la Orwell ? L'apocalypse selon Herman Kahn est aussi sous réserve de régulation politique. Il est plus intéressant et réconfortant de voir les liens noués entre la prospective de la Commission for the Year 2000 et les livres que Daniel Bell a publiés par la suite, sous sa propre responsabilité, sur la société postindustrielle et les problèmes sociaux et culturels que celle-ci est appelée à affronter. Les travaux de prospective, si décevants qu'ils puissent paraître quand ils prétendent maîtriser toutes les figures de l'avenir, sont aussi la source d'évaluations originales sur les ressorts d'ajustement des sociétés. De ce point de vue, Daniel Bell a manifestement tiré le meilleur parti intellectuel des travaux auxquels il a participé en éclairant les principes et paradigmes qui président aux mutations dont nous sommes et les témoins et les acteurs. Encore faut-il être attentif aux signes du changement au point de se préparer à en percevoir les conséquences probables, faute de quoi le regard sur l'avenir est brouillé comme les verres de lunettes par la buée. De ce type d'aveuglement, les politiques ne sont pas seuls à témoigner, il y a aussi les scientifiques. Thomas C. Schelling, grand spécialiste des problèmes stratégiques, a dressé sans rire la liste des découvertes inattendues auxquelles la mise au point des armements nucléaires a donné lieu, ce qu'il appelle des « découvertes par accident », en fait « littéralement des accidents » ou plutôt des « mésaventures inattendues ». Il est tout simplement ahurissant (1) T.C.Schelling,« Researchby Accident», TechnologicalForeca.rting,vol. 53, n° 1, septembre 1996. 354 PROSPECTIVE que les scientifiques et les politiques qui y ont contribué en aient été pris de court : par exemple, la découverte à Hiroshima et à Nagasaki que le rayonnement neutronique ait provoqué des maladies mutagènes, que l'explosion de la première bombe H américaine ait entraîné un raz de marée ou encore, plus grande surprise lors d'autres expériences atomiques, que le champ radio ait été magnétique en ait été affecté au point que toute communication supprimée et les radars plongés dans la nuit. Schelling rappelle que, dès 1933, un écrivain anglais, Harold Nicholson, a Public Faces, où une bombe atomique publié un roman de science-fiction, les auraient lancée par un engin à réaction dans expérimentale, que Anglais à 300 km de Charleston, entraînait un raz de marée l'Atlantique quelque de la carte cette ville et d'autres villes américaines, causant 90 000 effaçant victimes. Or, cet article de Schelling consacré aux surprises technologiques se termine sur le récit de la découverte par l'auteur et par la communauté « du américaine du de carbone » et de l'improblème scientifique dioxyde a à soutenir les recherches sur l'effet de serre ! En somme, portance qu'il y la « surprise technologique » est là pour donner bonne conscience à ceux des chercheurs qui, les yeux pourtant grands ouverts, n'ont pas été en mesure de voir ce que les scientifiques alertés sur l'effet de serre, parmi lesquels trois prix Nobel de 1995, avaient perçu dès les années 1960. Mais, d'un autre côté, la limite radicale que rencontre la prospective tient aussi aux rigidités sociales qu'il ne suffit pas d'identifier ni de dénoncer ni surtout de recommander de corriger pour que les décideurs en viennent à bout (ou songent seulement à oser les combattre). Pas plus qu'on ne peut sous-estimer les résistances au changement, la technostructure ne doit ou jamais surestimer l'adhésion aux voeux et aux édits des transformations même des ajustements que lui inspirent ses bonnes raisons. Le parti qu'on a tiré - ou plutôt qu'on n'a pas tiré - des analyses et des recommandations du fameux rapport Rueff-Armand montre que si la prospective est un paradis pavé de bonnes intentions, la plupart de ses prescriptions peuvent n'avoir, elles, aucun avenir. La France, à cet égard, est championne toutes catégories, où tant de décisions ministérielles sont annoncées et tant de lois adoptées sans que quiconque se soucie réellement de vérifier qu'elles sont suivies d'effet ni à plus forte raison d'en évaluer la portée ou les coûts. Il me semble - et toutes les réflexions qu'il a consacrées à la France en témoignent à loisir - que c'est très exactement le piège dans lequel Jacques Lesourne n'est et de jamais tombé en raison à la fois de son expérience de l'administration l'État, de sa pratique de la prospective, et tout simplement aussi de sa lucidité d'intellectuel, qui lui interdit de confondre ce qu'il peut souhaiter sur la base de ses analyses avec ce qui est effectivement réalisable. L'obsession du déclin Les Grecs eux-mêmes, tout en prenant très au sérieux les signes et les rêves se méfiaient des « experts » qui les interprétaient, allant même prémonitoires, La tristesse de Cassandre 3555 jusqu'à les persécuter comme ce fut le cas de Cassandre, aussi visionnaire ou de Tirésias, le voyant aveugle. L'une et l'autre étaient donc qu'effrénée, condamnés à la tristesse inévitable de ceux qui lancent des avertissements auxquels les décideurs ne prêtent pas attention. Cette tristesse du devin dont se méfient ceux qu'il alerte est présente dans nombre des livres de Jacques Lesoume, en particulier dans son dernier livre consacré au Modèle français : Grandeur et décadence, où prédomine l'idée qu'on aura beau mettre le doigt sur les faiblesses structurelles de notre pays, rien ne fera qu'elles ne perdurent. Je suis comme lui - et sans doute, si différente qu'ait été notre formale plus ou consciemment tion, est-ce cela qui nous a inconsciemment années de de 40 et les ceux la défaite nombre de du que petit rapprochés veulerie politique qui l'ont précédée ont très exactement traumatisés, même s'ils étaient trop jeunes alors pour y jouer le moindre rôle. Et donc de ceux qui rêvent de voir se dissiper les hantises du déclin dont notre histoire s'est constamment nourrie depuis les débuts de la révolution industrielle. Il y a, bien sûr, toutes sortes de devins, et autant de spécialistes de la prosconnais un qui ne s'est pas pective aux repères différents. Par exemple, j'en réédition à l'autre de son a faites d'une les retenu de réécrire prévisions qu'il démenties. Passons muscade, les ont fonction des événements manuel en qui en défaut de ici bonne ce n'est par la transe de ses Pythie prise guerre que moins elle est du La oracles. sérieuse, se défend de se quand prospective, le cas de Jacques Lesourne, qui Tel est à ces tours de prestidigitation. prêter ne cessant à tout en s'aventure ne pas de mettre en garde. Lui jamais prédire, celle de l'idée de la décadence l'Europe et plus encore celle de qu'obsède la France - il entend aussi agir et peser sur les affaires, celles de son pays comme celles du monde, et du coup l'expert en prospective se heurte, bien sûr, à la limite que Kant a désignée avec un bon sens qui peut passer pour une histoire a priori estmalice de rationaliste. « Comment, demandait-il, et si le devin elle possible ? organise lui-même les événefait Réponse : ments qu'il annonce à l'avance. » (1) Car seuls les prophètes sont en mesure de faire passer les meilleurs scénarios de la prospective au stade des réalités de l'histoire, et certes ils ne courent pas les rues. D'ailleurs, ils appartiennent mais à une espèce très différente : ce sont alors non pas des prospectivistes, des hommes d'État visionnaires. elle peut Pourtant, si la prospective ne fait pas bon ménage avec l'action tout aussi bien retenir d'agir, détourner de se fixer le bon objectif, entraîner d'une sur une fausse route que montrer la voie -, elle demeure l'expression veille qui vaut comme témoignage et signe d'alerte, dont l'histoire tiendra une fois de ou ne tiendra pas compte dans les incertitudes de l'interaction, plus entre hasard, nécessité et volonté. C'est ainsi que je vois dans le Modèle tout à la fois le monument d'un diagnostic irréfutable, dont il est français difficile de ne pas partager les analyses, et une somme de conclusions que (1) E. Kant, « Le conflit des facultés », La philosophie de l'histoire, Aubier-Montaigne, Paris, 1947. 356 PROSPECTIVE l'excès de pessimisme dont il témoigne rend - espérons-le fragiles. C'est des années trente que Jacques Lesourne cherche à rendre dans l'obsession intelligibles les sources de notre mal d'être et de nos difficultés d'adaptation : faute de vouloir passer de la société industrielle à la société postindustrielle, la France se trouve entre deux chaises, entre « deux attitudes, aussi excessives et irréalistes l'une que l'autre, qui ont cours en cette fin de siècle : celle d'un Astérix sans potion qui croit pouvoir gérer son village comme autrefois en faisant la nique à l'univers, et celle de l'élève soumis qui, tel un mouton de Panurge, croit qu'il n'a d'autre ressource que de suivre passivement ses confrères ». et à la révoDur, très dur diagnostic de nos inactions face à la mondialisation lution de l'information : tous les autres pays européens affrontent après tout les mêmes difficultés, nous sommes les seuls c'est vrai - à les vivre Selon Jacques Lesourne, la formulacomme si elles étaient insurmontables. tion explicite de notre modèle remonte aux années d'après la Libération, quand une sorte de compromis historique a été signée entre marxistes et chrétiens démocrates qui contrôlaient les trois-quarts de l'Assemblée nationale. Pour « cicatriser enfin la plaie sociale » ouverte par la révolution industrielle et effacer celle qu'avait creusée, dans l'humiliation de la défaite, allemande, le modèle s'est essentiellement l'occupation appuyé sur l'État maître d'oeuvre, banrassembleur de la nation, régulateur de l'économie, des innovations produites quier, entrepreneur, producteur et consommateur nationaux qu'il a couvés comme des par le petit nombre de champions enfants préférés à l'exclusion de tous les autres agents économiques, en particulier les petites et moyennes entreprises. « Pendant trente ans, la France a été sur le plan économique une Union soviétique qui a réussi. [...] De même que le système soviétique s'est révélé incapable de s'adapter à une économie de consommation, l'économie française peine à s'adapter à la mondia» lisation et à la société d'information. , Si sévère qu'il soit, je ne vois pas ce qu'on peut reprendre à ce diagnostic, et si nous avons mieux fonctionné que l'Union soviétique, c'est que nous avons évité « les excès dus à la paranoïa de Lénine et de Staline » et bénéficié tant de « la tradition d'efficacité de notre administration » que du « pragmatisme de notre capitalisme ». Mais les vertus qui ont fait hier le succès du modèle sont aujourd'hui des freins puissants, à quoi s'ajoutent le vieillissement de la population, l'appauvrissement la mondémographique, « La France est malade de ce qu'elle a de plus prétée de la xénophobie. cieux, l'État et le système de régulation dont il est le centre. » La clé du voyage dans le labyrinthe du modèle se trouve, en effet, dans les spécificités de la fonction publique où l'on entre par concours, qui confère une sorte de sacrement laïc et dont l'éthique était le service de la collectivité au nom de l'État. À partir de la description de cette culture de l'État, une culture dont les racines remontent bien plus loin que la Révolution française, Jacques Lesourne nous montre comment, des grandes entreprises publiques et semipubliques à l'éducation, l'école, l'université et la recherche, tout est fait pour La tristesse de Cassandre 357 bloquer la société dans un système de pérennité, d'esprit de corps, de solidarités et d'égoïsmes oligopolistiques qui, s'il avait hier sa grandeur, ses mérites et son efficacité, est aujourd'hui d'autant plus inadapté qu'il est corrompu. Il m'est arrivé, en invoquant Astérix tout comme Jacques Lesourne, de dresser un procès fort sévère de notre système de recherche, d'innovation et en insistant comme lui sur les rigidités idiosyncrasiques d'éducation, qui de se moderniser à la mesure des défis qu'il affronte et de l'empêchent conclure comme lui que « plus cela change, plus c'est la même chose. » Mais, si impertinentes qu'on ait dénoncé mes analyses, celles de Jacques Lesourne sont tellement plus corrosives que les miennes, car elles se fondent sur une à nulle autre connaissance et une expérience de la haute administration « sui des trois un système planétaire generis », garant grands équipareille : libres macroéconomiques : stabilité des prix, plein emploi, comptes extérieurs », dont les membres sont étroitement solidaires, qu'ils soient libéraux ou marxistes, puisqu'ils « sont sur une planète distincte de celle des intellectuels ». Or, l'état de grâce dont témoignaient les élites françaises s'est peu à peu délité à partir des années soixante-dix : c'est que, « peu carriéristes, avides de apolitiques, peu promotions rapides en se plaçant dans le sillage des cabinets ministériels ou de partis », nos hauts fonctionnaires ont fait et ont fini, en connaissance avec les délices du .spoils system à l'américaine somme, par traiter le service de la collectivité au nom de leurs propres intérêts de carrière et de fortune. « Kremlin-sur-Seine » a dit Le Monde en rendant compte de ce livre ; « au Goulag près, ce qui n'est pas un détail », reconnaît Jacques Lesourne, cette Union soviétique qui a réussi se heurte désormais à des obstacles tels qu'il faudrait une véritable « cure de désintoxication » pour en venir à bout. C'est ici que je ne sais quels mirage, pulsion d'optimisme ou zeste inconscient de méthode Coué me retiennent de suivre jusqu'au bout le constat si radicalement pessimiste de Jacques Lesourne. Il me semble malgré tout, quelles de « l'exception française » au qu'aient été les rigidités et les revendications cours de l'histoire, que nous nous sommes toujours finalement adaptés aux différents chocs de la modernité, vaille que vaille dans la longue durée et « Pauvre Astérix sociales retentissantes. parfois, certes, à coup d'explosions » dit Jacques Lesourne. Est-ce se donner bonne qui n'a plus sa potion... conscience que de rappeler que le druide, au moins dans la bande dessinée, finit toujours par recomposer une nouvelle potion dans son chaudron ? , ' Entre justice et efficacité Plus sérieusement, le modèle qui têtes », s'il peut faire l'objet d'une de plus un électrochoc. Il est vrai entrons sinon à reculons, du moins d'un État qui, « toutes griffes dehors ancré dans les est « si profondément cure, peut tout aussi bien subir une fois nous que, dans l'aventure européenne, à pas mesurés avec toutes les réticences », concède « l'accessoire en glissant ça 358 PROSPECTIVE et là les petites phrases qui réservaient le principal ». Mais nous y entrons, et je ne peux m'empêcher de penser que si l'euro doit réussir, nous sommes entrés dans une cure qui promet de dépoussiérer le modèle. Il faudrait, de vraies réformes et sans certes, doute, plus encore, une dose de volonté à d'un Périclès ou d'un de Gaulle, c'est-à-dire la vision d'un véritable l'image homme d'État pour imposer l'idée d'une Europe réellement unie, donc fédérale, plutôt que le salmigondis de nations confédérées auquel nous destinent et la volonté collectives. Bien sûr, ce serait sauter un très grand l'hypocrisie et renoncer aux prétentions hégémoniques de l'État nation d'une autre pas d'une autre et d'une autre ère, technologie planète. Mais l'Europe à petits nous a brodée la trouée comme un gruyère de Maastricht, pas que tapisserie avec ses fantômes de pouvoirs exécutif et législatif et ses gesticulations dans le domaine de la défense, n'est qu'une variante de Zollverein dont l'avenir n'est rien moins qu'assuré. Parmi les recettes les plus simples qu'envisage Jacques Lesourne, je retiens néanmoins celle qui s'attaquerait à « la déformation de la représentation nationale qui résulte du privilège exorbitant des fonctionnaires élus de pouvoir réintégrer à tout moment la fonction publique, ce qui supprime pour eux l'obstacle principal à l'entrée dans la vie politique que rencontre toute autre catégorie de citoyens : le risque de carrière » Recette simple, bien sûr, mais ne faudra-t-il pas moins d'une nuit du 4 août de notre aristocratie polytechnico-énarchienne Ce n'est pas le sérail qui a sauvé la pour y consentir ? Turquie, ce n'est pas de la Curie romaine qu'est venu Vatican II. Nos parlementaires et nos ministres connaissent leur État sur le bout des doigts, mais ils le connaissent trop... Je suis prêt pour ma part à jouer au devin pour prédire que si cela doit arriver, ce sera sous l'effet d'une nouvelle explosion sociale. Parmi les recettes les plus difficiles, sinon les plus improbables à court terme, Jacques Lesourne lance un appel aux « intellectuels » pour qu'ils définissent le cadre d'un nouveau modèle, « comme l'ont fait les penseurs socialistes des années trente. C'est à eux de proposer des instruments nouveaux réconciliant justice et efficacité. Il ne suffit pas en effet de clamer les vertus - incontestables du marché pour définir un modèle social pour le xxie siècle. Il existe des responsabilités publiques à l'échelle des nations de et du monde et il faut se demander les assumer comment l'Europe demain... » De la part de ce grand libéral qu'est Jacques Lesourne, cet appel à reprendre l'héritage des penseurs socialistes des années trente est comme une lueur, malgré tout, d'anti-désespérance face « au rouleau compresseur des changements ». du prospectiviste technologiques L'expérience qui sait les de l'économie ne suffisent à rendre que projections quantitatives jamais les voies du à forte raison celles de l'avenir, le intelligibles présent, plus conduit à inclure et à associer, parmi les « intellectuels », « les philosophes, les sociologues et les économistes ». À condition, ajoute-t-il, qu'ils se com». Certains seraient tentés de voir portent tous « comme des professionnels dans l'humeur pessimiste du Modèle français une forme de défaitisme, et ils La tristesse de Cassandre 359 tout à fait tort. Ils feraient mieux d'avoir à l'esprit ces mots de sociadans sa préface à la deuxième édition de Capitalisme, Schumpeter « Les faits en eux-mêmes et les déductions que l'on en lisme et démocratie : tire ne peuvent jamais être défaitistes, ni le contraire, quel qu'il puisse être. Le compte rendu signalant qu'un navire est en train de couler n'est pas de ce défaitiste. Seul peut l'être l'esprit dans lequel il est pris connaissance il Mais boire un aller s'asseoir rendu : coup. pour l'équipage peut compte des intelau courir aux » L'appel professionnalisme pompes. peut également lectuels est une bonne manière de nous inviter à courir aux pompes. auraient des mises en garde que Cassandre aura lancées, avant et pendant la lui avait prode Troie, n'aura été prise au sérieux. C'est qu'Apollon guerre le don de de lui donner dit l'une des mis, prophétie à condition légendes, d'en recevoir ses faveurs. Marché conclu, mais à peine fut-elle instruite par le dieu qu'elle se déroba à sa promesse. Apollon se vengea en lui retirant non pas le don de prophétie, mais celui de la persuasion. C'est le destin des aux gouvernants et aux peuples les Cassandre, où qu'ils soient, d'annoncer histoire en parlant comme dans le désert. les tournants de leur et dangers à mes Lesourne ne yeux de persuasion, mais cela ne manque pas Jacques suffit pas à convaincre ceux auxquels il s'adresse de préférence. Pourtant, quelles leçons nos décideurs, de droite comme de gauche, ne devraient-ils pas tirer de ses analyses et de ses mises en garde ! Même s'il se montre plus pessimiste que je ne le suis moi-même, que de choses seraient améliorées si l'on savait tenir compte à temps de ses diagnostics et de ses recommandations ! Le point de différence, une pacotille, entre son pessimisme et le mien, c'est que, malgré tout, je persiste à penser que nous nous en sortons dans la de nos compatriotes. durée et qu'il ne faut pas désespérer Après tout, Cassandre a beau être l'ange du malheur, elle échappera au sac de Troie et Au finira, dans le partage du butin, par déclencher la passion d'Agamemnon. moins chez les Grecs, tout n'est pas perdu - même s'il ne reste de Troie que décombres destinés au plaisir des archéologues. Aucune ce fantasme du déclin radical qui hante la réflexion économico-politique de Jacques Lesourne sur la France. Dans l'Iliade, Hector recourt aux son double qui avis d'un prudent conseiller, « l'irréprochable » Polydamas, « seul voyait l'avant et l'après ». Polydamas, en effet, né la même nuit qu'Hector, possède au conseil la valeur que celui-ci possède au combat. La de calplupart du temps, ses avis s'appuient sur de soigneuses combinaisons culs. Pour une fois, à la veille d'une bataille, le voici qui se fonde sur la divination, et Hector refuse de le suivre. Le présage que Polydamas interprète évoque « un aigle qui tient dans ses serres un monstrueux serpent rouge et survole l'armée troyenne par la gauche. Le serpent, qui n'a pas oublié son ardeur combative, mord à la poitrine l'oiseau qui le tenait, et l'aigle alors, vaincu par la douleur, le laisse s'abattre sur la foule ». Polydamas se sert de ce présage pour dissuader Hector de franchir le fossé qui sépare les Troyens aux Hector ne veut pas dépendre « d'oiseaux de l'armée d'Agamemnon. larges ailes », et peu importe que ceux-ci volent à droite ou à gauche, il n'enC'est ' 360 PROSPECTIVE tend se fier qu'aux desseins de Zeus. Dans la formule par laquelle il résume sa position, il y a sans doute trace du scepticisme que les Grecs manifestaient à l'égard de la divination. Formule superbe, qui n'en est pas moins très révélatrice de l'obsession qui, hier chez les Grecs comme aujourd'hui chez Jacques Lesourne, éclaire toutes les raisons de maîtriser l'avenir. Hector déclare, laconique : « Un seul présage est excellent : se battre pour sa patrie. » Daniel Bell 1 ATTHEEND REFLECTIONS 0F ANAGE There is no such entity as "the future". Many writers do use the phrase "the future", as if it were a single place in near or distant time, or like a point on the horizon, to be reached by a projectile of words. (Years ago, Soviet propagandists proclaimed that "communism was on the horizon", until they were told that a horizon is an imaginary line that recedes as you approach it.) "The future" as a phrase by itself (as a philosopher would say), reifies the term, treats it as a "thin", as, somehow, a word with the power to be, or to act. But there is no such independent entity. The English language requires us to use such terms as transitive - that is, to establish a following relationship. There can only be "the future of ..." something: the future of the American economy, the future of the American political system (but not the "future of technology", which is too loose, as 1 will seek to show below). In short, there has to be a boundary condition, of time and place, of a definable entity to make sense of what we mean. ' ' Can one talk of the "future of society"? Yes, but only if we observe a set of stipulations. A society is not an organism, a biological entity, with a homeostatic regulator (like temperature in a human being) that seeks to maintain an equilibrium. Nor is society a "system", made up of interlocking variables, so that changes in the magnitudes of the co-efficients will affect all the other variables - like a Calder mobile in motion - and thus move a different configuration of shapes. 362 PROSPECTIVE Society is a set of .social arrangements, of laws and institutions, created by individuals (inherited from a previous time or re-created by agreement), to facilitate and fulfill needs, allocate social and occupational positions, educate the young, guarantee rights, and control impulses. Societies are held together by a normative series of values and authority which are accepted as legitimate by its members - unless they live under coercive and dictatorial rules and thus are not equal as members. The legitimacy of the arrangements implies a sense of justice; authority, the enforcement of such rules, implies legitimate power. Societies are made up of different realms, each of which operates under different axial principles. The economy - the production and distribution of reciprocal goods and services - is more or less of a system because of the interdependence of the economic actors. Change comes from price signals through market transaction. But the polity - the realms of law and authority - is not a system. It is an "order", created by design, a set of rules and norms to regulate the lives of individuals within the polity. In the United States, we live under a constitution, designed by the founting fathers, to establish divided powers, protect liberties, and establish rights under the rules of law. Change is by conflict or consensus. The culture - the realm of meanings (religious and philosophical), and of imaginative expressiveness in the arts - is even less of a system. The meanings are transcendent. The arts are different styles, such as classical, baroque or modern, established by artists in the exploration of form within a genre, or, as today with post-modernism, the dissolution of all genres. The point of all this is to emphasize that "societies" are not integrated, and do not change, by a technological wand, in undivided ways. Nor are there unified periodically distinct and cut off from one another by historical time, such as is argued, for example, by the Marxian modes of production. If that were the case, how could one explain the persistence of the great historic religions - Buddhism, Hinduism, Confucianism, Shintoism, Judaism, Christianity, Islam - over millennia of time, when economic systems have disappeared and political systems have crumbled. Though thèse religions have changed in manifold ways, the great cores of belief - the Old Testament in Judaism, the savior figure of Jesus in Christianity, of karma and nirvana in Buddhism - and their great texts still compel belief today (1). At different times and in different places, one or another of these realms has been dominant. Historically, most societies have been organized in empires thestatements (1) It is forthisreason,too,thatI readwithastonishment byMr.AlvinToffler: "Weno longer'feel' lifeas mendid in the past.Andthisis the ultimatedifference, the distinction thatseparatesthetrulycontemporary manfromall others...we havebroken withthe past.Wehavecut ourselvesoff fromold waysof thinking,of irretrievably newsocietyandwearenow feeling,of adapting.Wehavesetthestagefora completely racingtowartit."FutureShock,NewYork,RandomHouse,1970,pp. 18,19. What,in God'sname,doesthatmean? Reflectionsof the Endof an Age 363 and monarchies, so the political order has been dominant (as it has been, as well, in totalitarian communist societies), subordinating the economy and co-existing with or seeking to anquish religious authority. In the European middle ages and in theocratic Islamic societies today, the religious domain has held sway. In the modern capitalist West, the economic sphere has been primary in the shaping of society. If societies are not unified, are there some determinate rules of social change? Again, one has to understand the different principles within each realm. Modem Western society saw, for the first time, the relative autonomy of the economic sphere separated from the state. The discovery of "the market", the production of commodities, and the rise of a new class led to the idea of the creation of wealth by private property, rather than the mercantilist state. And modern economics - which itself is only two hundred years old - had formulated the idea of productivity, the notion that, through the use of machines or new organization, one can get a more than proportional return from equal or less effort; and this became codified in the rules of economic change. Thus, if a new invention or innovation is cheaper, or better, or more efficient, then, subject to cost and a better return on investment, it will be used. Thus there is a clear principle of substitution, and change is linear. A second feature of modem economics is that the market in trade and production - knows no boundaries and over-steps political lines. Thus, in the search for profit, the range of economic activities moves from the region to the nation, to the international and finally to the global (which differs from international), and becomes a "single" market, for capital and commodities. Political change - leaving aside the wars between states - has been of two kinds. The most common has been revolution: the overthrow of older privileged classes, freedom from imperial or colonial rule, or, when empires have crumbled, the creation of new states. After World War I, there was the end of the Hohenzollern, Habsburg, and Romanov empires. After World War II, the end of Western imperialism and the creation of almost one hundred new states. And, in the last decade, the breakup of the Communist empires of the Soviet Union and Yugoslavia. It is a striking historical fact - given the histories of the Roman Empire and down to the end of the British and West European empires - that today, for the first time, there are no major political empires in the world. Whether China will become a new empire in the 2lst century remains to be seen. y " Where one finds stable, democratic societies, and again it is striking how few these are - the United States, the United Kingdom, and the small countries in northwest Europe - political change arises from the inclusion of minority groups (such as women and blacks) into the political order; the checking of corporate economic power, as with the New Deal; the expansion of rights, such as privacy and free sexual choice; the expansion of regulatory power and, as we have seen increasingly, the reaction to bureaucracy and the centralization of powers in government. One central theme - which was 364 PROSPECTIVE enunciated has been the role of inequality in by Aristotle in his Politics creating political conflict in societies. And the first lines of Tocqueville's Democracy in America emphasize the novelty of the search for equality in American life. In the United States, for the past hundred and sixty years, we have been sorting out the different kinds of equality, such as the equality of all persons before the law, of civil equality in public accommodations, of voting rights, and equality of opportunity and equality of result. Changes in culture have many different patterns. In the arts, there is no principle of substitution. Boulez does not replace Bach, but widens the esthetic repertoire of mankind. We read The Iliad to understand the codes of honor and shame, and the first expression of tragedy in the realization, as in the fates of Patroclus and Hector, of death before its time in young manhood, and even the very idea of death for humans, as against the immortality of the Gods. And we read Antigone to understand the defiance of Creon by this young woman, in order to provide a decent burial for her brothers, since decent burial, as we had already learned in The Iliad, is the mark of respect and of civilized behavior. It was a quest repeated two thousand years later in searching for the woman, Nadezhda Mandelstam, by that extraordinary who had body of her husband, the great Russian poet Osip Mandelstam, in the purges, killed by Stalin for the mocking poem he had disappeared written about the communist dictator. Art crosses time and appeals to a common human understanding. Can it be outmoded, or rendered obsolete? In the realm of "meaning", particularly religion, modernity has brought to established faiths. Most of the Enlightenment thinkers, many challenges from Voltaire to Marx, thought that religion would disappear in the twentieth century, for to them religion was superstition, fetishism and irrational beliefs that would give way to the authority of science ant rationalism. Much of this was summed up in the term secularization, particularly in the sociology of Max Weber. But the word secularization, 1 believe, is wrong, because it conflates two different processes: changes in institutions and changes in It is evident that has lost much of its institutional beliefs. quite religion in the sense of a set of and authority, commanding prohibitions permissions in many areas of life, particularly private morals. But what we have also witnessed is the multiplication of faiths, the renewal of religions, of new cults and belief systems, as a recurrent feature of life. Beliefs and faith are responses to the existential and non-rational situations - in the facts of death and tragedy and suffering - in the search for meanings beyond the mundane. These are all multifarious and complicated sets of distinctions, and other social theorists may have different ways of ordering and distinguishing the different facets of social structure and culture. But what cannot be questioned is that any disciplined effort to understand the future configurations of different societies, or of different realms in societies, have to be rooted in history and culture, and the relevant distinctions about the phenomena that are being analyzed. Partie 3 AUTO-ORGANISATION Introduction AUTO-ORGANISATION Dans ses travaux sur l'auto-organisation, Jacques Lesoume cherche à élargir le cadre de l'analyse économique classique. Patrick Cohendet rend un hommage « évolutionniste » à Jacques Lesourne, en montrant comment sa propre trajectoire de chercheur a été fortement influencée par la personnalité et les écrits de celui-ci. Bernard Walliser considère l'espace et le temps comme des éléments déterminants en économie. Selon lui, le temps est, à la fois, une caractéristique intrinsèque des biens et une ressource rare à l'origine d'externalités positives ou négatives ; le temps est de la sorte le support de la construction des phénomènes économiques et, en soi, un facteur d'auto-organisation. Bernard Paulré s'intéresse au concept d'émergence, de l'auto-organisation ainsi qu'aux premiers apports nomie industrielle ; il insiste plus particulièrement plexité qui caractérise le passage du comportement global. , aux travaux fondateurs de cette théorie à l'écosur la notion de comlocal au comportement Les textes suivants sont des contributions à l'économie de l'auto-organisation portant sur la construction des croyances, l'institution de la démocratie politique, l'institution du marché et la transmission d'information, autant de thèmes au coeur des travaux de Jacques Lesourne. L'article de Jean-François Laslier traite de la construction des croyances : la psychologie d'un individu s'exprime non seulement par des préférences, mais aussi par la manière de réviser des croyances et d'anticiper le futur. De telles croyances, dans un modèle à générations emboîtées, peuvent conduire 368 à des résultats qualitativement prix - de ceux que fournissent AUTO-ORGANISATION différents en termes de convergence les anticipations rationnelles. des Gilbert la théorie de Laffond, Jean Lainé et Gauthier Lanot appliquent à une institution la démocratie l'auto-organisation particulière, politique. Dans le modèle proposé, s'affrontent deux partis politiques qui cherchent à gagner les élections. Les électeurs disposent d'un profil de préférences sur le traitement des problèmes conjoncturels, inconnu des partis politiques. ne construire son Chaque parti peut programme que sur la base de sondages d'intention de vote, source d'information bruitée car reposant sur la confiance accordée et non sur la réponse du parti aux problèmes conjoncturels. Ulrich Witt aborde une autre institution, le marché en examinant la création et le développement de nouveaux marchés selon un processus auto-organisationnel : les agents économiques sont capables, grâce à leur imagination, leur connaissance croissante et leur perspicacité, d'enclencher un processus qui déstabilise la structure produit-prix en place ; ainsi, de nouvelles structures économiques s'établissent par l'apparition de nouveaux produits. où la qualité Gisèle Umbhauer présente un modèle de bien expérimental n'est découverte lors de la consommation du bien. Le que processus de transmission d'information les un facteur d'inertie qui par prix comprend reflète le degré d'adaptation des agents économiques. Gisèle Umbhauer étudie le cas où l'inertie est un facteur exogène, puis celui où l'inertie peut être choisie par les individus, ce choix reflétant l'adoption de comportements d'audace ou d'attente volontaire. 1. 2. 3. 4. Patrick Cohendet Bernard Walliser Bernard Paulré Jean-François Laslier 5. Gilbert Laffond, Jean Lainé et Gauthier Lanot 6. Ulrich Witt 7. Gisèle Umbhauer Patrick Cohendet BIFURCATIONS ET TRAJECTOIRES DERECHERCHE . : DEQUELQUES AUTOUR RENCONTRES DÉCISIVES AVECJACQUES LESOURNE à Î ; [ / ' Î ( ) § 1 / ) Je n'ai rencontré Jacques Lesourne qu'à quelques occasions beaucoup trop rares. Pourtant l'homme m'est presque familier, tant mon ami Michel Godet m'en a parlé. Avoir à ce point marqué l'un de ses meilleurs amis, pourrait suffire à provoquer l'admiration et le respect. Mais au-delà de cette influence indirecte, ce que je dois très personnellement à Jacques Lesourne ce sont des bifurcations essentielles qui ont orienté de façon profonde mes choix de recherche et ma manière de penser. J'aimerais ici retracer certaines des bifurcations les plus importantes provoquées par Jacques Lesourne, en imaginant bien que celui-ci n'a sans doute jamais soupçonné l'influence qu'il a pu ainsi exercer. Et j'ai le sentiment profond que je suis loin d'être le seul dans ce cas. La première bifurcation est la découverte de l'ouvrage de Jacques Lesourne Le calcul économique. Je découvre cet ouvrage par hasard, à la fin des années soixante, au moment où je termine l'Institut de statistique de l'Université de Paris. Je devais alors choisir, après deux années d'études des principes de statistiques et de probabilités, une discipline d'application. À l'époque j'hésitais entre biologie, psychologie de l'enfant et géographie statistique. Il y avait bien à l'Institut des cours d'économie, mais la matière enseignée me paraissait, selon les intervenants qui passaient à l'Institut, soit totalement abstraite, soit totalement dénuée de rigueur. La découverte du livre de Jacques Lesourne fut alors décisive. Comme l'évoque la conclusion de l'ouvrage, ce livre est une réponse claire à ceux qui se demandent : « Pourquoi de si nombreux économistes font-ils des calculs, actualisent-ils, 370 AUTO-ORGANISATION déterminent-ils des espérances de revenus, discutent-ils sur quelques pour cent d'écart sur des plans d'investissement ? Ne devraient-ils pas connaître la signification précise, et peut-être dérisoire, de ce qu'ils font ? » À travers un exposé analytique précis et de riches exemples, le Calcul économique montre comment les différents concepts théoriques rigoureux à la base de la science économique conduisent à des applications nombreuses dans la vie courante. Il situe la modélisation économique à sa juste place : celle d'un éducateur de jugement, d'un support de la pensée et d'un moyen d'organiser la discussion. Le livre ne m'a jamais quitté. Non seulement parce qu'il m'a donné confiance et envie de faire de la science économique, mais parce que je l'ai utilisé comme ouvrage de référence auprès de mes étudiants. régulièrement J'ai ainsi pu tester auprès de générations différentes d'étudiants que cet ouvrage provoque toujours le même effet de conviction et d'adhésion. La deuxième bifurcation s'est produite à l'occasion de mon entrée à la SEMA au début des années soixante-dix comme assistant de recherche dans le département que dirigeait Christian Goux. Je découvrais alors que Jacques Lesourne était le patron de l'entreprise, découverte interprétée comme un clin d'oeil du destin par celui qui venait juste de choisir de faire de la science économique à la suite de la lecture du Calcul économique. La SEMA était alors bien plus qu'un organisme de consultants renommé. C'était un véritable laboratoire d'idées qui brassait les théories et les méthodes les plus avancées dans tout ce qui touchait notamment à la décision économique. riche et marquée par les L'époque était dans ce domaine particulièrement travaux de Simon sur la rationalité limitée, par les écrits de Cyert et March sur la décision collective, par les modèles de décision multicritères, et par les premières applications de l'analyse des données. Les recherches menées à la SEMA s'inspiraient de ce bouillonnement en profondément scientifique, contribuant à lui fournir une base d'expérimentation. Tout cela était possible parce que Jacques Lesourne était à la barre et donnait le ton. Dans ce contexte en tout point fascinant pour celui qui commençait à faire de la vite la la se marier avec recherche, j'apprenais rigueur plus grande peut que et la à et l'imagination passion. J'apprenais distinguer prévision prospective, et j'apprenais surtout à expérimenter et utiliser ce principe élémentaire qui guide la prospective : à savoir que le futur n'est pas écrit et reste à construire. J'apprenais aussi à mesurer l'importance de la référence à l'histoire « ce processus par lequel le temps transforme en un passé unique la multiplicité des avenirs possibles ». J'ai aujourd'hui acquis la conviction que le fait que Lesourne ait conduit ainsi durant Jacques plusieurs années la SEMA a eu au moins deux influences décisives pour la pratique de l'économie en France : - la première, directement liée aux perspectives ouvertes par la SEMA, est l'existence d'une véritable réflexion prospective organisée en France autour des méthodes mises au point entre autres par Michel Godet et les travaux de l'association Futuribles menés sous la direction d'Hugues de Jouvenel. Lorsque l'on se trouve à l'étranger, on a ainsi souvent la fierté de voir reconnue l'existence d'une école de prospective « à la française » ; Bifurcations et trajectoiresde recherche 3711 - la seconde, beaucoup plus générale pour la science économique, est l'existence d'une réflexion théorique aux frontières du « mainstream », et quelquefois au-delà, pour étendre les champs d'applications de la science économique, pour explorer des formes de rationalité autres que la rationalité substantielle, pour rechercher de nouvelles formes d'interactions créatrices avec d'autres disciplines, sans abandonner la rigueur présidant à l'élaboration de l'économie dominante largement appuyée sur l'économie mathématique. Pour un jeune chercheur, la perspective tracée par Jacques Lesourne conviait à continuellement marier rigueur et créativité. Comme le souligne Jacques Lesourne lui-même dans sa contribution de l'époque à la Revue économique qui s'interrogeait sur la « crise de la science économique », la voie choisie est étroite : il faut savoir éviter simultanément les « maladies » de la « table rase », de l'empirisme excessif, de la doctrine, de la médiocrité, et de l'abus de mathématiques. À propos du risque d'un usage excessif des mathématiques en économie, il plaide pour un usage « juste », qui sait mettre la logique mathématique au service d'une clarification de la pensée créatrice, et qui n'hésite pas à se confronter avec les faits économiques (« il est des économistes qui comme les peintres plantent trop leurs chevalets dans les musées et pas assez en pleine nature ! »). À cette époque, la voie choisie frôlait l'hétérodoxie : un son discordant dans l'« orchestre symphonique de l'équilibre » ! Aujourd'hui elle se situe en plein centre de la recherche économique, en ayant ouvert de profondes avenues de renouveau. j ; i ! ; ' ; ! , i ; La troisième bifurcation se situe au milieu des années quatre-vingt. Je fus invité à faire partie d'un groupe de réflexion prospective à Péchiney. Le groupe était placé sous la présidence de Jacques Lesourne. Ce fut ma première véritable rencontre avec celui-ci et l'occasion d'apprécier ce charisme si particulier, teinté d'une forte autorité (il en fallait pour contenir les quelques consultants internationaux particulièrement arrogants et imbus de leur personne qui faisaient partie du groupe) en même temps qu'une profonde attention et écoute de l'autre. La manière dont Jacques Lesourne écoute son interlocuteur est incomparable : il en émane à la fois un profond respect et une bienveillance naturelle, et une exigence implicite de concision et de rigueur qui laisse supposer que l'on doit aller droit à l'essentiel. Mais le plus remarquable est l'impression pour l'interlocuteur que Jacques Lesourne est comme aux aguets, dans l'attente d'une idée intéressante susceptible d'ouvrir des perspectives nouvelles ou de conforter une hypothèse de travail en cours. Si tel est heureusement le cas, on est récompensé par un « ça c'est intéressant ! » ou « ce point me paraît capital » qui invitent à préciser encore davantage l'idée qui a paru faire mouche. Je fus appelé un jour à exposer longuement devant le groupe les résultats d'une recherche prospective que je coordonnais au BETA avec Marc Ledoux et Ehud Zuscovitch sur le domaine des matériaux nouveaux, dans le cadre du programme Fast de la CEE. J'exposais ces travaux avec enthousiasme je crois, car nous étions séduits au laboratoire par le contenu et la force explicative des deux 372 . . Q r- AUTO-ORGANISATION scénarios majeurs que nous avions élaborés : d'une part, un scénario de « standardisation » qui supposait que la solution « plastique » allait s'imposer dans pratiquement tous les domaines des matériaux en déclassant les matériaux « anciens » de type métallique et les savoir-faire qui leur étaient associés et, d'autre part, une solution « multimatériaux » qui consacrait l'entrée dans un régime de variété permanente dominée par de nouvelles structures industrielles de type partenarial pour assurer l'accès aux compétences mutuelles qu'exige la variété. Cette tension entre standardisation et variété s'inscrivait dans une optique évolutionniste qui était juste émergente en économie. Je dois bien reconnaître que ces idées laissèrent, à ma très grande déception, Jacques Lesourne indifférent. En dépit de sa grande politesse, on finit très vite par comprendre qu'il y a des circonstances où on ne lui a rien appris. Son silence sur mes propos lors du repas qui suivit était suffisamment explicite. Toutefois, un point, que je considérais alors comme tout à fait marginal dans ma présentation, retint son attention : j'avais recouru au concept physique de percolation qui traduit l'idée qu'une accumulation de microvariations peut entraîner le franchissement de valeurs critiques et un changement macroscopique d'un système, pour exprimer la manière dont un matériau nouveau pouvait brutalement déplacer une solution ancienne. Et j'entends encore Jacques Lesourne me dire : « La percolation, ça c'est intéressant, mais il faudrait l'appliquer plutôt à la formation des systèmes sociaux. » Le demi-encouragement reçu de Jacques Lesourne ce jour-là, a exercé une influence profonde sur les orientations de la recherche au sein de mon laboratoire. Les recherches sur la formation et la dynamique des réseaux sociaux, les modélisations à l'aide de modèles inspirés de la physique du type de celui de percolation, l'étude des phénomènes irréversibles, sont devenus des thèmes dominants pour de nombreux chercheurs du BETA. Dans cette nouvelle perspective, comme l'avait pressenti Jacques Lesourne, la notion de réseau apparaît jouer un rôle central en tant que support de la réflexion et de l'organisation des débats théoriques. La notion de réseau renvoie ici au système complexe de relations qui se développent entre acteurs individuels, institutions et sphères d'activités différentes. Cette notion a ouvert deux voies principales de recherches aujourd'hui en économie : - dans une première perspective, la notion de réseau s'identifie simplement avec le nombre d'agents partageant un trait commun. Le cas le plus fréquent est celui d'agents achetant un bien sur un marché, de sorte que plus grand est le nombre d'agents ayant acheté le bien, plus grande est la valeur du réseau. La notion de réseau renvoie ici essentiellement à la notion d'externalité, et permet d'aborder tout un ensemble de phénomènes économiques variés : choix de standards technologiques, établissement de normes, diffusion selon un comportement mimétique, modèles épidémiologiques, etc. ; - dans une seconde perspective, l'analyse porte sur la manière dont les agents interagissent et sur le fait que ces interactions directes entre agents Bifurcations et trajectoiresde recherche 373 (par exemple à travers des influences dans un voisinage) peuvent aboutir à des phénomènes agrégés au niveau macroéconomique. La structure d'interactions détermine également les modes d'apprentissage des agents, l'apparition d'acteurs critiques et les dynamiques d'accords et de désaccords. C'est dans cette perspective qu'il est possible, non seulement de comprendre l'émergence d'un ordre global à partir d'une multitude d'interactions ou d'analyser « ce qui fait tenir un réseau », mais aussi de comprendre le démantèlement des réseaux et les réorganisations qui les accompagnent, voire de comprendre comment progressivement un réseau peut se transformer en marché. La quatrième bifurcation se situe plus récemment à l'occasion d'un colloque organisé au CNAM en 1997 par Jacques Lesourne, sur le thème « auto-organisation et évolution ». Jacques Lesourne m'avait fait l'honneur de participer à ce très beau colloque pour présenter un papier écrit avec des collègues du BETA sur la firme évolutionniste. L'idée de notre papier était de montrer à quel point le fait de raisonner en termes de traitement de la connaissance et non plus de traitement d'information peut modifier et améliorer les résultats traditionnels de la théorie de la firme. Mais au cours du colloque, il est apparu que celui-ci avait une ambition qui allait bien au-delà de la présentation de papiers de recherches spécifiques. La volonté de rapprocher les champs des théories de l'auto-organisation et de l'évolution est un vaste projet qui s'efforce de repenser en profondeur la microéconomie. Comme si le moment était enfin venu de pouvoir penser en des termes nouveaux la manière dont les agents et la société évoluent, la dynamique des interactions entre des agents hétérogènes et partiellement ignorants, et l'émergence des systèmes stables de coordination comme résultat d'un processus d'apprentissage entre des agents. Comme le souligne l'introduction de Jacques Lesourne et André Orléan à l'ouvrage qui retrace les contributions de ce colloque, le projet de mêler les apports des sciences de l'auto-organisation à ceux des théories évolutionnistes pour faire progresser la microéconomie est révolutionnaire en ce sens qu'il revient à accepter de ne plus réduire l'analyse et la représentation de la dynamique économique à la seule dynamique des prix et des quantités. Il faut tenter d'introduire explicitement dans l'analyse la manière dont les différentes structures économiques émergent, et les changements profonds que subissent quotidiennement les marchés et l'organisation des firmes. À la relecture de l'ensemble de l'ouvrage et particulièrement des deux articles que Jacques Lesourne a présentés en collaboration au colloque, on y retrouve, comme les pièces d'un puzzle rassemblées, beaucoup des thèmes qui ont marqué les travaux de Jacques Lesourne et qu'il a tant contribué à diffuser chez tous ceux qu'il a inspirés : incertitude, décision de long terme, dynamique des comportements, dynamique des marchés. Mais il me semble que l'on peut y trouver aussi comme un manifeste pour renouveler en profondeur la science économique : un véritable agenda de recherches pour les prochaines années. Parmi les innombrables directions de recherches qui se dessinent au croisement des théories évolutionnistes et 374 AUTO-ORGANISATION de l'auto-organisation, aller j'en perçois une qui pourrait particulièrement dans le sens des efforts analytiques qui ont toujours été privilégiés par de l'analyse prospective avec la Jacques Lesourne : celle du rapprochement théorie économique dominante, et plus particulièrement avec la théorie de la décision. Aux cours des dernières décennies, la réflexion prospective a tousans parjours occupé une place à part dans la méthodologie économique, venir à s'insérer dans la théorie économique Il est vrai que dominante. l'élaboration patiente de scénarios se situe aux antipodes de l'univers de la rationalité substantive. Mais les développements récents des théories évolutionnistes avec l'introduction de mécanismes cognitifs et la convergence avec les sciences de l'auto-organisation laissent entrevoir la possibilité d'inde scénarios comme une certaine manière de rendre tégrer la construction compte de la façon dont les agents économiques se représentent les états du monde dans un contexte de formation de la décision collective. Pour un chercheur en économie les perspectives que dessine inlassablement elles sont infiniment Jacques Lesoume ne sont pas seulement passionnantes, la science est souvent déchirée aujourencourageantes : économique trop d'hui entre les tenants de la théorie « dominante » fondée sur une formalisation poussée et les « hétérodoxes » qui se partagent entre ceux qui ne s'en tiendraient qu'aux faits et ceux qui explorent des horizons trop lointains. Ce déchirement atteint jusqu'au jeune chercheur qui envisage de faire une thèse et qui sent qu'il va devoir choisir son « camp », et sait que ce choix sera en grande partie irréversible. Jacques Lesourne est l'une des très rares « autorités morales » du milieu des économistes à affirmer clairement qu'il n'y a science celle de la qu'une économique : rigueur et de l'imagination qui n'hésite pas à explorer sans cesse de nouvelles frontières. Et, comme le souligne lui-même Jacques Lesourne, dans la mesure où aujourd'hui des courants de recherche très riches, comme ceux de l'auto-organisation et des théories sont susceptibles de converger et d'enrichir par là même la évolutionnistes, théorie dominante, « qu'il va être passionnant d'être chercheur en économie au xxte siècle ! ». Toujours la même invitation enthousiaste à la réflexion et l'action, à la rigueur et la passion, à la pensée juste et féconde. Bernard Walliser ETLETEMPS L'ESPACE ENÉCONOMIE Tout système économique est plongé dans un double environnement, d'une part matériel et technologique, d'autre part social et institutionnel, dont il subit directement les contraintes tout en leur imposant des effets en retour. L'environnement physique, et dans une moindre mesure l'environnement culturel, se déploie lui-même dans un cadre spatio-temporel rigide et immuable, qui affecte indirectement les activités économiques sans être influencé par elles. Aussi, bien que de façon très tardive, la théorie économique a-t-elle pris en compte l'espace et le temps, tantôt en soulignant leur traitement similaire, tantôt en exacerbant leur fonctionnalité différente. De plus, les concepts tant d'espace que de temps peuvent recevoir des interprétations économiques variées, et ont été intégrés dans les modèles théoriques selon quatre points de vue distincts sinon indépendants. D'abord, les caractéristiques d'un bien économique comprennent, outre sa seule qualité, son lieu et sa date de disponibilité, éléments qui infléchissent sa valorisation par les agents économiques (section 1). Ensuite, les déterminants de choix des agents sont eux-mêmes conditionnels à l'espace et au temps, au sens où leurs opportunités et préférences varient selon le contexte et évoluent dans la durée (section 2). Par ailleurs, les activités économiques mises en oeuvre par les agents se déroulent et sont appréhendées dans un espace-temps modélisé, souvent selon des échelles spatiales ou temporelles emboîtées (section 3). Enfin, l'espace comme le temps apparaissent comme des ressources rares de l'économie au niveau de l'individu ou de la collectivité et engendrent des contraintes d'allocation et des externalités diverses (section 4). 376 AUTO-ORGANISATI 1. CARACTÉRISTIQUES SPATIO-TEMPORELLES DESBIENS La théorie de l'équilibre général (Arrow & Debreu, 1954) considère des marchés sur lesquels est échangé par le biais de prix un ensemble de biens, chacun caractérisé par des propriétés physiques singularisées par les agents. Cette théorie est interprétable en considérant comme caractéristiques explicites d'un bien son lieu et sa date d'échange, à condition que le marché d'un bien aussi précisément spécifié soit susceptible d'être mis en oeuvre,.C'est dire que tout bien est localisé et daté, deux biens de même nature disponibles en des endroits ou à des moments différents devant être considérés comme deux biens qualitativement différents. Cette discrimination des biens est justifiée par le fait que les agents n'évaluent pas ces biens de la même façon dans leurs choix et prennent donc des décisions différentes à leur sujet. Deux facteurs situés en des lieux ou des instants différents ont un impact différent sur la technologie de production d'une entreprise, selon les autres facteurs locaux et instantanés avec lesquels ils sont combinés. Surtout, les biens localisés et datés peuvent être transformés les uns dans les autres, au cours d'un processus de production spécifique auquel est associé un coût luimême spécifique. Ainsi, le changement de localisation d'un bien correspond à une opération de transport, alors que le déplacement dans le temps d'un bien correspond à une opération de stockage. Plus précisément, la transformation de monnaie entre deux périodes correspond à une opération de crédit, plus institutionnelle que technique, et admet comme taux marginal de transformation le taux d'intérêt. Deux biens situés en des endroits ou à des époques différentes exercent une influence différente sur les préférences du consommateur, selon que le milieu s'avère plus favorable ou le moment plus propice. De ce fait, les biens localisés et datés doivent faire l'objet d'un arbitrage de la part de l'acteur, de même nature que l'arbitrage qu'il réalise entre des biens de nature différente. Ainsi, des préférences interspatiales font apparaître un taux marginal de substitution d'un bien entre deux lieux, et des différences intertemporelles un taux marginal de substitution d'un bien entre deux périodes. Plus précisément, le rapport entre l'utilité de la possession d'une unité de monnaie aujourd'hui et l'utilité d'une unité de monnaie demain reflète le taux d'escompte psychologique de l'acteur. Lorsqu'un bien, en particulier un bien d'équipement, n'est choisi qu'en un exemplaire unique dont la taille est prédéterminée, se pose néanmoins le problème du choix d'une localisation et d'une date optimales. Ainsi, une entreprise procède à l'implantation d'une usine en un lieu géographique sélectionné, en fonction tant des conditions naturelles du lieu que de l'importance de la demande potentielle. De même, un concessionnaire construit une infrastructure autoroutière selon un calendrier privilégié, en fonction L'espace et le temps en économie 377 tant de l'évolution des techniques disponibles que de la croissance anticipée de la demande. Bien entendu, si la demande future dépend des choix opérés la firme considérée est confrontée à une décipar les firmes concurrentes, étudiée dans le cadre de la théorie des jeux (Hotelling, sion stratégique 1929). 2. DÉPENDANCE SPATIO-TEMPORELLE DESDÉTERMINANTS Le modèle rationnel de décision suppose que tout acteur est caractérisé par trois déterminants de choix, à savoir ses opportunités d'action, ses représentations de l'environnement, et ses préférences sur les effets subis (Walliser, Si ces déterminants sont souvent supposés exogènes et stables, ils 1994). néanmoins être considérés comme relatifs à la position géograpeuvent de l'acteur et évolutifs sur la durée de vie de l'acteur. Toutefois, cette phique à et au reflète souvent l'influence de facteurs temps dépendance l'espace des valeurs différentes d'une localisation à une autre ou cachés, qui prennent d'une époque à une autre. Tout se passe comme si l'acteur endossait des chacun muni de ses propres egos multiples en fonction des circonstances, déterminants de choix, sans pour autant qu'ils ne soient coordonnés par un super ego. En ce qui concerne les opportunités, elles dépendent du contexte lorsque, par exemple, les capacités d'un acteur dépendent des ressources qu'il peut puiser dans son environnement ou même du climat local. De même, certaines actions deviennent possibles en un lieu donné lorsqu'elles sont accompamenées en parallèle et qui ne peuvent être gnées d'actions complémentaires mises en oeuvre qu'en ce lieu. Ces mêmes opportunités évoluent avec le temps lorsque, par exemple, le progrès technique ouvre des perspectives nouvelles ou plus efficaces, ce progrès technique étant cependant incorporé dans tel ou tel facteur. Elles se modifient aussi en fonction des actions passées, qui peuvent aussi bien ouvrir que fermer l'éventail des actions futures, et sont ainsi dotées d'un caractère plus ou moins flexible ou irréversible. ' En ce qui concerne les préférences, elles dépendent directement du contexte dans le cas de l'éternel insatisfait qui préfère être à Londres lorsqu'il se trouve à Paris et être à Paris lorsqu'il se trouve à Londres. De même, elles sont influencées plus indirectement et à long terme par le milieu social qui certaines normes endossées impose par l'acteur ou met en oeuvre des incitations-sanctions internalisées l'acteur. Ces mêmes préférences évoluent par dans le temps lorsque les goûts de l'acteur se modifient avec l'âge et plus encore, lorsque les motivations se déplacent d'une génération à l'autre. Elles se transforment également en fonction des consommations passées, par un phénomène de sensibilisation lorsqu'il s'agit de musique ou un phénomène d'accoutumance lorsqu'il s'agit de drogue. 378 AUTO-ORGANISATION En ce qui concerne enfin les croyances, elles dépendent indirectement du contexte dans la mesure où elles sont nourries par des observations sur autrui ou sur la nature, réalisées dans un voisinage restreint. Cet ajustement des au moins locale des acteurs, croyances peut conduire à une homogénéisation lorsqu'ils appliquent des modes de raisonnement analogues à des informations qu'ils partagent. Ces mêmes croyances évoluent dans le temps sous l'influence d'informations collectées de façon volontariste ou comme sousdes actions produit passées et sont stockées dans une mémoire de profondeur limitée. Cette révision des croyances donne naissance à un apprentissage de l'acteur, très simple s'il ne fait que s'adapter au flux d'informations reçues, plus sophistiqué s'il anticipe les informations qu'il peut recevoir (Henry, 1974). 3. ESPACE ETTEMPS COMMESUPPORT DESPHÉNOMÈNES Considérés comme le support des événements qui caractérisent la vie écoà savoir les actions des acteurs et leurs effets sur nomique, l'environnement, des propriétés sensiblement différentes. l'espace et le temps manifestent est considéré comme les événements étant L'espace pluridimensionnel, selon leurs deux coordonnées et les événerepérés géographiques, isotrope, ments ne se produisant dans aucune direction privilégiée a priori. Le temps est considéré comme unidimensionnel, les événements étant repérés selon leur seule date calendaire, et orienté, les événements se déroulant selon une chronologie distinguant le passé du futur. Bien entendu, les événements économiques même élémentaires ne sont pas ponctuels, au sens où ils s'actualisent sur un domaine spatial plus ou moins étendu et sur une plage temporelle plus ou moins longue. L'espace est fréquemment formalisé sous la forme d'un réseau discontinu et à des sites d'implantation des activilacunaire, où les noeuds correspondent tés et les arcs à des axes d'échange entre les activités. L'espace est également formalisé sous la forme d'un territoire plus continu et homogène, où les activités sont plus diluées sur des zones fonctionnelles et les échanges plus denses entre toutes les activités. Le temps est le plus souvent formalisé de façon discrète à l'aide d'une division en périodes, de façon à permettre une meilleure adaptation empirique des modèles à la nécessaire périodicité des statistiques. Le temps est plus rarement formalisé de façon continue en s'alignant sur le temps physique, de façon à conférer aux modèles une périodicité moins arbitraire et une maniabilité plus prononcée. Une structure élémentaire du temps et de l'espace une fois définie, il est commode de considérer des échelles spatio-temporelles emboîtées, chaque niveau faisant apparaître des phénomènes économiques spécifiques. En pas- L'espaceet le tempsen économie 379 sant du local au global, les échelles spatiales reposent sur une partition des variables selon leurs zones d'influence, des plus restreintes (bassins d'emploi) aux plus larges (contrats internationaux). En passant du court au long terme, les échelles temporelles reposent sur une partition des variables selon leurs vitesses d'adaptation, des plus rapides (quantités, prix) aux plus lentes (préférences, démographie). Ces découpages conventionnels ont souvent une origine extra-économique, qu'ils correspondent à des clivages politiques (institutions territoriales) ou qu'ils renvoient à des périodes juridiques (budget, Plan). On est dès lors amené à agréger les concepts économiques définis à propos des biens et des agents selon les dimensions d'espace et de temps, sous la forme d'indicateurs macroéconomiques ou macrotemporels. L'agrégation spatiale porte sur les biens produits ou échangés au sein d'une même unité spatiale (volume de biens) ou sur les résultats obtenus par les agents dans cette même unité (valeur ajoutée des entreprises). L'agrégation temporelle concerne les flux de biens produits ou échangés sur une certaine période (production cumulée) ou les bénéfices obtenus par des agents sur cette même période (profits cumulés). Il est également possible d'agréger les fonctions de comportement de différents agents actifs dans un domaine d'espace-temps, malgré les limites de la notion d'agent représentatif (Kirman, 1992). 4. ESPACE ETTEMPSCOMMERESSOURCE RARE L'espace et le temps constituent une ressource rare de l'économie, ressource indispensable à ses activités tout en étant non renouvelable, du moins sur le court terme et à un niveau global. En effet, l'espace limité à deux dimensions ne peut être étendu qu'en empiétant sur la troisième dimension alors que le temps disponible ne peut être allongé qu'en jouant sur la démographie. Cependant, un agent donné peut acquérir de l'espace et du temps de la part d'un autre agent, sinon sous une forme directe, du moins à travers des biens dans lesquels ils sont incorporés. Ainsi, un agent peut acquérir du terrain (qui rend échangeable l'espace) sur le marché foncier ou acheter un service (qui rend transmissible le temps) sur le marché du travail. Toutefois, la contrainte spatiale apparaît essentiellement collective et résulte, pour un domaine restreint alloué à une activité, de ce que deux objets ne peuvent se situer précisément au même lieu. C'est ainsi que se font jour des phénomènes d'encombrement, éventuellement régulés par des péages limitant l'accès à l'espace, par exemple quant à l'utilisation collective des infrastructures de transport. À l'opposé, la contrainte temporelle s'avère fondamentalement individuelle, et découle, à l'intérieur d'une tranche de vie d'un 380 AUTO-ORGANISATION C'est agent, de ce que deux activités ne peuvent être menées simultanément. ainsi qu'apparaissent des phénomènes de saturation, traduits par un prix fictif attribué à une unité de temps, par exemple quant au temps passé par un usager dans les moyens de transport. naisL'espace et le temps sont aussi à l'origine d'externalités économiques, sant de la synergie des activités dont ils servent de support, et concernant sont plus la proximité des activités que leur succession. Ces externalités aussi bien positives si des activités proches provoquent des effets conjoints des effets bénéfiques, que négatives si des activités voisines engendrent résultants défavorables. En présence d'externalités, le marché ne peut plus être animé que d'une concurrence imparfaite, les agents acquérant chacun un réel pouvoir de marché et entretenant des relations stratégiques. Les prix des terrains ou les prix des services qui en résultent ne reflètent qu'en partie les externalités qu'ils engendrent, si bien que leurs auteurs n'en sont pas les seuls bénéficiaires ou victimes. Les externalités ments d'échelle (rendespatiales sont aussi bien d'origine technologique croissants ou décroissants), informationnelle (facilités de communication) (effets du grégarisme). Si les externalique psychologique tés négatives poussent à la dispersion des activités, les externalités positives incitent à la concentration des activités, justifiant l'existence des zones industrielles comme des agglomérations urbaines (Thisse & Walliser, 1998). Les externalités sont également de nature temporelles, plus impalpables, coûts de (facilités d'adaptation, réactivation) ou conceptuelle technologique et inconvénients d'un (avantages dialogue suivi). Si les externalités négatives conduisent à un échelonnement des activités, les externalités positives amènent à une compression des activités, justifiant l'existence de foires commerciales comme de festivités occasionnelles. La théorie économique a peu à peu développé des branches particulières relatives à l'espace et au temps, d'abord par simple prolongement des modèles classiques, de phénomènes puis par explicitation spécifiques. L'économie s'est d'abord contentée de localiser les phénogéographique mènes par ajout d'un paramètre supplémentaire avant de mettre en évidence des effets conjoints des activités liées à leur proximité spatiale. L'économie dynamique s'est d'abord exercée à déployer les phénomènes dans la durée à partir d'une vision statique avant de mettre en valeur des effets émergents des comportements des agents. Au regard des développed'apprentissage ments thématiques comme l'économie du travail ou sectoriels comme l'économie des transports, ces deux développements sont plus au coeur de la théorie économique parce qu'ils intègrent des dimensions incontournables. Cependant, ces deux dimensions ne se situent pas sur un pied d'égalité, car si l'espace ne reste qu'un réceptacle des activités économiques, le temps est L'espace 381 1 et le temps en économie Il en véritablement le support de la construction des phénomènes. où les trajectoires des corps se déploient qu'en mécanique mais où le mouvement est primordial sous l'influence l'espace, Dans le but de donner d'emblée un élément intégrant temporel. même tinence Jacques niste. à la théorie Lesourne, Le surtout c'est économique, pour devient une promouvoir alors un au économie est de plus s'est temps que résolument de dans certes causes de per- attaqué évolution- facteur des temps d'auto-organisation phénodes acteurs dotés d'une rationalité limitée et insérés dans des pour d'interaction et de communication Lesourne & 1991 ; (Lesourne, mènes, réseaux Orléan, 1998). E BIBLIOGRAPHIE ARROW K. HENRY American & DEBREU « Existence G, », Econometrica, Economy Decisions C., « Investment Economic Review, 64, H., « Stability HOTELLING KIRMAN Journal « When A., of Economic LESOURNE LESOURNE J. Economics, Economica, THISSE J. & in Competition or What J., Économie & under 1006-1012, Does de l'ordre ORLÉAN WALUSER Economics? », Recherches WALLISER B., L'intelligence A., 1998. B., the 6 (2), Perspectives, an Is économiques Equilibrium for a Competitive the "Irreversibility Uncertainty: 1974. », Economic Representative 1992. 117-36, et du désordre, Advances « of 1954. 22, 265-290, in Journal, 39, 41-57, Individual Économica, Self Organization and Odile Jacob, 1994. », 1929. Represent? 1991. in a Neglected Topic Space de Louvain, 1, 11-22, 1998. de l'économie, Effect" Evolutionary Mainstream », Bernard Paulré L'AUTO-ORGANISATION COMME OBJET ETCOMME DERECHERCHE STRATÉGIE L'exemplede l'économieindustrielle Si l'on convientde considérerqu'est auto-organisétout systèmecapablenon seulementde générer un certain ordre de façon autonomeet apparemment spontanéemais aussi de se mainteniret d'évoluer au sein d'un environnementchangeanten modifiantsa structure,alorsla plupartdes secteursindustriels appartiennentà la classe des systèmesauto-organisés. Ce n'est que très récemmentque quelques économistesse sont montrés réceptifsà cette notionet aux perspectivesqu'elle ouvre.Perspectivesd'autant plus stimulantesque le chercheurpeut bénéficierd'une accumulationde connaissances et de débats antérieurs, certes issus d'autres disciplines (cybernétique,physiqueet biologie),mais très instructifsdans la mesureoù les problèmesdéjà soulevésrejoignentles interrogationslégitimesque peut susciterla mise en oeuvrede cette notionen économie. J. Lesournea été l'un des premierséconomistesà soulignerl'intérêt de cette problématiqueet à présenter,dès 1981(J. Lesourneet G. Laffond),une première série de modèlesde marché conçus sur cette base. En 1985puis en 1991il proposaun programmede recherchesur l'auto-organisationen économie dont les premières réalisations devaient montrer qu'une telle approche, « faisant intervenir tout à la fois le hasard, la nécessité et la volonté,permetde replacerla microéconomiedans un cadre conceptuelà la fois plus riche et plus satisfaisant» (1991,p. 22). Ce programmefut mis en oeuvretout au long des années suivanteset débouchasur la publication,en l'évolution(J. Lesourne 1998,de l'ouvragecollectifsurL'auto-organisation et et A. Orléan,1998). commeobjet et commestratégiede recherche L'auto-organisation 383 Nous trouvons dans l'ouvrage de 1991 une première série d'observations sur l'évolution des structures de concurrence (c'est le titre du chapitre XI). J. Lesourne y observe que si « le chef d'entreprise s'efforce avant tout de faire évoluer les structures de concurrence [...]afin de s'assurer des rentes aussi permanentes que possible [...]. Le microéconomiste suppose donné l'ensemble des entreprises [...]. Il raisonne pour l'essentiel en s'imposant des structures de concurrence ». Or, écrit-il ensuite, « ces structures [...]très partiellement déterminées par les caractéristiques techniques et commerciales de chaque branche [...]résultent largement de [son] évolution historique depuis son origine » (p. 175). Mis à part, pour l'essentiel, l'évolutionnisme contemporain, il faut bien reconnaître que, jusqu'à une époque récente, les économistes étudiant les phénomènes industriels sont restés relativement indifférents à ce type d'approche aussi bien dans l'esprit que dans la lettre. La première section de ce texte sera consacrée à la notion d'auto-organisation. Nous y préciserons le sens et la fonction méthodologique de l'émergence. Dans la seconde, nous posons nos principes de lecture. Dans la troisième section, nous reprenons quelques travaux récents afin de souligner la pertinence, les manifestations et les premiers apports de l'approche autoorganisationnelle dans le domaine de l'économie industrielle, tout en soulevant quelques problèmes de caractère méthodologique. Nous concluons dans une quatrième section. 1.. L'AUTO-ORGANISATION COMMEOBJETD'ANALYSE Les systèmes auto-organisés peuvent être abordés et caractérisés de deux façons différentes, plus complémentaires que concurrentes. Leur caractéristique principale est, d'une part, d'apparaître comme des systèmes capables de produire plusieurs types de comportements ou d'organisation, d'avoir un comportement changeant et de s'adapter (évoluer) par une modification de leur comportement dans un contexte de perturbations ou de « bruit ». En bref, sont auto-organisés les systèmes qui changent du fait de leur propre fonctionnement. Sous un angle plus explicatif, on souligne, d'autre part, le caractère émergent de leur comportement ou de leur structure globale. Ces systèmes sont en effet tels que leurs éléments ou composants agissent ou fonctionnent sur une base locale : il n'y a ni organisation prédéterminée, ni coordination centrale. Leur logique de fonctionnement est endogène et décentralisée (cf. B. Walliser, 1989). Selon que l'on insiste sur l'un ou l'autre aspect, on est conduit à privilégier l'étude de ce que nous appelons l'évolution du système ou l'émergence de l'ordre qui le caractérise. ' 384 AUTO-ORGANISATION 1.1 1 Lanotiond'auto-organisation issuedestravauxfondateurs Pour expliciter et justifier le domaine économique, contributions fondatrices taires. la conception de l'auto-organisation à utiliser dans nous allons rappeler le contenu de trois types de apportant chacune des éclairages complémen- Les travaux d'Ashby, d'abord, consacrés à l'homéostat, dans les années cinquante, ont permis de montrer qu'un réseau de machines reliées pouvait, par aléatoire, parvenir à un équilibre. Ils apparaissent aujourd'hui apprentissage comme les lointains ancêtres du néo-connectionnisme On en contemporain. retrouve le principe dans les travaux pionniers (pour l'époque contemporaine) de S. Kauffman. La démarche est radicalement opposée à celle qui de Mc Culloch et dans la cyberprévalait dans le premier connectionnisme il ne s'agit pas de construire une machine destinée à nétique traditionnelle : atteindre une certaine performance, mais « de se donner des connexions [au hasard] et étudier la performance résultante ». On en vient ainsi à s'intéres« collectivement ser à des réseaux d'automates susceptibles d'adopter un ou un état c'est-à-dire de faire émercomportement particulier privilégié », un de ou d'ordre. Comme le ger type comportement souligne I. Stengers, « l'histoire de l'auto-organisation sera désormais indissociable des possibilités de simulation sur ordinateur » (1985, p. 57). Si Ashby est le précurseur du néo-connectionnisme, P. Weiss est à l'origine de l'introduction de la notion d'auto-organisation en biologie (en embryologie plus précisément). Sa démarche s'explique par le rejet de la cybernétique « machinique ambiant et des analogies tirées de la », du réductionnisme théorie de l'information. Il pose ainsi le problème de l'étude du développement de l'embryon : il s'agit de savoir « comment un fouillis d'activités moléculaires peut conduire à un ordre global et intégré ; et comment le comconduit à des portement imprécis et variable des cellules individuelles organes qui sont infiniment plus semblables parmi les membres d'une espèce que ne le sont les processus détaillés qui leur donnent naissance » (1974, p. 116). P. Weiss insiste, dans son article majeur, sur le fait que le tout est moins que la somme des parties et que, « alors que l'état et la structure du tout peuvent être définis sans équivoque, les détails des états et de l'évolution de ses composants sont d'une irrégularité défiant toute définition » .. ' (p. 177). " Selon I. Stengers, « c'est la notion d'auto-organisation telle qu'elle a été définie par les embryologistes que Prigogine a acceptée, implicitement [...] »» (1985, p. 64). Ce qui est alors intéressant, c'est non seulement la converde Prigogine et des embryologistes mais, surtout, gence des préoccupations le fait que l'on puisse établir un lien entre la notion d'auto-organisation défi« Un système thernie auparavant et celle issue de la thermodynamique : modynamique pose le problème de la stabilité et de la prévisibilité d'un état alors même que l'on sait « comment » ses constituants interagissent, mais commeobjet et commestratégiede recherche L'auto-organisation 385 l'on ne connaît pas le détail de leur comportement [...]. Ce qui intéresse le thermodynamicien, c'est que, malgré cette ignorance, il peut, dans certaines conditions, prévoir » (I. Stengers, 1985, p. 79). Face à l'impossibilité de définir une fonction d'état valable pour une situation éloignée de l'équilibre, Prigogine et Glansdorff en vinrent à explorer la stabilité d'un état stationnaire par rapport aux diverses fluctuations. Ils constatèrent alors qu'il existe un seuil d'apparition de comportements collectifs nouveaux et stables ne correspondant au minimum d'aucune fonction globale. Avec le néo-connectionnisme et la thermodynamique des déséquilibres, « un nouveau style de question a trouvé sa consistance [...]qui crée un nouvel objet de savoir : la notion "d'être ensemble", c'est-à-dire aussi, en pratique, un nouveau type de causalité [...] : la causalité de couplage au sens où la notion de couplage laisse indéterminée la nature de l'interaction [...]pour poser la question de ce que peuvent, ensemble, une population d'entités couplées » (I. Stengers, 1985, p. 99). C'est ce type d'interrogation qui donne son sens à cette définition de la notion d'auto-organisation : « propriété d'émergence spontanée, d'un ordre collectif stable à partir d'une population d'entités en interactions variables et imprécises » (ibid., p. 78). Troisième contribution fondamentale : la théorie des systèmes autopoïétique, qui mériterait à elle seule un long développement. Nous renvoyons le lecteur intéressé aux travaux publiés, nous limitant ici aux observations nécessaires pour notre exposé. Il faut, selon ses protagonistes, distinguer les systèmes autonomes des systèmes autopoïétiques, qui en constituent un sous-ensemble. Tout système autonome est opérationnellement clos, ce qui signifie que son organisation « est caractérisée par des processus (a) dépendant récursivement les uns des autres pour [leur] génération et [leur] réalisation et, (b) constituant le système comme une unité reconnaissable dans l'espace (domaine) où les processus existent » (F. Varela, 1989a, p. 86). L'équilibre d'un système autonome s'analyse comme le point fixe d'une boucle récursive du système sur lui-même et faisant apparaître « au niveau du tout des propriétés nouvelles, que le seul examen des éléments ne pouvait prévoir » (J.-P. Dupuy, 1992, p. 35). Un tel équilibre est considéré comme un comportement propre qui est une configuration cohérente, invariante sous l'effet du fonctionnement du système. Un système autonome a la capacité de modifier ses comportements propres (1). C'est en cela qu'il est autoorganisateur : la variété des cohérences internes possibles, autodéterminées, fait qu'il « apparaît comme nouveauté, imprévisibilité, affirmation de soi, bref, comme le comportement d'une unité auto-organisatrice » (F. Varela, 1989a, p. 204). Le thème de l'évolution est ici privilégié. Cependant, dans un autre contexte, F. Varela caractérise l'auto-organisation à partir de l'existence de « propriétés émergentes ou globales de réseaux (1) C'est-à-dire, ajouterons-nous,le type de cohérence de son système d'opérations « internes». 386 AUTO-ORGANISATION ou non linéaires, de système complexes, ou encore même de dynamiques, » (1989b, p. 61), privilégiant ce que nous appelons l'aspect synergétique « vertical » de l'auto-organisation (B. Paulré, 1997a), c'est-à-dire (i) l'étude de l'apparition d'un ordre global produit de l'interaction entre des éléments, hors de toute relation avec un environnement pouvant changer et, (ii), la mise en oeuvre d'une approche plus « synchronique » qu'évolutive, privilégiant le passage d'un état de désordre primitif à un état ordonné, plutôt que la transition entre deux ordres distincts successifs. Nous constatons ainsi l'existence de deux approches sinon deux conceptions de l'auto-organisation. Étant donné un système, on ne peut en effet supposer a priori que les conditions d'émergence soient exactement les mêmes dans le cas « synchronique » et dans le cas de l'évolution. Les démarches sont analogues dans la mesure où le changement d'ordre peut s'expliquer par le changement graduel des relations internes au système, c'est-à-dire en terme dans l'évolution, des questions se Toutefois, d'émergence. spécifiques et perturbation de l'ordre existant). L'histoire et la posent (créativité mémoire y jouent sans doute un rôle plus important que dans l'approche ou verticale. Les problèmes liés aux « tensions » baptisée de synchronique de deux attracteurs concurrents, l'ancien et le engendrées par l'existence « l'on étudie un désordonné nouveau, n'apparaissent », pas lorsque système organisé initialement « au hasard ». Dans ce dernier cas, si évolution il y a, c'est en un sens assez trivial et, souvent, dans des conditions plus abstraites et quasi expérimentales. En conclusion, le problème central auquel s'intéressent les chercheurs qui traitent de l'auto-organisation est pour l'essentiel, dans ces travaux fondadu collectif et du teurs, celui du passage du local au global, de l'émergence caractère complexe, non analysable dans le détail de cette dénivellation. Il convient, toutefois, de distinguer le thème de l'émergence (étude de la constitution d'un ordre collectif à partir des éléments sous-jacents) de ce que nous appelons l'évolution, c'est-à-dire la transition entre deux ordres ou la transformation d'un ordre existant. L'étude de l'évolution d'un système peut ou non être menée à partir de celle de l'émergence de la séquence des états collectifs qui la constituent. 1.2 L'auto-organisation dans les sciencessociales Les sciences sociales sont à peu près totalement absentes des débats ou des évolutions qui, entre la fin des années quarante et le début des années caractérisent les infléchissements et les transformations du soixante-dix, sens ou de l'attention accordée à la notion d'auto-organisation. Seules deux activement partipersonnalités relevant de ces disciplines ont apparemment cipé aux colloques et débats de cette époque : S. Beer et F. Hayek. Malgré de ses analyses et parce que nous limitons notre propos à l'écol'importance commeobjet et commestratégiede recherche L'auto-organisation 387 nomie industrielle, nous ne discuterons pas le contenu des analyses d'Hayek qui a été, durant cette période fondatrice, le seul économiste à avoir utilisé la notion d'auto-organisation (1973). Nous observerons cependant que le centre d'intérêt d'Hayek n'est pas tant le problème de l'existence ou de l'émergence d'un ordre, que celui de la transformation de l'ordre social, donc de son évolution. Selon J.-P. Dupuy (1992), la naissance des sciences sociales est rendue possible à partir du moment où (i) la source de l'ordre social n'est plus vue à l'extérieur de la société mais en son sein et où, (ii), une certaine distance est reconnue entre la société et les individus, distance qui est, entre autres, la condition même de l'activité scientifique. La société, le tout social constituent une pseudo-extériorité : un ordre non manipulable créé par les individus. Le social n'est pas construit mais se construit. C'est cette construction endogène mais inconsciente et « indépendante » qui justifie et donne son sens à l'usage de la notion d'auto-organisation dans ces disciplines. L'une des spécificités des systèmes sociaux est d'être complexes et opaques. On peut définir la notion de complexité en observant, avec J. von Neumann, qu'il est plus simple, au-delà d'un certain seuil, de construire une machine que de décrire complètement son comportement : « Ce dont est capable un objet complexe est (infiniment) plus complexe que l'objet lui-même » (cité Cet argument fonde à la fois l'idée d'une in J.-P. Dupuy, 1992, p. 214) autonomie de la société (son extériorité par rapport à ses membres), et celle d'une opacité, d'où résultent certaines propriétés des phénomènes sociaux. La notion d'auto-organisation dans les sciences sociales est donc analogue à celle qui a cours dans les disciplines fondatrices : émergence d'un ordre global stable à partir d'un ensemble de comportements individuels qui ne peuvent être connus dans le détail. On constate la présence d'une propriété qui ne pouvait évidemment apparaître dans le contexte des disciplines évoquées auparavant : l'ordre global est perçu comme autonome et extérieur, non accessible aux agents. Nous pouvons, sur ce point, rappeler l'existence d'un ensemble de recherches en sciences sociales faisant ressortir des phénomènes qui s'apparentent aux phénomènes d'auto-organisation. L'analyse des effets pervers ou des effets émergents traite en effet de systèmes « exclusivement soumis à la volonté des agents qui les composent. Pourtant tout se passe comme si les conséquences de leurs actions leur échappaient » (R. Boudon, 1979, p. 131). Ainsi, par exemple, le modèle d'Oison montre que dans certaines circonstances, des individus ayant des intérêts communs restent inorganisés (M. Olson, 1978). Bien entendu, la question importante est celle du fonctionnement du système et du processus d'émergence, ou encore celle de la transformation ou des (1) Cette conjecturepeut être illustréepar le fameux article de Maruyama(1963) sur la secondecybernétique.C'est nous qui faisonsce rapprochement,Maruyamane se référant pas à von Neumann. 388 AUTO-ORGANISAT transitions entre structures comme l'abordent Hayek ou les sociologues. Comme le souligne R. Girard (P. Dumouchel et J.-P. Dupuy eds., 1983, pp. 265-266), G. Tarde fournit un contrepoint à Durkheim, penseur de la transcendance sociale, pour qui « l'ordre est toujours là » car il raisonne sur la base de l'imitation, en dehors des règles et de l'ordre. Pour lui, « non seulement c'est l'imitation qui intègre le nouveau mais, à la limite, il n'existe pas de nouveau au sens absolu. Toute nouveauté se situe à la croisée de plusieurs imitations » (ibid.). Nous avons là un exemple d'une approche du processus social d'émergence et d'évolution qui peut jouer dans les deux sens : création et « perpétuation culturelle » ou « rivalité, désordre et désintégration ». Il s'agit d'une notion importante qui suggère l'une des directions dans lesquelles nous pouvons chercher les processus responsables de phénomènes d'émergence dans le domaine social. 1.3 Retoursur la notiond'émergence. commestratégiede recherche L'auto-organisation La notion d'auto-organisation englobe celles d'émergence et d'évolution, lesquelles procèdent de deux regards distincts pouvant être posés sur le même système : l'explication du global par le local d'une part ; le changement d'ordre de l'autre. L'étude de la constitution d'un ordre à partir d'une situation initiale « désordonnée » relève de l'émergence, tout comme l'étude de la formation, au niveau micro, d'un ordre nouveau à partir d'un ordre ancien. Mais on peut s'intéresser à des phénomènes évolutifs sans s'interroger sur leurs conditions d'émergence. Partant cependant du principe que l'étude d'un système auto-organisé ne peut se limiter à une approche globale, c'est l'émergence qui constitue la clé de sa compréhension. Nous posons, pour ce qui nous concerne, qu'il y a émergence quand une propriété se manifestant à un certain niveau est telle que la connaissance des propriétés des éléments au niveau juste inférieur ne permet pas de l'inférer. L'émergence connote l'idée de phénomène collectif dès lors que l'on reconnaît aux éléments du niveau inférieur la capacité de se comporter et d'être en interaction. Dans ce cas, un phénomène d'émergence survient ne seraitce que du fait du changement des comportements résultant du fonctionnement du système lui-même. L'émergence implique une approche « verticale » du système et véhicule implicitement une dimension causale : le phénomène émergent global est, d'une façon qu'on ignore mais effective, engendré par les interactions entre les comportements individuels. Le processus causal est d'ailleurs circulaire, le phénomène global contraignant, en retour, les comportements des éléments constituant le système (et pouvant aller jusqu'à les modifier). Cette vision circulaire conduit à s'interroger sur l'existence d'un « équilibre » d'où les idées de cohérence, de pattern ou de point fixe. commeobjet et commestratégiede recherche L'auto-organisation 389 La question de l'émergence débouche sur celle du réductionnisme. On est en effet placé devant le dilemme suivant : s'il y a émergence, cela signifie qu'il existe une sorte de difficulté ou d'incapacité à fournir une explication permettant de déduire les phénomènes globaux des interactions locales ; mais si l'on parvient à concevoir cette explication, on risque d'être taxé de réductionnisme ! Nous pensons que le problème ne se pose pas tout à fait ainsi. L'observation ou la qualification d'une émergence doit en effet être considérée comme une étape dans un processus de recherche plus global. Elle consiste à identifier un certain phénomène et à constater un déficit d'explication lorsqu'on le rapporte à la connaissance disponible des éléments de niveau inférieur considérés comme devant intervenir dans son explication ?1?. Mais le chercheur ne peut se contenter de signaler une émergence. Une fois celle-ci constatée, tous ses efforts doivent tendre à fournir une explication satisfaisante ou, du moins, à réduire l'écart initial. Au cours de cette démarche il peut être conduit à redéfinir la nature et les comportements des agents qui ont une fonction explicative, remodeler le système d'interactions, requalifier le phénomène global, examiner les facteurs de variation des comportements, bref à reconcevoir de différentes façons son modèle du système. Si réductionnisme il y a, ce n'est donc pas du type de réductionnisme « simplificateur » légitimement critiquable qu'il s'agit (2), mais d'une forme de réductionnisme impliquant des aller-retour entre l'observation et le modèle (à ses deux niveaux : global et local). Nous pourrions le qualifier de « réductionnisme dialectique » (3). L'approche en terme d'auto-organisation ne désigne pas simplement un type de phénomènes à étudier. Elle engage une certaine façon de conduire la recherche, ascendante et descendante, dans l'étude des phénomènes collectifs. Elle fonde une stratégie de recherche en même temps qu'elle en définit l'objet. Cette stratégie englobe les options suivantes : (i) la caractérisation des faits émergents, stylisés ou non ; (ii) l'étude des modes de sélection d'un comportement propre ; (iii) l'identification et l'analyse des variables motrices ou des phénomènes à l'origine des changements de comportements ; (iv) l'étude des processus de diffusion et de « contagion » internes . ( 1 )Nousrejoignonsl'analysede la complexitéde R. Déforme,quoiquepar un cheminement différent.Nous partageonstotalementsa conceptionde l'économieévolutionnistelorsqu'il écritque celle-ci« n'est ni un systèmethéorique,ni une doctrine...Elle estuneposture de connaissance» (1997, p. 118).Notre opinion est que la notion d'auto-organisationéclaireet fondecette posture,et déterminela stratégiede recherchecorrespondante. (2) Il ne s'agit pas en effetde contraindrel'explicationd'un phénomèneà un certainniveau par la prise en comptedes analysesrelativesau niveauinférieurdéjà disponibles,relevant d'une disciplinedéjà constituée. (3) Nousrejoignonsici la démarchedéveloppéepar I. Stengers(1997) qu'elle résumeainsi : « Dès qu'il est questiond'émergence,le tout et les partiesdoiventdonc s'entre-définir, négocierentre eux ce que signifieune explicationde l'un par les autres» (p. 30). 390 AUTO-ORGANISATION au système et l'examen des conditions qui font qu'une déviance « locale » peut s'amplifier et modifier son contexte en imposant sa loi ; (v) le rôle de et de la distribution des états des éléments et des sous-sysl'hétérogénéité tèmes dans la convergence du système vers un certain état global ; (vi) l'étude de la capacité ou de la facilité d'un système à modifier son organisation et ses trajectoires possibles (flexibilité, résilience, inertie...). 2. ÉLÉMENTS DEPROBLÉMATIQUE en terme d'auto-organisation L'approche suppose, de la part de l'éconoun effort de constitution d'une dont nous n'avons jusmiste, problématique l'orientation En termes et donc qu'ici posé que générale. cybernétiques les normalement mis en l'étude de généraux, ingrédients jeu par l'auto-organisation d'un système sont les suivants (B. Paulré, 1997a) : (i) la production d'un écart c'est-à-dire d'une déviance (source de variété) ; (ii) un processus des écarts, interprétable en terme de feed-back positif ; (iii) d'amplification un processus de régulation déterminant la stabilisation d'une nouvelle structure (ou le maintien de la structure ancienne) représenté en terme de feedback négatif. Dans le domaine économique, c'est habituellement en terme de « de bruit de sélection... le chercheur raisonne. Nous rationalité, », que allons passer en revue les éléments d'une approche auto-organisationnelle en économie après en avoir dégagé la nature et le rôle à partir des modèles de jeux évolutionnaires stochastiques. 2.1 Positiondesproblèmes. Lesenseignements desmodèlesévolutionnaires stochastiques Les modèles de jeux évolutionnaires sont intéressants, stochastiques d'une démarche tournée vers la compréhend'abord, parce qu'ils procèdent sion des conditions d'émergence d'un ordre collectif à partir de comportements individuels. Ils permettent de démontrer la réalité d'une approche qui, même si le mot n'est pas prononcé, consiste à étudier des phénomènes il s'agit de modèles Ensuite, au plan méthodologique, d'auto-organisation. d'interaction entre agents parmi les plus simples que l'on puisse imaginer. Ils permettent à partir d'une représentation en quelque sorte d'identifier, fois à la les nécessaires et les difficultés de l'étude des minimale, ingrédients conditions d'émergence d'un ordre collectif. Ces modèles permettent d'explorer les équilibres associés à des interactions directes répétées entre des agents à rationalité limitée, révisant leurs stratéLa question de l'émergence est abordée en gies et capables d'apprentissage. commeobjet et commestratégiede recherche L 'auto-organisation 3911 terme de sélection d'un équilibre parmi plusieurs possibles. On se trouve dans le genre de situation considéré comme caractéristique des phénomènes d'auto-organisation selon P. Weiss : alors que les détails nous échappent, nous sommes en mesure d'évaluer la probabilité que le système se trouve dans un certain état en longue période. Les modèles évolutionnaires stochastiques se distinguent de la théorie des jeux évolutionnistes par leur traitement des facteurs de mutation, consistant en des chocs continuels d'amplitude non décroissante. Ces facteurs constituent à la fois une source de variété et un test de robustesse des états de long terme Un exemple de cette démarche est fourni par le modèle de Kandori et alii (1993). Il s'agit d'un jeu de coordination 2 x 2 dans lequel les agents (en nombre fini) sont myopes, apprennent par imitation, se comportent selon une dynamique de meilleure réponse, n'anticipent pas et peuvent muter de façon indépendante. L'équilibre est conçu en terme de distribution limite de la configuration des stratégies. Les auteurs démontrent que sous certaines Les conditions le système converge vers l'équilibre à risque dominant l'hisc'est-à-dire de résultats ne dépendent pas du processus d'ajustement toire du système. L'équilibre sélectionné est celui qui possède le bassin d'attraction le plus large. Dans ces modèles l'apprentissage n'est pas toujours représenté par une fonction explicite. Il peut en effet résulter de deux processus différents non exclusifs : soit d'un processus de sélection qui conduit, par exemple, à retenir les séquences qui rassemblent les meilleures réponses à un échantillon individuel des stratégies passées, soit d'un processus d'apprentissage (« interne »). Le modèle de P. Young (1993) offre un exemple de la première approche. Les agents sont informés d'un échantillon de situations passées tirées au sort, n'optimisent pas et font parfois des erreurs. Ils ont donc une information incomplète et aléatoire mais ils s'adaptent. L'apprentissage se situe au niveau de la population dans son ensemble qui choisit mieux et est plus performante dans ses choix, si bien que « la société apprend alors que les agents n'apprennent pas » (p. 77). Selon que les interactions consistent en un jeu à deux stratégies ou plus, l'équilibre à risque dominant est ou non le seul équilibre stable stochastiquement. Les conditions de facilité d'accès des équilibres, donc la régulation endogène du système, jouent un rôle clé dans leur sélection. Dans les modèles évolutionnaires stochastiques, le processus de sélection est variable : il peut dépendre des fréquences relatives des actions au sein de la (1) Les mutationsne sont pas le seul facteurstochastiqueprésentdans le système.Il existe aussi un bruit dans les appariementsde stratégiesdifférentes(cross matching).Ce bruit amplifieéventuellementle rôle des facteursde mutation. (2) Ils observentque les phénomènesde dépendancedu sentieret de small eventssont résolus dans leur approche. 392 AUTO-ORGANISATION population, ou encore d'un échantillon aléatoire des résultats passés. Dans le second cas (M. Kandori et alii, 1993 ; P. Young, 1993) les actions qui ont eu le meilleur résultat ont plus de chances d'être adoptées et se diffusent dans la population. Cela rejoint la dynamique de réplication mais s'en distingue dans la mesure où celle-ci fait appel aux performances moyennes. Or les processus d'apprentissage peuvent être locaux et l'on peut tenir Ainsi, compte des vitesses relatives de la sélection et de l'apprentissage. sur les vitesses G. Elisson (1993) observe (i) que l'absence d'information ne permet pas de savoir si l'équilibre de longue période de d'ajustement M. Kandori et alii est observable et, (ii) que les interactions entre les agents de ce modèle sont directes et se font par paires tirées au sort dans l'ensemble de la population. Introduisant une hypothèse d'appariement local, il montre sont fortement affecle taux de et la nature de que convergence l'équilibre tés par la localité et l'hétérogénéité. Au-delà du cas particulier étudié, on doit donc garder présente à l'esprit la conjecture d'une différence d'évolution significative selon que les régulations sont locales ou globales. Ils révèCes modèles illustrent la complexité du problème de l'émergence. lent la nature des ingrédients minimaux à partir desquels on peut aborder en dynamique : mutation, choix plus ou moins l'émergence apprentissage, On myopes, interactions directes et/ou indirectes, information et mémoire... peut observer également, dans ce type de modèle, l'existence d'un arbitrage ex post) et d'apprentissage indiou d'un mélange de sélection (apprentissage viduel. Par ailleurs, on constate des « multifonctionnalités », le modèle n'étant pas nécessairement conçu de telle façon que les fonctions de base d'un système auto-organisateur soient spécifiées de façon différenciée. 2.2 Lanaturedes phénomènesémergents Les phénomènes globaux émergents que le chercheur peut privilégier sont nombreux. Pour en présenter un premier inventaire ou classement, nous proposons de distinguer : d'ordre en un sens élémentaire c'est-à-dire ceux qui (i) les phénomènes consistent en une simple distribution d'une variable : de marché, parts niveaux de productivité, d'une répartition spatiale, adoption technologie... Îl s'agit d'une structure en un sens élémentaire de la notion et, formellement, d'un vecteur de variables d'état du système (et non leurs règles d'engendrement) ; consistant en variables ou aspects globaux, plus syn(ii) des phénomènes thétiques ou « organiques » venant de ce qu'il existe une stabilisation du du système, pendant une certaine période qui peut régime de fonctionnement être caractérisé par : la technologie de production dominante, le dominant design du produit, une certaine hiérarchie des entreprises, un ou plusieurs commeobjet et commestratégiede recherche L'auto-organisation 393 standards, des normes plus institutionnelles (par exemple : le système de relations professionnelles, la norme salariale...), des modes d'organisation dominants (comportant un certain degré d'intégration verticale et/ou d'organisation de la filière), un type d'organisation de la distribution, une forme de spatialisation... On peut ajouter à cette liste les régimes d'innovation (relatif aux mutations) ou de concurrence (fixant le type de régulation du marché) et les paradigmes ; (iii) les phénomènes relatifs par exemple à l'organisation industrielle c'està-dire à la structure du secteur ou de la filière et renvoyant, pour leur explication, à des complémentarités ou des logiques d'ensemble (et non à une simple répartition) : (a) la division du travail, horizontale et/ou verticale qui s'est instaurée au cours du temps, (b) les alliances et les relations de complémentarité interfirmes et, (c) la répartition spatiale. L'organisation des marchés, prise au sens d'un ensemble différencié de relations stables entre entreprises et clientèles, constitue un autre type de phénomène émergent rentrant dans cette catégorie. 2.3 Aperçudes hypothèsessur les comportements La gamme des comportements modélisables est, dans le domaine dont nous traitons, très étendue. Le choix des hypothèses relève souvent davantage du souci a priori de tenir compte de « généralisations plausibles » ou de produire certains effets immédiats jugés intéressants ou pertinents, que d'une approche systématique d'exploration des relations complexes entre la nature des comportements et les régularités ou les évolutions globales émergentes. ; ; ! ; ; ; ; ; Le premier problème qui se pose à propos des comportements est celui de leur homogénéité ou de leur hétérogénéité. L'hétérogénéité apparaît comme l'hypothèse commune dans le contexte évolutionniste. Or elle ne semble pas a priori être une condition nécessaire de complexité et donc un élément indispensable de l'étude de l'auto-organisation. Ainsi, en physique, les atomes n'ont pas, en quelque sorte, de « comportement » hétérogène. Dans certaines simulations de réseau comme, par exemple, à partir d'automates cellulaires, les règles de décision sont homogènes. Dans les modèles d'équilibre des structures industrielles, les auteurs introduisent d'ailleurs souvent une hypothèse d'homogénéité (par exemple : P. Dasgupta et J. Stiglitz, 1980). Les analyses empiriques semblent cependant conduire à privilégier le principe de l'hétérogénéité (J.B. Jensen et R.H. McGuckin, 1997) et, dans la perspective évolutionniste, l'hétérogénéité est en général considérée comme indispensable, le moteur de la dynamique des systèmes étant la rivalité entre firmes, aiguisée par les asymétries et motivée par la volonté de créer et de capter des rentes. Ainsi, dans le modèle de G. Silverberg et alü ainsi que dans celui d'Iwai, s'il n'y a pas d'hétérogénéité, il n'y a pas d'innovation. 394 AUTO-ORGANISATIO Les deux types de comportement qui suivent sont importants car à travers eux se déploient des feed-back positifs qui sont des feed-back d'amplification. L'apprentissage individuel, l'un des thèmes majeurs de l'évolutionnisme contemporain, permet d'introduire un « moteur » d'évolution dans le système dans la mesure où il peut engendrer de façon endogène des phénomènes cumulatifs. D'autre part, il permet de justifier le maintien de certaines asymétries, donc d'une hétérogénéité. Il s'agit d'un ,feed-back positif réflexif. Son rôle dans la dynamique du système et les phénomènes d'émergence est naturellement important. Les spécifications possibles des fonctions d'apprentissage sont très nombreuses et les typologies des phénomènes d'apprentissage se révèlent finalement assez complexes (G. Dosi, L. Marengo et G. Fagiolo, 1996). L'imitation a une double fonction. D'un côté elle est réductrice d'asymétries : « La force humaine de l'imitation a le pouvoir de contrer la force aveugle de la sélection » (K. Iwai, 1984, p. 335). De l'autre elle peut contribuer à diffuser et donc amplifier, par contagion, une déviance locale, développant une hétérogénéité. Les modèles dynamiques intègrent pour la plupart des comportements d'imitation, ce qui signifie bien que les chercheurs estiment qu'il s'agit d'un facteur important, ce que les observations empiriques justifient. Il s'agit d'un feed-back positif jouant sur la diffusion, dans un milieu, d'une information, d'une règle de comportement ou d'une action. La façon dont l'imitation est spécifiée est très variable. Certains modèles retiennent le principe de l'imitation des techniques de production (R. Nelson et S. Winter, 1982 ; K. Iwai, 1984). D'autres privilégient l'imitation des comportements de fixation de prix (G. Dosi et alii, 1994) ou encore celle des caractéristiques du produit (C. Birchenball et P. Windrum, 1998). Sur la base d'un modèle assez général, A. Orléan montre qu'il existe un effet de seuil, l'imitation contribuant à améliorer les performances collectives seulement si la propension à imiter n'est pas trop élevée (1998). L'imitation débouche éventuellement sur un phénomène d'auto-référentialité du système. On observera, pour le regretter, que les stratégies des entreprises sont rarement prises en compte. Elles sont absentes chez Nelson et Winter, leur importance n'ayant été reconnue que plus tard (S. Winter, 1987). On ne peut ignorer que les agents économiques, et plus particulièrement les firmes, développent des stratégies et tentent de modifier leur environnement afin de se situer dans un contexte plus avantageux (1). On peut d'ailleurs observer des phénomènes d'imitation de stratégie et l'émergence de référentiels communs au niveau d'un secteur (par exemple A.S. Huff, 1982). desstratégies estdéveloppée dansB.Paulré industrielles ( ) )Lavariétédesvoiesd'approche ed.(1998). commeobjet et commestratégiede recherche L 'auto-organisation 395 2.4 Aperçudes hypothèsespossiblessur les interactions entre agents L'analyse économique standard privilégie les interactions indirectes régulées par le marché. Or dès lors que l'on s'intéresse à certains choix sociaux ne relevant pas du marché (conventions, normes), que l'on est amené à prendre en compte des interactions hors marché (externalités, imitation), ou que l'on s'intéresse à des interactions ayant un caractère local (pouvant avoir des effets locaux ou globaux de façon différée) les approches standards se révèlent limités. Certains travaux du courant évolutionniste contemporain ont attiré l'attention sur des formes d'interdépendance ou d'interactions non étudiées jusquelà. Les phénomènes de diffusion, en un sens large, jouent ici un rôle important. D'abord parce qu'ils visent à rendre compte de la façon dont un changement, initié localement, se transmet progressivement au sein du système et crée un nouvel ordre global. Ils réalisent les feed-back positifs qui sont un facteur clé de la compréhension de phénomènes émergents. Ensuite parce que, sur un plan plus théorique, ils reposent sur des interactions directes entre les agents que l'on peut aborder en terme de contagion, d'imitation, de comportements moutonniers, d'externalités... (1) Ces interdépendances mettent en jeu des aspects variés du comportement, les agents pouvant d'ailleurs se situer à des « distances » variables. Elles peuvent être globales ou locales (ce que privilégie, par exemple, le formalisme des automates cellulaires). 2.5 Laplacedes formalisationséconomiqueshabituelles j ;, j ¡ ) j ; t 2 i. j j Dans l'étude de l'auto-organisation, le chercheur est nécessairement conduit à introduire des hypothèses se situant dans un ensemble virtuel plus vaste et plus complexe que l'ensemble de référence habituel hérité d'approches menées pour l'essentiel dans une perspective statique ou, au mieux, dynamique dans un environnement stationnaire non évolutif. Cette question se pose plus particulièrement à propos de trois aspects principaux : l'apparition de la nouveauté (ou encore, de la genèse de la variété). En substance, l'approche microéconomique habituelle repose sur l'idée que le comportement des agents économiques consiste à choisir parmi des options données et l'on ne s'y interroge pas sur leur capacité à créer de nouvelles options > ; ––––– (1) La littératuresur ces phénomènesdevienttrès importantedepuisquelquesannées.Çf.par exempleS. Bikhchandani,D. Hirshleiferet I. Welch(1998). (2) Le propre de la révolutionschumpéterienneest bien d'introduiredans l'analyse économiquela questionde l'apparitionde la nouveauté. (i) AUTO-ORGANISATION 396 (ii) les hypothèses de comportement relatives à la rationalité des agents fondée sur l'habitude ou la délibération, imitatrice, (optimisatrice, adaptative) et au processus de changement des comportements ; (iii) les processus d'interaction, directe et/ou indirecte, marchande ou non. Nous pouvons classer les modèles disponibles en fonction de leur degré « tradiou d'affranchissement vis-à-vis de la problématique d'éloignement tionnelle » de l'étude d'un secteur. Une première famille de modèles repose sur une structure fortement inspirée par la théorie économique ou, du moins, ne s'en éloigne pas de façon significative. Le cadre est mixte : pour partie conforme ou analogue au type de spécification habituel, pour partie béhavioriste (par exemple : le modèle de Nelson et Winter). Une seconde famille d'un type repose sur des structures, des relations et/ou des comportements nouveau par rapport à ceux que l'on trouve dans les modèles économiques habituels, tout en gardant un contact étroit avec des questions ou des raisonnements économiques (par exemple : le modèle d'Arthur, 1988). Enfin, les modèles de la troisième famille, explicitement conçus pour traiter des problèmes d'auto-organisation en économie le plus souvent, reposent sur des structures et/ou des modes de représentation qui, pour partie au moins, sont totalement étrangers aux modes de représentation et de spécification habituels des économistes : (i) des méthodes formalisées ayant prouvé leur fécondité dans d'autres l'étude de disciplines pour phénomènes globaux à partir de micro-comstatistique, posants (mécanique synergétique, équation de FookerPlanck...) ; (ii) de nouveaux dynamiques outils de modélisation et de simulation de phénomènes les complex adaptive systems). (par exemple : Les frontières entre ces trois ensembles peuvent être discutées et considérées la plupart des économistes comme partiellement subjectives. Néanmoins, le plus souvent, une certaine idée de ce que l'on peut (ou ont, implicitement l'on doit) trouver dans un modèle économique Cela joue un rôle dans la le niveau et, par conséquent, façon d'appréhender microéconomique influence les types de phénomènes émergents que les modèles sont en mesure de produire. 3.. L'AUTO-ORGANISATION INDUSTRIELLE DANSLATHÉORIE CONTEMPORAINE ÉCONOMIQUE Nous n'allons pas ici engager d'analyse rétrospective visant à réexaminer les industrielle à la lumière de la analyses ou les fondements de l'économie notion d'auto-organisation (cf. par exemple J. Foster, 1993). Nous allons commeobjet et commestratégiede recherche L 'auto-organisation 397 étudier la façon dont certains travaux contemporains d'économie industrielle réalisent, de fait, le programme de recherche sur l'auto-organisation défini par J. Lesourne et s'inscrivent dans la problématique que nous venons d'énoncer. Pour cela, nous allons prendre en considération, entre autres, un ensemble de travaux et de recherches (issus, plus particulièrement, de l'évolutionnisme contemporain) dont on considère qu'ils peuvent fournir des enseignements pertinents même s'ils ne se réfèrent pas explicitement à la notion d'auto-organisation. Nous nous attachons moins à la façon dont sont présentés les modèles étudiés qu'à nous instruire des conditions dans lesquelles une certaine problématique peut être mise en oeuvre et illustrée. 1 Lesecteurcommesystèmeautonome 3.1 Un secteur (c'est-à-dire l'ensemble des firmes produisant à titre principal un certain type de biens ou de services) est-il un système autonome ? Le fait qu'il peut être défini comme un ensemble d'agents eux-mêmes auto-organisés n'est manifestement pas une condition suffisante car cela ne permet pas de justifier l'existence d'une clôture opérationnelle garantissant l'unité dynamique de l'ensemble. C'est seulement une condition de flexibilité nécessaire. On peut suggérer une réponse empirique à la question posée en remarquant simplement que l'organisation d'un secteur ne dépend pas de son environnement et, plus précisément, de la demande. Une même demande peut être satisfaite par plusieurs types d'organisation industrielle, par des systèmes d'offre dont les structures sont différentes. Certes des contraintes de coût et d'efficacité jouent un rôle mais elles ne sont pas déterminantes. Dès lors que l'on retient le principe d'une rationalité limitée, l'habitude, la mémoire et les compromis plus ou moins institutionnalisés prennent de l'importance. Plus globalement, on ne peut ignorer le poids des traditions, de l'histoire, du contexte, de certains événements : « [Les] structures ne sont que très partiellement déterminées par les caractéristiques techniques et commerciales de chaque branche. Elles résultent largement de l'évolution historique de la branche depuis son origine » (J. Lesourne, 1991, p. 175). ' Par exemple l'organisation du secteur textile en France et en Italie fut pendant longtemps très différente. Autre exemple : le développement des grandes surfaces en France, leur rôle dans la distribution d'un certain nombre de produits et, au delà, leur pouvoir économique sont spécifiques... Plus généralement, les institutions sectorielles, les relations interfirmes ou les relations avec le système financier, dans le contexte de politiques industrielles nationales, fondent des organisations industrielles différentes selon les pays. L'approche néo-institutionnelle aborde ces questions sur une base essentiellement économique et fournit des analyses intéressantes. Mais, nous ne pensons pas qu'elle puisse à elle seule fournir des réponses complètes. D'autre part, la théorie des marchés contestables, qui plaide en faveur 398 AUTO-ORGANISATION d'un déterminisme technologique de la structure sectorielle a montré ses limites (cf. par exemple S. Martin, 1993). Bref, en matière d'organisation industrielle comme dans les organisations, il n'y a pas de one best way. Les comportements propres semblent a priori multiples et leur explication, faisant appel à l'histoire, complexe. S'inspirant de la théorie des systèmes autopoïétique, P. Garrouste a analysé la filière de la forge et a caractérisé « les relations qui structurent une filière technique et lui donnent le caractère d'un système dynamique » en fonction de trois caractéristiques : la rigidité de la filière, sa cohérence et sa complexité ( 1 984, p. 69). Nous trouvons également chez D. Foray une tentative pour « concevoir l'industrie comme un système autopoïétique » et élaborer un cadre d'analyse qu'il a appliqué à l'étude de la fonderie (1987). Ces approches sont des tentatives originales pour spécifier les conditions d'émergence et d'autonomie des systèmes industriels. Elles se situent au niveau méso-économique et sont centrées sur les systèmes de production. Les aspects concurrentiels ou microéconomiques en sont totalement absents. 3.2 Lasimulationde la co-évolutionde l'industrie et de la technologie R. Nelson et S. Winter ont inauguré un courant de recherche qui consiste à simuler la co-évolution de la structure industrielle et de la technologie d'un secteur à partir d'un modèle comportant en général comme ingrédients : des firmes ayant un comportement routinier et adaptatif, en nombre donné ou non, investissant en capacités et faisant évoluer leur technologie par R&D, imitation ou apprentissage. Chez ces auteurs, l'équilibre de marché résulte d'une confrontation offre/demande et le prix s'ajuste en fonction d'une demande nominale fixe. Le cadre d'analyse est dynamique mais le nombre de variables endogènes est limité. Le produit est homogène et les firmes se distinguent par leurs coûts, seules les innovations de procédé étant prises en compte. Dans ce modèle la structure du secteur émerge de la dynamique sectorielle et des aléas de la recherche. Elle est cependant caractérisée à partir d'indices de concentration synthétiques exprimant des propriétés quantitatives globales et non des types d'organisation ou d'ordre du secteur, toute notion d'organisation industrielle ou de schémas de structures (patterns) étant absente ou exogène. Le caractère imprévisible des résultats est lié à l'usage de plusieurs fonctions aléatoires dans le modèle mais le modèle ne peut être considéré véritablement comme complexe. Il n'y a pas, dans ce type de modèle, de véritable émergence. Les caractéristiques globales ne sont pas une incitation à modifier le modèle ou à réfléchir à des propriétés globales originales et à des interactions nouvelles qui en seraient responsables. La démarche est ascendante et à aucun moment descendante. Elle a une valeur commeobjet et commestratégiede recherche L'auto-organisation 399 essentiellement illustrative. Nelson et Winter ne s'engagent pas dans des études de sensibilité et le modèle n'est pas utilisé comme un objet expérimental. On se situe ici dans le cadre du type de démarche évoquée par I. Stengers : rassembler des éléments en interaction, « faire tourner » le modèle et étudier ce qui se passe. G. Dosi, par exemple, ne dit pas autre chose lorsqu'il présente ainsi sa stratégie de recherche : « je pars de ce que je considère être des généralisations plausibles du comportement des firmes et de leurs interactions, j'écris les équations différentielles correspondantes et je considère où me conduit tout le processus » (1992). Toute la question est évidemment de savoir ce que l'on doit considérer comme des généralisations empiriques pertinentes et potentiellement intéressantes. Quels sont les critères de choix des hypothèses quand, dans une démarche ascendante, on déduit le comportement agrégé des firmes ou l'évolution du secteur comme le produit des interactions entre des firmes dont les logiques d'évolution ne sont soumises, en leur contenu, ni à une condition d'équilibre ni à des faits stylisés émergents préalablement définis ? On peut également observer que la succession des états d'un système dynamique ne constitue une évolution de structures qu'en un sens assez trivial. N'y aurait-il pas ici un risque de confusion entre cinétique et dynamique ? La cinétique peut être utile à condition qu'elle débouche sur une périodisation et sur une interprétation du sens et de la cohérence des périodes observées. ¡ Le modèle proposé a été suivi d'un grand nombre d'autres qui différent évidemment par les hypothèses, les spécifications et les questions posées, mais dont la démarche et le sens méthodologique restent identiques, certains recourant même explicitement à la notion d'auto-organisation. Parmi ceuxci, une famille de modèles repose sur l'exploitation de l'équation de Fisher (K. Iwai, 1984 ; S. Metcalfe, 1993 ; G. Silverberg, G. Dosi et L. Orsenigo, 1988). L'analogie avec la sélection naturelle semble présente, sauf à avancer que loi de Fisher est une loi générale des systèmes écologiques c'est-à-dire des systèmes de populations. 4 On observera aussi que l'effet de la structure sur les comportements des firmes se réalise le plus souvent par l'effet en retour de quelques caractéristiques globales (et non locales). Elle joue un rôle au travers de la fonction d'investissement des firmes (rôle du taux de marge chez Nelson et Winter) ou des parts de marché (modèles fondés sur les équations de Fisher). Un autre type de variable « globale » pouvant jouer un rôle dans les comportements des firmes est la connaissance publique ou la science qui est exogène (R. Nelson et S. Winter) ou endogène (G. Silverberg et alii). ; ; ; En conclusion, la démarche retenue dans cette famille de modèles peut être rapprochée de celle de l'étude des systèmes à auto-organisation par l'objet (évolution ou émergence de structure) et par un aspect de la méthode (« mettre : ; i , , 400 AUTO-ORGANISATION ensemble... »). Mais tout se passe comme s'il s'agissait surtout d'imiter en quelque sorte les évolutions réelles sans être guidé par des faits stylisés bien identifiés à reproduire, sans validation et sans démarche d'ensemble. Nous nous situons ici essentiellement dans le cadre de l'étude de la rivalité entre firmes, donc dans un cadre d'analyse très proche du cadre microéconomique habituel. Le type de modèle étudié peut cependant être enrichi par des formalismes novateurs tels que ceux qu'autorisent les algorithmes génétiques comme, par exemple, dans C. Olivier et alii (1997) ou encore C. Dupuy et A. Torre (1999), débouchant sur des modèles que nous baptisons « d'hybrides ». 3.3 Lecyde de vie de l'industrieet l'émergence du dominantdesign Le cycle de vie de l'industrie constitue, en un certain sens, le modèle évolutionniste par excellence Il relève, au départ, de ce que nous appelons les « macro-macro » de l'évolution de structures industrielles, cellesapproches ci s'enchaînant sans que des éléments d'explication microéconomiques soient nécessairement fournis. Pendant toute une période, ce schéma, présenté initialement dans le contexte du marketing et autour duquel s'est greffé progressivement un ensemble d'éléments complémentaire énoncés a priori, était surtout, selon notre expression, « un fait stylisé sans faits ». Nous voulons dire qu'il n'avait jamais été véritablement validé, le cycle de vie ayant été considéré comme s'imposant d'évidence. Les validations empiriques systématiques sont apparues tardivement. Ce n'est que récemment que quelques faits stylisés intéressants ont pu être identifiés et c'est encore plus récemment que quelques économistes théoriciens s'y sont intéressés sur un plan théorique (cf. S. Klepper et E. Graddy, 1990) (2). Nous retiendrons, sur le plan empirique, les deux faits stylisés suivants caractéristiques, plus particulièrement, de la phase d'émergence du cycle : apparition assez rapidement, de ce qu'on appelle un dominant design, suivi d'une phase de réorganisation et de concentration (shake out) (J.M. Utterback, 1994). Nous avons là un phénomène que l'on peut qualifier légitimement d'émergent se manifestant, d'abord, par un accord sur une conception du produit et, ensuite, par la restructuration qui en résulte. L'auto-organisation du secteur est manifeste puisqu'à une phase de fluidité, caractérisée par l'absence de régularités et de préférences bien structurées, succède une autre , ' (1) Le cycle de vie du produitpeut être rapproché,dans son principe,de l'évolutionnisme philosophiquedu Xix.siècleconsistantà énoncera priori les stadesde développement successifspar lesquelsdevaientpasserl'humanitéou les sociétéshumaines. (2) Le courantde l'écologiedes organisations(M.T.Hannanet G.R. Carroll,1992)n'est pas vraimentorientévers l'explicationmais présentel'intérêt de qualifieret d'identifierles faits stylisésà expliquer. commeobjet et commestratégiede recherche L'auto-organisation 4011 phase dans laquelle les comportements sont structurés et deviennent plus rationnels. On passe du stade de l'innovation schumpetérienne à une période où le calcul économique et la prévision deviennent possibles. Plusieurs analyses théoriques destinées à rendre compte, analytiquement, de ces phénomènes, ont été proposées. Jovanovic et MacDonald ont présenté, en 1994, un modèle proposant une explication du shake out. Mais celui-ci y est déclenché par un événement exogène et non par l'apparition d'un dominant design endogène. Klepper a présenté plusieurs modèles dont le dernier explique à la fois le shake out, le passage d'innovations de produits à des innovations de procédés et une explication des avantages dont bénéficie le first-mover (1997) (1). Un facteur critique du modèle est l'existence de rendements croissants de la R&D mais il existe aussi (phénomène Penrosien) des coûts d'expansion limitant le taux de croissance des firmes. Klepper observe que l'on peut également y intégrer l'évolution de la structure verticale des firmes. Les préférences des consommateurs sont introduites par Birchenball et Windrum dans un modèle de simulation ( 1998). Les auteurs font l'hypothèse qu'elles changent et évoluent en fonction des offres des entreprises. Ce modèle contribue à relativiser le principe du dominant design qui apparaît alors comme un cas particulier. L'endogénéisation du dominant design demeure un thème sur lequel les recherches doivent se poursuivre. L'intérêt des travaux évoqués réside dans leur démarche qui consiste à éclairer et fonder sur des comportements microéconomiques un phénomène que l'on peut considérer comme véritablement émergent. La recherche est fortement engagée dans une démarche « descendante ». 3.4 Lefonctionnementdes marchéset l'émergencede structures _ . L'étude du fonctionnement des marchés donne également lieu à des analyses théoriques qui se posent en terme de détermination des structures d'échanges émergentes. Nous pouvons prendre l'exemple proposé par G. Weisbuch, A. Kirman et D. Herreiner (1998). Il s'agit d'un modèle de marché destiné à « étudier comment « l'ordre » observé sur de nombreux marchés de biens périssables, se développe » (p. 179). Par ordre, ils désignent « l'établissement de relations stables sur de nombreuses périodes d'ouverture du marché » (ibid.). Ils concluent à l'existence d'une distribution bimodale des acheteurs, « une partie ayant un comportement ordonné, l'autre non ». Ce résultat est robuste et demeure valable pour un modèle dans lequel bon nombre d'hypothèses réalistes sont introduites. Ils concluent ainsi : « Des relations d'échange stables peuvent être considérées comme (1) Sur ces points,cf L. Le Dortz(1997). 402 AUTO-ORGANISATION une institution mutuellement profitable aux deux catégories de partenaires. Dans le cas présent, la mémoire des profits passés [...] fonde l'émergence de l'institution » (p. 180). Un paramètre exprimant l'influence (non linéaire) du profit sur les préférences crée un effet de seuil. Dans le même ouvrage, J. Lesourne et G. Laffond, présentent un modèle d'un secteur de gros. Leur démarche s'inscrit explicitement d'émergence dans une perspective L'une des originalités de ce auto-organisationnelle. modèle est de faire jouer un rôle important à l'aversion au risque (qui est une variable endogène du modèle) et de montrer l'émergence possible de deux de firme. Le est types processus d'émergence dépendant du sentier et, à l'état stationnaire final, le risque disparaît. Tels qu'ils sont présentés, ces deux modèles semblent la problématique de ce que nous appelons l'émergence s'inscrire plutôt dans « synchronique ». 3.5 L'étudede l'auto-organisation industrielle à partirde nouveauxsystèmesd'interdépendance L'analyse d'Arthur (1988) fournit une très bonne illustration d'un phénomène d'auto-organisation en économie. Elle permet de comprendre par quel genre de processus cumulatifs une technologie ou un standard se diffuse et envahit tout le marché, créant un certain ordre. Arthur recourt au modèle de tirage d'urne de Polya (1) pour spécifier le type de processus dépendant du sentier expliquant cette émergence. Économiquement, le phénomène de rende rendements croissants d'adoption forcement est justifié par l'existence c'est-à-dire débouchant sur des dynade feed-back positifs, amplificateurs, miques spécifiques (dépendance du sentier, irréversibilité, verrouillage). Les sont hétérogènes. Ce modèle est un très bon exemple du comportements d'un phénomène émergent « surtype de démarche associant l'observation inféprenant » (la domination exercée par une technologie éventuellement rieure) et la construction d'un modèle explicatif. L'introduction d'hypothèses supplémentaires portant, par exemple, sur les coûts de changement, permet d'étudier la « concurrence » entre deux structures possibles. On s'oriente alors vers l'étude des phénomènes d'évolution. On parvient, dans la perspective retenue, à spécifier les conditions d'émergence de certaines structures résultant de processus de diffusion. Ce qui constitue un premier type de résultat significatif en matière d'auto-organisation dans le domaine économique. Ainsi, selon J.-M. Dalle (1998), les trois de séquentialité et de structures locales d'interhypothèses d'hétérogénéité, action « sont suffisantes, une fois prises en compte dans un modèle d'inter(1) L'urne de Polya a déjà été utilisée dans la littérature sur l'auto-organisation pour illustrer l'existence possible de points fixes mutliples et, par là, expliquer la présence latente de plusieurs comportements propres dans un système (J.-P. Dupuy, 1992 ; F. Varela 1989a). commeobjet et commestratégiede recherche L 'auto-organisation 403 action stochastique, pour expliquer qualitativement la forme des courbes de diffusion [...] ce qui explique leur non-neutralité pour l'analyse économique [...]. [Cette] forme apparaît structurelle [...] » (p. 250). Cette analyse rejoint les travaux pionniers de P. David qui insiste sur l'existence d'une structure commune consistant en « l'interdépendance des choix individuels avec rétroaction positive localisée et qui donc, se prêtent à des modes d'analyse qui tiennent expressément compte des évolutions passées » (1992, p. 243). Dans les situations correspondantes, « les agents économiques, prisonniers de réseaux sociaux et d'informations, sont soumis à des forces de rétroaction positive [...] qui peuvent faire basculer les choix collectifs en faveur d'un extrême ou de l'autre » (p. 247). De cette famille de recherches, il ressort que l'étude des réseaux (pris en un sens général et pas seulement technologique) apparaît comme une façon essentielle d'étudier l'influence des événements passés, donc d'apprécier plus particulièrement le rôle de l'histoire dans les phénomènes de propagation du changement. Mais, au travers des réseaux, se transmettent également des orientations qui sont moins fortement ancrées dans l'histoire. Les visions, les déviances et les projets individuels peuvent aussi se diffuser, se conforter au point d'entraîner d'autres types de basculement des comportements collectifs. Le poids du passé doit être compensé par celui des volontés et des projets c'est-à-dire par le poids de la projection dans l'avenir. 3.6 L'étudede l'auto-organisationindustrielle à partirdes nouveauxoutils Dans un article de 1996 opérant une certaine coupure avec les formalisations habituelles des économistes, S. Durlauf montre que la mécanique statistique est compatible avec le raisonnement microéconomique et « constitue un outil complémentaire valable » (1996, p. 31) Il propose une démarche unifiée permettant d'étudier, sur cette base, différentes représentations du rôle des interactions directes entre les agents économiques dans l'émergence de comportements agrégés originaux. Plus particulièrement, un sousensemble de ces modèles permet d'endogénéiser la structure de voisinage des agents contribuant ainsi à suggérer une explication de « l'auto-organisation de la composition du voisinage » (p. 26). Une relation entre l'existence d'une différenciation au sein d'un ensemble social et l'existence d'équilibres multiples est suggérée. Méthodologiquement, la liaison s'opère alors avec les verres de spin et, par ce biais, pourrions-nous rajouter, avec un ensemble de modèles de simulation développés dans le contexte du néo-connectionisme auquel nous nous sommes référé auparavant. Les articles de I. Hors et J. Lordon (1997) et de J.-M. Dalle (1997) traitent également de l'apport de (I) L. Blume jouaun rôle précurseuravec un articlepubliéen 1993. 404 AUTO-ORGANISATION certaines méthodes issues de la physique (analyse de transition de phase, Ce type de contribution appelle évidemment de plus champs de Gibbs...). mais il nous suffit, pour notre propos, de relever la longs développements forte convergence entre les préoccupations qui s'y expriment et l'approche Par une espèce de long détour, nous revenons en auto-organisationnelle. et quelque sorte à notre point de départ, à savoir au néo-connectionnisme aux disciplines fondatrices de l'analyse de l'auto-organisation. 4. CONCLUSION Une approche en terme d'auto-organisation dans le domaine de l'économie industrielle est justifiée et concevable. Elle peut être abondamment illustrée et argumentée à partir de modèles déjà existants qui s'inscrivent, explicitement ou non, dans cette perspective et contribuent à enrichir la compréhension des phénomènes d'auto-organisation dans ce domaine. Nous avons insisté sur la notion d'émergence et sur le fait que l'auto-organisation nous semble devoir être interprétée comme une démarche originale de recherche visant à mettre en relation deux niveaux d'analyse d'un système. Force est d'observer cependant que les démarches mises en oeuvre ne s'intègrent encore que rarement dans un processus suffisamment systématique d'étude des phénomènes émergents tels que nous les avons caractérisés. Les deux termes du problème, le global et le local sont à travailler simultanément si bien que le chercheur peut à la fois jouer sur l'explicandum et sur C'est ce qui rend la démarche difficile et explique sans doute l'explanans. une prolifération de modèles telle qu'on ne sait trop comment les rapprocher et les comparer, tant les hypothèses peuvent être nombreuses et variées. Nous avons classé principalement les modèles sur la base de leur éloignement par rapport à la conception habituelle des modèles microéconomiques de secteur. Nous avons tenu compte aussi de la nature des phénomènes Nous avons privilégié émergents pris en compte et des modes d'émergence. les travaux microéconomiques de caractère formalisé dont l'intérêt vient aussi de ce que « seul ce formalisme permet de prendre conscience du grand nombre d'hypothèses qu'implique la construction d'un modèle » (J. Lesoume, 1988, p. 194). Nous mesurons ainsi à quel point le chantier ouvert est complexe important. C'est dire que le défi à relever est passionnant. et l'enjeu commeobjet et commestratégiede recherche L'auto-organisation 405 BIBLIOGRAPHIE ARTHURW.B. , « Self-Reinforcing Mechanisms in Economics », in Anderson P., Arrow K. & Pines D. eds., The Economy as an Evolving Complex System, Addison-Wesley, 1988. D. & WELCHI., « Learning from the Behavior of BIKHCHANDANI S., HIRSHLEIFER Others: Conformity, Fads and Informational Cascades », Journal of Economic Perspectives, vol. 12, na 3, 1998. BRICHENBALL C. & WINDRUM P., « Is Life Cycle a Special Case? Dominant Designs and the Emergence of Market Niches Through Evolutionary Leaming », Structural Change and Economic Dynamics, vol. 9, 1998. BLUMEL., « The Statistical Mechanics of Strategic Interaction », Games and Economic Behavior, vol. 5, 1993. J.-L. & GRUMBACH BONABEAU A., « Characterizing Emergent E., DESSALLES Phenomena », Revue internationale de dystémique, 1995 (en deux parties). BouDONR., La logique du social, Hachette, 1979. DALLEJ.-M., « Local Interaction Structures , Heterogeneity and the Diffusion of Technological Innovations », in J. Lesourne & A. Orlean eds., Self Organization and Evolutionary Economics, Economica, 1998. DALLEJ.-M., « Heterogeneity vs. Externalities in Technological Competition », Journal of Evolutionary Economics, vol. 7, 1997. P. & STIGLITZ DASGUPTA J., « Industrial Structure and the Nature of Innovation Activity » Economic Journal, vol. 90, 1980. DAVIDP., « Dépendance du chemin et prévisibilité des systèmes dynamiques avec externalités de réseau localisées : un paradigme pour l'économie historique », in C. Freeman et D. Foray eds., Technologie et richesse des nations, Economica, 1992. DELORME R., « Évolution et complexité : l'apport de la complexité de second ordre à l'économie évolutionnaire », Économie Appliquée, T. L, 1997, na 3, 1997. Dosi G., « Performances, Interactions and Evolution in the Theory of Industrial Organization », in A. Del Monte ed., Recent developments in the theory of industrial organization, MacMillan, 1992. L. & FAGIOLO Dosi G., MARENGO G., Learning in evolutionary environments, Working Paper, 1996-05, CEEL, Université de Trente, 1996. DUMOUCHEL & DuPUYJ.-P. eds., L'auto-organisation, Le Seuil, 1983. DuPUYC. & TORREA., La morphogenèse des relations de coopération ' entre ' firmes dans un système localisé de production, LEREP, Toulouse, 1999. DuPUYJ.-P., Introduction aux sciences sociales. Logique des phénomènes collectifs, Ellipses, 1992. DURLAUFS.N., Statistical Mechanics Approaches to Socioeconomic Behavior, Working Paper, University of Wisconsin, 1996. 406 AUTO-ORGANISATION ELLISONG., « Learning, Local Interaction and Coordination », Econometrica, 61, 1993. vol. FORAYD., Innovations technologiques et dynamique industrielle, PUL 1 987. FOSTER J., « Economics and the Self-Organisation Revisited », Economic Journal, vol. 103,1993. Approach: Alfred Marshall GARROUSTE P., Filières techniques et économie industrielle, PUL, 1984. HANNANM.T. & CARROLLG.R., Dynamics of Organizational University Press, 1992. Populations, Oxford HAYEKF. VON,Droit, législation et liberté, trad. française, Paris, PUF, 1973. HORS I. & LORDONJ., « About Some Formalisms Evolutionary Economics, vol. 7, 1997. of Interaction HUFF A.S., « Industry Influences Management Journal, vol. 3, 1982. Reformulation on Strategy », Journal of », Strategic IWAI K., « Schumpeterian Dynamics: An Evolutionary Model of Innovation and Imitation », Journal of Economic Behavior and Organisation, part. 1: vol. 5, n° 2; part. II: vol. 5, n° 3, 1984. JENSENJ.B. & McGucKrrr R.H., « Firm Performance and Evolution: Empirical Regularities in the US Microdata », Industrial and Corporate Change, vol. 6, n° 1, 1997. JOVANOVIC B. & MAC DONALDG.M., « The Life Cycle of a Competitive Industry », Journal of Political Economy, vol. 102, 1994. KANDORIM., MAILATHG. & ROB R., « Leaming, Mutation and Long Run Equilibria in Games », Econometrica, vol. 61, 1993. KLEPPERS. & GRADDYE., « The Evolution of New Industries and the Determinants of Market Structure », Rand Journal of Economics, vol. 21, n° 1, 1990. KLEPPERS., « Industry Life Cycles », Industrial and Corporate Change, vol. 6, n° 1, 1997. LE DORTzL., Un nouvel objet d'analyse : l'émergence industrielle, thèse, Université de Paris-1, 1997. LESOURNEJ., Les systèmes du destin, Dalloz, 1976. Lesourne J. & Laffond G., Market Dynamics and Search Processes, Congrès européen de la Société d'économétrie, Amsterdam, 1981. LESOURNEJ., « La science économique et l'auto-organisation », in Temps et devenir, À partir de 1'oeuvre d'llya Prigogine, Genève, Patino, 1988 (colloque de Cerisy de 1983). LESOURNEJ., « Le marché comme système autopoïétique », Revue internationale de systémique, vol. 1, 1988. LESOURNEJ., Économie de l'ordre et du désordre, Economica, 1991. LESOURNEJ. & ORLÉANA. eds., Self Organization and Evolutionary Eeconomics, Economica, 1998. MARTINS., Advanced Industrial Economics, Blackwell, 1993. commeobjet et commestratégiede recherche L'auto-organisation 407 MARUYAMA M., « The Second Cybemetics: Deviation-Amplifying Mutual Causal Processes », American Scientist, vol. 51, n° 2, 1963. METCALFE J.S., « Some Lamarckian Themes in the Theory of Growth and Economic Selection: a Provisional Analysis », in « Évolution et apprentissage en économie », Revue Internationale de Systémique, numéro spécial (coordonné par E. Zuscovitch). NELSONR. & WINTERS.G., An Evolutionary of Economic Change, The Belknap Press of Harvard University, 1982. OLIVIERV., DESTRUEL C. & DUTHENY., Modélisation artificielle des propriétés émergentes des régimes industriels de compétition technologique, LEREP, Université des sciences sociales de Toulouse, 1997. éd. 1966). OLSONM., La logique de l'action collective, PUF, 1978 ORLÉANA., De la stabilité évolutionniste à la stabilité stochastique, colloque de l'AFSE, 1995. ORLÉANA., « Informational Influences and the Ambivalence of Imitation », in J. Lesourne et A. Orléan eds., Self Organization and evolutionary economics, Economica, 1998. PAULRÉ B., « Évolutionnisme contemporain et auto-organisation », Économie appliquée, T. L, 1997, n° 3, 1997a. PAULRÉ B., « L'apport de l'évolutionnisme contemporain à l'analyse économique de l'innovation », Economie appliquée, T. L, 1997, n° 3, (1997b). PAULRÉB. ed., Épistémologie de la stratégie en économie, Publications de la Sorbonne, 1998. SILVERBERG G., Dosl G. & ORSENIGO L., « Innovation, Diversity and Diffusion: a Self-Organisation Model », Economic Journal, 1988. STENGERS I., « Les généalogies de l'auto-organisation », in Cahiers du CREA., Généalogies de l'auto-organisation, na 8, novembre, 1985. STENGERS L, La vie et l'artifice : visages de l'émergence, Cosmopolitiques, tome 6, La Découverte/Les empêcheurs de penser en rond, 1997. UTTERBACK J.M., Mastering the Dynamics of Innovation, Harvard Business School Press, 1994. VARELA F., Autonomie et connaissance, Le Seuil, 1989a (1980-1987). VARELA F., Connaître, Paris : Le Seuil, 1989b. WALLISER B., Systémique et économie, Revue internationale de systémique, vol. 2, n° 3, 1989. WEISBUCH A. & HERttE?rlER G., KIRMAN D., « Market Organization », in J. Lesoume et A. Orléan eds., Self Organization and Evolutionary Economics, Economica, 1998. WEISSP., L'archipel scientifique, Maloine, 1974 (1971). WINTERS., « Knowledge and Competence as Strategic Assets », in D. Teece ed., The Competitive Challenge, Harper & Row Publ., 1987. YOUNGP., « The Evolution of Conventions », Econometrica, vol. 61, 1993. Jean-François . Laslier AGENTS HISTORIENS RATIONNELLES ET ANTICIPATIONS Note liminaire. Le texte qui suit a été rédigé en 1990 au laboratoire d'économétrie du Conservatoire des arts et métiers (l) quand j'y travaillais sous la direction de Jacques Lesourne. On y retrouve quelques idées directrices du travail mené au laboratoire dans la phase de gestation de l'Économie de l'ordre et du désordre. Nous estimions à ce moment avoir relativement bien compris ce qui est décrit dans la première partie de l'Économie de l'ordre et du désordre comme le marché « organisateur ». Par ce terme il faut entendre la capacité que possède une population d'agents adaptatifs myopes à faire émerger, de manière progressive et non intentionnelle, des régularités collectives telles que les prix. Contrairement à la théorie standard, les modèles utilisés comprennent une description des individus très économe du point de vue cognitif : les agents y sont de mauvais calculateurs et ils sont peu informés. La question se posait alors de savoir ce que nous pouvions dire sur les phénomènes à propos desquels la théorie standard demande une rationalité spécialement forte, et en particulier sur le problème des anticipations. Jacques Lesourne - qui ne dédaigne pas les métaphores militaires - m'a en quelque sorte envoyé en reconnaissance derrière les lignes ennemies, pour un travail de cartographie conceptuelle. L'objectif était de déterminer quel peut être l'apport des sur la question classique des conséquences, pour modèles d'auto-organisation l'économie réelle, des anticipations individuelles. Le rapport de fin de mission est un exercice à propos du modèle de base à générations emboîtées. Ses conclusions sont d'une certaine manière opposées à celles tirées de l'étude des marchés simples. Sur un marché simple, où les anticipations ont peu d'importance, l'équilibre traditionnel est obtenu à la fois dans les modèles à agents rationnels et dans des modèles (1) Il figure dans ma thèse : Modèles d'auto-organisation en économie, CNAM, Paris, 1991. Agentshistorienset anticipationsrationnelles 409 à agents adaptatifs. Au contraire, si les anticipations sont essentielles, les prédictions des deux modèles divergent. La question de la genèse des anticipations dans une économie est reprise, de manière beaucoup plus détaillée, dans LaffondLesourne (1992). Traditionnellement, l'économiste considère que, une fois explicitées toutes les contraintes qui pèsent sur l'individu (y compris les contraintes informationnelles), ), les préférences suffisent à déterminer les actions. La fonction d'utilité serait « la seule boîte noire ». En fait la psychologie d'un individu se traduit non seulement par ses préférences, mais aussi par la manière personnelle qu'il a de réviser ses et d'anticiper le futur. De même croyances, de prendre en compte l'incertitude que, si les goûts importent, il faut sérieusement se poser la question « Quelle est la fonction d'utilité ? », si les anticipations importent, il faut se poser sérieusement la question « Quelle est la fonction d'anticipation ?». Rappelons brièvement comment ces questions se posent dans la théorie le.sournienne de l'auto-organisation. Cette théorie est toujours à la recherche d'explications dynamiques (plutôt que fonctionnelles). Dans ce cadre, aborder la question de la formation des goûts nécessite de remettre en cause de manière assez profonde le statut «individuel» de l'agent. Dans Les systèmes du destin on trouve décrit un homme, qui n'est qu'un cousin éloigné de l'homo economicus : « Unhomme dominé par son Inconscient, déchiré par ses conflits intérieurs, bardé de mécanismes de défense, tiraillé entre l'amour et la haine. Un homme aux graves insuffisances de contrôle. » Dans les modèles d'auto-organisation en Économie proposés par Jacques Lesourne, cette vision de l'homme est (pour le moment ?) mise de côté : conformément à la tradition économique, ces modèles utilisent généralement des préférences fixes et exogènes. Par contre, en ce qui concerne la rationalité de l'agent, ils suivent le modèle de l'homme proposé dans Les systèmes du destin : «... la Raison, l'impérieuse et orgueilleuse Raison, loin d'être une donnée est le résultat, non seulement à l'échelle de l'espèce mais à celle de l'individu d'une construction systématique. C'est d'ailleurs là qu'elle puise son adaptation au réel. » La question de la formation des anticipations rentre tout naturellement dans un cadre évolutioniste par le biais des anticipations adaptatives. Du point de vue de l'auto-organisation en économie, il n'y a aucun problème à traiter de la même manière les variables d'action et d'anticipation. Action et anticipation sont des fruits de la raison, et la raison se construit progressivement dans la confrontation répétée avec la réalité INTRODUCTION L'hypothèse que les agents économiques anticipent rationnellement le futur est fréquemment utilisée dans la théorie économique. Une des causes de ce (1) Questionpour le théoricien :Peut-ondonner un fondementévolutionisteà l'aversion pour le risque ? 4100 AUTO-ORGANISATION fait est que l'hypothèse d'anticipations rationnelles est pour les économistes le prolongement naturel de l'hypothèse de « comportement rationnel », appliquée aux variables futures. La pertinence de ce point de vue peut être elle-même discutée, mais nous ne le ferons pas ici directement. Nous désirons montrer que l'hypothèse de rationalité absolue appliquée à la connaissance des variables futures d'une économie ne passe pas un des tests de réalisme qu'on peut exiger d'une telle hypothèse, à savoir que les prédictions de la théorie constituent des approximations des prédictions de théories réalistes n'utilisant pas cette hypothèse. Par théorie réaliste, nous entendons une théorie dans laquelle les agents économiques n'ont pas connaissance du futur. Les anticipations qu'ils forment sont des fonctions du passé et (éventuellement) du présent ; c'est la raison pour laquelle nous les appellerons des agents historiens. Nous considérerons de plus une économie sans aléa (une version de base du modèle à générations emboîtées); en effet, en l'absence d'aléa, l'hypothèse d'anticipations rationnelles prend la forme particulièrement simple de l'hypothèse d'anticipations exactes. Dans ce cas la « rationalité » des agents s'exprime comme une relation déterministe liant le passé, le présent et le futur. En particulier, le passé étant fixé, seuls les présents correspondant à des futurs rationnellement possibles sont envisageables. C'est en ce sens qu'on dit quelquefois que les modèles à anticipations rationnelles inversent le sens de déroulement du temps en déduisant le présent du futur. La première partie expose la version utilisée du modèle à générations emboîtées. La deuxième partie expose, à propos de quelques exemples, le fonctionnement de ce modèle lorsque les agents utilisent des fonctions d'anticipations empiriques exogènes. La troisième partie considère un ensemble plus large de comportements anticipatifs (fonctions de classe Ci des derniers prix) et détermine dans cet ensemble ceux qui donnent les mêmes résultats que des anticipations rationnelles. 1. LEMODÈLE On considère le modèle à générations emboîtées (« Overlapping Generations Model ») le plus simple, où l'utilité est une fonction de Cobb-Douglas. Si x est la consommation de l'agent représentatif quand il est jeune et y sa consommation quand il est vieux, l'utilité obtenue est U(x,y) = xa y 1-a , avec 0 < a < 1 . On suppose aussi qu'il y a des dotations initiales non nulles aux deux périodes, W¡ et cv2 ,de telle sorte que le problème du consommateur peut s'écrire : Max(w¡ + Z 1 )' «02 + Z2) s.c. pizj +m = 0 4111 Agentshistorienset anticipationsrationnelles e /?+)Z2 =m m 0 où z, et Z2 représentent les demandes nettes pour la période présente et la période future, pi le prix courant, le prix anticipé pour la période future, et m la quantité de monnaie épargnée. Ce modèle est un cas particulier du modèle standard étudié par exemple dans Grandmont-Laroque (1973) ou dans Benassy-Blad (1988). La solution du problème du consommateur est ici : Le consommateur maximise l'utilité : i -OE Z1 Pt 1 par rapport à z i , d'où : a 1- a pt W ++ z- 1 Pt+ e Pl 1 1 Pl+] et donc : e = a pr+i = a-W2 - (1 - a)wl' Pt (t) (1 - La quantité de monnaie épargnée par l'agent, m, vaut : m = (1 - 0')<M)p, - Soit M la quantité totale de monnaie, égale ici à m puisqu'on ne considère qu'un seul agent. La condition d'équilibre sur le marché donne le prix courant en fonction du prix anticipé. Dans le cas considéré on a : pt = A + M avec: avec :AA= aWI et : B = aW2 (1 . e La condition m 0 s'écrit : Pl 1 B On fait l'hypothèse B < 1, qui 8U > 1 : les agents sont désireux d'épargner dans un correspond ax état stationnaire à prix constants parfaitement anticipés. Les résultats classiques se formulent ici de la manière suivante : . 4122 AUTO-ORGANISATION - on rationnelles une suite de prix vérifiant appelle suite d'anticipations = tout t : On a alors: pt = A + Bp,+,. Si on appelle pour « règle d'or » le prix p* tel que p* = A + Bp*, alors la règle d'or est instable pour des anticipations rationnelles en ce sens que si pi est différent de p*, les prix suivants s'en s'écarteront encore plus (car B < 1 ) ; - les dites « naïves » conduisent par contre de anticipations = pi- j inverse de celle du cas façon stable à la règle d'or, par la dynamique du temps ») ; précédent (« renversement - le cas où les = p, ne peut pas agents anticipent un prix stationnaire être traité dans ce modèle car pt est déterminé en fonction de par l'équilibre sur le marché. La séquence des événements est donc la suivante à l'intérieur de la est déterminé en fonction de l'histoire passée ; 2) les période t : 1) p' , leur offre, en considérant agents calculent par maximisation pt comme donné ; 3) une « main invisible » équilibre le marché, ce qui donne pt fonction de e+,. Si on veut étudier la manière dont se forment les anticipations on est donc amené à poser par exemple (Benassy-Blad, est 1988) que à pt - ce que pi- j était à pi-3 ». Ceci s'exprime mathématiquement de la manière suivante : » e(.,a) on considère une « famille d'anticipations indicée par un paramètre a. A la date t, la valeur at du paramètre est celle de Pt-3 : at est la solution de l'équation qui aurait permis de déduire Cette valeur du paramètre est alors celle utilisée pour pi-j = déduire de pt-I : on pose Via une équation implicite, l'anticipation pour t + 1 est donc fonction des prix en t - 1 et en t - 3 mais pas du prix en t . Cela n'est guère logique. En effet, on admet (sans le décrire) l'existence d'un processus d'équilibrage du marché. Au cours de ce processus, les et à Il a aucune agents ajustent prix quantités pour parvenir l'équilibre. n'y raison de penser qu'en acquérant ainsi de l'information sur le prix de la date t ils n'utilisent pas cette information pour modifier leurs estimations du prix futur. Une autre manière de dire la même chose est de remarquer que, quand ils calculent (par maximisation) leur fonction d'offre, les agents envisagent toutes les valeurs possibles pour le prix présent. Il n'y a pas de raison qu'en faisant ainsi varier ce prix ils ne modifient pas en même temps leur estimation du prix futur. Il n'y a donc pas de raison d'exclure a priori que p' , soit aussi fonction de p,. L'article de Fuchs et Laroque (1976) qui étudie ces dynamiques d'équilibres temporaires n'a d'ailleurs pas recours à cette hypothèse. Par contre il faut garder à l'esprit que poser que le prix courant est un et considérer une séquence d'équiargument de la fonction d'anticipation libres temporaires revient à exiger que le processus d'égalisation des offres et demandes résolve un système d'équations couplées contenant à la fois les prix et les anticipations. Nous passons maintenant aux théories réalistes au sens de l'introduction et considérons des agents historiens. On va étudier quelques cas particuliers Agentshistorienset anticipationsrationnelles 4133 empiriques d'anticipations, c'est-à-dire quelques fonctions particulières donnant à partir des prix précédents. Dans certains cas pi sera argument de cette fonction, dans d'autre cas il ne le sera pas. En notant q = p - p*, on a toujours : q, = Bq'+,, avec 0 < B < 1 . 2.. QUELQUES D'ANTICIPATIONS FONCTIONS EMPIRIQUES 2.1 Extrapolationssimplesà partirde Pt-1et pt Posons + Alors qt avec À + M = 1. = B(Àqt-1 y- fiq,), et donc : q, Il y a « extra- --g Bp polation » si it > 1 (et ; < 0 ). Dans ce cas la raison de la suite géoméest comprise entre - trique 1 et 1 si et seulement si [À est inférieur B 1 1 Par exemple, dans le cas d'une «extrapolation exacte » à 22( 1 + B B) . 1 et ti = 2), le prix diverge pour B supérieur à 1/3. On constate aussi que si il y a interpolation (À et p positifs), alors les prix convergent toujours. Ce résultat est donné sous forme locale par Fuchs-Laroque (1976, corollaire 1) pour des fonctions d'anticipations non linéaires mais seulement différentiables. 2.2 Extrapolationssimplesà partirde p_ et Pt-1 Posons pr+J=ÀPt-2+fJ.Pt-l, avec 1. Alors q, = Le polynôme associé à cette suite est Bp§ - BÀ. La suite si et seulement si B est inférieur à converge 1/(p - 1). (Voir le lemme 1.) A nouveau, si il y a interpolation, il y a convergence. 2.3 Extrapolationslinéairessur les Tderniersprix Supposons que les agents gardent en mémoire les T derniers prix constatés avec les dates associées (t - T + 1 , ... , t) ,et calculent leur anticipation en effectuant la régression linéaire des prix sur les dates. On a alors : 4144 AUTO-ORGANISATION T e 6 . en q,, on obtient une équation récurrente + .T T- d'ordre 1: 1 B qt = 1 2 u=l En résolvant 1 T+ , (E) L T u=1 que pour T = 2, les suites solutions convergent 3 on peut montrer que cette borne pour B est de T la résolution de égale à 1/2. Pour des valeurs plus grandes explicite récurrente n'est Le calcul numérique montre l'équation plus possible. que du coefficient B telle que les solupour chaque T il existe une valeur B(T) tions soient convergentes à B(T) et divergentes pour B inférieur pour B à B(T). et B(3) = 1/2.). Ce nombre (On a donc B(2) = 1/3 supérieur On a vu au paragraphe 1 ) pour B < 1/3. Pour T = avec T et tend vers 1 quand T tend vers l'infini. B(T) augmente tats théoriques nous avons obtenir sont les suivants : que pu Pour étudier à l'équation les suites solutions associée : algébrique de l'équation récurrente Les résul- (E), on s'intéresse T (2.1) u=l Si toutes les racines de cette équation sont en module inférieures à 1, alors toutes les suites solutions tendent exponentiellement vers 0. Sinon presque toutes divergent. 3T - T = 4 si B < 1/2, Pour 2.1 Proposition et pour tout T > 4 si 3 B les Démonstration r solutions Soit r un de (E) convergent. nombre Si ? M=) Q§ de module complexe à 1, alors supérieur est solution de (1) on doit somme calculée donc avoir H=! T 1 < BS, T = 4, B > 1/2, avec S S= 2 et =1 Cette si et si T > 4, Les simulations très grossière. est au lemme 2. Si u=l T > 4, B > numériques ST - 1 3T - 3 Ceci 5T . - par conséquent, démontre 1 montrent que cette borne si T = 4, la proposition. de l'ordre de 3/5 est 4155 Agentshistorienset anticipationsrationnelles Pour tout T il existe s > 0 tel que si B > 1 - e, les solutions de (E) divergent. T T Soit Démonstration : 1 - B r 1. u=l Des égalités = 1 u=l T = 1 on déduit et 1 u=1 x > 1 tel que Pl (x) < 0. = 0 et Pl'(1) = -2. Donc il existe un réel T En écrivant PB (x) sous la forme Pj (x) + (1 - B) 1 Àuxu-t on u=l constate T que PB (x) est négatif dès que (1 - B) 1 Àuxu-l (qui u=1 est positif) est infé- Comme PB (1 ) = 1 - B > 0, le polynôme PB possède à - 2 Pj (x) . une racine réelle entre 1 et x. Le résultat est donc prouvé en considérant T 1 ,V' rieur 2 u=1 . Encore une fois, les simulations numériques fournissent des résultats plus explicites. La borne B(T) est à peu près égale à 0.75 pour T = 5, à 0.80 pour T = 10, à 0.85 pour T = 15. Si B = 0.90, les suites sont converelles divergent encore pour gentes à partir de T = 24, si B = 0.99, T = 100. On obtient donc le même résultat qualitatif que dans Laslier (1989) : Si les agents utilisent pour leurs modèles linéaires une profondeur de la mémoire importante (le paramètre T grand) ils sont moins perturbés par des valeurs extrêmes des données historiques et leurs anticipations convergent. Si par contre les agents ont la mémoire courte, le modèle linéaire fait perdurer les déviations accidentelles et les anticipations divergent. Dans le présent modèle il n'y a en fait qu'un seul agent (« représentatif »), alors que dans l'article précité nous considérions N agents distincts. Par contre nous n'avions pas de modèle économique semblable au modèle Cobb-Douglas utilisé ici et qui fournit une « sanction par la réalité ». Cela a pour conséquence que la convergence, qui se faisait sur une tendance ( pt = at + b) imprévisible au départ, se fait maintenant sur une valeur qui peut être déterminée (p, = p*) . 2.4 Uncas dans lequelles agents tentent de corriger leurserreurs L'absence de convergence dans ces modèles dynamiques peut sembler n'être due qu'à la rigidité du comportement anticipatif des agents : ceux-ci ont une 4166 AUTO-ORGANISATION certaine manière de prévoir le futur qui conduit régulièrement à des prévisions erronnées. Intuitivement on peut penser qu'en tenant compte de leurs erreurs les agents peuvent améliorer leurs performances. On peut donc se des poser la question : Est-ce que dans de tels modèles l'apprentissage erreurs stabilise les comportements. Fuchs (1979) montre que la réponse à cette question est en général négative. Pour illustrer ce point, revenons au cas où les agents extrapolent simplement à partir de pt- j et de pt (cas Il a à partir de en alors divergence 1) posant : + 2pi . y B > 1/3. Supposons maintenant tenant compte de leur précédente que les agents corrigent cette estimation erreur de prévision pr - pt . en On posera donc : pe 1+1= - pt- j ,. Cette C équation avec 0 < s < 1. + 2pr conduit d . , à "qt+l - B+ s d 1 solutions 1. d. dont les diver2B - 1 + £ B qt, 2B-1+EB 1 1- e on Cette borne étant plus petite gent dès que B est supérieur que -,3 à 3 + s e. constate qu'en essayant de corriger leurs erreurs, les agents accroissent les cas de divergence. Comme on le voit facilement en consultant les équations, la suite des erreurs est elle-même divergente, en d'autres termes les erreurs ne sont pas corrigées. 2.5 Desagents différents Supposons maintenant qu'au lieu d'un seul agent représentatif on considère un ensemble I d'agents. Nous supposons que ces agents ont des anticipations différentes mais ont tous la même fonction d'utilité et les mêmes dotations initiales. t+ 1. Sa Soit P;+l le prix prévu par l'agent i à la date t pour la date demande nette la période est alors pour présente La condition Pt . M Pt icI n d'équilibre sur le marché (t) = 0 peut s'écrire : n- acot Pl t+ ¡-aWIPt=O = 0 pl où n représente le nombre d'agents. Soit p',, la moyenne arithmétique des estimations des agents et m l'épargne moyenne, le prix courant est donné en fonction de par la même équation affine que dans le cas d'un seul agent : pi = A + Bp'+1' 4177 Agentshistorienset anticipationsrationnelles Comme on l'a vu précédement, si les agents calculent leurs anticipations à partir des prix passés (et éventuellement du prix présent) alors il peut y avoir convergence, alors que si ils formulent des « anticipations rationnelles » il y a forcément divergence. Nous nous intéresserons donc au cas ou une fraction r de la population I anticipe rationnellement. On va montrer que r = 0 correspond à une discontinuité radicale dans les résultats: si r est différent de 0 il y a divergence, et (paradoxalement) cette divergence est d'autant plus rapide que r est proche de 0. La meilleure manière de montrer la cause de cette discontinuité est d'envisager d'abord le cas le plus simple, celui d'anticipations « naïves » : rappelIons que si le prix anticipé pour demain est celui constaté la veille, il y a convergence pour toutes les valeurs admises du paramètre B. Si une fraction r de la population est rationnelle et la fraction (1 - r) est naïve alors on a : + rpt+l et par 1 B conséquent : B q, = ( 1 - r)qt-I + rqt+l. Pour étudier cette suite + (1 - r). Ce polynôme B n'est de degré 2 que parce que r est différent de 0. Il possède deux racines réelles dont la plus grande en module est toujours supérieure à 1, décroît avec r et tend vers l'infini quand r tend vers 0 : récurrente, on considère le polynôme polynome /2 -' 2Br 1+ 2 ( 1 2Br?2?2 . Cet artifice mathématique n'est pas propre à la simplicité du cas étudié. Supposons que les individus qui prévoient à partir du passé (les agents « historiens ») utilisent une fonction d'anticipation 0 dont les arguments sont les T derniers prix, y compris le prix courant : pour un tel individu i, Alors en tenant compte des agents historiens et des agents rationnels : Après le changement de variable p = p - p*, on obtient une nouvelle fonction ço au lieu de Après linéarisation on se ramène à l'étude d'une équation de la forme : T e q:+1 = B u=1 Soit Pr le polynome associé, Po correspondant à r = 0 ; P,- est de degré T et Po de degré T - 1. On a : T 1 l r) "l l u=1 4188 AUTO-ORGANISATION T 1 u=1 On donc peut écrire: - = (1 Nous r) Po (1 ) suppo- B T sons de plus car raisonnable été constant prévoient elle va changer. qu'il =1. propriété dans correspond toute l'histoire dans pas la vérifie que cp On le cas linéaire considérée, Cette à l'idée les agents est hypothèse que, si le prix a historiens ne a alors : 1 1 1 1 B B B <0. Le coefficient du terme une racine réelle possède gence. dent : les Il se produit pour des agents racines droite de Po de P,- étant r, ce polynôme degré à 1. Il ne donc converpeut pas y avoir supérieure le phénomène décrit dans exactement l'exemple précé- sont de historiens en de 1, Po est négatif vers P,. tend petit, est d'ailleurs d'autant haut plus dont modules et tend les anticipations convergeraient, à 1 ; donc sur l'axe inférieures vers même plus l'infini, qui plus grande On B constate ne donc soit que d'une proche pas trop à des évolutions manière de moins l'infini. Mais il apparaît donc que r est petit. générale, et pourvu un pour racine que toutes r réel et à non nul, nouvelle, le coefficient 1, les comportements empiriques envisagés du prix, contrairement aux suites convergentes rationnelles. Les deux semblent donc donner des d'anticipations approches résultats et ne être distincts, peuvent qualitativement par conséquent pas considérées comme des approximations l'une de l'autre. conduisent une curiosité de ce qui peut comme mathéprofonde apparaître est entre la considération historiens et celle d'agents d'agents matique que rationnels il y a une différence à la logique du modélisateur. Le quant « est vu successivement dans le » et dans le temps historique système temps « du projet les termes de J.-P. Dupuy Ces deux », pour (1990). reprendre La raison l'un de l'autre. En se plaçant inverses dans simplement ne le modélisateur une adopte logique qui s'éloigne pas modélisés (« agents historiens »). qui peut être celle des agents en se plaçant dans le temps du projet, le modélisateur donne étant ici tout temps le temps historique, de la logique Au contraire aux agents des capacités (« anticipations rationnelles ») définies à elles-même: Un agent est dit que par rapport tions rationnelles si et seulement si leur utilisation rationnel de les utiliser. être qui ne peuvent utiliser des anticipaentraîne était qu'il Agentshistorienset anticipationsrationnelles 4199 3. GÉNÉRALISATION La section précédente a étudié quelques exemples de fonctions d'anticipations empiriques. Ces exemples n'ont pas été choisis de façon ad hoc mais, d'une part, parce qu'ils gardent un petit parfum de réalisme (ainsi de la régression simple), et, d'autre part, parce que grâce à leur simplicité, ils permettent un traitement mathématique approfondi. En restant dans le cadre du même modèle à génération emboîtées, nous allons maintenant essayer de considérer une classe plus large de fonctions d'anticipations. Nous poserons donc la définition suivante : Un comportement anticipatif d'ordre tion continûment différentiable f E T + 1 est une foncR). Une telle fonction définit bien le comportement d'un agent historien si on Pour que le nombre T en question soit bien défini, nous faisons l'hypothèse suivante, qui simplifiera le raisonnement par la suite : Hypothèse 3.1 La dérivée partielle de f par rapport à sa première variable n'est jamais nulle. En négligeant le changement de variable décrit plus haut, le modèle économique s'écrit : pt = B P:+ 1 On posera donc : Une suite générée par f telle que : = est une suite p = (pl)', de prix 1 B Nous désirons savoir si le postulat que les agents sont « historiens » est contradictoire avec l'hypothèse d'exactitude de leurs prévisions. Pour cela nous définirons un comportement,f comme rationnel si les prévisions faites au moyen de f sont égales aux valeurs réelles : Définition 3.3 Le comportement f est rationnel si et seulement si, pour toute suite générée par f on a : = Cette définition nécessite quelques commentaires. D'une part, elle est relativement exigeante car elle pose l'égalité stricte des prévisions et des réalisations, il serait peut-être plus satisfaisant de postuler par exemple que les prévisions et les réalisations sont asymptotiquement égales ; mais, d'autre part, elle est remarquablement peu exigeante car elle définit la rationalité comme l'adéquation des prévisions aux réalisations seulement dans le 420 AUTO-ORGANISATION modèle très précis considéré : ainsi un individu dit rationnel pour telle valeur du paramètre B ne pas l'être pour telle autre valeur. peut éventuellement Nous avons besoin de la définition technique Une application jjjj??? suivante : g e C' résoud f si et seulement e = G R, T XT+I = 9(XI, .... XT)- B Si une telle application g existe, alors pour toutes valeurs initiales des prix (pi, .... pt) , il existe une unique suite générée par f, commençant par ces et définie Une condition élémentaire prix, par pt = g(Pt-T, .... Pt-1) . qui garantit l'existence de g est énoncée dans la proposition suivante : JBBBSM Si axT+i et on a : résoud f, B alorsil existeg qui JV Vuc ag = af i. aXT+Ii B La situation se présente donc ainsi: à la date t, un certain processus détermine pt et en fonction des prix précédents en résolvant le système de deux équations à deux inconnues : = 1 pi = {PtPt+l f (PI-T, .... Pt-1,Pi). e La première de ces équations représente la détermination par le marché du prix pt en fonction du prix anticipé p'+, et la deuxième la détermination par en fonction du prix pi (et des prix précédents, l'agent du prix anticipé mais ceux-ci sont fixes). La résolution de ce système d'équations doit être le fait d'une «main invisible», qui agit non seulement au niveau du prix de au niveau des anticipations. Nous marché, mais aussi, et simultanément, devons donc chercher si il n'y a pas de condition restrictive surf qui doive être posée pour rendre plus réaliste l'action de cette main invisible dans l'espace prix-anticipations. Imaginons par exemple le mécanisme de tâtonnement suivant : La période t est découpée en une succession infinie de sous-périodes r E N. Au début de la période t (pour T = 0), l'anticipation est p'+,,O. On pose = ensuite : Pu et prT = f(Pt-T,...,Pt-1 ,Pt,T)' On a donc : = 4211 Agents historiens et anticipations rationnelles Une condition suffisante que l'on ait aXT+1i pour que le processus converge < 1. On fera donc cette hypothèse : B axT+i i On déduit immédiatement de la proposition Sous l'hypothèse Proposition.3'?i est vers (Pt, 3.3 la proposition suivante : 3.2 il existe g résolvant f. tous les ingrédients pour étudier les « historiens Nous avons maintenant T prix consécurationnels ». Supposons f rationnelle. Soit p = = pT+2. tifs. Écrire que f est rationnelle, c'est écrire que pour tout p, On a d'une part : 1 1 BPT+i et d'autre part : = g(P2,...,PT,g(PI,...,PT». g(P2,...,PT,PT+d D'où l'égalité formelle que doit vérifier g: 1 D Notons gu la dérivée partielle de g par rapporte On doit avoir : p' le vecteur (p2,..., pT). à sa u-ième variable. Notons = gdp',g(Pl,P'».gl(PI,p') 0 1 ' 3.2 et la proposition 3.3 pour u = 1, D'après l'hypothèse différent de 0. La première équation donne donc : ; ; est = B' 1 La deuxième donne alors si : " " , Bg2(P1,p) 1 , o soit : gl P')) = 0, ce qui contredit l'hypothèse 3.1. Par conséquent T = 1 et g n'est fonction que d'une seule variable. Comme conséquence directe de ceci, on peut énoncer la proposition : 422 AUTO-ORGANISATION Proposition3.S Sous les hypothèses retenues, si f est rationnelle, alors f n'est fonction que de deux variables : p'+ = f (pt - 1, pt) et vérifie, en appelant x sa première variable et y sa deuxième : x x = b'x E 11g..f B c) o af 1 af 1 ax B ay B2 Démonstration Si,f est rationnelle, on a vu qu'elle n'est fonction que de 1 donc en appellant x et y les deux variables, de plus g(pl) = pt+l B variables de f, l'égalité donnée dans la proposition 3.3 s'écrit : af ax 1 B ay d'où le résultat. L'équation aux dérivées partielles vérifiée par f peut être résolue : Si f est rationnelle, il existe une fonction h vérifiant h(0) = 0 telle que x d'une variable f(x , y ) = B + h (x - By) . Posons Démonstration F(u, v) = f(x,y). F(u,0) = u D'après aF 1 et i)u 9M = 2'B Posons alors h(v) = H(v) - u = (x + Bv)/2 la proposition donc F(u,v) v et v = (x - précédente, u B on a bien f (x,y) avec H(O) = 0. + H(v), = et By)/2, F vérifie je + h(v). B2 B2' Le terme correctif h n'apparaît pas dans les suites p1 = Pt, il Remarque : ne doit cependant pas être trop grand pour que l'hypothèse 3.2 soit vérifiée ; < en effet celle-ci s'écrit : ih' 1 /B . Dans le cas linéaire, posons ,f(x,y) = Âj<r+ tiy. La condition s'écrit alors = En particulier, comme B < 1 , on doit avoir avec j Ilil 1111< . B B B. > 1 . Il y a donc plusieurs solutions ; l'historien rationnel a dans un certain sens le choix de son modèle : s'il se met à réfléchir à la date t, il connait p,_ i , il sait que, en choisissant une valeur anticipée il observera À pt = B B et il sait donc que les suites générées par des anticipations = rationnelles vérifient B -'- 1 pt - 1 , il peut choisir tout À et l? vérifiant la condition plus haut, et ceci sans tenir compte en fait de la valeur de Agents historiens et anticipations rationnelles 4233 CONCLUSION Nous avons donc identifié les modèles à la fois réalistes et rationnels, au sens donné plus haut à ces termes. Contrairement à ce qu'on pouvait espérer, il ne s'agit pas de modèles dans lesquels les individus historiens ont une bonne compréhension de la mécanique du modèle à générations emboîtées, qui leur permet d'inférer du passé les valeurs des paramètres. Les historiens rationnels se présentent plutôt comme des calculateurs peu subtils, ne tenant pas compte du passé lointain, mais effectuant (par miracle ?) une opération obtequi se révèle donner le bon résultat. Ainsi les fonctions d'anticipation nues font toutes intervenir le paramètre B du modèle, les agents « rationnels » ne peuvent le déduire du passé. Il semble donc que l'argument qui rationnelles en les présenjustifie la considération des suites d'anticipations tant comme des approximations de comportements raisonnables ne soit pas valide. La question naturelle qui découle de cette étude est de savoir si les mêmes conclusions peuvent être tirées en définissant la rationalité comme la coïncidence asymptotique des anticipations et des prévisions. ANNEXE Soit + c un polynôme de degré 2 dont les coefficients .sont réels. Les racines (réelles ou complexe.ç ) de P sont en module strictement inférieures à I .si et seulement si : 1-b+c>0 i1+&+c > 0 c < 1. Démonstration Supposons d'abord que les racines soient réelles, c'est-à-dire h2 ? 4c. Il est alors nécessaire et suffisant que P (- 1 ) et P (1) soient strictement positifs et que le produit des racines soit inférieur à 1. D'où les conditions : 1-b+c>0 Dans le cas où les racines sont complexes, elles sont conjuguées. Leur module est donc inférieur à 1 si et seulement si leur produit est inférieur à 1 : , Mais si h2 < 4c et c < 1 , Ihl < 2c < 1 + c ; la distinction des deux cas est donc superflue et le lemme démontré. 1 3T-3 . 424 AUTO-ORGANISATION T+ = 6(u - On a : (T - Démonstration 1 1), donc pour tout + (T - -) 2 entier t compris entre 1 et T : 1) - = (T - ,(3, -27- -1) t(T 2 + 6 T+ 2 r+2 2 . . " < 0O.si et seulement 1 si u < S. t la1 partie entière de Soit , -. 3 –––, 3 ' D plus, l De on a : T . Sit= t t T = s Sit= T u=1 (car u=l u=t+l !). u=1 4 3 3T 3(T - 1)T 2 3 Si tf = -,T 3t 3 3(T - I)T , 3 (T - 1 ) T 2r 2T--) 11 == - -F T -- ST+4 _ On vérifie facilement que 3T est donc démontré. - = ––––. 1) ––––––1 , et ?S = 1 1- - 2(T)(-T < 5T 3T- 1 et que 5T - 2 3T-3 < 3r-3 3 5T - 1 3T - 3 5T 3T-3 1 . le lemme BIBLIOGRAPHIE BENASSYJ.-P. et BLAD M.C., « Apprentissage et anticipations rationnelles dans un modèle à générations imbriquées », in Mélanges économiques, Essais en l'honneur d'Edmond Malinvaud, Paris, Economica, 1988. DupUY J.-P., « Two Kinds of Temporality: From Newcomb's Problem to the Backward Induction Paradox », communication au congrès Economics and Artificial Intelligence (CECOIA2), Paris 4-6 juillet 1990, 1990. FucHs G., « Is Error Leaming Behavior Stabilizing ? », Journal of Economic Theory, 20: 300-317, 1979. FucHS G. et LAROQUEG., « Dynamics of Temporary Equilibria and Expectations », Econometrica, 44: 1157-1178, 1976. GRANDMONTJ.-M. et LAROQUEG., « Money in the Pure Consumption Loan Model », Journal of Economic Theory, 6: 382-395, 1973. LAFFOND, G. et LESOURNEJ., « The Genesis of Expectations and Sunspot Equilibria », Journal of Evolutionary Economics, 2, 1992. LASLIERJ.-F., « Diffusion d'informations et évaluations séquentielles », Économie Appliquée, 42, n° 3: 83-128, 1989. LESOURNEJ., Les systèmes du destin, Paris, Dalloz, 1976. LESOURNEJ., Économie de l'ordre et du désordre, Paris, Economica, 1991. Gilbert Laffond, Jean Lainé, Gauthier Lanot UNMODÈLE DYNAMIQUE DECOMPÉTITION ÉLECTORALE 3 Cet article propose un modèle dynamique de compétition entre deux partis politiques ayant pour seul objectif' la victoire électorale. La construction du modèle repose sur les principes fondateurs de la théorie de l'auto-organisation des institutions : la rationalité limitée des acteurs, dont les comportements s'apparentent à des routines adaptatives, la dépendance des résultats électoraux et des programmes de gouvernement à l'histoire d'événements aléatoire,s, et l'inertie des comportements de vote fondée sur une relation de confiance à l'égard des parti.s. Nous montrons, au moyen de simulations, l'existence possible de situations non prédites par l'approche stratégique statique de la théorie du vote. En particulier, nous montrons la possibilité d'une différenciation durable de partis adoptant pourtant le même comportement face à une même information imparfaite sur l'électorat. Le modèle propose également une explication du phénomène de l'alternance du pouvoir ne reposant pas sur une instabilité des préférences des électeurs. .; 1. INTRODUCTION L Le laboratoire d'économétrie du Conservatoire national des arts et métiers, créé et dirigé par Jacques Lesourne a consacré une grande partie de ses travaux de recherche à la théorie de l'auto-organisation en économie. « selon une des idées » faite Toutefois, d'échanges scientifiques, dynamique ; ; ; 426 AUTO-ORGANISATION d'affinités intellectuelles et de convictions partagées, une autre problémaen très différente de la première, a peu à peu grandi dans tique, apparence les programmes de recherche du laboratoire : la théorie du vote et des institutions politiques. L'exploration de ces deux thèmes a été conduite en parallèle depuis une dizaine d'années, et a fait l'objet de nombreuses publications et communications, dont les plus représentatives sont « L'économie de l'ordre et du désordre » (Lesourne, Solutions and 1991), « Tournament et « Topics on Representative 1997) Majority Voting » (Laslier, Democracy » (Laffond, Lainé, Notre intention n'est pas ici de décrire la genèse de l'intérêt porté aux instimais tutions politiques par des avocats de l'approche auto-organisationnelle, de montrer cet intérêt relève d'une cohéplutôt que, malgré l'apparence, rence et non d'une rupture. Comment résumer sans trahison la théorie de l'auto-organisation, sinon en « de le de Lesourne : La trame de l'économie Jacques empruntant propos de la création et de la sclérose [des l'ordre et du désordre, de l'économie de complexité, d'échanges institutions] est faite tout à la fois d'aléatoire, ou moins de d'informations douteuses, plus comportements plus ou moins et sociales plus ou rationnels et opportunistes, de rigidités économiques moins fortes Le sujet de cette théorie est l'institution ; son objet est du des mutations et de la de la naissance, développement, l'explication des institutions. L'institution dominante l'économiste est le pour disparition marché Peut-on expliquer par la seule interaction endogène des acteurs du marché la diversité observée des dynamiques de prix (convergence vers un prix unique ou permanence d'une distribution de prix différents), l'émerl'évolution des préférences, des anticipations, des gence d'intermédiaires, des structures et des Telles sont les compétences, productives produits ? abordées dans l'Économie de l'ordre et du désordre. questions Le propos de cet article est de montrer la pertinence des principes fondateurs de cette théorie pour l'analyse d'une autre forme institutionnelle importante : la démocratie politique, système d'interaction complexe entre partis et électeurs, conduisant à des formes diverses de pouvoir, durable ou fragile, à des inflexions de politique irréversibles ou temporaires, à l'émergence d'une «pensée unique» ou au contraire à la diversité durable des opinions. Autant de thèmes sur lesquels l'approche axiomatique de la théorie du choix social et l'approche statique de la théorie des jeux non-coopératifs appliquée à la compétition électorale ne donnent que peu d'enseignements. (1) Le lecteur trouvera dans ces trois travaux de nombreuses références à d'autres publications du laboratoire.. (2) L'économie de l'ordre et du désordre, p. 18. (3) « La priorité sera d'abord donnée au marché, cette institution qui classe et organise et dont l'origine semble remonter à l'aube de l'histoire» (L'économie de l'ordre et du désordre, p. 19). Unmodèledynamiquede compétitionélectorale 427 1.1 1 Principesfondateursd'une théorie de l'auto-organisationpolitique Parmi Quels sont les principes fondateurs d'un modèle d'auto-organisation ceux énoncés par Jacques Lesourne, nous en retiendrons quatre dans notre modèle de la démocratie politique : l'inertie, l'incertitude, la rationalité limitée des acteurs et les échanges d'information entre eux. L'inertie prend ici la forme de la confiance : confiance des électeurs à l'égard d'un parti, expression d'une fidélité à des hommes politiques, renforçant l'adhésion à leurs idées ou nuançant la déception provoquée par une décision conjoncturelle ; confiance également des partis en faveur d'un leur programme politique permettant la victoire électorale. Source de irréversibles de vote et de choix de programmes électoraux, comportements la confiance stabilise les électorats et contribue à structurer durablement le paysage politique. , L'incertitude pesant sur la conjoncture est un élément essentiel de la vie politique. Un programme politique, au moins dans sa forme la plus aboutie, peut être conçu comme un plan d'actions contingentes, dictant pour chaque événement possible la conduite à tenir. Un programme est donc un objet complexe, difficile à appréhender dans sa globalité par des électeurs dont les capacités de calcul ne sont pas infinies. Aussi les partis ne peuvent-ils pas être identifiés à leur programme : d'une part à cause du facteur de confiance discuté plus haut et, d'autre part, parce que les programmes ne peuvent être directement comparés les uns aux autres. Les partis seront ainsi évalués non pas sur leur aptitude à gérer globalement un ensemble possible de conjonctures, mais sur leur réponse immédiate à une circonstance aléatoire et passagère. Cette évaluation sera effectuée selon des règles routinières, de nature adaptative, qui conditionnent le renforcement ou la dégradation de la confiance accordée aux différents partis. Sans maîtrise de la conjoncture, face à l'inobservabilité des préférences de l'électorat et à la rationalité limitée de son comportement de vote, les partis sont exposés au risque d'un cumul d'événements défavorables entrainant une fuite de leur électorat. Ils peuvent au contraire tirer d'un environnement favorable l'opportunité d'asseoir de façon irréversible leur soutien populaire. Si on leur prête l'unique comment peuvent-ils alors objectif de la victoire à l'élection prochaine confrontés au hasard des événements et à la méconnaissance du définir, de vote et des des électeurs, la plateforme éleccomportement préférences torale qui maximise leurs chances d'accéder au pouvoir ? C'est ici qu'intervient l'échange d'informations, qui prend ici la forme d'enquêtes Celles-ci vont donner aux d'opinions. partis une information partielle et I , ; (1) Cettehypothèse,retenuepar Downs(1957)et Black(1958)dans leurthéoriespatialedes systèmes politiques, a fondé bon nombre de travaux ultérieurs (voir par exemple Laffond,Laslieret Lebreton,1993,1994). i 4 428 AUTO-ORGANISATION bruitée sur l'électorat ; dotés eux aussi de capacités calculatoires limitées, les partis vont interpréter les « sondages d'opinions » de façon plus ou moins pertinente, adaptant au gré de leur lecture des intentions de vote leurs actions selon des routines comparables à celles des électeurs. À la conjoncturelles dynamique de la confiance chez l'électeur répond celle de la conviction des partis sur le bien-fondé de leur programme. La combinaison de l'inertie, de l'incertitude et de la rationalité limitée conduit à une dynamique de phénomènes irréversibles, donnant à l'histoire des conjonctures successives un rôle clé dans l'explication des différents Cette du dépendance système politique à l'égard du paysages politiques. « chemin des conjonctures » est un trait essentiel de l'approche auto-organisationnelle. _ 1.2 L'architecture du modèle Ces quatre principes fondateurs ont conduit à un modèle que l'on peut brièvement décrire ainsi : deux partis politiques, n'ayant, comme dans le modèle de Downs (1957), aucune préférence idéologique, s'affrontent pour le gain À chaque échéance, ils proposent un programme d'élections successives. une liste de à des événedéfini comme réponses (de type dichotomique) est ments aléatoires, dont seule la nature (et non la probabilité d'occurrence) connue. Il existe un ensemble fini d'électeurs dont les préférences fondamentales sont représentées par un programme idéal. La durée d'une législature séparant deux échéances électorales est donnée ?1?. Au cours de chaque période d'une législature, un événement spécifique se produit (la « conjoncture ») et une enquête d'opinion est organisée, dans laquelle on demande à chaque électeur d'indiquer le parti pour lequel il voterait si l'élection avait lieu aujourd'hui. La réponse des électeurs dépend du niveau de confiance accordée à cette date à chaque parti et ce niveau n'est pas observable par les partis. Il augmente ou diminue à chaque période selon que la réponse précocourant est nisée, dans le programme en vigueur du parti, à l'événement conforme ou non à celle attendue par l'électeur. L'enquête d'opinion donne donc un résultat difficile à interpréter par les partis, puisqu'une intention de vote regroupe dans un même message une information sur les préférences fondamentales et une information sur la confiance accordée à un parti. Ainsi, il est possible qu'un électeur annonce son intention de voter pour un parti dont l'action conjoncturelle lui déplaît : simplement parce qu'il lui garde une confiance suffisante. Nous modélisons ici un mode spécifique de lecture des enquêtes sant à une règle adaptative de révision des programmes proposés conduiavant les (1) Nous n'aborderons pas ici la cas où un parti au pouvoir dispose de l'arme stratégique supplémentaire de l'élection anticipée. (2) D'autres règles sont introduites et analysées dans Laffond et al. (1999c). Unmodèledynamiquede compétitionélectorale 429 élections : chaque parti accorde à chaque élément de son programme (la réponse à une conjoncture donnée) un niveau de conviction, qui évolue de période en période selon les résultats des enquêtes. Avant une élection, chaque parti propose le programme pour lequel sa conviction réponse par réponse est maximale. La décision de vote d'un électeur dépend uniquement des niveaux de confiance qu'il accorde aux partis et non d'une comparaison globale de leurs programmes respectifs. La dynamique générale des propositions de programmes et des votes résulte de cette interaction complexe entre les comportements routiniers, la suite aléatoire des événements et le flux d'informations fourni par les enquêtes. Cette complexité est trop grande pour permettre une analyse exacte des propriétés asymptotiques du système. Nous avons donc réalisé un ensemble de simulations permettant de mettre en évidence les différentes évolutions possibles des programmes et des résultats électoraux. 1.3 Peut-ondépasserle théorèmede l'électeurmédian ? Le modèle spatial de compétition électorale de Downs et Black, au moins dans sa formulation unidimensionnelle, est une adaptation directe du modèle de localisation d'Hotelling des (1929) : supposons que l'ensemble soit le électeur soit caractérisé programmes segment [0, 1], qu'un par un idéal de et deux selon le critère de leur [0,1], point compare programmes distance à son point idéal ; supposons également que deux partis, parfaitement informés des préférences des électeurs, cherchent à s'attirer une majorité de suffrages. Alors, ils se coordonneront sur un même programme, qui coincide avec le point médian de la distribution des électeurs. Ce programme médian défait tous les autres à la majorité (il est appelé vainqueur de Condorcet). Dans ces conditions, l'identité du vainqueur relève soit d'une règle de partage aléatoire des votes, soit d'une convention exogène au modèle. Dans le cas où l'ensemble des programmes est une partie finie de [0,1], ce résultat reste valide sous l'hypothèse d'unimodalité des préférences. L'extension du modèle au cas de programmes multi-dimensionnels a été analysée par Plott (1967), Kadane (1972), Kramer (1972), Mc Kelvey ( 1 986) et Cox ( 1 987)(2). Comment expliquer que certains paysages politiques ne se conforment pas à cette règle de « gouvernement au centre » ? Deux raisons importantes ont été avancées dans la littérature de la théorie du vote La première est l'in( l )Ces auteursmontrenten particulierle rôle importantde la séparabilitédes préférences,de la distributiondes pointsidéaux,et de l'organisationdu vote dans l'obtentiond'un vainqueurde Condorcet ;voir Hinichet Munger(1997)pour une synthèse. (2) Une troisième approche,dite directionnelle,a été proposéepar Weisberg( 1974)et Matthews(1979)reposesur l'abandondu critèrede distancecome seul déterminantdu comportementde vote. 430 AUTO-ORGANISATION certitude, la seconde est l'idéologie. L'incertitude peut être celle des partis à l'égard des attentes de l'électorat ou celle des électeurs sur la conformité des politiques aux plate-formes électorales. Cependant, il a été montré que cette incertitude ne peut conduire à une différenciation des programmes proposés si elle a une différenciation des partis (voir les par partis que suppose priori Davis et Hinich (1968), Calvert (1985), Wittman (1990), Banks (1990), Hinich et Munger (1992), Williams (1994)) : les partis diffèrent sur leurs par les élecanticipations des préférences de l'électorat, ou sur l'anticipation teurs de l'écart entre programmes et décisions effectives. La seconde raison proposée est que les partis ne sont pas animés par le seul objectif « downsien » de victoire électorale, mais ont des préférences propres sur les programmes (l'« idéologie »). Cette approche a été suggérée notamment par Wittman (1983), Cox (1984), Calvert (1985) et Enelow (1992). Cependant, cet amendement du modèle initial ne peut expliquer à lui seul la différenciation des programmes : celle-ci requiert la combinaison des positions idéosur les préférences de l'électorat (voir logiques des partis et de l'incertitude 1985 et Calvert, Roemer, 1997). Le modèle dynamique d'auto-organisation politique développé ici permet des une différenciation durable programmes proposés par des d'expliquer sans dotés de la même information idéologie, imparfaite sur l'opinion partis des électeurs et adoptant les mêmes règles de comportement. Il offre en outre une analyse d'un phénomène que l'approche stratégique statique ne l'alternance des partis au pouvoir. Il montre comment peut appréhender : cette alternance peut prévaloir même si les partis proposent un programme identique, ou comment un parti peut acquérir un avantage définitif sur son adversaire. Il montre également le fait que, lorsque les partis se coordonnent, leur programme commun n'est pas nécessairement celui prédit par la théorie traditionnelle du vote, mais correspond à l'intuition de ce que peut être un de gouvernement. Les dynamiques électorales mises en programme évidence sont riches d'enseignements et d'interprétations de situations réelles absentes des prédictions de la théorie statique des jeux non coopératifs. son aptitude à expliquer de Jacques Lesoume méthodologique ce travail est de montrer sa pertinence démocratie politique, étendant ainsi principes de l'Économie de l'ordre et C'est dans la diversité du réel que l'approche s'est avérée si probante. L'ambition de dans la recherche d'une théorie de la à un nouveau domaine d'analyse les du désordre. La présentation de l'article est organisée de la manière suivante : la partie 2 est consacrée à la description du modèle. La procédure de simulation essentiels du modèle, apparetenue, ainsi que l'analyse des enseignements raissent dans la partie 3. Le détail des simulations les plus représentatives est présenté en annexe. Unmodèledynamiquede compétitionélectorale 4311 2. LEMODÈLE Soit S2 = ( 1 ,..., i, ..., n}un ensemble d'événements possibles, dont l'occurrence est soumise à un aléa exogène. On suppose qu'à chaque événement i peuvent correspondre deux décisions possibles, notées respectivement -1 1 et 1. On appelle programme électoral la donnée d'une fonction Cette modélisation peut être illustrée de la manière suivante : un élément de S2 correspond à un niveau donné de chômage dans la collectivité ; la décision 1 (resp. -1 ) signifie une dévaluation de la devise nationale (resp. le maintien de son cours). Un programme électoral est donc défini comme l'annonce d'un plan complet de décisions contingentes à la réalisation d'une variable aléatoire à n modalités. On appellera action un couple (événement, réponse). Le modèle est à temps discret, indicé par t e I N. On suppose que des élections ont lieu à chaque date t = 1 , K + 1 , 2K + 1... (les mandats électoraux sont confiés pour une durée de K périodes séparant deux échéances électorales). Afin de simplifier les notations, les périodes d'élections seront indicées par T = 1, 2,... À chaque période t est tiré aléatoirement un événement dans Q , noté Nous supposons l'existence de deux partis politiques, notés A et B. Le problème de chacun des partis est de définir le programme pour chaque échéance, en tenant compte de l'information acquise dans le passé sur le comportement de son rival et sur les préférences des électeurs. C'est la formalisation de la dynamique de révision des propositions de programmes, ainsi que celle de la dynamique des comportements de vote, qui va conditionner l'évolution du paysage politique et, en particulier, l'existence ou non d'une convergence des partis vers un programme unique. On note le à l'échéance T. L'action (i,, programme proposé par le parti p = A,B fP (i,)) préconisée par le programme f,, est de répondre ft(it) p face à l'événement i,. Par ailleurs, ce programme est supposé invariable entre deux ec échéances eances ... , K - 1,, pp -, . B) = A, p p p' - , 1 ,..., Commençons par préciser le comportement des électeurs. 2.1 1 Lecomportement desélecteurs , Le modèle distingue deux comportements de la part des électeurs : celui de vote, c'est-à-dire de choix d'un parti à chaque échéance électorale T et celui ( 1 )Cettehypothèserevientà considérerqu'un changementde politiqueannoncéen coursde législaturealtère la crédibilitéd'un parti de manièredéfinitive. 432 d'annonce tionnaires AUTO-ORGANISATION des intentions de vote à l'échéance prochaine (à la suite de quesd'opinion émis dans les périodes inter-électorales). Le comportement de vote Deux idées maîtresses gouvernent la modélisation du vote des électeurs : la pas les partis sur la base des première est que ceux-ci ne comparent programmes globaux proposés, mais plutôt à la lumière des décisions que ces programmes préconisent face à l'événement courant. La seconde est que l'histoire altère ou renforce la confiance accordée à chaque parti et que la décision de vote résulte essentiellement du niveau de cette confiance plutôt la conformité des programmes aux préférences des électeurs que de . Soit N = ( 1 , ..., j, ...,m) l'ensemble est (fini) des électeurs. Un électeur j caractérisé à chaque date t par un programme idéal fi et par les niveaux de On appelle profil de préféconfiance accordée au parti p = A,B vl' (t) rences la donnée d'un m-uplet de programmes idéaux Nous supposons que N est partitionné en quatre sous-ensembles S2x, x = 1,2,3,4, définis respectivement par : = (_j G N : 3i (j) tel que fj(1) = 1,Vi E {1,...,i(j) - 24 = fi e N : tel E S2 0, Vi E {i(j),...,n}}, = 1,`di E {i(J),...,n}}. 3i (,j ) E S2 = 0, Vi E 1 i (j) - Aux ensembles S2 et S22 correspondent des électeurs dont les programmes idéaux donnent une réponse uniforme à tous les événements. Les électeurs » dans et S24 sont caractérisés par l'existence d'un « événement-pivot unique séparant ceux pour lesquels la réponse souhaitée est 1 de ceux pour Cette restriction sur l'ensemble des profils possibles lesquels elle est -1 . aura des implications que nous détaillerons plus loin. Son interprétation est aisée : il existe une structuration naturelle de S2 (par exemple le classement des taux de chômage i dans l'ordre croissant), et chaque électeur j est caractérisé par un seuil de chômage i(j) qui implique, selon lui, un changement de politique monétaire (avec 1 ( j) = 1 pour les ensembles S2 et S22 ). (1) On retrouve ici deux ingrédients caractéristiques d'un modèle d'auto-organisation : la myopie du comportement de choix, suivi par des individus n'ayant pas la capacité d'appréhender de façon complète leur environnement ; et l'inertie de ce comportement, donnant à l'histoire un rôle clé dans la détermination des décisions présentes. (2) Nous supposons que les programmes idéaux n'évoluent pas dans le temps. Le traitement de préférences endogènes requiert l'introduction d'une structure d'information complexe qui dépasse le cadre de cet article. 433 Unmodèledynamiquede compétitionélectorale Les niveaux de confiance suivent une dynamique adaptative simple, vf (t) formalisée de la manière suivante : il existe un niveau maximum (exogène) de confiance qu'il est possible d'accorder à un parti, noté v+ > 0, et un minimum Nous supposons que les programmes fI et niveau les à une échéance T sont parfaitement observables partis fI proposés par les et ceux-ci conservent la mémoire de ces programmes électeurs, par que l'échéance suivante. Nous jusqu'à supposons également que les événements successifs it sont observables par tous. Entre deux échéances T et T + 1, la dynamique du niveau de confiance à l'égard d'un parti p est régie par les équations suivantes : . alors + 1) = + 1 , v+) si fj (ii) . sifJU¡) =1- fIT (il) alors vJ'(t + 1) = l,v-1 Si l'événement il prévaut à une date t, alors le parti p propose la réponse conformément au programme annoncé lors de l'échéance précéc?ente. Si cette réponse coincide avec (diffère de) celle du programme idéal de l'électeur j, alors j renforce (diminue) sa confiance à l'égard de p (sauf si celle-ci a déjà atteint le niveau maximum (minimum) possible). Le comportement de vote à une échéance T est la résultante de deux facteurs : le niveau de confiance qui prévaut à cette date pour chaque parti, et le comportement de vote adopté à l'échéance précédente. Supposons que l'électeur j ait voté pour le parti p en T - 1 . Alors son vote en T est défini par la règle suivante : si si 0, alors j vote pour p vJ' (T) < 0 et si (T) > p), alors jvote pour p' < 0 et si < alors j vote pour p vjp (T) si v/ (T) = (T) < 0, j vote pour p' Le choix d'un parti repose ainsi sur trois règles simples : si , ', v/ (T) - si la confiance à l'égard du parti pour lequel un électeur a voté précédemment reste positive, il reste fidèle à ce parti ; - si cette confiance a disparu et devient inférieure à celle à l'égard du parti concurrent, il vote pour ce dernier ; - si l'électeur n'a confiance en aucun des deux partis et ne peut les distinguer, il change d'avis par rapport à son vote précédent. ~ , , '' On met ainsi en évidence deux effets concurrents sur l'inertie des comportements : un effet de fidélité, qui conduit à n'envisager un changement d'opinion que dans le cas d'une défiance contre le parti supporté à l'élection précédente ; et un effet de vote négatif, qui conduit à changer systématiquement son vote face à deux partis donnant lieu au même niveau de défiance. En outre, la borne de confiance maximale est un paramètre important 434 AUTO-ORGANISATIO d'inertie des comportements : le cas où v+ = 0,5 peut être interprété comme une situation à inertie minimale : les électeurs choisissent un parti en fonction de la seule réponse apportée au dernier événement avant l'élection. Une augmentation de v+ donne à l'histoire des événements séparant deux échéances un rôle déterminant dans le vote. L'annonce des intentions de vote Considérons l'intervalle de (K - 1) périodes entre deux élections T et T + 1. À chacune de ces périodes t, un « sondage d'opinions » est organisé dans lequel on demande à chaque électeur d'indiquer le parti pour il voterait si l'élection avait lieu aujourd'hui. On suppose qu'un lequel est sondage organisé également pendant les périodes d'élection T, mais le scrutin. À une période t correspond l'événement ii , et les réponses après If (it) 1 élection confiance accordés suppose les dans le programme p = A, B partis proposé pour T. Ces en vertu de la dynamique de précédente réponses, vont modifier les niveaux de confiance haut, présentée plus à chaque et influencer les intentions de vote individuelles. On parti, les d'un telles que réponses possibles électeur j sont supposées proposées par en que : si v! :? l'élection 0 si 0 et v) j et vP' J :? 0, alors j vote pour pcj < 0, alors j vote pour p a voté pour p au cours de T v;' si v < 0 et vp' < 0, alors j ne se prononce pas ). Le premier cas exprime un comportement de fidélité en faveur d'un parti soutenu précédemment et en faveur duquel la confiance reste positive. Le second cas relève du vote d'adhésion. Enfin, l'indécision démontre une défiance générale à l'égard de tous les partis. Le comportement décrit est alors celui d'un vote négatif. La possibilité d'une défiance générale est une originalité du modèle. Elle résulte soit d'une histoire d'événements face auxquels les deux partis auraient proposé la même réponse (la « pensée unique ») contraire aux préférences d'une majorité d'électeurs, soit de changements successifs de programmes pouvant différer entre les partis, définis sur la base d'interprétations erronées des sondages. Passons à présent à la description du comportement des partis politiques. (1) Dans la mesure où chaque électeur est interrogé, il s'agit moins d'un sondage que d'un recensement La modélisation d'un processus d'échantillonnage consisterait d'opinions. à augmenter le niveau de bruit dans la transmission de l'information aux partis. Les résultats de cet article montrent qu'une telle complication n'est pas nécessaire à l'obtention de dynamiques politiques complexes. est exclue du modèle, mais pas l'indécision dans les (2) On remarquera que l'abstention intentions de vote. Un extension intéressante de cette approche consisterait à supposer que les électeurs s'abstiennent lorsque leur confiance à l'égard des deux partis atteint un certain seuil. 4355 Unmodèledynamiquede compétitionélectorale 2.2 Lecomportementdes partis Un parti doit définir à chaque échéance le programme soumis au scrutin majoritaire. Une hypothèse fondamentale du modèle est qu'aucun parti n'aa d'information a priori sur le profil des préférences. Par ailleurs, les niveaux de confiance ne sont pas observables par les partis. L'histoire des événements entre deux échéances, au travers des s