Eléments de cours
1 - La balance des paiements, taux de change et système de change
La balance des paiements, enregistrement des flux internationaux de biens, services, monnaies et capitaux
La balance des paiements est un état comptable qui enregistre les flux de biens, services, monnaie et capitaux entre résidents et non résidents d’un pays. C’est donc un indicateur privilégié des mouvements réels, monétaires et financiers d’un pays, ainsi de ses relations économiques avec le reste du monde. A ce titre, il est un outil particulièrement utilisé, mais il convient de le lire avec ce qu’il est, connaissant ses principes mêmes de construction. La description des caractéristiques de ce relevé statistique sera suivie de quelques précautions à prendre pour en assurer une interprétation juste.
Des flux entre résidents et non résidents, classés en trois grands types
Un résident national est un agent économique qui conserve un intérêt sur un territoire donné pour 2 années ou plus. Par conséquent, un touriste étranger présent, même pour quelques semaines sur le territoire reste un non résident ; les opérations qu’il réalise sont donc « étrangères », même si elles sont effectuées sur le sol national. En revanche, un étranger de nationalité, mais avec une activité sur le territoire pour trois ans par exemple est un résident de ce territoire. Ses opérations sont donc « nationales ».
Les opérations économiques entre résidents et non résidents impliquent souvent une opération de change de monnaie, c’est ainsi que traditionnellement, la Banque de France en particulier est l’organisme de collecte et de diffusion de ces données statistiques. Mais ce n’est pas toujours le cas, comme le montre l’exemple des échanges entre résidents de la zone euro. Ce n’est pas sans poser des difficultés particulières de recensement.
C’est une balance, un état comptable en partie double. Cela signifie que des flux de sens contraire sont enregistrés : entrées et sorties, débits et crédits. Ils donnent lieu à un cumul, par grandes catégories, puis une compensation. On peut ainsi calculer des totaux et soldes de flux. Chaque opération économique donne lieu à deux mouvements de même montant, l’un étant la contrepartie de l’autre. Par exemple, un achat de biens, réel, importation ou exportation, est assorti d’un paiement, en sens inverse (flux monétaire ou financier lorsqu’il s’agit d’un crédit contracté pour cet achat).
De même, la contraction d’un crédit donne lieu à un mouvement de « cash », suivi de l’enregistrement d’une dette.
La balance des paiements est donc structurellement équilibrée. Dans le cas de mouvements sans réelle contrepartie (comme la remise d’une dette par exemple) un enregistrement comptable spécifique permet d’assurer cet équilibre. Au final, les erreurs et omissions, révélatrices des difficultés de collecte de ces données, assurent l’égalité des entrées et des sorties enregistrées.
Les différentes opérations entre résidents et non résidents sont classées en trois catégories, par nature de flux :
Les transactions ou opérations courantes (déterminant le solde courant) regroupent les flux de biens (constituant la balance commerciale), de services, les revenus et les transferts. Ces derniers constituent les invisibles. Les revenus entre résidents et non résidents sont notamment les revenus mobiliers et immobiliers, mais aussi ceux des travailleurs transfrontaliers.
Les opérations sur capital regroupent des mouvements sur des actifs : non financiers comme les brevets, ou d’autres, sans contrepartie « naturelle » comme les remises de dettes à pays tiers.
Les opérations financières sont la deuxième partie importante de cet ensemble : Les investissements sont ici recensés (directs lorsque supérieurs à 10% du capital considéré, ou de portefeuille). Les autres investissements sont en particulier les créances et dettes contractées auprès des organismes financiers. Enfin, ce compte inclut les entrées et sorties d’avoirs de réserve de change. Enfin, le compte d’erreurs et omissions, permet d’ajuster la balance.
Un état comptable en partie double, qui en fait l’équilibre
Prenons quelques illustrations :
L’importation d’un bien d’un pays étranger donne lieu à deux enregistrements équivalents, de sens contraire : Il y a une entrée de bien ou de service (compte des transactions courantes, rubrique des biens ou des services) suivie de la sortie d’un paiement en « cash » (compte des avoirs de réserve).
L’achat par un non résident d’un titre de propriété, type action d’une entreprise résidente, correspond au même type de schéma : « sortie » d’une propriété (compte financier rubrique investissement direct ou de portefeuille), « entrée » de « cash » pour le paiement (compte financier rubrique : avoir de réserve).
Si le paiement est différé dans le cas de ces deux achats, la contrepartie n’est pas un mouvement de cash, mais la contraction d’une dette du même montant.
L’achat par un étranger d’un brevet correspond à un flux au compte de capital, contrepartie d’un flux de cash lui aussi pour le paiement.
Tous ces exemples aboutissent au même constat : à une entrée correspond une sortie de même montant. Au delà de ces illustrations, si l’on raisonne sur les grandes masses de la balance, déficits et excédents se répondent. Ainsi, un excès d’exportations de biens et de services par rapport aux importations induit une entrée de devises elle-même excédentaire. Elle se traduit par un déficit financier au compte des avoirs de réserve. Il y aura matière à « financer l’étranger ». A l’inverse, un excès d’importations de biens et services donnera lieu à une entrée de capitaux excédentaire pour le financer (compte financier), à moins que des revenus ou transferts excédentaires (au même compte courant) ne les compensent.
Des difficultés d’interprétations spécifiques
Il est particulièrement délicat de faire une interprétation partielle de la balance des paiements d’un pays. Il est possible de commenter le volume des échanges réalisés, ainsi que leur évolution, associée à l’ouverture ou à la fermeture d’une nation vis-à-vis de l’étranger. De même, le poids de la balance courante par rapport par rapport au compte financier est associé à la financiarisation d’une économie.
En revanche, la considération des seuls soldes peut conduire à des interprétations parfois trop rapides.
Prenons l’exemple d’un excédent courant : il peut être signe de compétitivité (prix et hors-prix), en particulier parce qu’il signifie un excès des ventes de biens et de services à l’étranger sur les achats. De même, il peut être associé à un dynamisme des investissements réalisés à l’étranger, qui ont donné naissance à d’importants revenus. Il donne lieu à une entrée de devises favorable, qui peut également entrainer une appréciation de la monnaie, elle aussi facteur de compétitivité (compétitivité prix par les importations). Ce même excédent peut donner lieu à une autre interprétation : il peut aller de pair avec de faibles volumes d’échanges, en particulier une atonie de la demande intérieure, elle, défavorable. Les excédents courants allemands du début des années 2010 peuvent l’illustrer. Ils étaient consécutifs à une pression particulière à la baisse des coûts salariaux.
Pour le cas d’un excédent financier, si l’on « neutralise » l’effet du compte de capital, il est favorable lorsqu’il est associé à une attractivité du territoire (demande dynamique, infrastructures de qualité, stabilité politique…). Il peut induire une appréciation de la monnaie. Il peut se révéler néfaste lorsque les capitaux concernés sont instables, ou bien, lorsque l’Etat considéré dépense en excès, au prix d’un endettement insoutenable par rapport à l’étranger. Ce pourrait être le cas de la France ou des Etats-Unis de la période actuelle.
Il convient donc d’apprécier plusieurs caractéristiques ensemble.
Il existe un lien entre comptabilité nationale et balance des paiements. Autrement dit, la balance des paiements peut être lue à la lumière des comptes nationaux : les achats de biens et services à l’étranger correspondent aux consommations et investissements des agents résidents qui dépassent la production « locale ». Un excès de consommation sur l’épargne nationale de l’ensemble des secteurs institutionnels (déficit courant) nécessite un financement externe de la dépense (entrée de capitaux). Lorsque l’on parle de déficits jumeaux, on entend ainsi déficit public combiné à un déficit courant. L’un conduit à l’autre, car il n’est pas compensé par une capacité de financement suffisante de la part des autres agents économiques, entreprises ou ménages. Il convient d’observer le dynamisme ou non de la demande intérieure, de même que le volume et l’évolution de l’épargne des différents agents économiques ; les critères d’attractivité du territoire également.
Le taux de change est un autre élément important. Nous aurons l’occasion de montrer qu’une monnaie stable est souhaitable. L’existence de tensions sur le change est un autre critère d’appréciation. Une monnaie artificiellement faible se révèle souvent un handicap, même si elle dessine des excédents courants par exemple.
La nature et le prix des financements étrangers est aussi importante. Le mieux est qu’ils soient à la fois stables et peu coûteux, signe de qualité de la « signature » de la nation ou de sa solvabilité à terme.
Taux de change et système de change
Le taux de change est d’abord un prix, qui dans certains cas, est établi sur un marché. C’est le rapport de conversion d’une monnaie dans une autre, sa valeur par rapport à une autre. C’est aussi le reflet de son pouvoir d’achat.
Un marché des changes, presque « parfait », qui voit sa place augmenter
Le marché des changes (en anglais for ex pour foreign exchange) est le lieu fictif, sans localisation géographique, sur lequel les devises (nom donné à une monnaie nationale dans son rapport avec d’autres monnaies nationales) s’achètent et se vendent. Ce marché existe lorsque la liberté d’achat et de vente sur une monnaie est la règle. Ce n’est pas une réalité universelle : de nombreuses monnaies connaissent un contrôle des changes, c’est-à-dire des restrictions à leur circulation internationale, à leur utilisation en dehors du territoire, ou à leur conversion dans d’autres monnaies. Dollar, yen ou euro sont des monnaies internationales qui s’échangent librement ; ce n’est pas le cas de la monnaie chinoise par exemple. Le marché des premières citées correspond presque à un cas de concurrence pure et parfaite : une très grande fluidité des échanges, une information qui circule rapidement et sans coût, des agents économiques nombreux sur toute la planète, des lieux de cotation qui couvrent tous les fuseaux horaires.
Les différents marchés de change sont étroitement liés : ainsi ceux qui demandent d’une monnaie pour effectuer des transactions, vont offrir d’une autre monnaie en échange. Par conséquent, la valeur d’une monnaie est associée à des caractéristiques propres, mais dépend aussi de la valeur d’une autre monnaie. Concrètement, lorsque l’euro est cher, ce peut être lorsque le dollar est bon marché.
Le marché des changes est d’abord un marché de professionnels (banques, assurances, autres investisseurs, entreprises) beaucoup plus que de particuliers. Les transactions concernent encore majoritairement le dollar (un peu moins de la moitié en 2010), même si la place financière clef pour ces échanges reste Londres, en particulier pour des raisons historiques. Depuis 2000, le volume de ces transactions ne cesse d’augmenter. Il s’agit, enfin, majoritairement, de transactions à terme, c’est-à-dire pour une échéance à venir, dans des conditions établies à l’avance.
Selon le dernier rapport triennal de la BRI en 2013, les transactions sur le marché des changes se sont accrues de plus d’un tiers entre avril 2010 et avril 2013, pour représenter environ 90% du PIB annuel du Japon, ou 5 300 milliards de dollars par jour en moyenne. Les transactions en euro constituent 33% du total. Le Royaume-Uni concentre à cette même date 41% des échanges.
Des variations de change pouvant être associés à des mouvements réels
La question de l’explication, des origines de la valeur d’une monnaie par rapport à une autre, est récurrente dans l’analyse économique. A chaque instant, le marché des changes d’une monnaie convertible est régi par la loi de l’offre et de la demande. Son prix en est donc le reflet. Quel est-il en tendance ?
La conversion d’une monnaie peut d’abord se justifier par la nécessité de payer un bien ou un service à l’étranger. La demande d’une monnaie contre une autre, va en résulter. Il existe donc des déterminants dits « réels » du taux de change.
La « parité des pouvoirs d’achat » a été mise en valeur par Gustav Cassel (1866-1945), même si l’on en attribue les prémisses à David Hume (1711-1776) ou David Ricardo (1772-1823). Elle part du constat suivant : Si un consommateur a la possibilité d’acheter le même produit moins cher à l’étranger, moyennant conversion de sa monnaie dans la devise étrangère, il le fera. Cet arbitrage aura des conséquences sur le marché de ce produit. Si un produit est moins cher, change inclus, à l’étranger, sa demande va s’accroître, ce qui va causer son enchérissement. Ce sera aussi le cas de la devise de ce pays, davantage demandée également. Le taux de change qui va s’établir sera celui qui annule l’avantage de prix de ce produit, autrement dit, qui assure le même pouvoir d’achat (version absolue de la PPA) entre les deux pays. A minima, la variation du taux de change va dépendre des variations de niveau général des prix de ces pays (version dite relative de la PPA).
Cette explication de l’évolution du change est souvent dite moniste (une cause) et statique car elle en induit valeur d’équilibre. Elle repose cependant sur des hypothèses fortes, en particulier un ajustement rapide des prix, du change et de la demande qui leur correspond, ou encore une interchangeabilité des biens et services d’un pays à l’autre. La monnaie est enfin demandée pour des raisons de transactions, ce qui correspond au cas de théorie quantitative de la monnaie.
Les déterminants monétaires et financiers du change
La conversion d’une monnaie peut également se justifier par des mouvements monétaires et financiers. Cela renvoie aux autres motifs de détention de la monnaie que celui de la transaction : précaution et prévoyance, spéculation. La monnaie peut être détenue pour elle même, comme actif liquide par excellence, elle peut aussi servir à acheter des titres.
Le différenciel de taux d’intérêt peut être, par conséquent, un déterminant du taux de change, au motif que l’argent se placerait là où il serait le plus rémunéré. On attribue en général cette théorie à John Maynard Keynes (1883-1946) dans un article de 1923. La « parité des taux d’intérêt » peut s’énoncer de la façon suivante : Tant que le taux d’intérêt d’un pays permettrait un gain plus élevé que dans un autre, moyennant conversion, les capitaux y afflueraient. Il y aurait alors une demande de monnaie de ce pays plus importante. Cet afflux cesserait avec la diminution jusqu’à annulation, de l’écart de taux d’intérêt : plus il y a de capitaux disponibles, plus leur rémunération baisserait. Le taux de change serait donc celui qui permet aux taux d’intérêt d’être au pair. La parité des taux d’intérêt est qualifiée de couverte lorsque le risque de change sur la transaction est annulé par une opération de change sur le marché à terme.
Pour les économistes monétaristes, en particulier Milton Friedman (1912-2006), c’est la quantité d’une monnaie en circulation qui explique son prix et donc son taux de change, car les agents économiques arbitrent entre les différentes monnaies qu’ils peuvent détenir.
Enfin, les tenants de la théorie du portefeuille donnent une explication sur le même modèle : C’est aussi entre différents titres, de différentes échéances, libellés en différentes monnaies que les agents économiques choisissent. Les taux de change en découlent.
La difficulté de prévoir les variations de change avec les modèles « traditionnels » aboutit à des explications alternatives
Rudiger Dornbusch (1942-2002) a tout d’abord proposé en 1976 de combiner plusieurs approches. Il démarre d’un constat : les prix (et donc les mouvements) des biens et des services s’ajustent avec retard, ne serait-ce qu’à cause des coûts d’étiquetage, alors que les mouvements de capitaux sont davantage fluides. La « parité des pouvoirs d’achat » serait alors le guide de long terme des variations de taux de change, la « parité des taux d’intérêt » celui de court terme. Il y a alors un effet de « sur réaction » du taux de change: Considérons le cas d’une appréciation d’une monnaie consécutive à une réduction de la masse monétaire : L’accroissement du taux d’intérêt (rapide, lui) provoquerait un afflux de capitaux, qui apprécierait d’autant plus cette devise. Dans un second temps, l’ajustement des prix provoquerait un retour en arrière, une dépréciation.
Une étude de Richard Meese et Kenneth Rogoff en 1983 vient cependant bouleverser ces fausses évidences. Elle est basée sur l’évaluation systématique des erreurs de prévision des précédents modèles. Sa conclusion est sans appel : il est toujours plus juste de prévoir que le taux de change est constant que d’utiliser les modèles décrits précédemment. Ce résultat est un paradoxe, vues les fluctuations de court terme observées. Il souligne surtout le manque de validité empirique de ces déterminants du taux de change, en particulier utilisés de façon isolée, universelle.
Les explications en termes de d’anticipations et de bulles éclairent ponctuellement la question des variations du change, en particulier ses amples fluctuations de court terme. Eli Heckscher (1879-1952) ou encore John Maynard Keynes (1883-1946), dans deux article ou ouvrage de 1931 et 1936, Paul Samuelson (1915-2009) en 1967 ou plus récemment André Orléan (1950-) en particulier dans un article de 1989 montrent comment de nombreuses opérations sur une valeur, en particulier une monnaie, peuvent concourir à la déconnexion entre sa valeur de marché et ses déterminants fondamentaux. Des comportements moutonniers, mimétiques, compatibles avec une certaine rationalité des agents, aboutissent à une hausse ou une baisse excessive d’un prix. Comme la hausse (ou baisse) effective, car il y a achat (ou vente) supplémentaire, valide la hausse (ou baisse) anticipée : on parle de prophéties autoréalisatrices.
A défaut de déterminants satisfaisants du taux de change, John Williamson (1937-) propose un taux de change « cible ». Il serait celui qui assure l’équilibre interne d’une économie : une croissance économique à son niveau potentiel, et ainsi ne suscitant pas d’inflation. Il serait aussi celui qui assure l’équilibre externe : il correspondrait à un niveau de déficit courant soutenable, c’est-à-dire financé par des capitaux « structurels » ou encore d’une certaine stabilité.
De l’impact incertain du niveau du taux de change à la délicatesse du choix d’une politique ou d’un régime de change
Le taux de change d’une monnaie peut avoir une influence sur le marché des biens et services : En effet, il agit sur le prix des exportations et des importations. Une appréciation du change enchérit les exportations mais baisse le prix des importations. L’effet sur la compétitivité prix est donc ambigu : si le contenu en importations des exportations est important, une appréciation de la monnaie est facteur de compétitivité prix. De même, l’impact sur les quantités achetées et vendues est incertain : Il dépend de l’élasticité-prix de la demande extérieure et intérieure, qui varie elle-même en fonction de l’existence ou non de substituts. Les quantités peuvent aussi connaître une certaine inertie, du fait des habitudes d’achat. Les prix peuvent aussi ne pas s’adapter aux variations du taux de change.
Le taux de change d’une monnaie peut avoir une influence sur le marché des capitaux : Il agit sur la rémunération du capital, mais aussi sur l’attractivité d’un territoire : une monnaie stable est une garantie pour un investisseur qui aura des transactions à réaliser dans cette monnaie. Il y a également incertitude quant à l’effet d’une variation du change. L’attractivité d’un territoire, a des origines multifactorielles.
Une politique de change a par conséquent des effets incertains.
Une monnaie « forte », c’est-à-dire qui s’apprécie car elle est demandée, peut être favorable pour la balance courante: lorsque le pays est fortement dépendant des importations, lorsque le contenu en importations des exportations est important, lorsque les exportations sont basées sur la compétitivité hors prix ou qu’elles sont faiblement élastiques aux prix. La force de la monnaie est aussi de nature à attirer les capitaux.
A l’inverse, une monnaie « faible », c’est-à-dire qui se déprécie car elle peu demandée, peut être favorable : lorsque le pays est très dépendant de ses exportations, avec une demande intérieure proportionnellement plus faible, lorsque l’attractivité des biens exportés est associée à leur prix. Elle comporte également des risques de cercle vicieux de baisse de la monnaie si les conditions précisées ne sont pas réunies. De même, la dépréciation volontaire d’une monnaie (ou dévaluation en système de changes fixes) produit des effets à nuancer. Ceux-ci ont été modélisés par une « courbe en J » : Ce n’est qu’après ajustement des prix et des quantités aux variations du change qu’une dévaluation peut produire des effets positifs sur la balance courante (BTC). C’est ce que résume la condition dite de « Marshall-Lerner ».
Il faut ajouter que la manipulation du taux de change pose des difficultés particulières lorsque la monnaie est échangée librement sur les marchés internationaux.
Prenons l’exemple de l’euro fort : celui-ci ne répond pas nécessairement à une politique de la part de la BCE dont les statuts ne prévoient pas cet outil. L’Allemagne semble en profiter tandis que des voies s’élèvent en France en particulier pour le déplorer.
De la même façon, le choix d’un système de change (organisation d’ensemble des relations entre les devises), d’un régime de change (relation qui peut être individuelle entre une monnaie et les autres) est délicat.
Une parité fixe, isolée ou à l’intérieur d’un système, présente des avantages : absence de risque de change, qui induit la possibilité pour les agents économiques de se projeter dans l’avenir plus aisément; possibilité d’avoir une action sur la parité pour accroître ou diminuer la compétitivité de l’économie. Le choix d’un étalon avec parité peut aussi être un moyen pour un pays d’ « acheter la crédibilité » d’un autre, afin d’attirer les investissements étrangers. Enfin, le risque d’inflation importée (issu des fluctuations du change) est également éliminé. Quoi qu’il en soit ce type de choix apparaît comme délicat dans le cas d’économies d’évolution divergente.
A l’inverse, des changes flottants épargnent des interventions coûteuses à la banque centrale pour le maintien des parités, éliminent la délicate question de l’évaluation de la « juste parité ». La politique monétaire recouvre son indépendance en cas de mobilité parfaite des capitaux, selon les conclusions de Robert Mundell (1932-) (Nobel 1999).
2 - L’évolution du système monétaire international depuis le XIXème siècle
Un système monétaire national structure les échanges de monnaie à l’intérieur d’un pays. Un système monétaire international fait de même entre plusieurs pays. En particulier, il caractérise les relations entre les différentes devises pour assurer les transactions entre les pays : Si l’on transpose à l’échelon international les trois fonctions traditionnelles d’une monnaie, il s’agit de faire que les règlements incluant des conversions entre monnaies aient lieu en confiance, qu’il existe des monnaies propres à assurer des réserves, que l’évaluation des biens, des services … soit effectuée de façon sure. Ce système inclut l’existence de monnaies convertibles entre elles, avec présence ou non d’une monnaie internationale. L’or a joué en particulier ce rôle.
Du système d’étalon-or aux désordres monétaires de l’entre-deux-guerres
Un système « de fait », qui présente des avantages et des inconvénients
Le monométallisme or va s’imposer en même temps que la puissance industrielle britannique au XIXème siècle. A ce moment là pourtant, les systèmes monétaires nationaux sont plutôt bimétalliques que monométalliques : c’est le cas du système français ou du système américain. Le Royaume-Uni a fait le choix de l’or depuis le début du siècle.
L’inconvénient majeur du système bimétallique (par exemple or/argent) est associé aux changements de valeurs relatives d’un métal par rapport à un autre, en particulier au fur et à mesure des découvertes de nouveaux gisements. Selon le principe qualifié de « loi de Gresham », lorsqu’un métal se raréfie par rapport à un autre (il s’apprécie), il est thésaurisé, alors que l’autre circule, change de main, ce qui perturbe la fixation de la valeur.
Le système de l’étalon or repose sur la conversion possible de tous les autres moyens de paiement en or. Il existe une relation fixe entre chaque monnaie et un certain poids d’or appelé pair ou parité de cette monnaie. Ce système est donc un cas de système de changes fixes. Les transactions peuvent donc être réglées en monnaie fiduciaire, divisionnaire, scripturale ou en or. Un moyen courant à cette époque est la lettre de change. Le point d’or est la limite de variation du taux de change de chaque monnaie par rapport à son pair.
L’étalon or présente plusieurs avantages, en particulier ceux d’un système de changes fixes : une confiance s’établit dans cette monnaie, car il n’existe pas ou peu de risque de change. L’or présente aussi l’avantage d’avoir une valeur intrinsèque (c’est un métal précieux) qui contribue aussi à cette confiance. Les fonctions de réserve de valeur ou d’intermédiaire des échanges sont bien remplies. Tous les pays qui souhaitent adopter cet étalon le peuvent, en fixant le pair de leur monnaie.
Ce système est aussi sensé rétablir l’équilibre courant de façon automatique. En effet, un déséquilibre induit une dépréciation de la monnaie par une sortie d’or, pour effectuer le paiement des biens et services achetés. Cette dépréciation contribue à la compétitivité prix des produits exportés. Cela permet dans un second temps d’augmenter les ventes à l’étranger, de limiter les achats, puis de faire rentrer de l’or pour paiement. Ainsi l’équilibre courant peut être rétabli. Plus généralement, ce système a les faveurs de ceux qui estiment que l’intervention de l’Etat dans l’économie doit être minimale, tout en favorisant un comportement vertueux des autorités par rapport à l’émission de monnaie. Celles-ci ont les mains liées par une contrainte externe : les découvertes d’or.
Dans les faits, les monnaies connaissent de légères variations de change et la disparition des déséquilibres courants ne se fait pas de manière automatique. Certains biens et services ne circulent pas entre les pays (habitudes de consommation ou barrières douanières), certains prix ne connaissent pas une flexibilité suffisante. Le système présente aussi des inconvénients soulignés par ses détracteurs. John Maynard Keynes a parlé de « relique barbare » pour le qualifier. La quantité de monnaie, imposée par une contrainte externe ne peut évoluer en fonction des besoins de l’économie. Ainsi, si la production de biens et de services s’accroît plus vite, cela aboutit à une baisse généralisée des prix, soit une déflation.
Du « gold standard » au « gold exchange standard »
Ce sont les inconvénients cités qui vont avoir raison de ce système. La première guerre mondiale va être accompagnée de besoins de financement importants pour les Etats belligérants. Ces besoins associés à l’effort de guerre vont être en partie comblés par la création monétaire. Elle va peu à peu se déconnecter des réserves en or. Même la convertibilité de la livre sterling, considérée comme « as good as gold » à la veille de la première guerre mondiale, va être suspendue : c’est le « cours forcé » des monnaies. Le contrôle des changes est, quoi qu’il en soit, la règle pendant cette période. Seuls les Etats-Unis vont être en mesure de conserver ce système.
La conférence de Gênes d’avril-mai 1922 tente d’établir un système monétaire international alternatif, à plusieurs entrées, présentant des avantages de l’étalon-or tout en l’adaptant aux circonstances. En effet, il apparaît difficile de revenir en arrière : Les britanniques le font en 1925 au prix d’une sévère politique de déflation menée depuis le début des années 1920. Cette politique a d’ailleurs été stigmatisée par John Maynard Keynes dans son article les conséquences économiques de Mr Churchill en 1925.
Atout du système ancien, le pair est conservé avec l’or. En revanche, on établit davantage de souplesse pour l’émission de monnaie, en ayant la capacité d’en limiter la convertibilité or : A minima, la monnaie doit être convertible dans une monnaie elle-même convertible. Il est aussi possible d’adopter une solution médiane : la conversion est possible à partir d’une certaine quantité d’or pour en éviter les sorties excessives. Ce système est qualifié de « gold bullion standard », tandis que la convertibilité est appelée « gold specie standard » car toutes les espèces peuvent être changées en or. Il faut attendre 1928 pour que les pays rentrent peu à peu dans ce système. La France, par exemple, adopte à cette date le « gold bullion standard » avec le « franc Poincaré », mais contrairement au Royaume-Uni, renonce à sa parité d’avant guerre. Elle comptait en effet sur les réparations allemandes pour restaurer sa situation économique.
Crise des années 1930 et désordres monétaires
La souplesse du système de Gênes a pour corollaire sa fragilité : Un pays qui a choisi l’option a minima (adoption d’une parité par rapport à une autre monnaie convertible en or, qui lui sert alors de monnaie de réserve et de règlements internationaux) est soumis aux fluctuations de sa monnaie de référence. A l’inverse, si un pays abandonne cette option, la monnaie de référence en pâtit.
La crise des années 1930 va aboutir à la segmentation de ce système. Les Etats ont trois tentations : dévaluer leur monnaie pour augmenter la compétitivité prix de leurs biens et services, pallier par la dépense publique à l’insuffisance de la dépense privée, favoriser par l’inflation la réduction de la valeur de la dette, privée ou publique. Ces trois options aboutissent à la remise en cause de la parité de leur monnaie, puis de leur convertibilité. Le contrôle des changes redevient peu à peu la règle. C’est le cas de l’Allemagne dès 1931, du Japon en 1932. Le Royaume-Uni, suivi de son empire colonial, a décidé au même moment de faire flotter sa monnaie.
En 1933 à Londres, 66 pays ont tenté d’éviter le « sauve qui peu ». L’inconvénient majeur d’une dévaluation est d’être une politique non coopérative. La solution collective optimale est de maintenir la valeur de sa monnaie, mais le meilleur choix individuel est la dévaluation isolée. On aboutit alors à un équilibre de Nash : une dévaluation collective, une guerre des monnaies, dommageable pour tous. Dans les faits, des blocs se sont peu à peu constitués : « bloc or » autour de la France (avec son empire, la Belgique, les Pays-Bas, le Luxembourg, la Pologne, la Suisse et l’Italie), « bloc sterling » (1931), « bloc reichsmark » (1931), « bloc yen » (1932)... Le « bloc or » se désintègre en 1936.
Le système de Bretton Woods, caractéristique de la situation monétaire héritée de la seconde guerre mondiale
La conférence de Bretton Woods a lieu avant la fin de la guerre (il s’agit de préparer la paix) dans le New Hampshire en juillet 1944. Elle se veut une réponse aux désordres monétaires des années 1930. Elle réunit 45 pays. Elle s’inscrit également dans le grand élan coopératif qui prévaut à cette période, en particulier sous l’égide des Etats-Unis du président Roosevelt. L’objectif est d’organiser la stabilité des changes, d’éviter les dévaluations compétitives aboutissant à une guerre des monnaies, de rétablir leur convertibilité pour faciliter l’expansion du commerce international.
Un système centré sur le dollar
Cette conférence voit le fruit de la confrontation entre deux plans d’organisation du système monétaire international : un plan britannique (celui proposé par John Maynard Keynes) et un plan américain (proposé par Harry Dexter White, un haut fonctionnaire du Trésor). Si leurs objectifs sont communs, leurs principes de fonctionnement différent.
Le plan Keynes, organisant un système de changes fixes, comporte deux originalités : une monnaie internationale de règlement qui ne soit pas une monnaie nationale (le bancor), une banque internationale de compensation (ou de « clearing »), là aussi, qui ne soit pas une banque centrale nationale. Cette banque pourrait aussi accorder des crédits aux pays en difficulté au sortir de la guerre. Sans devise clef, ce système tend à préserver les intérêts des pays autres que les Etats-Unis.
Le plan White quant à lui, consacre la nouvelle suprématie américaine. L’accent est mis sur la relance du commerce mondial qui passe par le libre-échange, la fin des barrières protectionnistes. Il implique aussi une coopération monétaire internationale et en particulier la capacité à obtenir des crédits pour les pays qui veulent défendre leur monnaie. Il s’agit aussi de créer une banque internationale pour la reconstruction et le développement.
Les deux plans diffèrent sur le montant des prêts possibles et sur la philosophie générale du système : les américains craignent, en effet, que le système sans monnaie nationale de référence ne conduise à un excès de crédit. Les anglais ne souhaitent pas que l’effort repose surtout sur les pays déficitaires. Cependant, le rapport de force est en faveur des américains, avec les deux tiers des réserves d’or mondiales et une balance courante excédentaire. Le débat va finalement surtout porter sur les droits des différents pays, matérialisés par leur « quote-part ».
Le système repose ainsi sur trois piliers :
Premier pilier : des parités fixes et ajustables (marge de +/-1%) entre les différentes monnaies et le dollar. Ce dernier possède lui-même une parité fixe avec l’or (35 dollars l’once), mais il est « as good as gold » et finalement ne sera pas suivi par d’autres monnaies dans cette convertibilité. Chaque pays, par des interventions sur le marché des changes s’engage à défendre sa parité. Dévaluations et réévaluations sont possibles. Si toutefois elles sont importantes, elles nécessitent un accord du FMI.
Le fonds monétaire international est justement le second pilier du système : Son capital est formé de participations de chacun des pays membres (participation = quote-part) et est destiné à financer les Etats en déséquilibre courant. Ces quotes-parts sont le reflet du poids économique de ces pays à cette date et induisent des droits de vote.
Enfin, troisième pilier, la BIRD, banque internationale pour la reconstruction et le développement, assure des financements de projets complémentaires pour créer les conditions d’un redémarrage économique dans les pays sinistrés par la guerre.
Ces trois caractéristiques font de lui un système d’étalon de change or, avec ses avantages, déjà cités pour celui issu de la conférence de Gênes, mais aussi ses inconvénients que l’on va observer ensuite.
Ce système souffre d’abord d’un manque, puis d’un excès de liquidités
Les débuts du système (jusque dans les années 1950) sont caractérisés par un manque de monnaie internationale. Les pays européens et le Japon sont ruinés par la guerre, en particulier leur outil productif. Ils n’ont pas de capacité à exporter. Seuls les Etats-Unis peuvent leur fournir les biens et services nécessaires. Il y a donc une pénurie de dollars et le contrôle des changes prévaut dans ces pays. Le plan Marshall (European Recovery Program en 1947) va néanmoins permettre de surmonter ce « dollar gap » en assurant aux pays concernés une reconstruction grâce à des dons et des crédits. Jusqu’à la fin de la décennie, les monnaies non dollar sont régulièrement dévaluées.
A la fin de cette période, le dollar n’est plus en pénurie mais en abondance. Les économies européennes et japonaise qui ont reconstruit leur outil de production vont être en mesure d’exporter et vont limiter les excédents américains. Une certaine défiance vis-à-vis du dollar en résulte, d’autant que les autorités américaines sont accusées d’adopter une attitude de « benign neglect ». Comme ils n’ont pas à défendre la parité de leur monnaie par rapport aux autres devises, Jacques Rueff (1896-1978) parle aussi de « déficit sans pleurs » pour les Etats-Unis. Cette surabondance de dollar est accentuée par la production de cette monnaie internationale par des banques étrangères en dehors du territoire américain : C’est ce que l’on appelle les « eurodollars » ou « exo-dollars ».
Cette évolution est le reflet du « dilemme de Triffin » du nom d’un économiste belge, Robert Triffin (1911-1993). Critique du SMI de Bretton Woods, il souligne la difficulté pour une monnaie nationale d’être aussi monnaie internationale : Si le pays émetteur est en excédent courant, la monnaie est forte et donc inspire confiance, mais n’est pas assez abondante pour assurer la croissance des échanges internationaux. A l’inverse, si elle est abondante (résultat d’un déficit courant en particulier), elle le peut, mais sa crédibilité et donc sa valeur internationale est menacée.
Il souffre aussi d’un manque de résilience
Le système va s’effondrer ensuite, du fait de son incapacité à se réformer. La défiance vis-à-vis du dollar conduit à des demandes de conversion en or des avoirs, d’autant plus que celui-ci n’est pas réévalué. En 1961, le « pool de l’or » est destiné à organiser une coopération pour la défense du dollar. Mais cela n’est guère soutenable car les réserves d’or des Etats-Unis diminuent tandis que celles des autres pays industrialisés s’accroissent. En 1968, le pool de l’or s’éteint.
Plusieurs conférences tentent de réparer le système, en particulier en dévaluant le dollar (de 8% en 1971), en élargissant les marges de fluctuations (+/-2.25% aux mêmes accords de Washington), en permettant davantage de réajustements des parités (conférence de Nairobi de 1973) ou en instaurant le flottement des monnaies (accords de Kingston en Jamaïque de 1976). Cependant, avec la décision de Richard Nixon en août 1971 de suspendre la convertibilité or du dollar (l’or est ainsi démonétisé), le système est déjà mort.
Cet échec est une illustration de l’incompatibilité mise en valeur par Robert Mundell (1932-) (Nobel 1999) : La coexistence de la mobilité des capitaux, changes fixes et absence de coopération monétaire semble insoutenable à terme.
Et l’après Bretton Woods ?
En 1976 à Kingston, les différents pays (le G10) prennent deux mesures : la démonétisation de l’or (les banques centrales peuvent malgré tout les conserver en réserves de changes, au prix du marché), l’utilisation d’un nouvel étalon, le droit de tirage spécial. En effet, le FMI conserve une partie de ses réserves en or qui déterminent les quotes-parts des pays membres. Ces quotes-parts sont par ailleurs réévaluées. Dans cette organisation, chaque pays est libre de choisir son régime de change. Cela aboutit officiellement au flottement de la plupart des monnaies. Le prix de ces monnaies va donc fluctuer librement sur le marché des changes, au gré des offres et demandes de chacune des devises. Pour quelques pays, c’est un flottement administré (interventions possibles mais marginales des autorités monétaires sur le marché des changes). Pour certains autres, l’ancrage le dollar (sur l’euro aujourd’hui) est adopté.
Jusqu’à aujourd’hui, c’est donc l’absence de système qui prévaut, ou encore une concurrence entre les monnaies. Certains économistes, comme Milton Friedman (1912-2006) (Nobel 2006), défendent ce fonctionnement, comme étant le plus apte à donner à chaque monnaie sa juste place, à éviter les désordres monétaires inhérents à l’intervention des autorités : Dans un cadre concurrentiel, la monnaie d’un pays « vertueux » est appréciée, celle d’un pays « laxiste » sanctionnée par sa perte de valeur. La monnaie est ainsi une marchandise comme une autre (un outil pour faciliter les échanges) et ne doit pas dépasser ce rôle. Dans un tel système, de coûteuses interventions sont évitées pour les banques centrales, qui peuvent ainsi se concentrer sur l’objectif de stabilité des prix.
Force est de constater que la stabilité monétaire mondiale espérée ne s’est pas réalisée : les crises de change sont nombreuses et parfois graves par leurs implications, depuis les années 1970 : L’on peut citer en particulier pour les pays en développement : 1994 : le Mexique, l’Asie du sud est en 1997, la Russie en 1998, l’Argentine en 2001, la Turquie, le Brésil en 1999 et en 2002… De même, à plusieurs reprises, la concurrence entre monnaies s’est révélée guerre entre les monnaies : « jeu non coopératif » préjudiciable à la croissance économique « optimale ». Chaque crise monétaire grave a fait renaître le débat autour d’un nouveau système monétaire, mais rien n’est aujourd’hui encore né de ces discussions. Les tentatives de coopération pour stabiliser le cours d’une monnaie restent à la fois timides et limitées dans le temps. On peut citer en particulier les accords du Plaza en 1985 pour déprécier le dollar au niveau du G5 (Etats-Unis, Japon, RFA, Royaume-Uni et France). Les accords du Louvre en 1987 mettent fin à ces interventions concertées.
3 - Constitution et fonctionnement du marché mondial des capitaux
Le marché mondial des capitaux a connu dans l’histoire récente une globalisation, autrement dit, un processus par lequel il devient mondial. Cela signifie que, peu à peu, les liens entre capacités et besoins de financement dans le monde se font dans une unicité de temps, d’espace et de prix dans le monde, comme cela est souligné par Henri Bourguinat (1930-) dans son ouvrage Finance internationale en 1999. Le système financier, qui unit marchés, organisations, règles, pratiques, est de plus en plus intégré, ses caractéristiques de plus en plus homogènes à travers les monde.
Un processus aux racines anciennes, mais qui connaît une accélération à partir des années 1980
Des racines séculaires ?
Les historiens font volontiers remonter ce processus au XVIème siècle : L’Europe intensifie alors ses échanges avec le monde arabe et la Chine. Les mouvements de capitaux et leurs vecteurs (acteurs, outils) accompagnent alors les mouvements de marchandises et de personnes.
Malgré tout, le XIXème siècle, qualifié parfois de celui de la « petite globalisation », serait la première grande étape de ce mouvement : les flux de marchandises et de capitaux s’intensifient alors entre Europe et « Nouveau Monde » nord américain. Le sommet atteint à la veille de la première guerre mondiale ne sera ensuite dépassé que plus de cinquante ans plus tard. Guerres mondiales et crises sont associées à des replis protectionnistes. La période de l’après seconde guerre mondiale est caractérisée, elle, par un contrôle des capitaux. Economie et finance sont avant tout pilotées par les Etats, afin d’accompagner la reconstruction puis la croissance économique. Il y a aussi l’épisode de la guerre froide qui sépare le monde en deux blocs.
Une série de mesures phares qui l’accélère
La période d’accélération de ce phénomène est sans doute la décennie 1980, en particulier par les mesures prises pour ouvrir, libéraliser les marchés des capitaux à travers le monde. Quelques événements remarquables : En 1984, la loi bancaire sur l’activité et le contrôle des établissements de crédit signe la fin de la spécialisation bancaire en France. Plus d’établissements ont alors accès à plus de formes de financement. L’encadrement du crédit est par exemple supprimé en 1987. En 1988, c’est la fin du contrôle des changes, la fin du monopole des agents de change, la création de la société des bourses françaises. Pierre Bérégovoy a impulsé en 1985 la modernisation de la place financière de Paris. En 2003, l’AMF, autorité des marchés financiers est créée. En 1996, la loi de modernisation des activités financières est votée. En 2007, c’est la directive européenne sur les marchés d’instruments financiers.
Ce décloisonnement et cette constitution d’un marché financier unifié sont d’autant plus parfaits que les barrières internes sont concernés (fin de la spécialisation bancaire et de la séparation des métiers) comme les barrières externes (contrôle des capitaux aux frontières).
Les autres pays développés adoptent le même type de mesures : C’est ce que l’on a appelé le « big bang » au Royaume-Uni (1986) ou au Japon (2001), pour souligner la rapidité et l’ampleur du phénomène. C’est ainsi qu’en 1986, une loi consacre la cotation électronique ou encore supprime les limitations d’accès au marché des titres de société britanniques pour les étrangers, abolit les commissions fixes limitant les échanges de titres…
Ces mesures ont un objectif commun : atteindre les conditions d’une concurrence pure et parfaite sur les marchés de financement : améliorer la qualité de la circulation de l’information sur les besoins et capacités de financement, créer les conditions d’un accès libre, à moindre coût, à ces marchés, éviter les positions dominantes, rendre les produits financiers interchangeables, « homogènes ».
Soulignons enfin que ces mesures ont été en partie impulsées par les institutions internationales. Des directives européennes encadrent les pratiques des Etats-membres. La réalisation du marché commun en 1993 passe par des marchés financiers intégrés au plan européen. Sur un plan plus mondial, les plans d’ajustement structurels accompagnant les aides financières accordées par FMI et banque mondiale préconisent cette connexion au marché mondial des capitaux. Ces mesures ont été intégrées par John Williamson (1937-) dans ce qu’il qualifie de « consensus de Washington » en 1990.
Une illustration parmi d’autres de cette globalisation : la fusion progressive des entreprises organisatrices de ces marchés : La société des bourses françaises fondée en 1988, devenue ensuite Euronext-Paris S.A. suite à la fusion avec MONEP et MATIF, intègre ensuite les bourses d’Amsterdam, Bruxelles (2000), puis Lisbonne (2002). Elle est après 2007 NYSE-Euronext suite au regroupement avec la bourse de New York. Depuis 2013, un rapprochement de l’ensemble a été réalisé avec l’américain ICE, Intercontinental Exchange.
D’autres causes, notamment technologiques ; nouveaux produits et nouveaux acteurs
La décennie 1990 prolonge la décennie 1980 sur ce plan : la révolution numérique facilite, accélère les transactions, en réduit les coûts. Les financements, les paiements, à travers le monde, deviennent à la fois plus rapides, plus surs et plus nombreux. Certaines mesures accompagnent ces bouleversements technologiques : En 1984, en France, les titres sont dématérialisés ; en 1986, la cotation s’effectue par ordinateur en continu. L’ « unité de lieu et de temps » pour ce marché est ainsi assurée.
Ces marchés ont bénéficié, en partie grâce à la révolution technologique, d’innovations dans les produits, d’acteurs émergents. En 1986, MONEP (marché des options négociables de Paris) et MATIF (marché à terme international de France) sont créés en France. Il s’agit de marchés organisés de « futures ». Ces « futures » sont des contrats destinés à effectuer des transactions dans des conditions fixées à l’avance, à une date donnée. Les options, comme leur nom l’indique, ont la particularité de pouvoir ou non être exercées. Ces outils sont d’abord employés pour se prémunir du risque d’évolution des cours d’un produit. Ils deviennent ensuite moyens de spéculation, achetés, vendus pour eux-mêmes, avec une espérance de gain.
De nouveaux métiers naissent, associés à l’ingénierie financière. De nouveaux acteurs prennent une place plus grande : les investisseurs autres que bancaires : sociétés d’assurance ou fonds d’investissements divers. Les investisseurs institutionnels, surnommés « zinzins » assurent une gestion collective des capitaux, source de sécurité et/ou promesse de rendement pour les épargnants. On peut relever parmi ces acteurs : les fonds de pension, les « hedge funds » ou les « fonds souverains ». Les premiers ont pour objectif de fournir, moyennant cotisations, une rente ou un capital au moment de la retraite : ils visent donc, a priori, des rendements moyens mais surs. Les seconds revendiquent une gestion « alternative », « dynamique », notamment avec un fort effet de levier (usage de fonds empruntés). Les troisièmes correspondent à la nécessité de placer des fonds issus des pays riches en matières premières, ou en tous cas à excédent courant. Tous ces fonds, même si leur politique diffère, ont l’inconvénient de « marquer le marché » par leurs choix. Cette gestion collective de l’épargne est propre à développer des comportements moutonniers déstabilisateurs, à l’origine de bulles spéculatives. La « gestion alternative » est souvent accusée de « court termisme », à la recherche d’ « hyper rendements ». Son exploitation des failles réglementaires, fiscales est également souvent pointée du doigt.
Enfin, au niveau géographique, l’effondrement du bloc de l’est puis l’émergence de certains de ses pays, la montée de nouvelles puissances économiques en Asie complètent cette continuité des marchés financiers : en 24 heures, les marchés s’ouvrent en Extrême Orient puis en Europe et en Amérique du nord… et ainsi de suite jusqu’à concerner tous les fuseaux horaires, en même temps que le monde entier.
Au total, le décloisonnement des marchés financiers (ouverture des frontières entre les différents marchés) est géographique (de plus en plus de pays y sont intégrés), mais pas seulement : il concerne également les différents produits (monnaies, titres) et les différentes échéances (financement à court, moyen et long terme). Les agents économiques arbitrent entre toutes les possibilités qui s’offrent à eux, optimisant financement ou placement.
Deux chiffres pour donner la mesure de ce mouvement : la BRI mesure le degré d’ouverture financière internationale par le poids dans le PIB des actifs et engagements extérieurs des pays : Il se monte au milieu des années 1990 à 150% du PIB mondial, 350% en 2007 (un sommet, juste avant la dernière crise). Si l’on considère en particulier les banques, cet indicateur passe de 30 à 60% du PIB mondial.
Un rapport bénéfices/risques encore en débat
Des bénéfices attendus, leurs fondements théoriques
Cette globalisation, entre autres, est le résultat de politiques menées par les Etats. Cela signifie qu’un bénéfice en est attendu. La théorie orthodoxe établit, en effet, une équivalence entre concurrence pure et parfaite et optimum au sens de Pareto, quel que soit le marché considéré. Ces conditions seraient donc les meilleures au plan collectif : une dérogation pourrait améliorer le sort d’un, mais en dégradant celui d’un autre. La concurrence permettrait les meilleurs produits (innovation incluse) aux meilleurs prix, sur les marchés de financement comme de placement. En particulier, les fonds s’orienteraient vers les formes d’investissement les plus sures et les plus rentables, les destinations, elles-aussi les meilleures.
Harry Markovitch (1927-), (Nobel 1990), souligne dans Portfolio Selection, (1952), que les choix des agents économiques rationnels s’orientent nécessairement vers une optimisation du rapport rendement/risque de leur portefeuille. Cela les conduit à des choix d’actifs diversifiés et cohérents, à l’image de ceux disponibles sur les marchés : Ainsi, pas d’effet de bulle et un rendement anticipé conforme à celui moyen des marchés.
Eugène Fama (1939-) (Nobel 2013) montre en 1970 que les marchés financiers parfaits sont efficients : Le respect des conditions de concurrence pure et parfaite permet aux prix des produits financiers d’être, à tout instant, le reflet des informations disponibles, respectant ses fondamentaux. Les arbitrages des agents économiques entre les différents produits sont donc propres à stabiliser le cours des titres à un niveau correspondant à celui de leurs fondamentaux. En 1998, cet auteur nuance ces premiers propos en établissant une distinction entre efficience faible, semi-forte et forte, sans remettre en cause la cible à atteindre.
Des risques à prévoir
La globalisation financière fait aujourd’hui l’objet de nombreuses critiques. A minima les analystes ont des doutes sur son caractère nécessairement avantageux. Force est de constater que la concurrence plus parfaite sur ces marchés devenus mondiaux, semble aboutir plutôt à la multiplication des incidents qu’à des transactions auto stabilisatrices, comme le montrent les récentes crises financières.
Un titre financier est un produit particulier en ce sens qu’il est une promesse de revenus futurs (de même un titre de dette correspond à une anticipation de coûts). Son achat, sa vente sont donc particulièrement soumis aux anticipations des acteurs. John Maynard Keynes (1883-1946) en particulier nous souligne l’extrême difficulté de ces prévisions, soumises à une incertitude qualifiée de « radicale » ou non probabilisable. Ce doute incite à des comportements mimétiques (comme je ne sais pas de quoi l’avenir sera fait, je copie les autres en espérant qu’ils sont mieux informés) ou à la prolongation de comportements présents. Le prix d’un actif sera alors donc plus un reflet des anticipations médianes des acteurs que celui des fondamentaux de l’actif considéré. C’est ce que cet auteur nous explique dans la métaphore du concours de beauté.
Joseph Stiglitz (1943-) (Nobel 2001), dans la continuité de ses travaux sur les asymétries d’information, montre également que les opérateurs sur les marchés financiers peinent à évaluer les actifs financiers. Ainsi, l’allocation optimale des ressources est rendue difficile : les fonds ne sont pas toujours orientés là où ils devraient l’être, les signaux ne sont pas toujours efficaces. De même, les coûts d’information (liés à leur technicité par exemple) génèrent des formes de sélection adverse : les « bons risques » sont chassés du marché.
Ces difficultés sont accentuées par la complexité des nouveaux instruments financiers : On peut citer en particulier la titrisation, qui allège le risque en le segmentant, au prix d’une médiatisation de la relation de financement et de sa plus grande opacité. De même, la gestion collective induite par les investisseurs institutionnels, destinée à minimiser le risque, aboutit pourtant à la multiplication des comportements moutonniers, massifs. Loin d’être diversifiés, les portefeuilles se révèlent en moyenne polarisés. L’usage des produits dérivés, quant à lui, se révèle moins protecteur que déstabilisateur, par l’effet de levier auquel il incite. L’usage des nouvelles technologies, qui rend les échanges plus rapides, peut aussi en accentuer l’ampleur des effets.
Il existe également un risque associé au cycle de vie et aux déséquilibres mondiaux. Les âgés, plus présents dans les pays du nord doivent être financés par les pays émergents plus jeunes, plus actifs. (Un indicateur parmi d’autres : Aujourd’hui les banques centrales détiennent environ deux tiers des réserves de change mondiales, une situation inverse par rapport à celle des années 1990). Les déséquilibres des balances courantes ont ainsi tendance à s’amplifier en prenant un caractère structurel (déficits européens ou américains contre excédents chinois par exemple). Cela entraine des transferts d’épargne importants, non neutres sur la stabilité financière mondiale. Les pays émergents sont également des marchés plus jeunes, moins régulés.
Par ailleurs, les mesures de régulation de ces marchés elles-mêmes posent des difficultés en induisant des comportements problématiques : En particulier, la protection de certaines institutions génératrices de crises systémiques peut conduire à leur prise de risque excessif, c’est un cas d’aléa moral.
La stabilité financière peut être lue comme un bien public : non exclusif et non rival : Il est difficile d’en privatiser l’accès, le nombre de ceux qui en bénéficie n’est pas un handicap. Par conséquent, personne ne voudra, sauf contrainte externe, en supporter le coût. Il y aura intérêt au comportement de passager clandestin : ne pas appliquer les mesures qui la permettent, tout en bénéficiant de leurs effets.
Des crises financières qui se multiplient et s’amplifient
Autre critique : la globalisation financière ne permettrait pas une allocation optimale des ressources financières dans le monde. Comme pour la mondialisation, il existerait des gagnants et des perdants. Dans le second groupe figurerait en bonne place les pays en développement à la fois touchés de façon plus fréquente et également moins résilients.
Quoi qu’il en soit, Charles Kindleberger, dans son Histoire mondiale de la spéculation financière de 1700 à nos jours (1994), montre combien les crises financières vont de pair avec l’organisation du système financier dans le monde. Puisque le système financier commence à s’instituer en Hollande, Grande-Bretagne, Allemagne et France au XVIIème et XVIIIème siècle, les premières crises s’y déroulent, comme celle sur les bulbes de tulipes à Amsterdam.
Krachs boursiers (effondrement du cours des actifs), crises de change (baisse brutale de la valeur d’une ou plusieurs monnaies), crises bancaires (avec ou non panique bancaire) ou crises « jumelles » (banques et changes) voient leur ampleur augmenter ces dernières décennies : L’on peut citer en particulier : Crise du SME en 1992-1993, Crise mexicaine en 1994, Crise asiatique en 1997, puis crise russe, e-krach en 2000 qui touche les pays industrialisés…. jusqu’à la crise des subprime en 2008, puis celle de la dette souveraine en Europe en 2010 débouchant sur la « Grande Récession » aujourd’hui, véritable crise mondiale. Dans Pourquoi les crises reviennent toujours (2009), Paul Krugman (1953-) (Nobel 2008) nous montre d’ailleurs les mécanismes qui en font une menace sans cesse renouvelée.
Face à ce constat, deux explications sont possibles : soit il s’agit d’effets d’apprentissage : la situation tendra à s’améliorer lorsque les agents apprendront à maîtriser le fonctionnement de la finance moderne. Soit il s’agit d’instabilité intrinsèque. Pour cette dernière interprétation, des réformes de plus grande ampleur sont à envisager.
Une régulation souhaitable, souhaitée, mais délicate
Des mesures possibles
Elles peuvent être classées en deux catégories : celles destinées à prévenir les crises, ce qui implique de bien comprendre comment elles surviennent, celles pour en atténuer ou corriger les effets négatifs.
Ceux qui pensent la mondialisation financière comme globalement favorable insistent sur l’importance de l’information : la rationalité des agents ne peut être opératoire que si les agents économiques décident en connaissance de cause. Les risques encourus doivent être aussi correctement appréciés, interprétés. La question sous-jacente est celle des normes comptables. Il faut établir des règles de publicité, des organismes assurant la diffusion de l’information, ainsi que la sanction des contraventions aux règles imposées. Au niveau national, c’est la fonction de l’AMF (autorité des marchés financiers) en France ou de la SEC (Securities and Exchange Commission) aux Etats-Unis. C’est aussi le rôle des agences de notation, dont il convient de s’assurer de l’indépendance, comme de la compétence, de l’impossibilité d’être à la fois juge et partie. Au niveau international, ce genre de mesures pose des difficultés spécifiques : Quelles sont les institutions légitimes dans ces différents domaines ?
Il s’agit également de s’assurer que les agents économiques ne prennent pas de risques excessifs. C’est le sens des ratios dits « prudentiels » imposés aux banques comme le ratio de solvabilité « Cooke » (ratio de fonds propres sur les créances contractées) défini par le comité de Bâle sous l’égide de la Banque des Règlements Internationaux. Autre possibilité ouverte : mieux assurer les dépôts bancaires, là aussi pour limiter les engagements bancaires. Enfin, certains ont proposé une séparation des types d’activité des banques pour isoler les risques engendrés par certaines de leurs activités. Il s’agit également d’éviter que les rémunérations des opérateurs de marchés n’incitent pas à la prise de risque (calcul des bonus en particulier).
Si les banques classiques sont déjà concernées par un certain nombre de règles, c’est moins le cas de certains fonds ou encore des marchés dits de dérivés, sur lesquels de nombreuses opérations relèvent la liberté contractuelle et sont donc non, ou moins réglementées.
Les économistes néokeynésiens proposent quant à eux, à la suite de James Tobin (1918-2002) (Nobel 1981), d’établir une taxe sur certains mouvements de capitaux considérés comme plus nocifs que bénéfiques. Des contrôles des mouvements financiers sont aussi envisageables. Certains avancent que cette voie serait nécessaire en particulier pour les pays en développement, d’autres mesures étant plus complexes à mettre en œuvre dans un environnement institutionnel fragile.
Ces mesures préventives posent néanmoins des difficultés : Des agents économiques « assurés » ne vont-ils pas prendre davantage de risques ? C’est la délicate question de l’aléa moral. Par ailleurs, ces dispositions nécessitent, pour être efficaces, un système financier unifié. L’existence de paradis fiscaux ou réglementaires, de « black markets » remet en cause cette hypothèse. Certains agents économiques, certains fonds en particulier sont opaques à ces réglementations, certaines opérations dites « de gré à gré » y échappent également. Une taxation est elle-aussi complexe à mettre en œuvre : quels mouvements peuvent être considérés comme nocifs et donc à taxer ? Quel montant est souhaitable ? Qui collecte et sanctionne ?...
Quid des mesures à adopter pour éviter l’enlisement de la crise lorsqu’elle survient ? Michel Aglietta (1938-) en particulier souligne la nécessité de l’existence d’un prêteur en dernier ressort international. Ce rôle est habituellement dévolu au niveau national à la banque centrale : Il s’agit de prêter à l’économie lorsque le système bancaire ou financier classique n’est plus capable de la faire, soit par défaut, soit par défiance. Cette mesure assure alors que la crise financière ne se propage pas à l’ensemble de l’économie (la crise devient systémique). Il reste à déterminer là aussi, quelle institution serait en mesure de le faire. Le FMI a déjà joué ce rôle dans les années 1990, mais ses moyens sont limités, sa légitimité également.
Des tentatives pour y parvenir
Lors de la crise récente, les premières mesures qui ont été prises ont été curatives. Les banques centrales, les institutions financières internationales se sont concertées pour assurer aux économies les liquidités nécessaires pour éviter une crise réelle de trop grande ampleur, dès 2007, puis en 2008. Les pouvoirs publics des économies concernées ont mené, quant à eux, des politiques de relance budgétaire combinées à des prêts bonifiés à l’économie, ou au rachat de certains actifs pour les secteurs d’activités jugés stratégiques, comme le secteur de l’immobilier ou le secteur automobile. Par la suite, les mesures concertées se sont estompées au profit d’autres, combinant politiques monétaires accommodantes et modération budgétaire. Le risque reste encore ici celui de l’ « aléa moral ». C’est la ligne qui semble prévaloir aujourd’hui.
Au niveau européen par exemple, la banque centrale a adopté des mesures de « quantitative easing », comme la FED ou la banque d’Angleterre. Le mécanisme européen de stabilité a par ailleurs permis à partir de 2011 de venir en aide aux Etats les plus touchés par la crise de la dette souveraine.
Si l’on examine les mesures préventives, au niveau national, les Etats se sont d’abord attachés à renforcer les pouvoirs de leurs autorités de réglementation (AMF en France) dans tous les domaines considérés comme auparavant mal pris en compte (agences de notations, fonds spéculatifs, produits dérivés…). Certains pays (Allemagne, Grande-Bretagne, France…) se sont attachés à séparer activités « d’affaires » et de « de dépôt » des banques, à l’image du Glass-Steagall Act américain de 1933. Mais ces dernières mesures restent complexes à mettre en œuvre, notamment parce que cette distinction est moins évidente qu’il n’y paraît. La France a fait en particulier le choix d’une filialisation de certaines activités bancaires en 2013.
Dans le cadre européen, les mesures d’Union Bancaire appliquées en particulier à partir de 2014 (décision prise par les Etats ayant adopté l’euro en juin 2012), visent, entre autres, à homogénéiser et fiabiliser les réglementations touchant les banques des pays membres (fonds propres, garanties de dépôts…). Ces mesures mettent l’accent sur les établissements les plus propres par leur taille, à générer des risques systémiques. Par son mécanisme de résolution unique (MRU), cette Union Bancaire assure également une réaction commune en cas de crise.
Au niveau international, la question déterminante est celle de l’institution légitime, tant pour réglementer, que pour faire appliquer la réglementation adoptée. Le G20 a été le lieu d’un certain nombre de discussions, de mises en chantier, mais ce groupe n’est pas une institution internationale susceptible d’imposer des normes à ses membres. Par exemple, le rôle du Conseil de Stabilité Financière n’est pas assuré. Une avancée quoi qu’il en soit, en 2009, plusieurs listes de « paradis fiscaux » ont été établies (gris clairs, gris foncés et noirs), pouvant générer des mesures de défiance de la part des Etats, incitant les pays stigmatisés à devenir coopératifs.
De son côté la Banque des Règlements Internationaux par son comité de Bâle, a peu à peu complexifié ses ratios prudentiels (ratio Cooke en 1988, ratio Mac Donough en 2007, entrée en vigueur de Bâle III en 2013).
Mais des difficultés non surmontées
Les chantiers en cours sont légion : réglementation de l’activité de certains acteurs (fonds spéculatifs comme agence de notations, opérateurs sur marchés de dérivés…), de certains pays (paradis fiscaux ou réglementaires), taxe sur les mouvements spéculatifs…
Pierre-Noël Giraud (1949-) souligne dans son ouvrage de 2008 La mondialisation, Emergences et fragmentations les difficultés spécifiques de la décision politique au niveau mondial. Plusieurs grands domaines nécessitent une coopération : commerce international, SMI et finance, migrations, biens publics mondiaux, politiques macroéconomiques. Dans ces différents domaines, il y a un gain collectif en même temps qu’une faible incitation individuelle à prendre des mesures contraignantes. Des institutions nouvelles sont-elles nécessaires ? Un gouvernement mondial serait-il envisageable ? Efficace ? Il le faudrait alors le plus « démocratique » possible, avec l’impossibilité de prendre des décisions à l’unanimité. Selon l’auteur, ce sont surtout les nouvelles « fragmentations » issues du processus de mondialisation qui rendraient les choses particulièrement délicates. A suivre donc…