Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
eco-medie.over-blog.com

Blog consacré à l'économie et l'économie politique

L'économie politique néoclassique, fait-elle l'apologie du capitalisme ?

L'économie politique néoclassique, fait-elle l'apologie du capitalisme ?

Depuis le troisième quart du dix-neuvième siècle, l’école néoclassique domine impérialement la théorie économique. Son origine remonte à l’énoncé de la théorie de l’utilité marginale par Jevons et Menger (1871) ainsi que Walras (1874), quoi que des précurseurs les aient devancés. Depuis longtemps, son hégémonie est presque totale.

Elle se voit régulièrement reprocher que ses lois économiques soutiennent le système économique capitaliste ou à tout le moins l’économie de marché. C’est en tout cas la thèse marxiste[1], mais elle est partagée bien au-delà de ce cercle.

 

[1] Les marxistes ont une raison particulière d’en vouloir à l’école néoclassique. C’est elle qui a rejeté la théorie de la valeur-travail hors de l’économie politique.

La question économique et sociale est au centre de la politique, raison pour laquelle il est rare qu’un économiste soit dénué d’opinions politiques. Mais tous les économistes néoclassiques, sont-ils de droite ? La réponse est négative. Quelques unes des grandes figures qui ont œuvré au développement de cette école avaient des idées de gauche : Philip Wicksteed (1851-1927), Knut Wicksell (1851-1926), Abba Lerner (1903-1982), Oskar Lange (1904-1965), Joan Robinson[1] (1903-1983). Frank Knight (1885-1972) n’a pas la réputation d’être à gauche, mais ses « Ethics of Competition » constituent une critique au vitriol de l’esprit du capitalisme et de son idéologie.

Répondre à notre question implique de distinguer l’économie positive et l’économie normative. On entend régulièrement des responsables de la sphère politiques ou socioéconomique en appeler au respect des « lois de l’économie » qui s’imposent aux processus sociaux et qui les punissent inexorablement lorsque ceux-ci manquent de discipline. Manifestement, les lois invoquées jugent négativement tout ce qui s’apparente à de la générosité sociale ; elles semblent généralement plus soucieuses du bien des possédants que de celui des moins nantis. Mais ce discours reste généralement très vague sur ces lois : que disent-elles précisément, quelles sont les conditions de leur validité ? Cet appel aux lois paraît plus partisan que scientifique. L’économie positive, quant à elle, n’a pas pour objet de distribuer des bons et des mauvais points. Elle énonce effectivement des lois, sous la forme de théorèmes. Partant d’hypothèses, ceux-ci apportent une démonstration à une thèse. Le plus souvent, la forme d’expression est mathématique. Pour la clarté, cette méthode comporte un avantage et un inconvénient. L’avantage est d’exprimer les hypothèses explicites de la façon la plus claire. L’inconvénient, c’est que les hypothèses implicites sont au contraire enfouies dans une espèce de néant presque insondable. Le technocrate qui émet des jugements normatifs est censé transposer à l’adresse de l’économie réelle des conclusions pêchées de façon pertinente dans l’économie positive. Il y a donc forcément une dose d’interprétation, un choix de ce qui semble le théorème le plus pertinent au vu de la situation à analyser, situation qui doit être proche des hypothèses du modèle. Lorsque le discours technocratique s’adresse à un béotien, celui-ci n’est pas armé pour apprécier de façon critique le passage du positif au normatif qui lui est asséné.

Notre objet n’est pas l’économie normative, magma infini d’avis, de propositions, de conseils, de recommandations, de remontrances en tous genres. Nous nous attacherons ici à l’économie positive en tant que corpus de connaissance scientifique[2]. Ses théorèmes n’étant pas directement normatifs, la question est de savoir si certains d’entre eux suscitent une interprétation concluant à la justice du capitalisme, à son harmonie ou à son efficacité, si la conclusion politique est latente dans le théorème.

Pour conduire cette investigation, il nous faut distinguer le cas de la microéconomie (analyse des actions des agents économiques et de leurs interactions) de celui de la macroéconomie (analyse globale de l’économie). La première se prête mieux à l’idéologie, car elle est plus abstraite, plus théorique, donc plus idéale dans tous les sens du terme. La seconde, plus concrète, inclut la monnaie et l’action du gouvernement et s’intéresse aux effets de la politique économique. Les principes essentiels du capitalisme, l’entreprise, le marché, la rémunération des facteurs de production relèvent de la microéconomie. La macroéconomie comporte une autre particularité qui la distingue de sa discipline sœur : elle est traversée depuis 1936 par une division entre deux courants antagoniques : le keynésianisme et la macroéconomie classique. Le premier qui admet la possibilité d’un équilibre de sous-emploi et appelle à l’intervention de l’Etat ne peut être suspecté d’apologie du capitalisme. Les défenseurs inflexibles du capitalisme rallient le camp opposé, celui qui prêche le « laisser faire, laisser passer ». On trouve des économistes néoclassiques dans les deux camps. De grands économistes comme John Hicks (1904-1985), Paul Samuelson (1915-2009), Robert Solow (1924-) ou Gregory Mankiw (1958-) étaient ou sont à la fois néoclassiques et keynésiens[3].

 

[1] Qui contribuera grandement au marginalisme avant d’opter pour l’hétérodoxie.

[2] Je suis de ceux qui contestent que les sciences humaines soient scientifiques sur le même pied que les sciences naturelles, mais j’accepte de les qualifier de « sciences », vu que ces deux types de disciplines partagent un certain nombre de caractéristiques communes.

[3] Le keynésianisme est divisé en plusieurs sous-écoles. Certaines sont plus keynésiennes que d’autres.

1- microéconomie

J’examinerai deux thèses de la microéconomie néoclassique qui semblent potentiellement apologétiques :

  • L’affirmation qu’il existe un équilibre général et qu’il est optimal
  • La détermination de la rémunération des facteurs selon la productivité

Pour chacune d’elles, je tenterai de répondre à deux questions :

  • En quoi sert-t-elle le capitalisme ?
  • La démonstration du théorème concerné, n’est-elle pas tellement artificieuse, tirée par les cheveux qu’on pourrait interpréter cet acharnement comme révélateur d’une intention apologétique ?

1.1- L’équilibre général

L’équilibre général, c’est l’égalité entre l’offre et la demande qui s’établit simultanément sur tous les marchés tant des biens que des facteurs. Son caractère optimal, signifie que sa réalisation permet à chaque acteur de maximiser l’utilité qu’il obtient en échangeant des biens et facteurs de son panier initial. Le premier économiste qui en a eu l’intuition et en a tenté une démonstration est Walras (1874). So modèle transpose l’économie dans un système d’équations simultanées ; la démonstration de l’équilibre consiste à relever que le nombre d’inconnues est égal au nombre d’équations. Elle est bancale du point de vue mathématique, cette condition n’étant ni suffisante ni nécessaire. Dès les années 1930, des économistes mathématiciens, appelés « néo-walrassiens » cherchent de nouvelles voies, ce qui mène finalement à la fameuse démonstration de Kenneth Arrow (1921-2014) et Gérard Debreu (1921-2004) en 1954, basée sur des outils mathématiques complexes.

Cette théorie, sert-elle le capitalisme ?

Adam Smith, grand économiste de l’école classique, écrivait en 1776 :

 “by directing that industry in such a manner as its produce may be of the greatest value, every individual intends only his own gain, and he is in this, as in many other cases, led by an invisible hand to promote an end which was no part of his intention. (…) By pursuing his own interest he frequently promotes that of the society more effectually than when he really intends to promote it”.[1]

Cette phrase exprime l’idée que l’économie de marché favorise l’intérêt général même sans intervention publique. Les économistes néo-walrassiens considèrent que leur modèle confirme de façon savante l’intuition de Smith.

Il convient toutefois d’apprécier correctement ce que dit le théorème. Il s’agit d’un modèle statique. Le progrès technique est donc absent. L’économie néoclassique postule une conception de la concurrence qu’elle qualifie de « parfaite » et qui signifie que les acheteurs et les vendeurs (nécessairement très nombreux sur chaque marché) sont de taille négligeable de telle façon que leurs décisions prises individuellement sont incapables d’influencer le prix. Il est clair que si deux siècles de capitalisme industriel ont autant accru le revenu, ce n’est pas ce théorème qui peut l’expliquer. Cette citation de Josef Schumpeter (1883-1950), pourtant lui aussi d’inspiration néoclassique, l’exprime de manière percutante :

“But in capitalist reality as distinguished from its textbook picture, it is not that kind of competition that counts but the competition from the new commodity, the new technology, the new source of supply, the new type of organization (…) This kind of competition is as much more effective than the other as a bombardment is in comparison with forcing a door and so much more important that it becomes a matter of indifference whether competition in the ordinary sense functions more or less promptly” [2]

Que reste-t-il alors de positif du théorème de l’équilibre et l’optimum dans un contexte walrassien ? Il reste que l’économie de marché ne gaspille pas les ressources. A partir d’une quantité de ressources disponibles, elle tire le meilleur parti compte tenu des connaissances techniques en vigueur. Mais les conditions du théorème sont compatibles avec une société pauvre à l’optimum walrassien et une société riche en dehors de cet optimum.

Y a-t-il un lien entre l’optimum et la justice de la répartition du revenu dans la société ? La conception de l’optimum qui prévaut est celle qu’introduisit Vilfredo Pareto (1848-1923), disciple et successeur de Walras à l’école de Lausanne. Il y a optimum lorsque l’ensemble des échanges conduit à une situation où il est impossible d’encore augmenter l’utilité d’un agent sans devoir diminuer celle d’un autre agent. Il s’agit donc toujours d’un optimum par rapport à une répartition initiale des ressources qui est donnée. L’optimalité parétienne est relative et elle ne juge donc pas les répartitions. Mais Lange et Lerner, disciples de Pareto, ont démontré qu’à partir de toute répartition initiale, un optimum de Pareto est accessible. Le leçon politique qu’on peut en tirer est que le gouvernement qui veut influencer la répartition du revenu doit effectuer des transferts plutôt qu’altérer le fonctionnement des marchés mais que ces redistributions auront leur propre optimum de Pareto. Cette conclusion devrait plutôt convenir aux partis de gauche.

Y a-t-il acharnement démonstratif ?

Les hypothèses sont-elles raisonnables ? Voici les plus importantes :

    • Pour chaque firme, convexité de l’ensemble de ses plans de productions faisables. La convexité est une propriété purement mathématique mais sa traduction économique n’est pas insignifiante, car elle exclut les rendements d’échelle croissants.
    • Les préférences des ménages quant aux paniers de consommation[3] sont convexes et la saturation est exclue. Cette hypothèse est plausible.
    • La concurrence est « parfaite » au sens expliqué ci-avant. C’est une hypothèse fortement irréaliste. Sur la plupart des marchés réels, le nombre de firmes est insuffisant par rapport à ce critère. Cela ne signifie pas qu’il n’y a pas de concurrence mais que le modèle de concurrence ne capture pas correctement le comportement concurrentiel des entreprises.
    • L’incertitude est une caractéristique essentielle de la vie économique. Arrow et Debreu ont une façon très particulière de l’intégrer dans leur modèle. Leur équilibre est intertemporel dans le sens où se jouent en une fois les prix et les échanges jusqu’à la fin des temps. Chaque bien à chaque date est un marché à équilibrer. Le nombre de marchés est donc immense et l’est d’autant plus qu’il y a un marché distinct pour chaque état contingent du monde à chaque date. La réalité économique présente évidemment toujours une structure incomplète de marchés. En outre, les agents du modèle sont des surhommes capables de déterminer pour chaque date pour chaque état contingent quelle quantité de tous les biens ils offrent ou demandent aux différents prix proposés. Bref, ce modèle ne rend pas compte de l’incertitude telle qu’elle sévit dans l’économie réelle.
    • A côté de ces hypothèses explicites, il y a l’hypothèse implicite que des courbes de demande individuelles décroissantes par rapport au prix, lorsqu’elles sont agrégées pour constituer la demande du marché, produisent une courbe de demande agrégée également décroissante par rapport au prix. Mais au début des années 1970, les économistes Sonnenschein, Debreu et Mantel se rendirent compte que ce n’est pas le cas, que la courbe agrégée pouvait fort bien revêtir des formes diverses. Ce résultat, connu comme le « théorème SDM » dérange les économistes néoclassiques qui lui laissent peu de place dans leur exposé.

Je laisse au lecteur le soin de juger si les hypothèses ne sont pas choisies pour « forcer » le résultat.

Supposons que malgré les difficultés, il existe un ensemble de prix qui équilibre tous les marchés. Pour que l’économie soit équilibrée, il ne suffit pas que l’équilibre existe en théorie, il faut encore que l’économie trouve le chemin vers cet équilibre. Ce problème est connu sous l’appellation « stabilité de l’équilibre », qui signifie que lorsque l’économie est hors de l’équilibre, les forces du marché tendent à l’y amener. L’astuce de Walras consiste à postuler l’existence d’un commissaire-priseur qui crie les prix sur tous les marchés et par essai-erreur les corrige en fonction des déséquilibres constatés jusqu’à ce que tout déséquilibre ait disparu. Les échanges réels ne commencent qu’à ce moment, car tout échange hors équilibre est proscrit du modèle. L’absence de ce commissaire dans l’économie réelle y rend l’émergence de l’équilibre plus difficile que dans le modèle walrassien. Mais supposons qu’un bouleversement institutionnel mette un commissaire aux commandes de l’économie. Peut-il se forger une règle de conduite dont l’application le mènerait sûrement à l’équilibre ? Les recherches en cette matière furent décevantes en ce sens que les conditions nécessaires à la stabilité s’avèrent irréalistes.

Depuis plus d’un siècle, le commissaire walrassien, tel un fantôme, hante l’économie politique, car la théorie néoclassique peut difficilement se passer de lui. Une alternative à son intervention a toutefois été conçue par Francis Edgeworth (1845-1926) et reprise par Debreu et Scarf dans les années 1960. L’idée est que si les nombreux intervenants sur le marché constituent des coalitions de plus en larges entre eux, ils parviendront à « bloquer » tout échange dont le prix ne serait pas le prix d’équilibre. Ici aussi, il est difficile de reconnaître le fonctionnement de l’économie réelle.

Concluons avec mon avis sur l’équilibre général ; il doit exister dans la réalité un « presque-équilibre » presque stable pour autant qu’on exclue toute considération macroéconomique (comme le cycle conjoncturel). Le mouvement économique est généralement perçu comme source de déséquilibre, mais je crois que c’est lui qui maintient l’économie en presque-équilibre.

 

[1] Smith, An Inquiry into the Nature and Causes of The Wealth of Nations, Methuen 1904 London p.421

[2] Schumpeter, Capitalism, Socalism and Democracy, Routledge 1976 London p.84

[3] Le travail est traité comme les autres biens. Les agents disposent d’une allocation quotidienne de 24 heures. Le travail offert est la différence entre ces 24 heures et le temps consommé.

1.2- La rémunération des facteurs

L’économie néoclassique considère les facteurs de production sur le même pied que les produits et services. Leur rémunération est donc un prix d’équilibre entre une offre et une demande.

  •  
  • Offrir du travail ou du capital est considéré comme un sacrifice dont le poids augmente avec la quantité offerte.
  • Offrir son temps pour travailler réduit l’utilité générale du ménage en diminuant le temps gardé pour soi.
  • Dans un premier temps, l’épargne, c’-à-d. l’offre du capital, était assimilée à de l’abstinence, mais depuis Eugen von Böhm Bawerk (1851-1914), le concept d’attente a remplacé celui d’abstinence. L’épargne est conçue comme une consommation différée, qui représente un sacrifice puisque nous sommes censés préférer une consommation présente à une consommation égale dans le futur. C’est la fameuse hypothèse de la préférence pour le présent, parfois encore appelée impatience.
  • La loi de la productivité marginale décroissante affirme que plus on engage d’un facteur en maintenant constante la quantité des autres, moins les différentes unités ajoutées seront productives. L’entreprise n’a donc pas intérêt à payer tel facteur plus que la valeur de sa productivité marginale (celle de la dernière unité active), sinon sa présence serait génératrice de pertes. Mais la concurrence entre les entreprises amènera la rémunération à ne pas être inférieure non plus, sinon engager plus mènerait à un gain. La courbe de demande d’un facteur de production correspond donc à sa courbe de productivité marginale en valeur (quantité multipliée par le prix de vente).

Si tout cela est correct, la conclusion s’impose que toute rémunération est égale à la productivité marginale de celui qui la reçoit. Ce qui ne signifie pas que la productivité marginale détermine la rémunération, puisqu’elle-même est fonction de la quantité du facteur qui dépend de son prix. Il s’agit plutôt d’une détermination commune dans le cadre de l’équilibre général.

Le concept d’impatience est devenu un des piliers de l’économie néoclassique et s’est invité dans la théorie de l’équilibre général, puisque celle-ci est devenue intertemporelle avec des marchés futurs aussi bien que des marchés présents. L’impatience amène les prix futurs à être inférieurs aux prix présents pour un bien identique. Telle est la base sur laquelle est bâtie la théorie moderne de l’intérêt.

La théorie de l’attente, sert-elle le capitalisme ?

Elle apporte une couverture idéologique dans la mesure où la rémunération du capital doit être justifiée. En quoi sa justification, serait-elle problématique ? La théorie marxiste y voit de l’exploitation. Mais pour des raisons que j’ai exposées dans d’autres articles, la théorie de la plus-value n’est pas pertinente.

L’inégalité dans nos sociétés est certes injuste, mais elle est due à la mauvaise répartition des patrimoines, un fait que la théorie de l’attente ni ne cautionne ni ne critique. Beaucoup d’auteurs, notamment Pareto, Böhm Bawerk, Cassel ont d’ailleurs fait valoir très justement que sous une forme ou sous une autre, l’intérêt devrait subsister dans une société socialiste, car l’attente des résultats d’un investissement représente un coût social dont le planificateur devrait tenir compte.

La théorie de la productivité marginale, sert-elle le capitalisme ?

Certains s’en sont servis, sans aucun doute. Mais aucun grand économiste n’a franchi le pas consistant à prétendre explicitement que chacun est rémunéré selon son mérite, car la productivité n’est pas synonyme de mérite et la productivité marginale encore moins. La productivité marginale est en effet influencée par une multitude de facteurs liées au contexte socioéconomique, par exemple à l’évolution démographique.

John Bates Clark (1847-1938), le principal initiateur de cette théorie, fut très proche de franchir le pas lorsqu’il écrivit : “The right of Society  to exist in its present form, and the probability that it will contribute so to exist, are at stake”[1]. Il prétendit même que sa loi fournit la raison de n’être pas socialiste. Mais la plupart des économistes néoclassiques se montrèrent plus prudents. En témoignent ces deux citations :

Frank Knight: “The income doesn’t go to factors but to their owners and can in no case have more ethical justification than has the fact of ownership. The ownership of personal or materiel productive capacity is based upon a complex mixture of inheritance, luck and effort, probably in that order of relative importance. What is the ideal distribution from the standpoint of absolute ethics may be disputed, but of the three considerations named certainly none but the effort can have ethical validity”[2]

Cobb et Douglas: “…even if there were precise correspondence, it (NDLR: le résultat de leur analyse) would not furnish any light upon the question as to whether capital for example should be privately owned to the degree to which it is in our society. For while capital may be “productive”, it does not follow that the capitalist always is.”[3] 

Y a-t-il acharnement démonstratif ?

Il y aurait beaucoup à dire quant à la crédibilité de la préférence pour le présent[4]. Mais je me contenterai d’analyser le rapport des économistes néoclassiques à la productivité marginale. Voyons d’abord si ses hypothèses sont raisonnables ? Voici les plus importantes :

  1. Commençons avec la principale, qui met en œuvre le concept de fonction de production. C’est ainsi que les économistes appellent la fonction qui exprime sous une forme mathématique la dépendance de la quantité produite par rapport aux quantités des facteurs de production ; il s’agit donc d’une fonction à plusieurs variables (une par input). Dès 1894, Wicksteed avait prouvé que les dérivées partielles de cette fonction correspondaient aux productivités marginales des facteurs. Il s’était également posé la question dite de l’épuisement du produit : en rémunérant tous les intervenants à leur productivité marginale, épuise-t-on exactement la valeur du produit ? En fait, la réponse n’est positive que si la fonction de production a une propriété bien définie : elle doit être homogène de degré un. Ce charabia mathématique correspond à une situation économique concrète : les rendements d’échelle[5] doivent être constants. Lorsqu’ils sont croissants, il y a un résidu négatif (perte) ; lorsqu’ils sont décroissants, il y a un résidu positif (gain). Ce résidu échoit à l’entrepreneur. Le facteur de production qui est entrepreneur (généralement le capital) gagnera donc une rémunération différente de sa productivité marginale lorsque les rendements d’échelle ne sont pas constants.
  2. On l’aura compris, la variabilité des facteurs est essentielle. D’abord, la productivité marginale ne détermine la rémunération d’un facteur que si l’entreprise peut faire varier sa quantité. S’il est fixe par nature, comme le CEO nécessairement unique, sa rémunération échappe forcément à cette explication. Ensuite les proportions des facteurs doivent pouvoir varier infinitésimalement, sinon la productivité marginale n’est pas définie (elle est alors comprise dans une fourchette de valeurs).

 Or à court terme, il y a toujours des facteurs fixes ou semi-fixes. La loi ne serait valide que sur le long terme. Dans ces conditions, elle ne peut pas déterminer précisément les rémunérations dans le monde réel.

  1. La concurrence parfaite est nécessaire, tant sur le marché des facteurs que sur celui du produit. Arthur Cecil Pigou (1877-1959) et Joan Robinson ont analysé les cas non concurrentiels ; il s’avère que la rémunération s’y écarte de la productivité marginale. Tous deux usèrent du terme « exploitation du travail » pour qualifier les cas où le salaire est inférieur à la valeur de la productivité marginale.

Il importe aussi de savoir que la théorie de la productivité marginale a des rivales. Ainsi, une branche particulière de l'école néoclassique, l'école autrichienne, considère que la rémunération du capital ne correspond pas à sa productivité marginale, mais à la productivité marginale de l’allongement de la période de production[6]. Wicksell, héritier de Böhm Bawerk (le fondateur de cette tradition), a démontré mathématiquement que les deux ne concordent généralement pas. Sur base des travaux de Wicksell et de l’école de Cambridge, Bhaduri a démontré que la rémunération du capital n’égale sa productivité marginale que si l’intensité en capital est identique dans tous les secteurs de production, une condition totalement irréaliste.

Le salaire a lui-aussi fait l’objet d’explications qui l’éloignent de la productivité marginale. Deux travaux bien connus partent de l’idée que l’entreprise peut s’en servir comme d’un incitant : le salaire d’efficience de Shapiro et Stiglitz et les tournois de Lazear et Rosen[7].

Y a-t-il eu des travaux empiriques pour valider la théorie de la productivité marginale ? Oui. Commençons avec le plus connu qui est également le plus ancien. En 1928, l’économiste Paul Douglas et le mathématicien Charles Cobb supposent une forme mathématique spécifique (homogène de degré un) qui devrait être celle de la fonction de production agrégée de l’industrie manufacturière aux Etats-Unis. Ils vont la tester statistiquement sur les indices de la production, de l’emploi et du capital investi de 1899 à 1922. Leur fonction est astucieuse, car elle compte parmi ses paramètres les parts du salaire et du profit dans le revenu total (posées à respectivement 3/4 et 1/4) qui sont directement liées à la productivité marginale du travail et du capital. La corrélation assez bonne entre l’indice de production calculé par la fonction et l’indice réel mènent Cobb et Douglas à conclure à la validité de la théorie de la productivité marginale ; ils doivent néanmoins reconnaître que la corrélation entre les indices des salaires observés et la productivité marginale du travail calculée se révèle assez faible, ce qui ne semble pas troubler leur optimisme. Autre motif de satisfaction : d’autres études statistiques confirment la part de 3/4 allant au travail.

Le travail de Cobb et Douglas a donné lieu à de nombreuses critiques, dont je ne mentionnerai que les deux plus fondamentales :

    • Paul Samuelson et Herbert Simon ont montré que la construction de la fonction de Cobb-Douglas est telle qu’il est presque impossible que la corrélation testée soit mauvaise. Cette corrélation n’est donc pas un test probant.
    • Franklin Fisher a démontré que l’agrégation de fonctions de production individuelles en une fonction globale n’est valide que moyennant des conditions très restrictives.

La productivité marginale n’est pas observable en tant que telle, mais des études en ont tenté l’estimation pour comparer celle-ci à la répartition des revenus réelle. Citons Gottschalk (1978) et Kampelmann et Rycx (2011). Les résultats sont plutôt décevants pour la productivité marginale.

Comme on le constate, l’ampleur des difficultés liées à la théorie de la productivité marginale rend suspecte l’obstination de ces économistes à la conserver comme un des fondements de leur corpus théorique.

 

[1] Clark The Distribution of Wealth: A Theory of Wages, Interest and Profits, Macmillan 1908, New York. P.12

[2] Knight «The Ethics of Competition», The Quarterly Journal of Economics, 1923, vol 38 n°3 p.598

[3] Cobb et Douglas, “A Theory of Production”. American Economic Review, December 1928,p.164

[4] Je voudrais quand-même insister sur un point : les économistes néoclassiques sont incapables de concevoir l’épargne autrement que comme une consommation différée. Que quelqu’un épargne pour la jouissance de posséder un capital n’intervient jamais dans leurs modèles.

[5] Lorsqu’on augmente la quantité de tous les facteurs de x%, la production augmente de y%. Si y = x, les rendements d’échelle sont constants. Ils sont croissants si y >x et décroissants si y< x. La variation équiproportionnelle de tous les facteurs est quelque chose de très différent de la variation d’un seul des facteurs qui entre dans la définition de la productivité marginale. Notamment, elle prend plus de temps.

[6] La place ne me permet pas de donner plus d’explications ici. Le lecteur intéressé se référera à mon ouvrage en ligne « Ombres et lumières de l’économie politique ».

[7] Plus d’explications dans mon article en ligne « Sommes-nous payés selon la productivité marginale ? ».

2-Macroéconomie

Ici, le potentiel idéologique de l’économie politique concerne plutôt telle politique économique que tel système économique. Mais comme la politique concernée est celle du « laisser faire », elle est directement branchée sur les fondements du capitalisme.

2.1- L’impossibilité d’une crise de surproduction

Lorsque l’école néoclassique prit le relai de l’école classique à la fin du dix-neuvième siècle, elle fit table rase de la microéconomie mais conserva la macroéconomie. A l’époque, seuls trois économistes avaient reconnu la possibilité d’une surproduction généralisée : Sismondi, Malthus et Marx. Les autres adhéraient à la « loi des débouchés » de Jean-Baptiste Say (1767-1832) : « les marchandises achètent des marchandises ». Apparemment, cette loi est logique : toute production crée du revenu ; donc il doit y avoir suffisamment de revenu pour acheter toute la production. Certes, de mauvaises prévisions peuvent causer des excès sur un marché mais ils sont compensés par un déséquilibre inverse sur un autre marché. La surproduction ne peut donc pas être générale. Pourtant la réalité semble résister à cette logique.

La première étude approfondie du cycle des affaires date du début du XXème siècle et est le fait d’Albert Aftalion (1874-1956), un économiste hétérodoxe. Des grandes figures néoclassiques se sont aventurées dans la macroéconomie, principalement Wicksell, Fisher et Pigou. Ils se sont intéressés à la monnaie et à l’inflation, mais pas au chômage et à la production. Entretemps, les économistes disposaient d’une version algébrique de la loi des débouchés, appelée « Loi de Walras » basée sur la même idée que l’interdépendance des marchés représente un processus à somme nulle : les écarts négatifs doivent être compensés par des écarts positifs.

Puis est arrivée la grande dépression des années trente et dans son sillage la révolution keynésienne. John Manyard Keynes (1883-1946) avait déjà pas mal publié auparavant, mais sa « Théorie générale » (1936) rompt avec l’orthodoxie en montrant que le laisser faire peut mener au sous-emploi et que la solution peut résider dans l’intervention de l’Etat. La théorie keynésienne est en dehors de notre sujet. Ce qui importe ici, c’est le bouleversement de la macroéconomie qui en est résulté. Les tenants du laisser faire ne peuvent plus se contenter d’ignorer les fluctuations de la production et le chômage. Il faut maintenant montrer que ceux qui veulent combattre ces maux par la politique monétaire ou la politique budgétaire sont au mieux impuissants et au pire aggravent la situation.

Le mouvement anti-keynésien est venu en deux vagues : d’abord, les « monétaristes » avec Milton Friedman (1912-2006) à partir de la fin des années 1950. Puis les « nouveaux classiques » avec Robert Lucas (1937-) à partir du début des années 1970. Tous les économistes de ces écoles sont profondément néoclassiques. Milton Friedman est plutôt disciple de Marshall et de Fisher ; Lucas plutôt de Walras. L’un des leitmotivs des nouveaux classiques est précisément d’assurer les « microfondations » à la macroéconomie : il s’agit d’ériger les théorèmes de la microéconomie en fondation de ceux de la macroéconomie. Une prétention en contradiction avec l’optique de Keynes qui voulait assurer une certaine autonomie à la macroéconomie.

La Théorie générale présente une analyse statique. Elle ne peut donc suffire à expliquer le cycle, qui est un processus dynamique, mais elle offre des clés de compréhension. Des économistes keynésiens ont voulu lui apporter un complément dynamique. Ainsi, Samuelson et Hicks se sont emparés du concept d’Aftalion, l’accélération de la demande dérivée qu’ils ont combiné avec le multiplicateur keynésien pour expliquer le cycle conjoncturel. L’accélérateur, c’est l’idée que les fluctuations légères de la demande de biens de consommation génèrent des fluctuations amplifiées de la demande de biens d’investissement. L’économie est alors en proie à des convulsions oscillatoires. Mais ce n’est pas ce sujet qui opposait keynésiens et monétaristes. Négligeant ces processus dynamiques essentiels, le débat s’enflammait à propos questions subalternes comme la trop fameuse « courbe de Phillips ». Cette courbe d’inspiration keynésienne reconnaît à l’Etat un pouvoir d’arbitrage entre le chômage et l’inflation, avec l’idée qu’une inflation modérée permet de combattre le pire des deux maux, le chômage. Les antikeynésiens nièrent la réalité de cet arbitrage. Pour les monétaristes, après une brève diminution, le chômage retourne à son taux naturel[1], un de leurs concepts essentiels. Mais l’inflation ne se résorbe pas ; d’où la lutte contre le chômage aboutit à une accélération sans fin de l’inflation. Le scénario est encore pire chez les nouveaux classiques : l’inflation ne stimule l’économie et l’emploi que si elle n’était pas anticipée par les agents économiques. En vertu de l’hypothèse des « anticipations rationnelles » qui sert d’étendard à cette école, les agents ne font pas d’erreurs systématiques dans leurs anticipations. Pour réussir sa relance, la banque centrale doit donc les surprendre, les prendre en traître. Il s’agit d’ailleurs d’une fausse réussite, puisque le taux de chômage reviendra inexorablement à son niveau naturel. Comme on le voit, toute politique visant à faire régresser le chômage est appelée à échouer.

A la fin du XXème siècle, les nouveaux classiques sont devenus l’école dominante en macroéconomie. Sur quelle base ces économistes nient-ils que la création monétaire puisse stimuler l’économie ? Pour le comprendre, il faut d’abord visualiser comment ils s’imaginent qu’elle y parviendrait si c’était possible. Elle y parviendrait par ce que les néoclassiques appellent l’illusion monétaire, c’est-à-dire le fait que les agents se sentent plus riches ou surévaluent les opportunités de gain lorsque leur encaisse nominale augmente alors que l’augmentation concomitante des prix fait stagner l’encaisse réelle. Evidemment, les agents rationnels néoclassiques ne sont pas sujets à l’illusion monétaire[2], et d’autant moins lorsqu’on fait jouer l’hypothèse des anticipations rationnelles. Donc, si les autorités arrosent l’économie de monnaie, les salariés, comprenant qu’une hausse du niveau général des prix les attend, vont augmenter leur salaire de réserve ; c’est ainsi que les économistes appellent le niveau de salaire minimal pour inciter à entrer sur le marché du travail. La monnaie supplémentaire servira à faire la même chose qu’avant avec des prix supérieurs. Bref, un coup d’épée dans l’eau.

Les nouveaux classiques considèrent que l’hypothèse des anticipations rationnelles est leur hypothèse principale, mais il n’en est rien ; il s’agirait plutôt d’une hypothèse paravent qui cache leurs deux hypothèses principales :

  • La théorie quantitative de la monnaie. Elle part de l’équation fishérienne[3] bien connue MV = TP. La masse monétaire multipliée par sa vitesse de circulation égale la production réelle multipliée par le niveau général des prix. Mais elle ne se limite pas à cette équation. Elle affirme que c’est le membre de droite qui est fonction du membre de gauche et non l’inverse et que V et T sont exogènes (fixées par ailleurs). Pourquoi ? Par hypothèse. Reste donc que M détermine P.
  • Tous les marchés sont toujours à l’équilibre. Les déséquilibres sont des accidents aléatoires dont la théorie n’a pas à tenir compte autrement que comme un simple « bruit » dans ses équations stochastiques.

Keynes avait également consacré un chapitre de la Théorie Générale à la théorie quantitative, mais son interprétation de l’équation est totalement différente. L’effet d’une variation de M dépend de l’état de la demande globale qui est le moteur de l’économie. Si elle est anémique, l’injection de monnaie stimulera la demande sur les marchés et mettra des inactifs au travail. La variation de M se transmet alors principalement à T. Au fur et à mesure que la demande augmente et avec elle l’activité, les variations de M se transmettront de moins en moins à T et de plus en plus à P.

Selon ses promoteurs, l’hypothèse des anticipations rationnelles a pour corollaire que les anticipations des agents correspondent à ce qu’énonce la théorie pertinente[4]. Mais de quelle théorie s’agit-il ? La théorie quantitative, bien-sûr et pas dans sa version keynésienne. Il ne faut donc pas s’étonner que les anticipations rationnelles aboutissent toujours à dédaigner les signaux monétaires.

Puisque tous les marchés y compris celui du travail sont toujours à l’équilibre, il n’y a jamais d’’offre excédentaire de travail. Le chômage n’est donc pas subi par ceux qu’il touche mais choisi. « Choisi » ne signifie pas nécessairement qu’ils ne souhaitent pas travailler. L’explication la plus commune est qu’ils surestiment le salaire d’équilibre et continuent à chercher un emploi leur offrant le salaire plus élevé qu’ils imaginent prévaloir. C’est ainsi que l’ancienne thèse de l’impossibilité du chômage involontaire continue de régner.

Cette théorie, sert-elle le capitalisme ?

On comprend en quoi cette conception flatte le capitalisme. En fait, le système ne serait jamais responsable s’il y a du chômage. Les chômeurs n’ont qu’à s’en prendre à eux-mêmes.

La question du chômage est liée à la problématique dite de la « rigidité des salaires ». Les économistes distinguent le salaire nominal, mesuré en unités monétaires et le salaire réel qui tient compte du niveau des prix et ne varie par exemple pas lorsque le salaire nominal et les prix évoluent au même rythme. Il y a donc deux types de rigidité : la rigidité nominale et la rigidité réelle. Le prix dont les ajustements doivent équilibrer le marché du travail est évidemment le salaire réel et non le salaire nominal.

La Théorie Générale considère que le salaire nominal est rigide. Keynes raisonne ainsi : les salariés préfèrent perdre du pouvoir d’achat par une augmentation du niveau général des prix que par une baisse du salaire nominal, car la première met tous les salariés sur pied d’égalité alors que la seconde menace la place du salaire individuel dans la hiérarchie des salaires. Mais il n’y est pas question de rigidité du salaire réel. Par contre, les tenants de la macroéconomie classique ont monté en épingle la rigidité du salaire réel.  Ce sont ces rigidités qui empêchent le système d’être à l’équilibre. Quelle est l’origine de ces rigidités ? Le plus souvent, des facteurs institutionnels et politiques sont incriminés. Par exemple des politiques gouvernementales inappropriées ou le syndicalisme. L’idée est toujours de préserver l’innocence du système économique en soi.

Il ne fait aucun doute que des facteurs institutionnels peuvent perturber le système, mais l’idée maîtresse des nouveaux classiques est qu’en dehors de ce type de perturbations, l’économie est toujours à l’équilibre, une affirmation mille fois répétée mais jamais prouvée.

 

[1] Ce taux naturel est du chômage frictionnel (dû au temps nécessaire pour retrouver un emploi) et ne contredit donc pas la thèse de l’impossibilité du chômage involontaire.

[2] Ils ne sont sensibles qu’à l’encaisse réelle. Je ne conteste personnellement pas ce point de vue.

[3] Cette théorie remonte aux premiers temps de l’économie politique, mais c’est Fisher, en 1911, qui la présentera de la façon la plus systématique.

[4] Voici encore une affirmation que je ne conteste pas.

2.2- Une théorie du cycle conjoncturel

Jusqu’à présent, les modèles macroéconomiques évoqués étaient statiques, à l’exception de l’accélération de la demande dérivée. Mais le chômage étant en grande partie conjoncturel, il est évident qu’il ne peut être appréhendé complètement que par une théorie dynamique. Il faut attendre 1982 pour que les nouveaux classiques échafaudent puis développent une théorie du cycle des affaires. C’est un article de Finn Kydland (1943‑) et Edward Prescott (1940‑) qui lance la théorie dite du « cycle réel », en abrégé RBC (real business cycle). Le lecteur s’interroge sans doute quant à la présence de l’adjectif « réel » dans cette dénomination. Elle indique que la cause du cycle est à trouver dans le secteur réel de l’économie, celui qui produit, et non dans la monnaie, dont on sait que les nouveaux classiques sont très attachés à la thèse de sa neutralité. M n’est censé influencer que P.

Pour bien comprendre cette théorie, remettons-la dans son contexte. Les deux aspects dynamiques de la macroéconomie sont la croissance et la conjoncture. La théorie néoclassique de la croissance avait pris un peu d’avance sur celle du cycle conjoncturel. Les années 1960 ont vu émerger plusieurs modèles qui cherchaient à définir et à déterminer une espèce d’équilibre dynamique, c’est-à-dire une relation entre les grandes variables macroéconomiques[1] qui permette au revenu national, au capital et à la consommation d’augmenter de concert à un taux constant d’année en année, tout en maximisant soit la consommation soit l’utilité sociale dans le futur. Les économistes appellent « âge d’or » ou « steady state » une situation caractérisée par cette continuité tranquille et « règle d’or » la relation entre les variables qui permet de maximiser la consommation d’un âge d’or. La croissance du revenu dépend de deux facteurs : le progrès technique et l’intensité capitalistique (rapport capital/travail) qui résulte de l’accumulation du capital.  Beaucoup de modèles tendaient à privilégier le second par rapport au premier ; le taux d’investissement y joue donc un rôle crucial.

Les RBC entendent greffer sur un modèle de ce type le phénomène qui bousculera l’ordre de l’âge d’or, qui y introduira les fluctuations. Ce phénomène, c’est le progrès technique et plus précisément une hypothèse à son sujet, en l’occurrence le fait qu’on lui prête un caractère erratique. Pour désigner ces variations aléatoires, les économistes parlent de « chocs technologiques ». Comme il s’agit de modèles dynamiques, le temps est découpé en périodes.

Le modèle RBC de base s’articule autour de deux fonctions appartenant chacune à une catégorie dont les économistes néoclassiques raffolent :

  1. Une fonction de production de type Cobb-Douglas. Elle comprend les deux ingrédients habituels déjà évoqués plus haut, la main d’œuvre et le capital ainsi qu’un facteur λ qui les multiplie et qui représente le progrès technique : lui-même se décompose en plusieurs sous-facteurs : une composante constante, une composante aléatoire mais à effet durable et une composante aléatoire très temporaire. Le caractère aléatoire est accru par le fait que les agents n’ont qu’une perception brouillée de ces chocs.
  2. Une fonction d’utilité intertemporelle (c’-à-d. portant sur une longue durée, en fait infinie) qui est à la fois celle d’un ménage représentatif et de l’ensemble de la population. L’utilité dépend positivement de la consommation et du temps de loisir, qui est le temps de non-travail. L’offre de travail varie positivement avec sa rémunération et, par-là, avec la productivité et donc avec les chocs technologiques positifs, ce qui met nos deux fonctions en interaction. Un paramètre essentiel de cette fonction est ce que les économistes appellent « l’élasticité de substitution intertemporelle du loisir », c’-à-d. la facilité avec laquelle les ménages altèrent leur répartition du temps entre le loisir et le travail d’une période à l’autre. Les modèles RBC postulent que cette élasticité est très élevée, autrement dit que les ménages sont flexibles dans leur emploi du temps.

Ces deux fonctions sont maximisées selon les règles néoclassiques habituelles, ce qui détermine les actions des agents : offre de travail, épargne et investissement, consommation. L’idée qui sous-tend l’ensemble est qu’un choc technologique positif pousse les ménages à travailler plus cette période pour profiter de ce que le travail est plus rémunérateur ; les chocs négatifs ont l’effet inverse. Durant toutes les périodes, tous les marchés restent en équilibre.

Ce système est transposé dans un travail économétrique. Les économistes « calibrent » le modèle en donnant des valeurs plausibles à ses différents paramètres et simulent des chocs technologiques. Ils examinent ensuite si les variables du modèle se comportent comme les variables équivalentes dans les séries statistiques réelles. Kydland et Prescott furent plutôt satisfaits de la validation empirique, tout en reconnaissant que le modèle sous-estime la variabilité des heures prestées, une lacune commune à la plupart des modèles RBC.

Les modèles RBC, servent-ils le capitalisme ?

Les très dérangeantes fluctuations du revenu national se voient désigner un coupable : le hasard. Le hasard des chocs technologiques. Un hasard qui s’impose de l’extérieur et contre lequel on ne peut rien. On ne va quand-même pas renoncer au progrès technique pour échapper au cycle.

Le système capitaliste ne fait montre d’aucune faille. Et le chômage ? Même pas. Il n’y a pas de chômage involontaire. Il y a juste une volonté des travailleurs de privilégier les loisirs lorsque les chocs technologiques rendent le travail moins rentable.

En fait l’économie est toujours à l’optimum. L’équilibre général exprime la compatibilité des actions que prennent les agents pour maximiser chacun son utilité.  Indépendamment de son caractère apologétique, l’affirmation d’une optimalité permanente heurte le bon sens qui ne peut que constater une perte de bien-être pendant les crises.

Y a-t-il acharnement démonstratif ?

On retrouve le défaut habituel des nouveaux classiques. L’équilibre est postulé alors qu’il ne devrait intervenir que comme résultat du processus.

Les adversaires des modèles RBC ont épinglé les faiblesses suivantes :

  • Une substitution intertemporelle du travail (ou du loisir) très élastique est au centre du mécanisme de propagation. Mais les études empiriques ne confirment pas l’ampleur conférée à cette variable par les modèles RBC. De même, les variations du salaire sur le cycle semblent bien modérées pour générer des variations du temps de travail aussi amples.
  • Les modèles RBC impliquent la neutralité de la monnaie.
  • Le calibrage pose question. Les modèles sont trop élastiques pour que leur test empirique soit parfaitement crédible. Il y a trop de liberté dans le choix des paramètres et des formes fonctionnelles. Les équations peuvent s’adapter trop facilement aux données empirique.
  • Les chocs technologiques sont eux-aussi critiqués. Comme l’Arlésienne, tout le monde en parle mais on ne les voit pas. Il est très difficile de les constater concrètement et plus encore de les lier aux phases du cycle économique que la réalité empirique révèle. Par exemple, quel choc négatif serait-il à l’origine de la grande dépression de 1929 ou de celle de 2008 ? Prescott prétend que le « résidu de Solow »[2], très procyclique, offre une mesure empirique des chocs technologiques. Ce que contestent ses adversaires : d’autres facteurs interviennent dans le résidu de Solow, comme le fait qu’en basse conjoncture, les entreprises conservent généralement du personnel sous-employé, ce que les économistes appellent la « rétention de main d’œuvre ».

Une théorie du cycle plus ancienne : les Autrichiens

Plus d’un demi-siècle avant les RBC, l’école autrichienne produisit en précurseur une première théorie néoclassique du cycle. Dans des ouvrages parus en 1929 et 1931, Friedrich Hayek (1899-1992) énonce une théorie monétaire du cycle. La cause essentielle du cycle est à trouver dans l’excès de crédit monétaire offert par les banques à l’économie. Il est curieux de constater à quel point deux théories néoclassiques peuvent s’opposer.

Après une dépression, les banques se laissent aller à l’excès de crédit, principalement à destination du secteur productif. Le crédit est en excès lorsque pour trouver des emprunteurs, les banques abaissent leur taux d’intérêt (dit taux monétaire) en dessous du taux naturel correspondant à la rentabilité du capital productif. Ceci stimule la demande aux industries produisant des équipements. Les prix relatifs de ces biens augmentent et leur production s’élève, détournant des ressources affectées antérieurement aux biens de consommation. Dans le langage des Autrichiens, on assiste à l’allongement des détours de la production (accroissement de l’intensité capitalistique). L’offre de biens de consommation peine à suivre leur demande stimulée par la reprise ; leur prix s’élève à son tour par rapport à celui des biens de production. Cette hausse motive les entreprises à plus investir dans les biens de consommation au détriment des biens de production. Maintenant, les détours de la production se raccourcissent. Hayek note une asymétrie : l’allongement des détours stimule l’emploi ; son raccourcissement le fait chuter, car les engagements dans le secteur des équipements ne compensent pas les licenciements dans le secteur de la consommation. C’est le retournement conjoncturel : l’allongement de la période de production avait provoqué l’expansion ; son raccourcissement cause la dépression. Cette suite de gonflements et dégonflements de l’intensité capitalistique au gré du cycle sera appelé « effet d’accordéon » par Nicholas Kaldor, adversaire de cette théorie.

Le scénario eût été différent si l’accroissement initial des investissements avait été financé par une épargne volontaire en lieu et place du crédit. La demande des biens de consommation ne se serait pas accrue dans la deuxième phase car consommer moins eût été un choix. Par contre, le crédit a imposé aux consommateurs ce qu’Hayek appelle une « épargne forcée », par la hausse des prix des biens de consommation qu’il a induite. Le crédit monétaire est dangereux car il crée des incitations aux entreprises et aux consommateurs qui sont en porte à faux avec les forces réelles de l’épargne et de la productivité. Il faut veiller à perturber ces forces fondamentales le moins possible.

Cette théorie, sert-elle le capitalisme ?

Ici encore, le cœur du système capitaliste, le secteur productif, est « innocenté ». Certes, les banques appartiennent également au système, mais leurs excès peuvent s’expliquer par la politique monétaire trop accommodante de la banque centrale, cédant à la démagogie des politiciens qui veulent relancer l’économie pour des raisons électoralistes. Aux yeux de Hayek, l’inflation est pire que le chômage. Le coupable est donc au moins un peu le politique qui, aux yeux de Hayek, fait tout mal alors que le marché fait tout bien.

Irving Fisher, la dette et la déflation

Il m’est impossible d’être exhaustif. Les théories du cycle sont plus nombreuses qu’il ne m’est possible d’en rendre compte. Parmi elles, l’objectivité commande de rapporter un exemple positif. Irving Fisher (1867-1947) est un des plus grands économistes néoclassiques. En octobre 1929, il prophétisait encore qu’une chute considérable des cours de bourse était impossible et que ceux-ci s’élèveraient encore d’ici quelques mois. On sait ce qu’il en advint et, comme tant d’autres, lui-même essuya personnellement des pertes ruineuses. L’épreuve le rendit plus raisonnable. En 1933, il publia un article énonçant une théorie du cycle très intéressante qui explique celui-ci par la combinaison de la déflation et de l’endettement privé excessif.

 

[1] Principalement : le revenu national, la consommation, le taux d’intérêt, l’intensité capitalistique (rapport capital/travail), le taux d’épargne, l’accroissement de la main d’œuvre et la part des revenus du capital dans le revenu national.

[2] Jusqu’en 1957, les fonctions de production agrégées ne comportaient que deux entrées : le capital et le travail. Solow, le premier, introduisit un troisième facteur. Sur une série statistique de 1909 à 1949, il constate qu’une part importante de la croissance de la production n’est pas attribuable au travail ou au capital. Le « résidu de Solow » est le facteur multiplicatif qui capture cet écart. Le progrès technologique constitue une part importante de l’explication.

2.3- L’efficience des marchés financiers

Les marchés financiers sont l’une des bases du capitalisme. Ils sont le lieu où se négocie et se détermine la valeur d’un des deux facteurs de production génériques, qui plus est, le facteur de production-roi. Il est donc essentiel que ce morceau de fondation du système fonctionne bien, faute de quoi il pourrait engendrer des dérèglements économiques graves, par exemple des bulles spéculatives. Mais qu’est-ce que bien fonctionner pour un marché financier ? Le prix des actifs détermine pour l’investisseur son rendement et pour la firme le coût du financement. Pour qu’il induise les bonnes décisions, il faut qu’il se situe au juste niveau. Selon les économistes, le niveau optimal correspond à la somme des dividendes futurs actualisés à un taux qui inclut une prime, fonction du risque de l’actif. Les dividendes futurs n’étant pas connus, c’est évidemment d’une estimation de ceux-ci qu’il s’agit.

Eugene Fama, l’initiateur de ce concept, écrit : « A market in which prices always ‘fully reflect’ available information is called ‘efficient’ »[1]. S’il en est ainsi, les cours de bourse ne fluctuent que parce qu’arrivent de nouvelles informations. Dans cet article publié en 1970, il tente une synthèse des études empiriques qui testent ce critère et le conclut, optimiste : « In short, the evidence in support of the efficient markets model is extensive (and somewhat uniquely in economics) contradictory evidence is sparse ». L’hypothèse des marchés efficients (HME) est largement partagée parmi les économistes néoclassiques.

Historiquement, l’HME apparaît pour la première fois de façon implicite dans un article publié en 1964 par William Sharpe où il expose son « Capital Asset Pricing Model ». La conclusion fondamentale est que “(The investor) may obtain a higher expected rate of return on his holdings only by incurring additional risk”. Pour que cette affirmation soit vraie, il faut en effet que les prix des actifs soient aussi parfaits que le permet l’information dont disposent les investisseurs.

L’HME, sert-elle le capitalisme ?

Cette hypothèse n’apporte certes pas au capitalisme une justification existentielle, mais elle dédouane le marché des capitaux de toute responsabilité dans les accidents économiques possibles, ce qui est tout à l’avantage du système.

Y a-t-il acharnement démonstratif ?

Pour obtenir ses conclusions, Sharpe est amené à formuler une double hypothèse :

  • Tous les investisseurs formulent des estimations identiques quant au rendement et au risque futurs des tous les actifs. Implicitement, cela revient à dire que tous sont doués de la capacité de prévision parfaite, car il n’est évidemment pas sous-entendu qu’ils commettent tous la même erreur.
  • Tous les investisseurs peuvent prêter et emprunter à un taux d’intérêt (sans risque) unique.

Ces hypothèses sont évidemment irréalistes comme le reconnaît d’ailleurs l’auteur, mais c’est un principe assumé chez les économistes néoclassiques de considérer le réalisme des hypothèses comme secondaire.

Comment les économistes évaluent-ils le risque d’un actif ? Un peu de statistique est nécessaire pour le comprendre. Prenons les observations passées du rendement de l’actif X (une vingtaine ou une centaine d’occurrences par exemple). Pour synthétiser cet ensemble de données, on a deux paramètres essentiels : la moyenne et l’écart-type. La moyenne, je présume que tout le monde en connaît le principe. L’écart-type, c’est l’écartement moyen par rapport à la moyenne. Un écart-type plus élevé signifie que la variabilité, la dispersion est plus grande. Les économistes en ont fait la variable qui mesure le risque.

Ce procédé me paraît critiquable, car il mesure un type de risque, le désagrément de variations amples dans le revenu. Mais ce que craignent le plus les investisseurs, c’est de subir des pertes. Pertes parce que l’entreprise tombe en faillite ou parce que les variations du cours rendent le rendement négatif. Steve Keen illustre ce problème par un exemple[2] : on a le choix entre un investissement de revenu espéré de 3% avec un écart-type de 3% et un investissement de revenu espéré de 9% avec un écart-type de 6%. Lequel est le plus risqué ? Pour l’économie néoclassique, le second. Pas sûr que le public le ressente ainsi, car la probabilité que le premier encoure des pertes est supérieure.

En 1921, Knight introduisait une distinction majeure :

  • L’incertitude du futur est le fait que son caractère inconnu le rend imprévisible ;
  • Le risque, c’est l’incertitude quand elle est probabilisable (par exemple, une loterie).

La thèse de Knight, néoclassique-répétons-le- était que la vie économique est principalement caractérisée par la première et non par le second. Cette opinion est reprise par les keynésiens. Par contre, l’économie néoclassique moderne s’évertue à transformer l’incertitude en risque, pour pouvoir l’intégrer (mais sous une forme mutilée) dans ses équations. La vraie incertitude est absente des modèles néoclassiques. C’est ce qui explique l’hypothèse que les investisseurs sont capables de déterminer exactement la moyenne et l’écart-type des dividendes futurs. A mon avis, non seulement cette préscience n’existe pas, mais les investisseurs n’essaient pas vraiment, car ils sentent que c’est mission impossible. Il est vrai que les nouvelles informations leur servent à abaisser ou élever les cours en fonction de leur contenu pessimiste ou optimiste. Mais le niveau est arbitraire. Investir implique l’acceptation d’un prix. Mais dans l’incertitude, c’est l’instinct et le besoin d’agir qui dominent, ce que Keynes appelait « animal spirit ».

André Orléan a lui aussi critiqué l’HME, notamment sa validité empirique. Vu son abstraction, celle-ci ne peut être testée qu’indirectement, sur ses corollaires. Un premier test porte sur la non-prédictibilité des résultats, la marche aléatoire, le fait que des variations de cours successives sont statistiquement indépendantes. L’HME ne s’y défend pas trop mal, encore que des anomalies régulières existent mais la plupart des analystes considèrent ce test comme trop influencé par divers facteurs extérieurs à la question. Un autre corollaire testable est qu’on ne peut pas battre le marché pour un risque donné, mais sa faiblesse est l’impossibilité de mesurer parfaitement le risque.

Orléan mentionne deux tests que l’HME rate manifestement :

  • Il n’y a qu’une faible partie de l’évolution des cours qui est explicable a posteriori par des informations nouvelles.
  • L’évolution des cours à long terme ne suit pas une continuité sur la période observée, fût-elle en dents de scie, mais est le fruit d’un petit nombre de jours de variation extrême. Orléan donne l’exemple de l’indice MSCI Europe qui connu une croissance moyenne de 9,27% 1993 à 2008. Cette croissance tombe à 5,68% si on retire les 10 meilleurs jours, à0,90% si on retire les 30 meilleurs jours et à -1,13% si on retire les 40 meilleurs jours (sur 23 ans !)[3]. La répétition de ces phénomènes extrêmes est incompatible avec la loi des grands nombres. Selon Orléan, la chute du Dow Jones de 22,6% le 19 octobre 1987, statistiquement, est censée se produire tous les 10 exposant 47 ans (l’âge de la terre à la puissance 5).

Keen et Orléan s’accordent sur la principale faille de l’HME. Ses modèles sont unidirectionnels ; ils prennent en compte uniquement l’effet des décisions individuelles sur le prix du marché mais ignorent la détermination en sens inverse. Or il est évident que les investisseurs se soucient de l’opinion qu’ils croient prévaloir sur le marché. Chacun achète et vend en fonction de ce qu’il pense que les autres intervenants feront, une idée déjà présente dans la Théorie générale. Il en résulte une espèce ce cercle vicieux qui peut déconnecter les cours de bourse des fondamentaux économiques pendant des périodes plus ou moins longues. Beaucoup d’acteurs visent d’ailleurs les gains à court terme. Certes, lorsque les cours empruntent la mauvaise direction, une correction interviendra tôt ou tard (parfois très tard), mais chacun espère qu’il sera parmi les derniers à profiter de la bulle spéculative. Keynes compare cette situation à un jeu de chaises musicales. Lors du retournement, ceux qui désinvestissent les premiers perdent le moins et donc, la chaise musicale continue.

A mon avis, si l’irrationalité domine souvent les marchés financiers, ce n’est pas tant parce que les agents manquent de rationalité que parce qu’ils sont condamnés à une sous-information tellement radicale que la rationalité se révèle impuissante. De plus, si l’information nécessaire était disponible, la capacité de maîtriser une telle masse ferait défaut, même à l’ère de l’informatique. Ajoutons à cela la nature paradoxale de l’esprit humain, qui manifeste de l’aversion pour le risque mais est en même temps tenté par le jeu (pari). Ces conditions rendent l’efficience des marchés impossible.

L’inefficience des marchés financiers est dangereuse. Ce n’est sans doute pas un hasard si les deux principales crises de l’ère moderne (1929 et 2008) furent précédées d’une bulle spéculative.

Keynes consacre le chapitre 12 de la Théorie générale aux marchés financiers. Il s’appelle « L’état de la prévision à long terme », mais il aurait pu s’appeler « L’inefficience des marchés financiers ». Une lecture intéressante pour qui s’intéresse à la question.

3-Conclusion

J’ai examiné cinq théorèmes néoclassiques qui se prêtent à une interprétation justifiant le système capitaliste ou le laisser-faire, mais j’aurais pu en choisir bien d’autres. L’interprétation qui en est faite doit être distinguée du théorème lui-même, mais les hypothèses posées pour démontrer ces théorèmes sont parfois tellement artificieuses qu’elles semblent conçues ad hoc.

Je nuancerais toutefois cette dernière affirmation. Car la motivation profonde de ces hypothèses irréaliste est au moins partiellement qu’elles se prêtent à la modélisation mathématique. Or les économistes tiennent beaucoup à cette mathématisation, car elle permet à leur discipline d’apparaître comme plus scientifique.

 

[1] Fama “Efficient Capital Markets: A Review of Theory and Empirical Work”, The Journal of Finance, 1970, Vol. 25, No. 2, p.383 et p.416.

[2] Keen, L’imposture économique, Editions de l’atelier, 2014, p. 326.

[3] Orléan, L’empire de la valeur, Editions du seuil, 2011, pp. 297-298

Partager cet article
Repost0
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article