Introduction.
L’objectif poursuivi dans cet article est d’approfondir grâce à la pensée probabiliste la réflexion prospective basée sur des hypothèses et des modèles, mais sans utiliser le calcul d’Ito, sans écrire d’équation différentielle stochastique, sans même écrire une seule formule. Il s’agit de tirer de la phénoménologie des processus aléatoires des traits qualitatifs qui ont des répercussions philosophiques fortes pour la décision politique.
Nous devons en effet considérer que le fonctionnement actuel de l’économie vis à vis de l’environnement n’a pas du tout un résultat de tempérance et d’amortissement des variations naturelles, mais au contraire que l’économie — en plus de tendances de fond dues à la croissance — est une source majeure de perturbations par les fluctuations aléatoires que les anticipations des agents engendrent sur la formation des valeurs et des prix. Il en résulte qu’il est essentiel de se pencher sur les effets additionnels que l’aléa superpose aux raisonnements sur la finitude du monde et des flux énergétiques.
J’entends mener cette discussion sans technicité qui, j’explique pourquoi, ne ferait qu’obscurcir le débat. Je ne pourrai éviter néanmoins de faire appel à une certaine culture mathématique de la part du lecteur d’où seront tirés les concepts, en m’efforçant de les limiter à des traits fondamentaux bien connus.
Commençons par un retour sur les travaux du Club de Rome pour en resituer la signification aujourd’hui.
I. Autour du rapport de Rome : modèles simples et perfectionnements
La question du perfectionnisme en matière de modélisation est un piège classique. D’un côté les modèles simples sont faux parce que loin des lois physiques, biologiques et économiques des phénomènes mais sont faciles à calibrer, d’un autre côté les modèles complexes semblent refléter mieux les connaissances mais ils ont tant de paramètres qu’on ne dispose pas des mesures pour les renseigner correctement, de plus leur perfectionnisme fait illusion d’exhaustivité : on n’est pas sûr qu’ils ont pris en compte tous les phénomènes. Finalement le choix le plus pertinent dépend de l’entité sociale qui va se servir du modèle et des moyens de connaissance et d’action dont elle dispose[[Cf. [Bouleau 1999] Partie III.
]]. Le cas du rapport du Club de Rome est en l’occurrence typiquement une référence globale, une proposition de discours «pour tout le monde».
Sur la valeur philosophique des travaux du Club de Rome.
Après la parution de la première version du rapport [Meadows et al. 1972] des critiques très nombreuses ont soulevé diverses faiblesses du mode de raisonnement adopté. D’abord c’est simpliste : comment capter la réalité du monde avec un algorithme dont les équations ne représentent guère plus que quelques centaines de lignes de code ? Ensuite et surtout c’est fermé : cela ne prend pas en compte l’innovation, les transformations dues à la recherche scientifique et technique et, plus généralement la créativité de l’homme. Celle-ci est susceptible de tout modifier, y compris le sens des mots utilisés dans le modèle. La projection prospective est fondée sur les connaissances actuelles. Par exemple à propos du nucléaire elle ne prend en compte que les ressources de combustible, la difficulté du stockage des déchets et les zones neutralisées par les accidents, sans envisager la réussite des technologies de fusion dont les avantages et les inconvénients sont encore mal connus[[Cf. les discussions autour du projet ITER (International Thermonuclear Experimental Reactor).
]].
La nouvelle version du rapport, publiée 30 plus tard [Meadows et al. 2008] plaide que ce qui a été dit n’a pas été démenti par les faits [Turner 2008], et maintient dans le nouveau modèle World3-03 les mêmes principes méthodologiques. Les bilans établis par l’équipe Meadows sont relativement indépendants des interprétations économiques subjectives parce que fondés sur des grandeurs en quantité, énergie reçue par ensoleillement, surfaces cultivables, population, etc., ce qui a amené les auteurs à s’exprimer en termes d’indicateurs spécifiques que sont le ‘bien-être humain» (human welfare) et «l’empreinte écologique» (ecological footprint). Plusieurs scenarios sont étudiés suivant les hypothèses de politiques économiques. La conclusion générale est bien connue : sans une politique collective très vigilante on arrive toujours à un schéma «overshoot-collapse» c’est-à-dire croissance excessive suivie d’un effondrement.
La valeur de vérité de ce rapport ne se situe pas dans les détails mais dans la thèse — qui heurte la plupart des philosophies du passé et plusieurs croyances religieuses — qu’on a le droit de prendre scientifiquement au sérieux le fait que la finitude du monde et des ressources impose des changements radicaux pour éviter l’effondrement. C’est une modification du décor dans lequel l’économie et la politique se déroulent habituellement qui peut être vue comme un tournant de civilisation. Cela autorise la prise de conscience que beaucoup d’idées anciennes sur le progrès ne sont fondées que sur des envies de puissance spontanées, sans prise en compte des limites, aménagées en théories rationnelles par la suite. A ce niveau de préoccupation, on ne peut évidemment convaincre que par un discours simple.
La force de la simplicité vaut pour toute modélisation sous intérêts conflictuels.
Prenons maintenant le changement climatique et les travaux du GIEC avec ses trois groupes, sur la physique du phénomène, sur les impacts et les politiques d’adaptation, et sur les modèles économiques pour l’atténuation. Quoique les travaux du troisième groupe soient a priori les plus délicats et les plus éloignés de l’objectivité des sciences de la nature, ce sont les conclusions du premier groupe sur la responsabilité anthropique que les climato-sceptiques ont attaquées, et on se trouve encore aujourd’hui dans une situation d’opposition entre une large communauté scientifique et des contestataires qui se targuent d’appliquer la controverse conformément à la démarche scientifique pour récuser l’hypothèse que l’augmentation de gaz à effet de serre est due à l’activité humaine.
La responsabilité anthropique ne peut être prouvée avec une certitude absolue car ce qui se serait passé sans l’intervention de l’homme ne peut pas être décrit avec une précision mathématique. Ce que dit le GIEC va à contre sens de l’intérêt économique consommateur d’énergie. On est ici dans un cas épistémologiquement délicat qui ébranle plusieurs doctrines philosophiques récentes. Le 20ème siècle, a en effet insisté sur les liens entre connaissance et intérêt, déjà soulignés par Nietzsche, retravaillés à leur façon par Habermas d’une part[[J. Habermas Erkenntnis und Interesse (1968).
]] et Feyerabend d’autre part[[P. Feyerabend Dialogues sur la connaissance (1991), Seuil, coll. «Science ouverte», 1998.
]]. Une nouvelle conception de la connaissance s’est fait jour, définitivement non-positiviste, dans laquelle le réel ne parle pas sans qu’on l’interroge et où les communautés de chercheurs (Thomas Kuhn) et les groupes concernés (Callon) sont des constructeurs de préoccupations, de représentations, et finalement de réel. Egalement la vogue des Sciences Studies (Latour, Callon, etc.) et leur lien avec le grand courant du pragmatisme qu’on peut tracer avec Bentham, Mill, Alexander Bain, John Dewey, Peirce, William James, Rorty, suggèrent que la connaissance est socialement construite et tire sa pertinence du social. La confrontation avec le discours collectif universaliste et quasi-positiviste de l’IPCC n’est pas évident. Bien des textes des nouveaux courants laissent entendre — ou du moins n’excluent pas — que la négociation économique sera finalement la clé des comportements les plus positifs, c’est-à-dire les plus efficaces, convaincants et pacifiques.
Pourtant même sans preuve absolue la raison est du côté de la responsabilité anthropique pointée par l’IPCC, même si cela heurte et accuse la logique économique. Pourquoi ? Est-ce à cause du sérieux du travail des équipes des divers pays fondés sur des modèles différents ? Est-ce à cause du fait que parmi ceux qui ont contribué au travail il y a beaucoup de laboratoires des pays riches dont ce n’est pas l’intérêt immédiat de soulever ce problème et que beaucoup des leaders du climatoscepticisme sont liés à des intérêts économiques puissants ? Il ne s’agit certainement pas d’un argument d’autorité (le nombre des scientifiques du même avis, ou le prestige de certain d’entre eux) ou d’un retour à une vision positiviste de la vérité. Mais le relativisme de la connaissance — eu égard aux enjeux qui sont abordés — semble une préoccupation trop subtile, du second ordre en quelque sorte. Finalement, ici aussi c’est la simplicité de l’argument qui a la plus forte signification. La courbe des émissions de CO2 en fonction du temps à l’échelle historique avec la marque de la période post-industrielle jointe d’une part au fait physique de l’effet du CO2 sur l’absorbtion suivant les longueur d’ondes, d’autre part à la courbe historique des températures de la basse atmosphère avec la rupture d’ordre de grandeur de ce qui advient justement à partir de l’époque industrielle.
C’est un piège de complexifier la modélisation prospective de l’environnement.
L’excès de mathématisation est un travers naturel du monde académique, dû à de nombreux facteurs institutionnels[[J’ai approfondi ailleurs ces questions sur l’excès de mathématisation: sur le plan philosophique cf “On Excessive Mathematization, Symptoms, Diagnosis and Philosophical bases for Real World Knowledge ” Real World Economics n57, 6 September 2011, 90-105 (http://www.paecon.net/PAEReview/) et en ce qui concerne la finance «Mathématiques et autoréférence des marchés» (http://cermics.enpc.fr/~bouleaun/publications.htm).
]]. Il est la façon la plus convenable dans le monde universitaire d’esquiver tout engagement. On parle de self-organisation, de systèmes complexes chaotiques sensibles aux conditions initiales et, à force de parler de modèles multi-agents, et autres sujets de thèse possibles[[On évoquera ainsi les «complex adaptative systems», les systèmes «self-organized critically», la «agent-based» ou «self-generated» complexity, la «highly optimized tolerance» etc. cf par exemple [Rosser 1999] [Harris 2007].
]]… le message éthique du propos devient progressivement, sans qu’on y prenne garde, que c’est la recherche scientifique qu’il faut seulement perfectionner. Le productivisme et l’égoïsme des catégories favorisées sont oubliés. L’économie est durement touchée par cette tendance.
Conserver la simplicité du discours du Club de Rome mais en pensant en probabiliste.
Dans la version mise à jour, l’équipe Meadows fait plusieurs scenarios (11 scenarios sont expliqués). D’une certaine façon c’est déjà un début de raisonnement probabiliste, mais sans tenir compte des conséquences du stochastique sur la dynamique temporelle.
Dans ces scenarios on retrouve l’idée générale d’une évolution d’abord en croissance exponentielle (30p du chapitre 2) qui se trouve au bout d’un certain temps tempérée par des contraintes dues aux limites matérielles et énergétiques de la planète (80p du chapitre 3). Ce qui se passe après le «peak» est juste esquissé, les auteurs soulignant que cette zone de décroissance entraîne des modifications sociales si importantes que la modélisation précise n’y aurait pas de sens. En simplifiant pour parler en dimension un, on peut dire qu’on a une équation logistique plus ou moins perfectionnée qui entraîne des courbes avec asymptotes horizontale pour les bilans cumulés de ressources minérales et fossiles, et des courbes en cloche avec des pics puis décroissance pour les tendances et les grandeurs marginales, c’est à dire pour les dérivées.
Notre plan sera comme il est naturel le suivant : d’abord nous dégagerons les traits nouveaux des processus aléatoires par rapport aux évolutions déterministes (partie II), puis nous tirerons des conséquences de l’incertain sur la vulnérabilité de l’environnement soumis à la «rationalité» économique (partie III) et nous conclurons en soulignant les points les plus importants.
II. Qualitatif des processus aléatoires
Alors qu’une grandeur déterministe est complètement décrite par l’évolution d’un nombre en fonction du temps, un processus aléatoire est, en quelque sorte, une musique à plusieurs voix.
Les «logiques» probabilistes.
Pour toute évolution (croissance, décroissance, convergence) il y a lieu de préciser si on raisonne en loi, en moyenne, ou trajectoire par trajectoire.
Les raisonnements «en loi» et «en moyenne» (moyenne quadratique ou dans les espaces de p-ième puissance sommable) auxquels on peut ajouter les arguments «en probabilité», font intervenir les compensations que le calcul des probabilités permet de faire entre les événements où il y a augmentation et ceux où il y a diminution. Les évolutions ainsi décrites sont en général assez régulières parce que les causes qui attribuent certaines probabilités à certains phénomènes ont souvent une certaine permanence.
Mais on est aussi intéressé à ce qui va se passer pour chaque trajectoire que le hasard dessine, car c’est une de ces trajectoires qui va se produire effectivement, ou du moins que le modèle propose comme réalité possible. Et l’enseignement le plus fondamental que fournit l’étude des processus aléatoire est que le comportement des trajectoires peut être très différent de ce que la dynamique donne comme image lorsqu’elle est appréhendée en loi ou en moyenne.
Les trajectoires des processus aléatoires sont agitées, souvent très agitées.
Il peut y avoir des processus aléatoires bien polis (smooth) mais uniquement dans le cas où le hasard n’agit que sur la dérivée ou les dérivées lointaines de la grandeur. Dans le cas général les processus aléatoires sont très agités. Une bonne image en est donnée par les cours de bourse ou la silhouette d’un massif montagneux escarpé.
Ce qui se passe sur les marchés financiers — en oubliant pour l’instant le rôle économique de ces institutions — est intéressant car cela montre comment l’incertitude et l’ignorance des agents sur ce qui va se passer dans l’avenir se traduit par de l’agitation de la grandeur sur laquelle ils agissent. Lorsque l’évolution d’une devise ou d’une action est incertaine — et que donc les agents économiques ne sont pas d’accord sur son évolution vraisemblable — la grandeur ne va pas prendre une trajectoire intermédiaire qui représenterait une sorte de barycentre des avis, non, elle va s’agiter, et s’agiter d’autant plus que l’incertitude est grande. Cette agitation, que les financiers appellent volatilité, sera considérée comme la mesure la plus objective de l’incertitude qui affecte la grandeur économique concernée [Bouleau 2004].
Autrement dit, en général, un processus aléatoire n’a pas de tendance instantanée claire (pas de vitesse ou de dérivée au sens mathématique), à partir de la valeur actuelle à l’instant suivant il peut monter ou descendre.
figure 1
Phénoménologie de la famille exponentielle.
Le cœur de l’argumentation du Club de Rome est de considérer les phénomènes à croissance relative constante et de montrer que tôt ou tard ils «vont dans le mur». Ce sont des grandeurs dont la vitesse est proportionnelle à la valeur actuellement atteinte avec un coefficient positif. Dans le cas de plusieurs grandeurs cela s’écrit matriciellement et fait intervenir les signes des valeurs propres permettant de dire quelles sont les combinaisons linéaires qui vont s’évanouir et celles qui vont exploser. Cette croissance exponentielle ne peut durer et se trouvera nécessairement contrecarrée par un phénomène dont le rôle de frein va s’amplifier progressivement. D’où l’apparition d’un terme supplémentaire dans l’équation conduisant dans le cas le plus simple à une équation logistique ou apparentée, engendrant une saturation et dans le cas des modèles du Club de Rome un phénomène d’effondrement (collapse).
Un point phénoménologique fondamental est que ceci est complètement modifié dans le cas où la grandeur présente de l’aléa. Si une grandeur suivant une dynamique exponentielle est soumise à un aléa constant relativement à la grandeur, deux cas peuvent se produire. Si l’aléa est faible l’allure générale de la trajectoire sera ce qu’on attend : elle va suivre la courbe exponentielle avec des fluctuations vers le haut et vers le bas qui vont aller en s’amplifiant, c’est le cas illustré par la figure 2. Mais si l’aléa dépasse un certain seuil (très souvent atteint sur les marchés financiers par exemple) le comportement des trajectoires sera complètement différent de ce qu’on attend intuitivement : elles finiront toutes après des oscillations par tendre vers zéro, c’est le cas de la figure 3.
Ce phénomène est bien connu dans le cas des martingales qui sont des processus d’espérance mathématique constante[[La figure 4 correspond à ce qu’on imagine intuitivement être une martingale. C’est le cas particulier d’une martingale dite «uniformément intégrable».
]]. Il existe des martingales positives dont toutes les trajectoires tendent vers zéro (figure 5). Dans ce cas l’étude du phénomène «en loi» ou «en moyenne quadratique» ne donne pas du tout ce qui va se passer en vérité. Et, il ne s’agit pas là d’une pathologie mathématique, de tels cas sont extrêmement courants, en particulier dans les grandeurs économiques.
figures 2, 3, 4, 5
Par exemple si vous placez votre argent dans un fonds qui rapporte 4,5% et y réinvestissez vos dividendes en permanence, vous réalisez une croissance exponentielle. Si, en plus, il y a de l’incertitude qui vient ajouter de la volatilité et que cette volatilité dépasse 3% les oscillations sont telles qu’on s’approchera parfois de valeurs très faibles et qu’à la longue vous allez sûrement à la ruine.
Autre exemple, si vous placez votre argent à 10% et que chaque année vous jouez la moitié de votre fortune à pile ou face, l’effet cumulé de ce gain et de cet aléa vous mène irrémédiablement à la ruine. Les martingales positives qui tendent vers zéro sont habituelles dans les jeux équilibrés et ont une signification majeure en terme d’effondrement.
Les mêmes remarques s’appliquent évidemment si nous considérons une limitation de la dynamique exponentielle engendrant un frein conduisant à une équation de type logistique avec une courbe en cloche au lieu d’un comportement indéfiniment croissant.
Le point philosophiquement le plus significatif de cette phénoménologie, c’est que dans le cas où il y a de l’aléa, et que celui-ci dépasse le seuil dont nous avons parlé, il est impossible au vu de la trajectoire de mesurer ce qu’aurait été celle-ci sans l’aléa[[La question générale de savoir si on peut connaître la tendance déterministe sous un processus aléatoire a fait couler beaucoup d’encre. La réponse négative est une conséquence du théorème dit de Girsanov, cf [Bouleau 2004] p37, et pour une formulation mathématique précise cf par exemple [Lamberton et al. 2008].
]]. Autrement dit la dynamique exponentielle ne se voit pas sur ce qui est objectivement observable. Donc une observation telle que celle de la figure 1 ne permet pas de déceler une éventuelle dynamique exponentielle sous-jacente.
Stationnarité ne signifie pas «toujours pareil».
Une remarque un peu de même nature doit être faite à propos des processus stationnaires. Le plus souvent, et en particulier dans le cas gaussien, ils dépassent au bout d’un certain temps tout niveau donné à l’avance[[Ceci est vrai même pour les processus strictement stationnaires dont les lois marginales d’ordre n sont invariantes par translation.
]]. De sorte qu’une situation qui a l’air durable «sustainable» si on la considère «en loi», ne l’est pas dans les faits pour chaque trajectoire. Cela est dû au fait que la grandeur n’est pas bornée (sa loi marginale n’est pas à support compact) et que le hasard va la «promener» partout.
On pensera donc que ce phénomène ne peut pas se produire dans un monde fini. Mais comme nous le verrons la logique économique nous oblige à considérer que les prix ne sont pas bornés.
Dans un monde incertain, il y a des événements rares, et en général leur probabilité est inconnue.
Nous abordons maintenant des questions moins descriptives et plus sémantiques.
Si la connaissance nous vient des statistiques par expérimentation, les queues de distribution sont mal connues, c’est évident, et cette remarque est très souvent faite. Si la grandeur représente un niveau (d’eau, de température, etc.) les événements extrêmes sont mal probabilisés.
Mais il faut aller plus loin que ce constat, il y a le rôle de la signification dans le concept de rareté qui est liée à l’incertitude non probabilisable chère à Keynes. Qu’est-ce que ça veut dire «un événement rare» ? Un événement c’est n’importe quel sous-ensemble (borélien) des nombres réels. Les événements dont le design est complexe ont en général une probabilité mal connue, pour les mêmes raisons que celles qui concernent les événements extrêmes. Et le point philosophiquement central est que notre intérêt (au sens le plus général de ce à quoi nous portons de l’attention) est gouverné par la signification de l’événement, c’est à dire par l’impact de cet événement sur le reste du monde, impact qui n’est pas dans la modélisation étudiée mais dans, précisément, ce qu’elle ne modélise pas. Le transport de cette préoccupation dans le langage probabiliste du modèle est une opération difficile que le plus souvent on ne sait pas faire.
Décrire avec précision la forme mathématique des événements que nous craignons est particulièrement ardu pour un processus aléatoire. Un événement c’est alors une région dans l’espace des trajectoires. Pourquoi parler de celles-ci ou de celles-là ? On parle de celles qui nous intéressent, celles qui signifient quelque chose en terme de conséquences sur ce qui nous concerne, sur l’économie ou sur l’environnement. Mais l’intérêt que nous portons à tel ou tel phénomène n’est pas toujours objectif et même le plus souvent subjectif. C’est la raison pour laquelle les formes des familles de trajectoires temporelles qui ont une signification, qui peuvent être interprétées, ont en général une probabilité mal connue, car la rareté qui s’y attache est une rareté le plus souvent, au moins partiellement, subjective. C’est lié au fait que cela nous concerne particulièrement, nous ou d’autres.
Explicitons un peu ce point délicat mais important. En quoi le fait qu’un événement soit perçu comme rare par certains et pas par d’autres rend sa probabilité plus mal connue ? Le modèle est un résumé et nous le prolongeons par différentes interprétations, ce qu’il dit est précis sur ce qui est commun à ces diverses interprétations, car le modèle ne «parle» clairement que dans cette zone commune. Exception faite de quelques phénomènes purement physiques (émission de particules alpha, mouvement brownien, etc.) pour la plupart des situations intéressantes qui nous concernent (en environnement, en économie, etc.) le hasard des modèles probabilistes est une façon de représenter notre ignorance, une sorte de convention que l’on s’arrête à un ensemble de faits et d’interprétations et que l’on ne va pas pour l’instant au delà car ensuite les opinions divergent[[On pourra consulter sur ces questions mon livre Risk and Meaning, Adversaries in Art, Science and Philosophy, (Springer 2011) en particulier les chapitres II (Cournot’s «Philosophical Probabilities») et XI (Jacques Monod’s Roulette).
]].
III. Vulnérabilité de l’environnement soumis à la «rationalité» économique
Ce recueil de traits marquants de la phénoménologie des processus aléatoires a-t-il des conséquences sur la lecture que nous pouvons faire des travaux du Club de Rome et plus généralement de la question des limites de la croissance ?
La première question est de savoir si nous devons considérer qu’il y a de l’aléa et si oui d’où il vient.
C’est l’économie qui ajoute de l’aléa.
Toutes les grandeurs cotées, les matières premières et matériaux qui ont des prix, les sources d’énergie, les terrains et l’immobilier, fluctuent dans l’économie libérale actuellement pratiquée. Nous allons en approfondir les raisons dans un instant. Mais disons déjà que raisonner comme le fait l’équipe Meadows, sans utiliser de valeur monétaire, construit une modélisation qui est déconnectée des forces qui représentent les intérêts des agents (ou du moins des forces qui aux yeux des agents représentent leurs intérêts). Le fait majeur que l’économie est là — particulièrement dans la période néolibérale mondialisée où nous sommes — entraîne que le lien entre la lecture économique du monde, qui est très aléatoire, et les courbes déterministes du rapport Meadows ne se fait pas.
Le mécanisme d’obtention d’un prix de marché fabrique nécessairement de l’aléa.
On peut d’abord se poser la question de savoir si la formation des prix sur les marchés est de nature véritablement stochastique ou bien si elle suit un mécanisme chaotique complexe ? Cette question peut éventuellement intéresser les quants dans les salles des marchés, en revanche pour notre propos l’enjeu de cette question est faible. Les deux représentations ne sont que des modélisations. Ce qui compte c’est que ça bouge et qu’on ne soit pas capable de dire à l’avance de quelle façon ça évolue.
Sur les marchés organisés pour qu’un prix s’établisse il faut que l’organisme de cotation fasse un travail permanent sur le cours spot qu’il affiche. En effet si la population des agents se partage en deux : les haussiers qui pensent que ça va monter et que le prix actuel est trop bas, et les baissiers qui pensent le contraire, que se passera-t-il si on laisse les haussiers acheter ? Les prix vont monter. Et si on laisse les baissiers vendre les prix vont baisser. L’organisme qui fournit le prix spot va donc donner la parole tantôt aux uns tantôt aux autres pour qu’il y ait toujours du monde dans les deux camps. Techniquement il va chercher à maintenir une bonne liquidité autrement dit à réduire le plus possible la différence bid-ask (sur le détail du fonctionnement des marchés cf par exemple [Cont et al. 2010]).
On comprend ainsi que lorsque nous disons que la volatilité représente l’incertitude sur l’évolution du prix de la grandeur, nous pourrions aussi bien dire que cette agitation traduit la difficulté, pour l’organisme de cotation, de parvenir à partager les agents en acheteurs et en vendeurs afin de maintenir la permanence de la cotation.
Le prix d’une denrée qui se raréfie ne suit pas la courbe logistique du Club de Rome mais une courbe en «coiffure de punk «
Regardons cela plus au détail. Si nous prenons le prix du cuivre, ou le prix du bois de teck, la caractérisation première de la trajectoire temporelle est qu’elle est agitée, et que personne n’est capable à coup sûr de dire si ça va immédiatement monter ou descendre, encore moins pour le prix dans un an.
L’exemple le meilleur est celui du prix des ressources énergétiques fossiles. La pensée économique néo-classique au dix-neuvième siècle a proposé des modélisations déterministes. Dans cet ordre d’idée le plus connu est le modèle de Hotelling et ses perfectionnements. Sans entrer dans le détail des équations, une modélisation tenant compte de l’aléa donnera plutôt pour le prix une trajectoire telle que celle de la figure 3. Disons simplement que la perspective de l’épuisement des ressources jointe au fait que les agents économiques anticipent grâce à l’arsenal des produits à terme sur les marchés dérivés font que ces modélisations n’ont pas de sens sans un terme aléatoire prépondérant. Sinon les anticipations feraient exploser les prix dès maintenant. Pour que les prix n’explosent pas il est absolument indispensable que les agents croient qu’ils peuvent encore baisser avec une probabilité positive. Et ceci ne peut avoir lieu que si les prix sont aléatoirement agités. C’est ce qui se produit sur les marchés financiers pour la plupart des grandeurs pour des raisons similaires. Nous pouvons même comprendre qu’il ne s’agit pas seulement d’un petit peu d’aléa qui viendrait comme une brise apporter un peu d’agitation, il s’agit nécessairement d’une forte agitation qui vient effacer complètement la courbe déterministe sous-jacente. Ceci renforce la nécessité de raisonner comme si nous ne savions pas du tout quand se situerait le «peak oil» [Helm 2011].
Le «signal prix» des ressources épuisable fonctionne très mal.
La conséquence de ce fait est que la «réaction sage» à l’épuisement progressif des ressources par augmentation des prix qui devrait inciter les agents à développer d’autres sources d’énergie et des substituts aux minéraux manquants ne va pas se produire spontanément, par le seul effet des prix, car il sont trop changeants[[L’étude [Boyce 2011] qui porte sur le pétrole, le charbon et 78 minerais montre l’absence de corrélation entre la variation des prix et la variation des quantités extraites. Quant à l’impact de la variation des prix du pétrole sur l’économie il est complexe et variable cf. par exemple [Lescaroux et al. 2010].
]]. La chute, depuis un prix très élevé vers un prix bas, d’une ressource énergétique va tuer les investissements longs sur les technologies nouvelles.
Il est clair en effet que l’ampleur des incertitudes financières devant lesquelles on se trouve empêche de prendre de nouvelles orientations. Si on se fonde sur les estimations du GIEC, pour un objectif de stabilisation à 550 ppm[[ppm signifie parties par million, CO2eq signifie équivalent en gaz carbonique.
]] de CO2eq, le coût marginal de la réduction se situerait en 2030 entre 5 et 80$ la tonne soit un écart de 1 à 16. Dans ces conditions, l’industriel attentif au calcul énergie-carbone de son entreprise, doit évaluer des investissements dont la rentabilité, même avec certaines aides, est extrêmement incertaine, à comparer à un taux d’intérêt à long terme qui lui est fourni aujourd’hui par les marchés financiers. Plutôt que de se lancer le premier parmi ses concurrents dans une aventure, il est quasiment obligé d’attendre que les fourchettes se resserrent.
Ceci explique aussi qu’un système droits négociables comme en Europe ou de taxe sur les produits pétroliers ne peut être efficace pour ce qui est de susciter des techniques de décarbonisation et d’efficacité énergétique que s’il aboutit à une prévision annoncée quasi-déterministe de ce que sera le prix sur une période suffisante[[Les courbes montrent que la TIPP en France ou la taxe italienne qui majorent pourtant beaucoup le prix à la pompe ne satisfont pas ce critère.
]].
Les usages agricoles vernaculaires sont secoués et acculés à des comportements destructifs.
En matière d’agriculture et d’élevage, aux aléas météorologiques la mondialisation vient ajouter de forts aléas de prix [Daviron et al. 2011], qui par le fait que le gagnant prend la majeure part du marché (the winner takes all), finit par ruiner les pratiques traditionnelles durables et réactiver des comportements destructeurs et à courte vue. Ces comportements de survie peuvent d’ailleurs faire appel à des coutumes ancestrales d’agriculture ou de nourriture qui sont alors menées avec les technologies motorisées disponibles (brûlis de forêts, pêche et capture d’espèces menacées)[[Sur le jeu complexe des interractions cf [Warren 2011]. Par ailleurs l’impossibilité à occuper l’espace par des usages durables conduit aussi les régions pauvres à accepter les déchets mal recyclés des pays à forte production technique.
]].
La valuation économique des biens communs non marchands va les grignoter implacablement.
Une conséquence majeure du caractère aléatoire des prix économiques est que toute la logique théorique de l’analyse coût bénéfice (cost benefit analysis) en ce qui concerne l’environnement s’effondre.
Pour préserver l’environnement les économistes disent le plus souvent qu’il faut attribuer une valeur, donc un prix, à sa préservation. Cela présente des difficultés de diverses natures technique et politique ou juridique. Sur le plan strictement technique l’analyse coût bénéfice (ACB) parvient à attribuer un prix à des biens non marchands de telle sorte qu’une certaine cohérence avec des biens marchands comparables soit respectée[[De graves défauts de cette méthode vis à vis de l’environnement ont été déjà relevés cf [Hanley 1992] et [Ackerman et al. 2002]. Mais le point que nous soulevons ici est encore plus grave à notre avis.
]]. Les méthodes de l’ACB sont souvent expliquées dans les manuels[[Pour ces méthodes on pourra consulter [Pearce et al. 2006] document sans aucune discussion critique.
]], nous ne les reprenons pas ici de façon détaillée. De quelque façon qu’elle s’y prenne l’analyse coût bénéfice ne peut construire cette évaluation de prix qu’à partir des informations passées et présentes. Or les prix économiques sont fluctuants. Il se trouvera forcément un moment où l’aléa de l’évolution des prix économiques fera que le service rendu par le bien collectif sera estimé plus bas que ses substituts marchands qui pourront donc le remplacer. Certes on peut considérer que la préservation de l’environnement est une préoccupation d’importance croissante dans l’opinion et qu’à cet égard une ACB bien faite doit être mise à jour pour en tenir compte. Mais il s’agit de biens non marchands, par définition il n’y a pas de marché, l’estimation de prix du service écologique est forcément calme et quasi-déterministe, elle ne peut que suivre une courbe régulière (une convolution) et donc viendra un temps, tôt ou tard, où le service rendu par des moyens artificiels sera meilleur marché.
Cela est particulièrement grave en matière de biodiversité. Une démarche typique suivie par les économistes partisans de l’économie de marché consiste à mener l’évaluation grâce à un partage en deux catégories d’espèces[[Cf par exemple en France «Approche économique de la biodiversité et des services liés aux écosystèmes, Contribution à la décision publique», Centre d’Analyse Stratégique avril 2009.
]]. D’une part la biodiversité remarquable regroupant celles qui sont considérées par les instances ad hoc comme menacées, on calcule pour elles les frais de maintenance et d’entretien comme cela se passe pour les monuments historiques. D’autre part la biodiversité ordinaire qui comprend les autres espèces pour lesquelles on calcule le service écologique qu’elles rendent, depuis les procaryotes (bactéries) jusqu’aux eucaryotes (espèces supérieures) par les méthodes classiques de l’analyse coûts-bénéfices. On est alors en mesure d’acheter et de vendre toute partie de la nature ou de l’échanger contre des biens ou services déjà quantifiés par l’économie.
Il est clair que sur chaque question précise, sur le moyen de préserver telle espèce dans telle condition, les fluctuations des coûts légitimeront des substituts artificiels et la destruction irréversible de sites. Prenons une zone humide marécageuse spécifique en compétition destructive avec un gisement d’énergie fossile, les deux raretés n’évoluent pas de la même façon. Il y a d’un côté des fluctuations vives et aléatoires pour le cours de l’énergie fossile (dues aux anticipations spéculatives) et de l’autre des ajustements progressifs des calculs de «services écologiques». Le gisement sera un jour ou l’autre coté au dessus des estimations savamment calculées pour le marais. Cette méthode est pour l’environnement le bulldozer de la substituabilité.
Considérer la valeur économique comme une référence morale correcte pour décider dans l’incertain, revient à jouer la préservation de l’environnement au casino, tôt ou tard c’est la ruine.
La valeur fournie par le marché est encore considérée non seulement par les économistes orthodoxes mais par les décideurs politiques comme le reflet de l’effort que les gens sont prêts à consentir pour l’usage d’un bien, une fois fait le bilan des critères personnels et leur mélange dans le jeu collectif des échanges sociaux. Il y a en arrière plan l’image d’un monde harmonieux, en équilibre qui évolue lentement au gré des améliorations de performance des entreprises et des goûts des consommateurs. Cette image est héritée de la pensée néoclassique de Léon Walras et d’autres au 19ème siècle qui pensaient l’économie en terme inspirés du principe de moindre action de la mécanique et en décrivaient les états d’équilibre par des méthodes d’optimisation mathématique. Elle est complètement dépassée par les pratiques actuelles qui, tout en s’appuyant sur elle, se heurtent à de grandes difficultés pour penser sans croissance [Jackson 2009], en particulier à cause du marché des créances et la titrisation et à cause du «debt-based monetary system» [Sorrell 2010].
Mais en plus les prix fluctuent. Dans ces conditions la compétition entre un bien non marchand et une denrée commercialisée est inégale. Sous les coups des vagues les plus fortes des fragments de la falaise tombent dans la mer, mais ils ne remontent pas quand la mer est calme[[Parmi les exemples récents typiques citons l’exploitation des sables bitumineux au Canada, du charbon en Australie et le barrage de Belo Monte qui vient d’être décidé par la présidente du Brésil qui inonde 400000 ha de forêt et chasse 40000 personnes.
]]. Le point fort de cette remarque réside dans le fait que sur le long terme, notre organisation économique actuelle, avec les marchés financiers qui régissent les prix les plus importants, est incapable d’assigner des bornes aux prix qui fluctuent. Autrement dit le monde est fini, borné, sauf les prix.
Des prix cotés sur les marchés financiers aux prix de la vie quotidienne.
Faisons d’abord une remarque qui complète les arguments ci-dessus. Les cours des actions, les cours de devises et des matières premières fluctuent sur les marchés financiers comme nous l’avons dit. Mais le fonctionnement de l’économie dans la réalité sociale installe des sortes de «valves» qui font que certaines quantités stagnent ou croissent de façon aléatoire mais ne descendent jamais. C’est généralement le cas des prix immobiliers en centre ville en Europe, également le niveau des salaires pour certaines professions etc. Sans entrer dans les détails mathématiques le lecteur comprendra que l’existence de paliers et d’accroissements crée une situation aléatoire imprévisible dont les conséquences sont similaires à celles d’un processus qui monte et qui descend, dans la mesure où on ne sait pas du tout de combien cela va augmenter dans un laps de temps donné[[Une façon de le comprendre est par exemple de raisonner sur la courbe des variations relatives de la grandeur comme le font souvent les médias économiques où l’aléa des accroissements est plus visible.
]].
Il apparaît ainsi que la source première de l’agitation qui se propage dans l’économie vient des marchés financiers[[Plus précisément l’agitation vient de ce qu’un marché qui révèlerait sans ambiguïté une tendance temporelle par rapport à un placement sans risque de référence est instable dès lors que les achats et les ventes font resp. monter et descendre le prix.
]]. Nous aboutissons ici à l’idée que l’agitation qui est dévastatrice sur la zone frontière entre l’économie et l’environnement est là pour permettre aux marchés financiers d’exister. De là irons-nous jusqu’à dire qu’il suffirait de les supprimer ? Oui à condition de mesurer combien cette idée bouleverse nécessairement de fond en comble le libre échange. Car si les marchés financiers sont le principal fournisseur d’aléa, ils ne sont pas les seuls (il y a aussi de l’aléa dans les entreprises, dans les transports, dans les décisions de politique économique, etc.) et, en attendant qu’on sache penser, globalement et dans les détails, une économie durable qui ne restreigne pas trop nos habitudes de liberté, dans laquelle l’évolution temporelle des prix serait lisse, il est indispensable de réglementer et de résister de façon vigilante aux assauts aléatoires de la logique économique.
Conclusion
L’aléatoire cache les tendances. C’est pour cette raison précisément qu’il y a de l’aléatoire sur les marchés financiers, parce que si les tendances étaient claires, elles y seraient immédiatement exploitées et leur clarté disparaîtrait. En cachant les tendances l’aléatoire affaiblit les arguments qu’on peut tirer de la finitude du monde et des limites. C’est une des raisons pour lesquelles les alertes du Club de Rome n’ont pas été suivies d’effet : les courbes en cloches — quasi-exponential growth, overshoot, peak, decay or collapse — on ne les voit pas sur les prix. On a vraiment l’impression en regardant les cours des matières premières et des actions que l’économie est dans l’ensemble toujours dans la même situation. Comme les comportements des agents sont conditionnés par le paysage économique bien plus que par des considérations morales, le business as usual continue de plus belle.
Chez les Grecs l’aléa était du côté de la nature, on craignaient tant les fureurs de Poséidon qu’on était prêt à lui sacrifier une jeune fille. Jusqu’au 18ème siècle ce sont les «éléments» qui étaient aléatoires, les hommes n’occupaient réellement qu’une petite partie de la planète. Maintenant la situation s’est retournée, une des pires catastrophes comme le tsunami de Tōhoku fait 20000 morts, soit trois millionièmes de la population mondiale, beaucoup moins que le risque annuel de mourir d’un accident de la route. L’homme occupe la majeure partie de la planète et c’est lui, par ses raisonnements économiques et sa logique de marché qui est la principale source d’aléa. L’économie est maintenant l’environnement de l’environnement. L’économie néolibérale est devenue la tempête. C’est contre elle qu’il faut protéger le monde. Cela veut dire clairement que relayer les informations sur l’état physique présent et futur du monde n’est pas suffisant, on ne convaincra pas ainsi un agent économique qui voit les prix fluctuer. Il est indispensable d’attaquer le mal à la racine qui est cette façon qu’a l’économie de marché de «parler» en interposant l’écran de la volatilité sur le déterminisme de l’effondrement.
Appendice
A) Sur l’origine de la volatilité des prix sur les marchés. Robert J. Shiller commence son livre de 450 pages Market Volatility [Shiller 1989] par cette phrase «The origin of price movements are poorly known in all speculative markets for corporate stocks, bonds, homes, land, commercial structures, commodities, collectibles and foreign exchange».
Dans sa version la plus simple la théorie financière dit qu’un actif ne peut avoir une évolution prévisible que s’il est déterministe et varie comme le placement de base sans risque, le «bond». Elle dit aussi que sous certaines hypothèses souvent énoncées en termes d’information parfaite — quoique cette notion d’information ne soit simple que du côté de son écriture mathématique mais pas du côté de ce qu’elle représente — les actifs incertains sont des martingales c’est-à-dire des processus ayant «the center of gravity property» [Bouleau 2004]. On sait mathématiquement que ces processus sont très agités. On a donc une théorie qui justifie l’agitation des cours de bourse. Mais ceci ne constitue pas une véritable explication du comportement réel des cours car les marchés fonctionnent le plus souvent avec une information partielle, ils sont incomplets.
L’ensemble des études concluent à deux familles de raisons. D’une part l’effet de chocs véritables qui changent le paysage de l’activité : innovation technique, préférences des consommateurs, changements sociaux et politiques, modification des taux monétaires fondamentaux, etc. D’autre part des facteurs psychologiques dus à des variations d’opinion, changements dans la confiance, dans le goût du risque, etc.
Dans l’article nous avons esquissé une forme simplifiée d’argument de non arbitrage : un actif ne peut être prévisible si son évolution est différente de celle du «bond» car sinon il autoriserait des profits sans risques ce qui modifierait sa valeur. Cet argument n’explique pas le phénomène plus précis que l’agitation du cours (la volatilité) est d’autant plus grande que l’évolution de l’actif est plus incertaine.
Pour discuter ce dernier phénomène il faudrait disposer d’une définition de l’incertitude autre que celle donnée par la volatilité. Cela constitue un véritable programme de recherche avec un grand risque d’interprétations subjectives. On en est donc réduit à constater que la volatilité est en général plus basse dans les économies très diversifiées et très structurées des pays avancés et plus grande sur les actifs des pays émergents où les ignorances sur le futur sont grandes.
B) Nous choisissons deux graphes comme support visuel complémentaire de cet article parmi de très nombreux disponibles.
Prix réel du pétrole. Prix en Dollars et en Euros, normalisés au niveau de 1973. Source : EIA, Département US de l’énergie
Evolution mondiale du prix de l’alimentation, 2000=100. Source FAO
C) Si l’on rapproche les réflexions précédentes sur l’agitation indispensable des marchés à des événements récents concernant les stratégies politiques sur l’environnement tels que la vigueur du courant climato-sceptique, on peut légitimement se demander s’il n’y aurait pas un lien économiquement structurel qui, par les influx incitatifs du fonctionnement même du libéralisme, pousserait à la contradiction sur toutes les prédictions même les plus scientifiques, cf [Michaels 2008] [Oreskes et al. 2010].
Je ne dispose pas actuellement des analyses sociologiques qui permettraient d’apporter des faits là-dessus ni en Europe ni aux Etats-Unis, c’est la raison pour laquelle je laisse cette remarque hors texte en appendice comme une hypothèse.
Cette hypothèse donnerait une signification plus forte au terme de «merchants» dans le titre du livre de Naomi Oreskes puisque qu’il faudrait alors parler de «doute de marché».
Références
Ackerman F. and L. Heinzerling «Pricing the priceless : Cost-Benefit Analysis and Environmental Protection» Univ. of Pennsylvania Law Review Vol 150 (2002) 1553-1584.
Bouleau N., Philosophies des mathématiques et de la modélisation, L’Harmattan 1999.
Bouleau N., Financial Markets and Martingales, Springer 2004.
Boyce J. B., «’It Happened Too Early’: Prediction and Inference in the Hubbert-Deffeyes Peak Oil Model» Dec. 2011 (en ligne).
Cont R. and A. de Larrard «Price dynamics in a Markovian limit order market» December 2010. http://hal.archivesouvertes.fr/docs/00/68/17/62/PDF/ContLarrard2010.pdf
Daviron B., Dembele N. N., Murphy S. and Rashid S., «Report on Price Volatility» Draft report by the HLPE Project Team, 11 May 2011.
Lescaroux F. and Mignon V., «La transmission de la variation du prix du pétrole à l’économie» in Les effets d’un prix du pétrole élevé et volatil, P. Artus, A. d’Autume, Ph. Chalmin, J.-M. Chevalier, Rapport du CAE 2010
Hanley N., «Are there Environmental Limits to Cost Benefit Analysis ?» Env. and Resource Economics 2 (1992) 33-59
Harris G., Seeking Sustainability in an Age of Complexity, Cambridge Univ. Press 2007.
Helm D., «Peak oil and energy policy—a critique» Oxford Review of Economic Policy, Vol27, Nr 1, 2011, pp. 68–91
Jackson T., Prosperity Without Growth: Economics for a Finite Planet Earthscan 2009.
Lamberton D. and Lapeyre B., Introduction to Stochastic Calculus Applied to Finance, Chapman and Hall 2008.
Meadows D. H., D. L. Meadows, J. Randers and W. Behrens III, The Limits to Growth, Universe Books, 1972
Meadows D. H., J. Randers and D. L. Meadows, The Limits to Growth, the 30-year Update, Earthscan 2008.
Michaels D., Doubt is their product, Oxford Univ. Press 2008.
Oreskes N. and Conway E. M., Merchants of Doubt : How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming, Bloomsbury Press 2010.
Pearce D., G. Atkinson and S. Mourato «Analyse Coûts-bénéfices et environnement, développements récents» OCDE 2006.
Rosser J. B. Jr., «On the Complexities of Complex Economic Dynamics» Journal of Economic Perspectives-Volume 13, Number 4-Fall 1999-Pages 169-192.
Sorrel St., «Energy, Growth and Sustainability : Five Propositions» SPRU Electronic Working Paper n185 (2010).
Turner G. M., «A Comparison of The Limits to Growth with 30 years of Reality» Global Environmental Change 18 (2008) 397-411.
Warren R., «The role of interactions in a world implementing adaptation and mitigation solutions to climate change» Phil. Trans. R. Soc. A (2011) 369, 217–241 doi:10.1098/rsta.2010.0271