Le récent billet publié par Paul Jorion sur son blog (www.pauljorion.com/blog), intitulé Tu n’as rien vu à Fukushima, aborde de manière concomitante d’intéressantes questions mathématiques, économiques et philosophiques. Jorion examine cette réalité complexe et à échelle multiple qu’est la gestion du risque par les individus, les sociétés (au sens social du terme) et l’espèce humaine (la réflexion au niveau de l’espèce étant devenue une question éthique pertinente depuis que la technologie permet notre suicide collectif, comme l’a montré Hans Jonas). Contrairement à ce que pourraient laisser penser des modèles désincarnés programmés directement en binaire dans des automates boursiers, la lecture correcte des informations probabilistes, loin d’être neutre, est au contraire un enjeu philosophique et politique fondamental.
C’est d’ailleurs seulement l’apparence du hasard qui a vu publié le même jour dans la revue Nature Geoscience un article relatif au tsunami qui dévasta les rives du lac Léman en 563, article largement repris par la presse ce jour-là.
Nous sommes de plus en plus nombreux à prendre conscience de ces risques, avec lesquels nous sommes désormais condamnés à vivre, pour le meilleur et pour le pire.
Concrètement, on peut relever dans cette classe de problèmes, l’ensemble ouvert composé grosso modo de deux sous-ensembles : nucléaire militaire et civil, OGM, nanotechnologies, armes biologiques et chimiques, … dans le sous-ensemble des risques que nous créons nous-mêmes ; et catastrophes naturelles tels que : objets géocroiseurs, pandémie, tremblements de terre, tsunamis, … dans le sous-ensemble des risques qui sont générés par « la nature ». Cet ensemble est non fermé, car nous ne pouvons dénombrer avec certitude l’ensemble des risques qui le constituent, un constat qui a d’importantes implications pour la gouvernance.
En ce qui concerne les événements inventoriés dans le second sous-ensemble, nous ne sommes pas complètement impuissants car nous pouvons influencer directement le cours des choses – pour certains risques uniquement -, en agissant sur la probabilité d’occurrence de l’événement initial (évitement du déclenchement des pandémies), ou sur son niveau d’impact final (déviation d’un objet géocroiseur …). Pour les autres risques « naturels », dans l’état actuel de notre technologie, nous devons nous résoudre à mitiger les conséquences car nous ne maîtrisons absolument pas leur probabilité d’occurrence (tremblements de terre, tsunamis, … )
Evidemment, la réalité est plus complexe, et certains risques a priori « naturels » peuvent être causés par nous (tremblements de terre dus à l’exploitation des gaz de schiste, tsunamis dus à des glissements de terrain provoqués par l’Homme).
Deux éléments essentiels constituent « un risque » (on ne prendra ici en compte que les événements néfastes, mais les mêmes concepts s’appliquent aux événements favorables) : la « probabilité d’occurrence » d’un « événement » par intervalle de temps et dans un espace donné (comprise entre 0 et 1 ou 0 et 100%), et son « niveau de dégât potentiel ». Il s’agit bien ici, comme le rappelle Paul Jorion, d’un niveau « potentiel », et non « moyen ». Le risque pertinent pour la gouvernance, compris dans toutes ses implications morales, est composé sans aucun doute du niveau de dégât maximal. C’est là précisément que se situe le nexus de la réflexion qui va continuer à occuper les chancelleries au cours de ce XXIème siècle.
On peut montrer qu’il existe une borne inférieure au niveau de dégât d’un risque : 0. C’est-à-dire aucun dégât. Par contre, théoriquement, l’opposé du continuum n’est pas borné, on peut imaginer des dégâts tendant vers l’infini. En pratique, comme nous sommes des êtres finis, en quantité finie sur une planète finie, le risque connaît en fait une borne maximale. Ici, il faut évidemment adopter une échelle relative, forcément subjective selon ses croyances philosophiques. Pour nous, Occidentaux baignant dans une culture judéo-chrétienne, le risque maximal individuel pourrait être « la mort » (ou pour les croyants, la « damnation éternelle »), pour une ville ou un pays « l’anéantissement total » (de ses habitants, de ses infrastructures, …), pour l’espèce humaine « l’extinction » pure et simple.
La lecture probabiliste a donc des implications morales directes. Le risque maximal, ontologique, pour un individu ou notre espèce complète, ne peut en aucun cas être pris en compte de la même manière que les autres risques. La pratique appelée « gestion des risques » au sens courant, utilisée notamment par les financiers et les politiciens, n’intègre vraisemblablement pas cette nécessité. Il s’agit là d’une compréhension des probabilités au mieux partielle, naïve, ou pire, d’un usage des probabilités marqué d’un manque flagrant de conscience éthique collective. On peut à nouveau rejoindre Hans Jonas dans son énoncé du Principe Responsabilité : « Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre », qui actualise de manière judicieuse la maxime (pas uniquement chrétienne) « Aime ton prochain comme toi-même », qui restait suffisante tant que la technologie de l’époque ne permettait pas à l’Homme de suicider sa propre espèce. Appliquant cette règle à notre propre bénéfice, nous eussions tous souhaité naître dans un monde où l’on ne courrait pas le risque de périr vaporisé par un missile balistique, ou de devoir survivre d’une façon qui n’aurait plus rien d’authentiquement humain dans les décombres d’un holocauste nucléaire.
Le respect de cette « loi » formulée par Hans Jonas a deux champs d’application intéressants :
- Les risques connus ou connaissables, qui peuvent être déduits de la connaissance contemporaine des possibilités biophysiques dans l’univers.
- Les risques inconnus ou inconnaissables.
Dans le premier cas, il n’est pas nécessaire d’avoir prédit avec certitude l’occurrence d’un événement critique futur, ni d’avoir calculé sa probabilité exacte de survenance, pour obliger moralement l’individu ou l’Humanité à une action positive ou au renoncement à une action dangereuse, dans la mesure de ses possibilités. Il suffit, parmi plusieurs conditions suffisantes :
- de pouvoir montrer qu’un événement comparable s’est produit par le passé, qu’il a atteint tel niveau de dégât critique et que les conditions actuelles, en l’état des connaissances, n’interdisent pas une nouvelle occurrence.
- de pouvoir montrer, même sans archives du passé, qu’en l’état des connaissances, un enchainement causal singulier peut mener à un résultat final critique. La simple description qualitative des enchainements de mécanismes (tous vérifiant le principe de plausibilité) peut suffire à conclure à l’existence d’un risque moralement inacceptable.
Dans le second cas, celui des risques inconnus, c’est-à-dire inimaginables, on ne peut sans doute se montrer aussi catégorique quant à l’obligation morale « de faire ou ne pas faire ». En effet, une bonne compréhension de la logique scientifique implique que par exemple, je ne peux exclure a priori que mon éternuement ne va pas provoquer la fin du monde (A vos souhaits !). Tout le construit scientifique repose en effet sur des postulats scientifiques tels la stabilité éternelle des lois de la physique dans le temps… Dans ces cas là, il est difficile de concevoir une obligation morale immédiate. Nous ne sommes ni omniscients, ni omnipotents. Laissons cela à un Dieu éventuel.
On le voit en tout cas, le sens de risque « connu » n’émane pas de sa parfaite compréhension, prédictibilité ou de l’existence de traces indéniables d’occurrence passée, mais simplement d’un « état actuel des connaissances », qui donne une vision de la réalité, de ses mécanismes et donc du champ des possibles futurs. En effet, les risques « connus » sont parfois « inimaginés », c’est-à-dire que malgré un état des connaissances permettant théoriquement de les énoncer, personne ne les a encore jamais répertoriés et décrits.
Les subtilités de la réalité peuvent mixer ces aspects. Le cas d’un avion de ligne s’écrasant sur un bâtiment stratégique illustre parfaitement le cas de figure d’un événement à la fois connu (« bête » chute d’un avion sur un bâtiment) et méconnu (attentat terroriste coordonné impliquant un avion de ligne sur une cible stratégique). Il a en effet été décrit en 1994 par Tom Clancy, dans son roman « Dette d’honneur ». Dans ce livre, un Boeing 747 s’écrase sur le Capitole tuant la plupart des parlementaires et le président des Etats-Unis. 7 ans plus tard, la réalité a rejoint la fiction, quand deux avions s’écrasaient sur le World Trade Center de New York, un sur le Pentagone à Washington et qu’un quatrième avion, dont un groupe de passagers s’efforça de reprendre le contrôle s’écrasait au sol, alors qu’il avait pour cible présumée le Capitole.
Dans l’analyse des probabilités appliquées aux risques, d’autres notions sont négligées. La conjonction et la corrélation des événements sont des réalités tout aussi indispensables. Loin d’être parfaitement homogène et défini par le hasard, l’univers est au contraire parcouru de lignes de forces et de singularités. Il en va logiquement de même des probabilités appliquées. Ce qui fait de notre monde un contexte structuré, prédictible dans une certaine mesure, et non un magma informe, ce sont les lois de la physique, mais aussi les mécanismes de la biologie et dans le cas de l’Homme, les déterminations psychologiques, sociales et historiques.
P
our reprendre l’exemple, présenté par Paul Jorion, de l’événement « chute d’un avion », on peut sadiquement extrapoler et imaginer la chute d’un avion de ligne sur une centrale nucléaire à proximité d’une métropole. On a là la conjonction de trois probabilités : le risque qu’un avion s’écrase, le risque qu’il s’écrase sur une centrale nucléaire et le risque que cette centrale soit proche d’une métropole. Loin d’être indépendants, ces trois risques connaissent en fait une corrélation effective, puisqu’on peut constater que les centrales nucléaires ne sont pas construites dans des déserts humains, mais bien à proximité des grandes centres de population (pour des raison logistiques évidentes). Il y a de plus une corrélation plus forte qu’on ne pourrait le croire entre la probabilité qu’un avion s’écrase et la probabilité qu’il s’écrase sur une centrale nucléaire. En effet, les risques d’accident aérien sont notoirement plus élevés au décollage et à l’atterrissage, et les aéroports sont situés à proximité des grands centres urbains…
Appliquée au cas de Fukushima, cette réflexion sur les conjonctions et les corrélations d’événements est tout à fait révélatrice. Une centrale nucléaire a besoin de beaucoup d’eau pour assurer son fonctionnement, mais aussi sa sécurité, une bonne partie d’entre elles sont donc situées à proximité de la mer. Les parties du monde les plus peuplées sont elles-aussi situées en bordure de mer pour toute une série de bonnes raisons historiques et pratiques. Les tsunamis sont causés par des tremblements de terre, des glissements de terrain ou la chute d’objets géocroiseurs. La corrélation entre un tsunami et un tremblement de terre est donc gigantesque. Rappelons que le Japon est situé sur une des zones sismiques les plus intenses du globe…
Malgré cela, l’existence d’une singularité telle que la conjonction au Japon d’un tremblement de terre, d’un tsunami, d’une défaillance majeure d’une centrale nucléaire et d’une catastrophe humaine concomitante semble à tout un chacun a priori peu probable.
La fameuse formule de Bayes nous éclaire à ce propos.
Soit deux événements A et B, et leurs probabilités d’occurrence respectives P(A) et P(B). La formule de Bayes indique ceci P(A/B) = [P(B/A) P(A)] / P(B).
P(A/B) exprime la probabilité conditionnelle que l’événement A se produise, sachant que l’événement B s’est produit et inversement pour P(B/A). Deux événements indépendants produisent : P(A/B) = P(A) et P(B/A) = P(B). Lorsqu’il existe une corrélation forte entre A et B (ce qui est toujours le cas lorsqu’existe un lien de cause à effet de A à B), C’est-à-dire si P(B/A) > P(B), alors P(A/B) n’est plus égal à P(A), mais à [P(B/A) P(A)]/P(B). Si P(B) est > 0, on obtient que P(A/B) est toujours supérieur à P(A). Lorsqu’existe une corrélation entre événements, la probabilité de leur occurrence conjointe augmente.
La difficulté, dans la gestion des risques, est donc bien la prise en compte de ces probabilités conditionnelles.
Illustrons à nouveau : si la P(tsunami) est faible, et si la P(tremblement de terre) est tout aussi faible, par contre, la P(tsunami/tremblement de terre) est bien plus importante. Cette conjonction d’événements très fortement corrélée est donc presque à considérer comme un événement en soi, un risque à part entière.
Ajoutons un peu de piment : le risque révélé par Fukushima aurait pu être exprimé comme suit : P(nombreuses victimes dans une grande métropole au Japon/accident nucléaire/tsunami/tremblement de terre).
Bien que ces 3 événements conditionnants soient rares de manière indépendante, on peut montrer que leur conjonction est au contraire éminemment probable, pour la simple raison logique qu’il y a des liens de causalité énormes entre eux.
Faisons intervenir un dernier élément majeur. Ce risque de singularité plus important qu’imaginé, augmente d’autant plus si l’on tient compte du nombre de centrales existantes, et d’une durée d’utilisation suffisamment longue. Ces deux derniers facteurs aggravants jouent pour tous les événements individuels qui surviennent selon une certaine loi de probabilité. Par exemple, même si plusieurs lancers successifs d’un seul dé sont des événements indépendants, la probabilité d’obtenir un résultat singulier, comme un « 6 », augmente très vite avec le nombre de lancers de dés, jusqu’à s’approcher dangereusement de la probabilité certaine, soit 1 (vous pouvez vérifier vous-même et essayer de battre le record de lancer successifs d’un seul dé sans obtenir de 6… Pour ceux qui veulent gagner du temps et qui possèdent beaucoup de dés, vous pouvez les lancer tous simultanément et constater le même résultat…). La probabilité d’occurrence d’un événement sur un intervalle de temps augmente avec l’intervalle de temps choisi, mais aussi avec l’échelle d’analyse choisie. Comme le rappelle Paul Jorion, la nature a bien le temps, est vaste et en a déjà vu d’autres. Loin d’être une exception et le comble de la malchance pour l’Humanité, ce genre d’événement est en fait pratiquement inévitable, si l’on saisit bien les causalités, les corrélations et donc les probabilités conjointes. Ces probabilités sont notre pire ennemie, car elles sont les plus difficiles à cerner. Or elles sont beaucoup plus courantes qu’on ne le croit.
On le voit en filigrane, la comparaison de la technologie nucléaire avec la plupart des autres technologies telles que l’exploitation minière, la circulation routière ou même l’industrie classique, pour en souligner la prétendue « sécurité », est fallacieuse, et un non-sens, en raison précisément de la notion de risque potentiel maximal, d’une part, et d’une mauvaise compréhension de la probabilité d’occurrence effective, par non prise en compte des corrélations et des répétitions dans le temps et l’espace. L’usage d’un décompte comparatif de victimes « historiques » est encore plus ridicule, quand on a compris l’analogie avec le lancer de dé et le temps qu’il nous reste à vivre avec des unités de production nucléaire. Jamais aucun accident de voiture ne pourra tuer un million de personnes, ou toute l’espèce humaine, ni aujourd’hui, ni demain. Les échelles et l’analyse qualitative sont complètement différentes. Pour reprendre le vocable des économistes, les externalités potentielles des technologies de la classe du nucléaire civil sont telles, en termes d’impacts sur la vie d’autrui et de l’espèce, qu’il s’agit en fait d’une question politique planétaire. Pour prendre une analogie d’une échelle différente, la nucléarisation passive (qui met en péril la population des pays voisins de ceux qui sont dotés de centrales nucléaires) est condamnable à plusieurs titres, non seulement comme l’est le tabagisme passif infligé sans accord par les fumeurs, mais, de manière cette fois totalement spécifique, parce qu’elle met en danger notre espèce toute entière. Les arguments philosophiques et de gouvernance changent donc complètement.
Au vu de cette réalité, on pourrait considérer que la gouvernance devrait désormais se définir comme suit : direction qui est donnée par les gouvernants à l’action humaine collective, en fonction des connaissances disponibles et d’un avenir jugé souhaitable (un avenir répondant donc à la maxime de Jonas, qui laisse ouvert le champ des possibles pour toutes les générations à venir). Cette gouvernance aura pour objectif premier l’évitement catégorique du risque ontologique pour l’espèce humaine, ainsi qu’ensuite pour la collectivité et chaque individu isolément. À cette fin, elle mettra en œuvre les institutions nécessaires pour étudier, répertorier, analyser les risques critiques majeurs de disparition de l’espèce humaine, de la collectivité et d’individus et proposer des actions d’évitement ou de mitigation. Une fois cette tâche accomplie au maximum des possibilités contemporaines, elle pourrait ensuite veiller aux conditions de maintien de la « civilisation » (notre bagage culturel et scientifique) et aux conditions concrètes de bien-être des générations actuelles.
En particulier, l’attention et les efforts d’un gouvernement devraient être directement proportionnels au produit du risque d’occurrence d’un événement par son niveau de dégât maximal.
Le niveau de dégât maximal sera fixé à l’infini lorsque l’événement impliquera : pour un individu, sa mort ; pour une collectivité, sa destruction ; pour l’espèce, son extinction. Dans ces cas où le risque maximal est infini, même une probabilité proche de zéro sera prise en charge par le gouvernement, dans la mesure du possible, c’est-à-dire à un coût acceptable pour la collectivité, ceci étant le seuil le plus difficile (mais pas impossible) à définir.
Certains risques pourraient être pris économiquement en charge de manière mondiale, comme c’est actuellement le cas pour la mitigation du risque d’impact par un objet géocroiseur.
Contrairement à ce qui se passe aujourd’hui, en termes juridiques, la charge de la preuve incomberait à un gouvernement de montrer qu’il a tout mis en œuvre pour éviter le scénario fatal. Ce principe serait une grande nouveauté s’il était inscrit dans une Constitution.
Si on formule un principe de précaution selon ces termes, il a toute sa raison d’être (au même titre qu’une ceinture de sécurité dont le coût relatif est insignifiant a toute sa raison d’être dans une voiture pour éviter le risque fatal individuel).
Une solide formation probabiliste – pourquoi pas un cours de « probabilité morale » et pas seulement de « probabilité mathématique » ? -, imposés aux dirigeants-en-herbe, qu’ils deviennent financiers, politiciens ou ingénieurs, permettrait d’éliminer l’hypothèse de l’inconscience et de la naïveté, dans la gestion des risques qui pèsent sur l’Humanité.