L’absence de réactivité au changement climatique et la responsabilité de Karl Popper

vignettePopperClimatLe mathématicien Salomon Bochner, connu pour ses travaux d’analyse fonctionnelle [1] , a examiné dans un ouvrage profond le rôle des mathématiques dans l’expression de la physique et sa découverte [2] . Il y développe, on pourrait dire dans le sillage de la philosophie de Bachelard mais apparemment sans le savoir, une vision forte et aussi plus explicite de la fécondité mutuelle de ces deux disciplines. Il est amené à désigner la doctrine de Popper comme une des « théories majeures du théorique » qui pose que « pour la pertinence d’une théorie scientifique sa falsifiabilité est plus importante que sa vérifiabilité » où Bochner décèle un certain goût pour le « spectaculaire ».

Sans revenir sur le détail de la célèbre doctrine poppérienne [3], il vaut la peine d’approfondir les conséquences de son astucieux principe, audacieux aussi, qui permet d’esquiver les difficultés de la construction d’arguments, de méthodes et d’échafaudages de toutes sortes destinés à faire valoir une certaine valeur de « vérité ».
On a souvent insisté sur le fait que Popper renforçait ainsi les exigences de scientificité dans le but avoué d’écarter le marxisme et la psychanalyse du domaine de la science véritable. Les épistémologues se sont aussi posé la question de savoir si les avancées de la science procédaient historiquement de cette façon, au-delà du cas spectaculaire du passage de la mécanique classique (Newton, Lagrange, Hamilton) au cas de la relativité restreinte puis générale (Lorentz, Poincaré, Einstein) [4].
Mais on a peu évalué « la perte » qui résulte de la facilité du principe poppérien. Car il y a une perte bien plus grave que le simple fait que le territoire du savoir scientifique se trouve rétréci.

Deux conséquences gravissimes
La première conséquence du postulat de réfutabilité est que toutes les théories qui ne pourront être confrontées à une expérience cruciale que dans un avenir lointain, sont sur le même plan. Le critère de scientificité a une double action, il exclut de la science les théories qui n’énoncent pas clairement des faits qui pourront être soumis à l’épreuve des observations, mais a contrario il accueille dans la science à titre provisoire toutes les théories qui fournissent des prédictions explicites mais à long terme (ou dont la vérification nécessite des instruments dont nous ne disposons pas encore).
Aussi bien, la force des indices mesurés qui rendent plausible une représentation, la qualité d’une extrapolation de tendance, la vérification des effets des causes en des situations similaires, tout cela n’entre pas en ligne de compte. Ces présomptions de vérité ne sont que des « idées », des êtres dangereux sur lesquels Popper porte sa « malédiction ». A cette attitude hautaine il n’est possible de répondre que par une minutieuse analyse historique, ainsi que l’a commencée Feyerabend, pour montrer que les trésors d’intelligence qui ont fait la science que nous connaissons sont pour la plupart omis par une telle philosophie.
Mais les théories réfutables demain ou après-demain sont innombrables si on ne tient pas compte de leur plausibilité, c’est-à-dire de leur qualité, et du coup, seconde conséquence dramatique, la science perd toute valeur prédictive.
Si au lieu de science nous parlions de nourriture, c’est un peu comme si nous essayions de trancher clairement entre ce qui est sain et ce qui est mauvais par l’artifice des empereurs romains qui faisaient goûter leurs plats par des esclaves. Toutes les cuisines dont les effets ne se font sentir que « plus tard » sont acceptables, et parmi celles-ci celles qui sont souhaitables pour la santé ne sont pas distinguées.

La référence à un critère impossible à vérifier permet la destruction aisée de toute approche scientifique.
Compte tenu de la plasticité évidente du sens des mots de la langue naturelle, le critère de Popper ne peut avoir véritablement de sens que dans les sciences mathématisées. Il a pourtant été employé bien plus largement comme référence de scientificité, en linguistique, par exemple. Et Popper lui-même s’en est servi pour rejeter le matérialisme dialectique et le freudisme qui ne sont pas des théories déductives formellement. Il est curieux d’ailleurs que Popper n’ait pas senti l’intérêt d’évaluer l’économie néoclassique selon son principe car elle est bien une charpente mathématique appliquée au réel.
Le point central de cette affaire est qu’en désignant un noyau dur de la connaissance épistémologiquement valable, Popper ne s’est pas rendu compte qu’il laissait dans l’antichambre une foule de théories « prétendantes », très difficiles à distinguer les unes des autres. Il n’a rien fourni pour voir plus clair dans « la sélection des prétendants » problème permanent de la cité sur lequel a insisté Gilles Deleuze [5].
Popper est le père des faiseurs de doute. Ces mercenaires scientifiques qui contestent les seuils, jouent sur les vraisemblances statistiques et les intervalles de confiance, dans le but de faciliter des profits commerciaux [6]. Rejoints par les néo-sophistes qui se drapent dans l’attitude scientifique minimale [7].
Il ne se doutait pas que la science serait mise à contribution avec une insistance nouvelle devant les périls environnementaux… Criticism and the Growth of Knowledge paraît deux ans avant le rapport du club de Rome de 1972. Il ne se doutait pas non plus que les marchés financiers contribueraient à effacer toute prévisibilité de l’impact de la rareté des ressources sur les prix qui gouvernent les comportements des entrepreneurs et des ménages [8].PopperClimat1
Qui pouvait prévoir que le libre échange et le progrès technique allaient créer des situations où détruire la vérité scientifique serait l’enjeu d’intérêts économiques puissants?
PopperClimat3
Nous sommes contraints aujourd’hui de considérer le problème épistémologique en oubliant le « tour de passe-passe » poppérien, il faut déterminer dans un faisceau de théories concurrentes les plus solides, les moins farfelues, celles sur lesquelles des esprits divers et indépendants ont travaillé. Beaucoup moins expéditive, la méthode repose nécessairement sur une valeur différentiée accordée aux diverses interprétations en présence, et donc sur un travail collectif d’un type nouveau. Le fonctionnement du GIEC avec la variété de laboratoires contribuant au cinquième rapport en est une tentative explicite [9].

Mais pourquoi Popper se trouve-t-il avoir encore une telle influence ?
Tout d’abord parce que sa doctrine a été un très grand succès parmi les scientifiques. Jacques Monod fut un des premiers à la faire connaître et à la défendre en France, et elle fit florès rapidement à l’université et dans les établissements de recherche. Elle fut invoquée comme un leitmotiv dans les instances où sont discutées les attributions de crédits publics pour la recherche, également dans les jurys de thèse.
Donc la question devient celle de savoir pourquoi un tel accueil parmi les scientifiques. Et je réponds clairement, sans pouvoir développer aujourd’hui davantage, parce que c’est une approche typiquement masculine de la connaissance. J’y reviendrai.
Sans formuler les choses de cette façon Salomon Bochner nous met sur la voie lorsqu’il évoque une transition vers une nouvelle pratique moins spectaculaire que celle qui lance de grandes théories au dessus du réel : « it is my view, écrit-il, that as the theoritization and mathematization of physics and of other sciences progress, there will be, all around, fewer and fewer discoveries of the old-fashioned spectacular and wondrous kind. The sooner history of science recognizes this and acts on the recognition, the easier will be its transition from adolescence to adulthood. » [10]


[1] En particulier pour sa caractérisation des transformées de Fourier des mesures positives et pour ses travaux sur l’action des semi-groupes de convolution sur les indices des semi-groupes d’opérateurs (subordination au sens de Bochner).
[2] The role of Mathematics in the Rise of Science, Princeton Univ. Press 1981.
[3] Cf sur ce blog « Le talent interprétatif condition de la connaissance » et mon livre à paraître La modélisation critique Editions Quae 2014, chapitre 3.
[4] Cf Adolf Grünbaum dans une série d’articles dont « Is the method of bold conjectures and attempted refutations justifiably the method of Science? » Brit. J. Phil. Sci., 27, p. 105-326., et le célèbre ouvrage Criticism and the Growth of Knowledge, Lakatos I., Musgrave A. (eds) , 1970, Cambridge Univ. Press où Thomas Kuhn et Imre Lakatos proposent d’autres « théories du théorique » et où Paul Feyerabend nie toute vision unifiée du théorique.
[5] Deleuze G., 1969, Logique du sens, « Platon et le simulacre » (appendice), Les éditions de Minuit.
[6] Cf Michaels D., 2008, Doubt is their product, Oxford University Press; Oreskes N., Conway E. M., 2010, Merchants of Doubt : How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming, Bloomsbury Press.
[7] Sur le concept d’attitude scientifique minimale cf Was Anthropogenic Climate Change Falsifiable in 1925?
[8] Cf sur ce blog « les marchés fumigènes ».
[9] On voit bien ne serait-ce qu’en lisant les préoccupations explicitées par le groupe I du GIEC que le travail de vérité ne se ramène pas à considérer la forme analytique des représentations :
At a September 2008 meeting involving 20 climate modeling groups from around the world, the Working Group on Coupled Modelling, agreed to promote a new set of coordinated climate model experiments. These experiments (CMIP5) […] will notably provide a multi-model context for 1) assessing the mechanisms responsible for model differences in poorly understood feedbacks associated with the carbon cycle and with clouds, 2) examining climate “predictability” and exploring the ability of models to predict climate on decadal time scales, and, more generally, 3) determining why similarly forced models produce a range of responses.
CMIP5 has more than twice as many models [that was available at the time of the IPCC AR4], many more experiments (that also include experiments to address understanding of the responses in the future climate change scenario runs) […] A larger number of forcing agents are treated […] Black carbon aerosol is now a commonly included forcing agent. Considering CO2, both ‘concentrations-driven’ projections and ‘emissions-driven’ projections are assessed from CMIP5. These allow quantification of the physical response uncertainties as well as climate–carbon cycle interactions.
[10] Opus cit. p106. Ceci est écrit en 1981, l’ouvrage du physicien Dennis Gabor The Mature Society est de 1972.

Ce contenu a été publié dans Environnement, Mathématiques, Philosophie, avec comme mot(s)-clé(s) , , , , , , , , . Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *