Quelle est la nature du savoir de la Nature ?

Dominique Bourg interroge Nicolas Bouleau sur son livre Ce que Nature sait, la révolution combinatoire de la biologie et ses dangers, PUF 27 janvier 2021.

Comme votre investigation porte frontalement atteinte à la vision aventurière de la connaissance scientifique, il serait bon je pense d’esquisser le paysage de l’épistémologie dans l’après guerre : les épistémologies centrées sur la physique, la sociologie des sciences et les science studies. Et l’émergence d’un nouveau scientisme avec la biologie du génome dont nous allons parler dans cet entretien.

La pensée sur la science au 20ème siècle fut marquée par une synthèse remarquable qui peut être vue comme l’aboutissement de l’épistémologie classique et comme point de référence des problématiques plus récentes. Il s’agit de l’ouvrage célèbre Criticism and the Growth of Knowledge (1965) où Karl Popper développait l’idée que la science se distinguait des idéologies parce que ses thèses étaient réfutables par l’expérience, notons que le biologiste Jacques Monod contribua à l’audience de cette philosophie en France, Thomas Kuhn étudiait les révolutions scientifiques et montrait l’importance des exemples clés ou paradigmes en période normale jusqu’à ce que la nécessité impose des révolutions conceptuelles, Paul Feyerabend défendait l’idée qu’aucune épistémologie générale ne légiférait la progression du savoir, et préconisait aussi un empirisme pluraliste, enfin Imre Lakatos plaidait pour des programmes de recherche.
Ces auteurs raisonnaient comme s’il était évident que faire avancer la science de quelque manière que ce soit était toujours et forcément une bonne chose. On était juste avant le premier rapport du Club de Rome. Ces visions ne tenaient pas compte de l’imbrication de la science et de la technique : la science utilise les dispositifs techniques novateurs, mais surtout elle élargit la technique par des innovations physiques et chimiques qui sont accueillies favorablement si elles dynamisent l’économie. D’ailleurs durant le 20ème siècle un autre courant de pensée important s’était développé montrant que la technique nous entraîne sans que nous sachions où. Clairement la science est mise en face de problèmes nouveaux : l’épuisement des ressources naturelles, le réchauffement climatique, la mutilation de la nature vivante. On a appris ce mois de novembre 2020 que les vertébrés ont chuté de 68% depuis 1970. Les thèses de nos quatre épistémologues apparaissent aujourd’hui quelque peu stratosphériques.
Quant au courant de la sociologie des sciences : on constate que le socio-relativisme de la connaissance marche trop bien comme procédé opérationnel, ce qu’on parfaitement compris les firmes, les marchands de doute et les climato-sceptiques. Aujourd’hui dans le brouhaha des égos, les vérités de base de la science sont capitales et ce courant apparaît sous sa vraie nature : une préciosité universitaire incapable de fonder une pensée collective, sans armes devant l’économie de consommation.
Il se trouve qu’à peu près en même temps que les débats que nous venons de mentionner s’est développé un scientisme nourri des nouvelles perspectives de la biologie. C’est ce que j’ai tenté d’approfondir : Beaucoup de scientifiques croient qu’on peut refaire la nature en mieux. Je crois qu’ils ont mal mesuré les dangers de cette ambition.

Votre démarche n’est pas seulement critique, elle propose un véritable fondement nouveau à notre pensée de la nature en s’appuyant sur la phénoménologie particulière de la chimie et de la biologie. Peut-être peut-on commencer par cela et que vous expliquiez ensuite les conséquences que vous en tirez sur la biologie de synthèse en termes de dégâts possibles.

Il faut prendre conscience du bouleversement que constitue la révolution combinatoire. Le fait que les êtres vivants sont le résultat de combinaisons moléculaires maintenues en équilibre transitoire dans les systèmes ouverts qui reçoivent et évacuent énergie et matière.
L’ADN était déjà pointé comme molécule à la fin du 19ème siècle, mais il faut se souvenir qu’à cette époque, et encore au début du 20ème siècle, plusieurs grands savants ne croyaient pas à l’existence des atomes. La structure en double hélice fut découverte dans les années 1950 ainsi que le code génétique : les 4 nucléotides s’alliant 2 à 2 par liaison hydrogène adénine-thymine et cytosine-guanine. De sorte que l’ADN est un mot formé de 4 lettres de longueur quelques dizaines ou centaines de millions. Il y a 220 millions de paires pour le premier chromosome humain.
Le premier soubassement de mon argumentation réside dans le fait que les risques qui s’attachent à une nouvelle molécule lancée dans la nature ne sont pas probabilisables. Ils ne relèvent pas d’une pensée classique sur les risques comme les ingénieurs et les économistes l’ont perfectionnée jusqu’à présent. Le concept d’incertitude (phénomènes dont la loi de probabilité est mal connue) ne convient pas non plus. Il ne s’agit pas de hasard mais d’ignorance pure et simple. Pour bien le comprendre il est bon de simplifier le fonctionnement des combinaisons où intervient l’énergie, la température, le potentiel chimique, les catalyseurs, etc., pour ne garder que la combinatoire proprement dite. Oublier toute la thermodynamique, et on a pour cela une combinatoire toute trouvée : l’arithmétique.
Dans cette simplification les énoncés sont les molécules. Les théorèmes c’est-à-dire les énoncés démontrés par des chaînes logiques à partir des axiomes sont les molécules qu’on sait synthétiser. On peut dire qu’en arithmétique on essaie de synthétiser des énoncés avec la combinatoire logique comme en biologie on tente de synthétiser des molécules.
Seulement là ce qu’on sait est très éclairant : on sait que l’on peut démontrer des théorèmes avec un ordinateur, mais il les fournit alors dans un ordre qui est sans rapport avec ce qu’ils signifient. Et si on se donne un énoncé, il n’y a pas d’algorithme pour dire si c’est un théorème ou non. C’est la phénoménologie de l’indécidable et de l’incomplétude découverte dans les années 1930 par Gödel, Church et Turing.
Par exemple l’hypothèse de Riemann est soit vraie soit fausse soit indécidable, il n’y a pas de probabilité là dedans. On ne sait pas. On peut résumer ces travaux des logiciens en disant qu’il n’existe aucune axiomatique donnant toutes les propriétés des nombres entiers. Les nombres entiers nous réservent des surprises.
On peut montrer que la complexité de la combinatoire biologique fait qu’elle présente nécessairement elle aussi ces phénomènes où l’indécidable apparaît. Certains auteurs l’ont fait remarquer. Il reste cependant une différence importante, dans le cas de l’arithmétique, le contexte, qui est la logique des prédicats, n’est pas perturbé lorsqu’on produit un théorème nouveau, alors que le contexte naturel lui est évidemment perturbé par l’évolution.
Comme les nombres entiers, la combinatoire moléculaire apporte du nouveau tout à fait fondamental. Elle révèle des assemblages qui peuvent n’avoir jamais été rencontrés par la nature dans son évolution. Nous allons y revenir. Pour l’instant notons que l’expression employée plus haut « sans rapport avec ce qu’ils signifient » veut dire du côté de la biologie que des modifications réalisées de façon automatique seraient a priori sans rapport avec les fonctions des êtres vivants, leur phénotype et leurs avantages pour se nourrir et se multiplier. Le biologiste comme le mathématicien doit travailler sur le sens.
Il est intéressant à ce sujet de relire L’évolution créatrice de Bergson car celui-ci s’est trompé mais avait une intuition très proche de la vérité. Il mit toute la science du côté de ce qu’il appelle le mécanistique par opposition à la nature qui elle est du côté créatif. C’est une erreur, il a mal placé la césure. L’arithmétique est du côté du créatif et le vivant est créatif par sa combinatoire. Il faut mettre la césure juste au dessous de l’arithmétique. Si on retire à celle-ci la multiplication en ne conservant que l’ordre de la succession et l’addition alors c’est décidable et complet, c’est mécanistique, les algorithmes sont alors capables de dire si les énoncés sont des théorèmes.
Nous allons y revenir mais je voudrais insister d’abord sur des conséquences plus concrètes. Le non probabilisable explique aussi que la nature ne se modélise pas avec une optimisation dans l’espace à n dimensions. C’est très important. Un écosystème ce n’est pas un système avec entrées et sorties et des paramètres que l’on peut contrôler. Ces modèles à n dimensions sont l’abus de langage permanent des optimisateurs, ce que j’appelle le Rn-isme (prononcer errènisme). On mesure tout ce qui est mesurable dans une zone, ce qui rentre, ce qui sort, en énergie, en produits chimiques et en espèces vivantes, en fonction des paramètres de température, de pression, d’hygrométrie, etc. et ensuite on pense être capable de dire ce qui va se passer si on change les paramètres, si on construit des immeubles autour de la zone, etc. C’est le Rn-isme. Bien des thèses en environnement tombent dans ce travers. On a négligé toute la part du vivant qu’on ne connaît pas : les êtres microscopiques et les propriétés cachées du vivant macroscopique. Et c’est l’antichambre de l’économisation de la nature, calculer ce qu’elle apporte comme choses qui ont de la valeur marchande et comment l’optimiser.

Pouvez-vous expliquer à partir de ce point de départ comment votre raisonnement vous conduit à votre thèse de l’existence d’un savoir de la nature ?

Pour moi la nature sait des choses que nous ne saurons jamais. Ce savoir nous concerne parce que nous sommes des êtres vivants de chair et d’os baignés dans un microbiote bactérien et parce que nous vivons dans une biosphère maintenue vivante par ce savoir de la nature.
Il y a plusieurs approches : D’abord les ordres de grandeurs : le temps long et la combinatoire.
La très longue expérience de la nature, de disons de 3,5 milliards d’années, lui a permis d’expérimenter des combinaisons extrêmement nombreuses, tellement nombreuses que jamais dans le temps d’une civilisation humaine nous ne pourrons fabriquer toutes les molécules qui ont été essayées.
Mais ce faisant il faut dire aussi qu’elle n’a exploré qu’une infime partie des possibles. C’est très important car cela fait comprendre le type de risque de l’innovation combinatoire en biologie : on saute facilement dans un espace jamais visité par la nature.
Par ailleurs, c’est un point essentiel, la nature a expérimenté mais elle a aussi effacé définitivement certaines expériences qu’elle a menées. L’effacement est dû à plusieurs phénomènes : les mutations par délétion, les disparitions d’allèles sans mutation dans les populations hétérozygotes peu nombreuses, les extinctions locales ou massives qui se sont produites dues aux maladies, aux cataclysmes divers, et aux instabilités de la sélection naturelle.
Il en résulte que la nature actuelle est une zone privilégiée des combinatoires possibles. Elle est faite des combinaisons, disons des ADN, qui sont les survivants d’une très longue expérience, qui sont donc issus de ceux qui ont résisté par le passé. Mais il faut dire aussi que ces survivants ne sont pas des archives cumulatives, ils sont des témoignages partiels du travail de la sélection. La phylogénie moléculaire perfectionne certes la paléontologie comparative mais reste lacunaire par le fonctionnement même de la combinatoire.
Donc la nature est dotée d’un savoir dont la typologie est particulière, que l’on peut décrire en disant qu’elle a acquis une capacité de réaction aux perturbations qui apparaissent chez les êtres vivants actuels, perturbations qui sont viables compte tenu des autres êtres vivants. Cette résilience lui vient de son expérience que nous ignorons dans son déroulement exact car le contexte où se sont produites les mutations est inconnu. En revanche elle ne sait rien sur les perturbations dues à des artefacts.
Et la plupart des molécules que l’on peut fabriquer avec les molécules d’ADN actuelles par scissions et recollements n’ont jamais été rencontrées par la nature. Si une telle molécule apparaît dans une coupelle, elle doit rester confinée. Si elle s’échappe on ne saura pas d’où elle vient et on ne saura pas quels dégâts elle peut faire. Par exemple certains chercheurs ont fait des expériences avec un ADN artificiel comprenant deux bases nouvelles supplémentaires portant ainsi à six le nombre de nucléotides. Là on saute très loin en dehors de tout ce qui s’est passé depuis le début du système solaire.
D’un point de vue philosophique je pense fondamentalement que pour les molécules nouvelles, leurs propriétés, non seulement ne peuvent pas être connues, mais ne peuvent pas être énoncées comme des propriétés de ce petit bout de mécano en tant que tel, parce que les propriétés seront découvertes en même temps que les combinaisons qui auront lieu avec des choses qui existent. Autrement avec les six nucléotides, on est dans le vide cognitif absolu.
Evidemment les biologistes ont pris conscience de certains de ces dangers, d’où les recommandations éthiques d’Asilomar et de Cartagène, mais malheureusement elles restent aujourd’hui actuellement au statut de vœux pieux, pour de multiples raisons dont la principale à mon avis est que cette prudence va à l’encontre de la compétition économique pour des productions plus performantes.
Il faut dénoncer aussi les approches réductionnistes à la Fisher-Hamilton-Dawkins-Valiant [Ronald A. Fisher (1890-1962), William Donald Hamilton (1936-2000), Richard Dawkins (1941- ) Leslie Valiant (1949- )]. Il s’agit d’un courant qui sur-interprète la portée d’une modélisation mathématique du processus de l’évolution par un processus d’apprentissage. On voit assez bien ce que peut être ce processus, si on traduit les idées de Darwin de la survie du plus apte en les actualisant par les mécanismes de l’hérédité connus aujourd’hui : il y a du hasard mais aussi des fonctions à améliorer. L’algorithme du « recuit simulé » (simulated annealing en anglais) est le plus simple de ce genre et peut être décrit de la façon suivante : pour trouver le maximum d’une massif montagneux irrégulier on progresse en tirant un point dans un disque centré sur le point précédent (c’est le hasard) et on regarde si l’altitude en ce point est supérieure ou non à celle du point précédent (c’est l’optimisation des fonctionnalités), et on recommence. Ce type d’algorithme peut être élargi à plusieurs fonctions pour représenter celles du vivant et tenir compte des lois de la dynamique des populations, on arrive ainsi à des modélisations puissantes pourvu qu’on soit en mesure de caler les données pour alimenter le programme et c’est là que le bât blesse. Si l’on suit les travaux de ces auteurs, on s’aperçoit que les facteurs de groupe d’une part, les facteurs de contexte d’autre part, passent progressivement du statut de choses difficiles à connaître au statut de choses que l’on néglige.
C’est un point capital : le contexte est toujours négligé par les réductionnistes. Et ceci nous fait déjà toucher du doigt une question fondamentale qui se pose de façon récurrente autour de la biologie de synthèse. Les nouveaux êtres vivants fabriqués sont-ils la même chose que s’ils avaient été inventés par la nature ? Cela repose sur la croyance qu’existe un ensemble des natures possibles auquel on peut se référer et sur lequel s’appuyer pour raisonner. C’est croire que les êtres vivants actuels sont une sorte de « société vivante » comme il pourrait y en avoir beaucoup d’autres engendrées par le jeu des combinaisons génomiques tirées au hasard puis sélectionnées parmi les viables. Toutes ces sociétés vivantes constituant des natures alternatives aussi légitimes et intéressantes que la nature que nous avons.
Mais ces natures alternatives n’existent que dans l’inconscient onirique de biologistes rêveurs. Le monde n’est pas une salle blanche où l’on pourrait savoir exhaustivement les êtres vivants qui participent à l’expérience, ce n’est pas non plus une chaîne de Markov qui se promène dans son « espace d’état » que l’on connaîtrait. Là est la tare fondamentale de l’évolution pensée par Fisher-Hamilton-Dawkins et consorts.

Nous touchons ici une des formes les plus envahissantes du scientisme contemporain.

Dès le début des années 1970 Alexandre Grothendieck dénonce le scientisme comme une nouvelle religion, il écrivait

… la seule religion qui ait poussé l’arrogance jusqu’à prétendre n’être basée sur aucun mythe, quel qu’il soit, mais sur la Raison seule, et jusqu’à présenter comme « tolérance » ce mélange particulier d’intolérance et d’amoralité qu’il promeut.

On peut citer également Roger Godement, autre mathématicien, qui écrivait dans Le Monde en 1970

Le vrai problème, qui regarde les scientifiques en face depuis Hiroshima, est le suivant : comment transformer une société que ses dirigeants orientent vers la puissance, la mort et la destruction de la nature, la mise en carte de l’homme, en une autre qui serait, elle, orientée vers l’amitié, la vie, la conservation et la libération.

Je voudrais que vous nous expliquiez pourquoi les mathématiciens se sont trouvés les premiers à s’élever contre cet optimisme technique joyeux et irresponsable.

Il y a évidemment dans le fonctionnement ordinaire de la science de l’incertitude à accepter, si on avance c’est qu’on ne savait pas tout (pensons à la situation actuelle de la médecine avec la pandémie). Mais au delà de l’incertitude, on doit accepter aussi une ignorance définitive et cela est dû à la combinatoire.
L’origine de cette prise de recul est une belle histoire qui mérite d’être contée. Lors du congrès international de 1900 à Paris le grand mathématicien David Hilbert fit une des plus mémorables interventions en proposant 23 problèmes irrésolus à la sagacité des mathématiciens pour le siècle qui s’ouvrait. Ils donnèrent lieu à des recherches intenses qui fournirent maintenant presque toutes les réponses. C’est ce que pensait Hilbert. Dans la rédaction écrite de son exposé il explique que toutes les conjectures tomberont les unes après les autres soit montrées exactes soit montrées fausses. Il écrivit que jamais les mathématiciens n’accepteront de dire ignorabimus, nous ne saurons jamais.
Et pourtant c’est ce qui fut démontré trente ans plus tard, par Kurt Gôdel, Alonzo Church et Alan Turing. Il y a de l’indécidable. L’arithmétique est incomplète.
Que les mathématiciens aient été à l’avant garde de cette prise de conscience n’est pas surprenant. En mathématiques on peut démontrer qu’il y aura ignorance définitive. Dans les autres disciplines on rencontre cette éventualité mais on ne dispose pas des outils pour la démontrer. L’origine de cette ignorance fondamentale est due à ce que la combinatoire nous réserve des surprises. La dangerosité d’une nouvelle molécule lancée dans la nature est strictement inconnaissable avant qu’on constate ses combinaisons.
Une vingtaine d’années plus tard, dans les années 1950 lors de la révolution combinatoire de la biologie, les biologistes se sont empressés d’oublier les limitations internes des formalismes. Pierre Samuel écrivait en 1971

L’oubli des limitations de la science est la cause directe de plusieurs des mythes qui constituent le credo du scientisme.

Et dès lors que la limitation n’est pas démontrée à l’intérieur des disciplines, on s’emploie à minimiser sa portée. Aussi n’est-il pas surprenant que les arguments d’autorité pour le progrès se multiplient.
Le prix de la banque de Suède d’économie a été décerné en 2018 à William Nordhaus qui s’était fait connaître en critiquant le premier rapport du Club de Rome selon l’argument qu’ils avaient oublié le progrès. Jean-Marie Lehn, prix Nobel, signataire à la fois de l’appel de Heidelberg qui rappelons-le tentait de saper la pensée écologique juste avant le sommet de la Terre de Rio, et de la lettre ouverte pour les OGM contre Greenpeace, plaide contre tous les freins aux OGM dans un article intitulé « Le chercheur ne croît pas, il pense », question pourtant déjà visitée par Heidegger qui considérait au contraire que la science n’avait pas les moyens de sa propre gouverne. Et maintenant Emmanuelle Charpentier et Jennifer Doudna sont nobélisées sur Crispr-cas9 pour avoir trouvé ces outils soi-disant pour soigner, en fait qui facilitent les agissements des bricoleurs et de ceux qui veulent nuire. Dans le magazine Nature, (22 Dec. 2015) celle-ci explique qu’un jeune doctorant a créé un virus qui, une fois respiré par des souris, provoque des mutations dans leurs poumons. Elle souligne qu’une minuscule erreur de conception aurait pu permettre que ce virus fonctionne aussi chez l’homme : « Il m’a semblé incroyablement effrayant, écrit-elle, qu’il y ait des étudiants qui travaillent sur une telle chose. Il est important que les gens commencent à comprendre ce que cette technologie peut faire ». Quelle naïveté de croire que les biologistes adultes soient plus sages que les jeunes !
Ceci se relie aux biais de notre société médiatisée, on fait volontiers parler le savant qui dit « je sais », ça fait une émission, tandis qu’on ne voit pas l’intérêt d’inviter celui qui dit « je ne sais pas et je pense que nous ne saurons jamais ».

A cet égard il est frappant que sur le climat les scientifiques qui prêchaient la prudence n’étaient pas écoutés et ne le sont toujours pas, alors qu’en biologie c’est l’inverse les scientifiques se sont approprié une communication triomphaliste.

Oui, au point qu’ils laissent diffuser sans réagir des propos purement fantasmagoriques.
En janvier 2016 le magazine Science et Vie déroule un long article à propos de Crispr-cas9, avec des illustrations faisant illusion d’une présentation scientifique, dont les têtes de chapitre sont les suivantes :
– Optimiser les gènes pour doper les individus « rien ne sera plus facile que de modifier les gènes qui régulent nos muscles et nos globules rouges »
– Soigner toutes les maladies « même des maladies non génétiques comme le cancer et le sida pourraient être traitées par des cellules mutées »
– Éradiquer les espèces nuisibles
– Corriger le patrimoine génétique de toute sa descendance – Inventer de nouveaux animaux de compagnie
– etc.
– Ressusciter des animaux disparus
– Sauver les espèces en danger.

Quel effet ces mensonges peuvent-ils faire sur les jeunes ? Il s’agit de manipulation pure et simple. Je pense aux pauvres professeurs qui ont à contenir ces flots de boniments par des moyens désintéressés !
La prudence est aux antipodes du profit économique, il est maintenant indispensable de la réhabiliter. D’autant plus que l’eugénisme rampant auquel on a déjà entr’ouvert la porte est une vigoureuse force économique qui va s’enflammer sans aucune sagesse. Si Marx et Freud ont comparé les religions à de la drogue, l’addiction sera là bien plus forte et inscrite dans les gènes. J’en ai évoqué les raisons précises sur mon blog ( L’eugénisme qui couve est-il résistible ?).
Il y a évidemment une croyance à la providence derrière le scientisme fonceur de beaucoup de biologistes selon le principe « on peut tout essayer ça s’arrangera ». Je consacre une partie de mon livre à une histoire de la providence dans la pensée philosophique et scientifique, assez convaincante je crois.
Mais il faut laisser au lecteur d’autres aspects que je développe dans l’ouvrage liés à ce savoir très particulier de la nature, savoir partiel et en même temps le plus précieux qu’on puisse avoir sur ces questions de combinatoire.

Pouvez-vous revenir sur un point pour être bien clair, sans dévoiler les autres thèmes que vous abordez dans le livre, il serait bon de mieux expliquer l’importance que vous accordez à l’ignorance définitive ?

Oui, l’ignorance qu’elle soit définitive ou provisoire, on pourrait dire que ça ne change rien. Ça veut simplement dire qu’on ne sait pas. Je pense au contraire que c’est un changement radical de vision. Ce dont les scientistes nous rebattent les oreilles, c’est cela : on ne sait pas mais on est sur le point de savoir. Ce qui signifie continuons comme avant, selon la méthode « essayer pour voir ». La doctrine sous-jacente n’est pas proclamée mais elle est appliquée : les OGM sont acceptés et se répandent pour des raisons économiques et il en sera de même pour l’eugénisme qui est à portée de main.
Ma conviction — j’ai écrit plusieurs essais sur ce thème — est que la prudence est un champ de préoccupation où les scientifiques ont un rôle majeur à jouer, d’ailleurs passionnant, bien plus intéressant que l’intelligence artificielle ou le boson de Higgs. C’est un domaine clé qui s’appuie sur l’écologie et touche la psychologie et la politique. Les scientifiques qui sont compétents aujourd’hui sur les problèmes d’environnement, de biodiversité, d’écologie ne sont pas indissolublement liées à ce scientisme. Ils ont une écoute, une sensibilité qui accueille comme des matériaux légitimes les éventualités, les possibles, et tentent de dégager derrière des craintes subjectives apportées par des témoins particuliers, des domaines d’investigation désintéressés et collectifs, qui portent sur les dégâts éventuels ou les risques. Donc il y a dans cette communauté la possibilité de construire effectivement des démarches de prudence. Ce n’est pas parce que il y a de l’inconnu définitif qu’on ne peut rien faire, au contraire cela est une provocation puissante à côté de laquelle bien des agissement des biologistes apparaissent immatures et compulsifs. A la marge de cette nature à condition qu’on la respecte et à condition que l’on tienne compte de son savoir, il y a la possibilité d’agir avec elle et ça je pense que beaucoup d’écologistes l’ont compris.