Conférence

Jeudi 21 octobre 2021 à 15h à l’Ecole Normale Supérieure, 45 rue d’Ulm Paris, salle Dussane sur le thème : « La nature et ses souvenirs, la révolution combinatoire de la biologie et ses dangers» qui prolonge mon livre Ce que Nature sait paru aux Presses Universitaires de France.

Texte de la conférence :

Bonjour à tous
Je vais d’abord exposer certaines thèses de ce livre et ensuite je poursuivrai par des approfondissements historiques qui ne sont pas dans le livre et viennent le renforcer à mon avis.
Lorsqu’on fabrique un OGM, une plante, un animal ou une bactérie, et qu’on le lâche dans la campagne pour voir ce que ça fait, s’agit-il du même empirisme que celui dont parlent les physiciens ?
C’est un des thèmes qui fut à l’origine de mon livre. Il y a par derrière, dans ces façons de faire, la croyance à une providence.
On peut dire que l’idée de providence présente deux grands courants.
La providence religieuse qui pose une harmonie du monde, d’origine divine. Elle est jalonnée des noms de Martin Luther, Jean Calvin, René Descartes aussi, et plus récemment de William James par exemple. Elle a une longue histoire et une grande importance dans notre culture encore aujourd’hui.
Mais il est une autre providence, scientifique celle-ci, où l’harmonie du monde vient des progrès de la science. Je ne m’étends pas je voudrais juste citer un texte du grand physicien Jean Perrin en 1933
« Rapidement, peut-être en quelques décades, les hommes, libérés par la Science, vivront joyeux et sains, développés jusqu’aux limites de ce que peut donner leur cerveau, limites qu’ils sont loin d’avoir atteintes. D’un mot évocateur ce sera donc l’Éden, l’Éden qu’il faut situer dans l’avenir au lieu de l’imaginer en un passé qui fut misérable.
L’Homme, « connaissant le Bien et le Mal », saura favoriser l’effort inconscient de la Force vitale, en ouvrant devant « les Déesses impassibles qui attendent inlassablement les hasards favorables », telle ou telle des barrières qui retardaient l’apparition de formes vivantes de plus en plus hautes. »
Perrin se montre en faveur de ce que nous appelons aujourd’hui les anthropotechniques. Alors que les OGM ne sont pas encore à portée de main, déjà de grands scientifiques les souhaitent.
Ces deux providences induisent plus  ou moins deux grandes visions de la nature
– une approche empathique, avec participation aux biens commun et des liens avec tout le vivant.
– et une approche scientifique, le plus souvent nomologique voire réductionniste, j’y reviendrai.

Dans ce livre, mon approche de la nature est différente, elle s’appuie sur deux argumentations
1°- Une analyse approfondie de la combinatoire biologique
2°- le savoir de la nature. Je soutiens que la nature possède une forme de savoir et même un savoir que nous ne posséderons jamais. Évidemment cela fait réagir les biologistes qui crient à l’anthropomorphisme, soutiennent que la nature n’est pas un être pensant, etc., ainsi que ceux qui considèrent qu’il est non scientifique d’envisager des limites à la science. Ces reproches sont infondés comme nous allons voir.

Commençons par ce deuxième point. Le savoir de la nature. Il est fondamental de prendre conscience des ordres de grandeur :
On estime à 1080 le nombre d’atomes dans l’univers observable avec les plus grands télescopes. Les ADN sont des mots de diverses longueurs écrits avec 4 lettres qui sont les nucléotides : adénine, thymine, cytosine, guanine.
L’ADN humain a 3 milliards de bases.
Notons N1 le nombre des organismes génétiquement modifiés que les hommes formeront dans l’avenir,
N2 le nombre des ADN expérimentés par la nature depuis 3,5 milliards d’années,
N3 le nombre des ADN possibles.
Ce que l’on voit par des estimations rapides (je donne plus de détails dans mon livre) :

  • Le nombre N3 des ADN possibles est gigantesque. Pour l’écrire, il ne suffirait pas de 80 zéros comme pour compter les atomes, il faudrait 1000 livres de 400 pages. Ce nombre est tellement vertigineux que visiter un tel espace est exclu à n’importe quelle échelle de temps.
  • Le nombre N2 des essais faits par la nature au cours de toute l’évolution est microscopique en comparaison. Autrement dit la nature n’a eu le temps d’explorer qu’une toute petite partie des possibles, vraiment infime, plus petite en proportion que la taille d’un atome par rapport à la sphère terrestre.
  • Quant à N1 les OGM que les hommes fabriqueront dans l’espace disons de quelques milliers d’années, il est infinitésimal par rapport à N2 ce que la nature a exploré.

L’enseignement qu’on peut tirer de ces ordres de grandeur est que non seulement l’homme est un cas très particulier dans la biosphère comme le soulignait Jacques Monod, mais encore c’est l’ensemble de la nature qui est un cas très particulier dans l’ensemble des possibles. Au cours de l’évolution la nature a essayé beaucoup, avec des perfectionnements lents et des effondrements brusques. De sorte que les êtres vivants dans leur ensemble apparaissent comme une zone protégée par les expériences passées, il y a là un savoir, analogue à un apprentissage, auquel nous devons accorder une forme de respect.

Quant au reste, ce que la nature n’a jamais essayé, c’est vertigineusement grand, impossible à explorer systématiquement, en revanche il est très facile de piquer un point ou un autre dans ce vaste espace. Alors les relations du nouvel ADN avec l’existant n’ont jamais été rencontrées historiquement et, pour parler simplement,
Dieu lui-même ne sait pas ce que cela fait.
Cela confirme que les risques des expérimentations en biologie résident fondamentalement dans les relations au contexte.

La biologie contemporaine est accompagnée d’une idéologie triomphaliste, pesante, destinée à préparer l’opinion aux prises de risque et fabriquer du consentement, avec des slogans récurrents :
-1- la nature procède par hasard,
-2- on peut modéliser la nature comme on modélise une entreprise en économie
-3- la nature fonctionne comme un système avec des entrées-sorties et optimise son fonctionnement.
On prétend que les nouvelles molécules sont anodines dans l’environnement alors qu’on ne sait pas de quelles molécules est faite la nature (à cause notamment de l’immense richesse microbienne du sol).

Venons-en maintenant au premier point : la combinatoire. Je parle de combinatoire pour avoir un socle solide et non sentimental aux thèses que j’avance. Je l’aborde par une analogie avec l’arithmétique. C’est extrêmement éclairant. Cela établit des liens entre mathématiques et biologie qui sont d’un registre différent de la modélisation comme nous allons voir

Je construis un dictionnaire.
Les grosses molécules du vivant protéines, acides aminés, ARN, ADN, sont pensées comme des énoncés de l’arithmétique. C’est un parallèle entre deux façons de manier des suites finies de signes.
Et les molécules dont la synthèse est réussie (par la nature ou en laboratoire) sont pensées comme des énoncés démontrés c’est-à-dire ce qu’on appelle des théorèmes. La synthèse chimique est ainsi mise en correspondance avec la démonstration en mathématique.
Certaines propriétés qui apparaissent des 2 côtés avaient déjà été remarquées par les chimistes
Le cas du cubane explicité par Roald Hoffmann : la synthèse chimique fait des détours­
L’avantage de cette mise en correspondance réside dans le fait qu’on sait beaucoup de choses sur l’arithmétique. Nous savons, depuis près d’un siècle, que l’arithmétique présente une phénoménologie de la combinatoire qui n’est présente qu’à partir d’un certain niveau de complexité. Et plus récemment il a été montré que ce niveau est largement atteint par les systèmes vivants. D’où les phénomènes d’incomplétude et d’indécidabilité qui viennent qualifier les risques de la biologie de synthèse.
Le backward problem n’est pas soluble par algorithmes (une protéine étant donnée retrouver comment elle a été synthétisée)
Un nouveau rapport à l’ignorance apparaît j’y reviendrai.
D’un côté dans notre dictionnaire c’est la nature qui évolue, et de l’autre côté? C’est l’arithmétique. Elle est ce qu’elle est. Mais non elle avance aussi.
Il y a les mathématiciens : ils travaillent par le sens = le phénotype
Et sans tout recalculer comme fait un étudiant, pas comme Bourbaki…
Le philosophe Bergson n’était pas loin d’avoir raison.  Mais, en mettant toute la science du côté du mécanistique et la nature du côté créatif, il s’est trompé de seuil. La coupure doit être faite au niveau de ce qui relève des algorithmes et ce qui dépasse les algorithmes. Du coup la science, en tout cas les mathématiques, sont à ranger dans le créatif.
A partir de ces deux approches je développe dans ce livre plusieurs arguments contre le réductionnisme
– l’emploi du hasard au lieu de parler d’ignorance en particulier je m’appuie sur les travaux remarquables de Georges Matheron.
– ce que j’appelle le Rn-isme, modélisation dans l’espace euclidien à n dimensions et je souligne que la combinatoire ne relève pas des méthodes d’approximation et de précision.
– Je rejoins les critiques de Giuseppe Longo sur la notion d’état d’un système qui est pleine de sous-entendus ambigus.
Je montre que la combinatoire installe une nouvelle relation à l’ignoré.
A propos de la nature je voudrais juste souligner ici l’importance de l’effacement qui est fondamental à mon avis
Le présent ne nous dit pas tout le passé. Cette expérience de la nature fondée sur ses très nombreuses tentatives depuis plusieurs milliards d’années qui ont été des réussites transitoires, des perfectionnements et des complexifications, jalonnées d’échecs, de petites et de grandes catastrophes, cette longue expérience ne se solde pas aujourd’hui par un résultat cumulatif. Non seulement des espèces ont disparu mais la plupart des étapes de cette expérimentation sont définitivement perdues y compris au niveau moléculaire. Les bactéries fossiles ne nous livrent pas leurs ADNs. Certes la phylogénie moléculaire a complété la paléontologie comparée avec de nouvelles informations tirées des ressemblances des génomes. Mais ceci est une reconstruction à partir de données extrêmement lacunaires car lors des échecs anciens on n’a pas moyen de savoir les tentatives éliminées.
       Cet effacement est un point épistémologique fondamental.
       Un des critères qui fait qu’une combinatoire peut être un processus qui dépasse le niveau des algorithmes est qu’elle soit capable d’engendrer du simple par une longue succession d’étapes compliquées.
Or on voit que la nature par ses nombreux trajets jalonnés de mutations par délétion et d’effacements dus à des phénomènes biotiques et aussi physiques est l’exemple même d’un système qui est capable de fournir une certaine simplicité sans nous révéler toutes les étapes qui lui ont permis de l’obtenir.

La réfutation du réductionnisme et les mathématiciens écologistes des années 1970
Je voudrais maintenant parler du réductionnisme plus à fond que dans mon livre et bien faire comprendre pourquoi, dans les fondements éthiques de la biologie qui nous occupent, les mathématiques ont leur place et même une place fondamentale. Elles sont à la fois essentielles sur le fond et par les positions qu’elles ont suggérées à certains acteurs lors de l’émergence de l’écologie après la seconde guerre mondiale.
Cette affaire est passionnante, un peu délicate, et il faut l’expliquer pour lui donner toute son importance épistémologique. Un certain groupe de mathématiciens va nous intéresser, et le plus simple est de suivre le déroulé historique des questionnements de la logique mathématique.
Jusqu’à Léonard Euler à la fin du 18e siècle, on a pratiqué les mathématiques en attachant la rigueur au sens des notions sur lesquelles on raisonnait. Mais au début du 19e siècle, avec Gauss et Cauchy notamment, la rigueur devient plus syntaxique, pour maîtriser les phénomènes rencontrés dans la théorie des fonctions et pouvoir étendre l’analyse à des objets plus abstraits. Cette précision du langage apporta une fécondité impressionnante avec la théorie des séries, les fonctions analytiques de variables complexes, fournissant à la physique les concepts dont celle-ci avait besoin jusqu’aux équations aux dérivées partielles de Maxwell qui gouvernent le rayonnement électromagnétique. Ce qu’on appelle la fonction ancillaire des mathématiques joue à plein, en physique, mais aussi en chimie et dans les sciences expérimentales, les mathématiques sont au service du réductionnisme, elles sont le moyen de ramener un grand nombre d’observations à des schémas élémentaires combinés les uns avec les autres.
Plus on avance au cours du 19e siècle, plus la nécessité se fait sentir de clarifier les notions primitives sur lesquelles tout cela s’appuie. Vers la fin du siècle les logiciens abordent ce travail sur trois fronts.
Pour la géométrie David Hilbert dans ses Grundlagen der Geometrie (1899) étudie les divers axiomes envisageables et leur indépendance mutuelle.
Pour l’arithmétique, Giuseppe Peano propose une axiomatique formelle très simple incluant le raisonnement par récurrence qui reste ce qu’on appelle aujourd’hui « l’arithmétique ».
Et enfin pour l’analyse et toutes les mathématiques, Gottlob Frege propose un langage logique avec des symboles de variables et des quantificateurs « pour tout » et « il existe » qu’on appelle aujourd’hui le « langage des prédicats », grâce auquel il axiomatise les mathématiques en partant de la notion d’ensemble.
Je passe sur l’épisode – dont Frege fut affligé – que Bertrand Russell en 1902 découvrit que l’axiomatique de Frege était contradictoire. Ses axiomes devaient être corrigés, ce que firent Russell et Whitehead dans leurs Principia Mathematica en 1910.
A partir de cette date l’ensemble des mathématiques se présentait comme un système formel axiomatisé, avec quelques variantes sans grande importance pour nous, dans lequel on pouvait écrire toute la géométrie, l’algèbre et l’analyse jusqu’aux notions très abstraites des infinis de plus en plus grands de Georg Cantor.
On voit très bien dans l’œuvre de Frege qu’en cette période les mathématiciens-logiciens se sentaient porteurs d’une grande responsabilité philosophique. Les mathématiques apparaissant comme le socle de toute la science, l’enjeu était ni plus ni moins celui de toute la rationalité.

L’époque du « programme de Hilbert » et son héritage
Le grand mathématicien David Hilbert annonce un programme de recherche qui prolonge sa déclaration finale au Colloque de Mathématiques de Paris de 1900, où il avait énoncé 23 problèmes qui lui valurent une réputation mondiale. Ce programme consiste à établir que les mathématiques ainsi axiomatisées ne sont pas contradictoires et que si une assertion est formulée en termes mathématiques, on peut savoir si elle est vraie ou fausse. Avec ses collaborateurs Paul Bernays, Wilhelm Ackermann, il décrit la méthode qu’il compte employer, très précautionneuse pour n’utiliser aucun raisonnement abstrait, ce qui serait supposé le problème résolu.
Dans sa pénétrante introduction aux fameux 23 problèmes, Hilbert explique ce qu’est un problème mathématique intéressant, et il défend la thèse que toute question mathématique a une solution. Il a cette célèbre affirmation hautement significative de la place du réductionnisme dans la pensée scientifique de l’époque : « Cette conviction de la possibilité de résoudre tout problème mathématique est pour nous un précieux encouragement pendant le travail. Nous entendons toujours résonner en nous cet appel : Voilà le problème, cherchons-en la solution. Tu peux la trouver par le pur raisonnement. Jamais, en effet le mathématicien ne sera réduit à dire : « Ignorabimus”».
Dans la période de la fin du 19e aux années 1930, la recherche est intensément tournée vers la réduction des mathématiques à la syntaxe logique. Le programme de Hilbert est une stratégie pour y parvenir, mais le courant est plus vaste et Hilbert en souligne clairement l’immense portée philosophique. L’enjeu est de savoir si une telle axiomatique est à l’abri des contradictions, et si elle permet de décider de façon algorithmique (Entscheidungsproblem), pour toute proposition, si elle est vraie ou si elle est fausse.
Des avancées significatives sont faites par Hilbert et ses collaborateurs. Le jeune mathématicien Jacques Herbrand parvient à se servir de la pure syntaxe logique pour une approche sémantique du calcul des prédicats. Ces idées donnaient encore plus d’espoir à ce courant de recherches. Herbrand (1908-1931) est un jeune prodige qui entre premier à l’École normale à 17 ans et premier à l’agrégation. Il publie plusieurs articles importants dont le grand théorème qui porte son nom. Il est visiblement dans la perspective de démontrer le programme de Hilbert, car il parviendra à démontrer la non-contradiction d’une partie de l’arithmétique.
Le théorème de Herbrand est travaillé dans sa thèse. Le cadre de sa démarche se rattache au programme de Hilbert. Herbrand ramène le problème de démontrer une formule quantifiée dans le calcul des prédicats à la validité d’une formule prise dans une infinité dénombrable de formules sans quantificateurs (ce qu’on appelle la disjonction de Herbrand).
Nous savons, après les résultats de Gödel, que le programme de Hilbert est impossible, et nous allons voir la portée de cette impossibilité. Mais écrite en avril 1929, la thèse de Herbrand n’en tient pas compte. Herbrand prend connaissance du résultat de Gödel quelques mois avant son accident mortel. Il est en train de perfectionner sa preuve de cohérence d’une partie de l’arithmétique. L’article de Herbrand où celle-ci est publiée est signé «Göttingen, le 14 juillet 1931», l’accident eut lieu le 27 juillet 1931. En redescendant d’une course en montagne dans le massif de l’Oisans avec trois camarades, Herbrand s’assoit sur une pierre qui dévale et l’entraîne dans une chute mortelle.[1]
Après le théorème de Gödel quelle valeur reste-t-il à ces travaux profonds et rigoureux ? Ils sont encore très utilisés en informatique. Mais surtout ils sont un témoignage historique capital que les brillants esprits les plus compétents de l’époque imaginaient un monde de la connaissance rigoureuse très différent de celui qui s’impose à nous. Ils montrent que la rationalité pousse spontanément les hommes à lui accorder plus qu’elle n’est capable de faire. Ces travaux sont la preuve que la méthode scientifique, perfectionnée depuis l’époque de la Renaissance, féconde d’une moisson considérable jusqu’au début du 20e siècle, porte en elle-même la croyance à une réductibilité du monde à des systèmes algorithmiques. Mais nous savons maintenant que cette motivation fascinante ne peut être menée jusqu’au bout car il y a un « donné » qui nous vient de l’extérieur, y compris pour ce qui concerne les nombres entiers.
Claude Chevalley qui fut l’ami de Herbrand à l’École Normale évoque ses travaux après la guerre de la façon suivante : « Herbrand aimait à insister sur ce point, la rigueur a deux faces complémentaires : si elle est d’abord exigence d’un formalisme, respect des règles du jeu, elle est aussi, dans le sens que lui donnait Léonard de Vinci, tentative de description toujours plus parfaite d’un donné » et Chevalley ajoute «Cette description d’un donné, se fait en interprétant les axiomes par des concepts expérimentaux». Ceci signifie que l’empirisme – donc aussi la pratique des nombres entiers, la combinatoire réelle – apporte plus que ne peut faire la pure axiomatique. Cette remarque de Claude Chevalley est d’une portée philosophique considérable dans tous les domaines de la connaissance scientifique, et particulièrement si on la reporte sur le champ de la biologie.
Il est important de bien comprendre que Hilbert assume complètement les conséquences philosophiques du programme qu’il préconise, c’est-à-dire le réductionnisme. L’absence de tout ignorabimus est à cette époque tout à fait naturelle. Au point d’ailleurs que c’est ce que croient encore aujourd’hui, un siècle après, beaucoup d’intellectuels et, ce qui est plus surprenant, aussi beaucoup de scientifiques, en particulier de biologistes maintenant que le vivant est rabâché comme strictement combinatoire. Comme écrit Jean-Yves Girard « Le programme de Hilbert est donc réfuté en 1931, mais par un phénomène psychologique bien compréhensible, le formalisme a gardé une grande partie de ses adeptes : en effet on sait bien que les visions simplistes, réductrices du monde, ont toujours un impact sans commune mesure avec leur succès réel. »
Lorsqu’étudiant j’ai travaillé la logique mathématique, j’avoue que j’ai longtemps été convaincu par le programme de Hilbert. Les axiomes de Peano sont si simples et écrits dans un langage si clair, qu’on ne voit pas ce qui ferait obstacle à une preuve de la propagation de la rigueur à tous les énoncés envisageables pour les établir ou les réfuter.

Le résultat de Gödel
Si on limite les questions de complétude, de décidabilité et de cohérence à la logique des prédicats en elle-même, elles ont une réponse positive, mais si on inclut la partie des mathématiques qui concerne les nombres entiers, l’arithmétique, Kurt Gödel a montré qu’elles ont une réponse négative, et c’est la même chose pour toutes les théories mathématiques qui contiennent l’arithmétique. La notion d’algorithme utilisée par Gödel est fondamentale dans ce résultat. Elle sera précisée de plusieurs façons équivalentes par Alonzo Church et Alan Turing. L’échec du programme de Hilbert signifie que les mathématiques ne se font pas avec des algorithmes.
Ceci peut se comprendre de la façon suivante : pour un énoncé P, être un théorème, c’est-à-dire être déductible par les règles de la logique à partir des axiomes, est une propriété d’existence, cela veut dire « il existe un trajet déductif depuis les axiomes jusqu’à P ». Mais les trajets déductifs qu’il faut essayer peuvent être beaucoup plus complexes que P lui-même, en logique du simple peut être engendré par du complexe. Et on doit accepter que ce processus de recherche de démonstrations dépasse ce que les algorithmes sont capables de faire, c’est-à-dire les ordinateurs dont la mémoire peut être augmentée à la demande. Il y a des énoncés P qui sont indécidables, ni prouvables ni réfutables.
Depuis les années 1930, on a montré que de nombreux systèmes, autres que les théories mathématiques, sont assez complexes pour posséder ces propriétés d’incomplétude et d’indécidabilité. C’est le cas des systèmes de coupure et de recollement (les systèmes de Thue) qui ressemblent comme des frères à la combinatoire des ADN des êtres vivants. Le mathématicien russe Yuri Matijasevic a montré l’indécidabilité de systèmes de coupures et de recollement très simples montrant ainsi que la biologie moléculaire est forcément dans cette phénoménologie.
Néanmoins le malentendu du réductionnisme subsiste. On n’a pas pris la mesure des conséquences de cette limitation. Un vaste courant d’écologie réductionniste se perpétue actuellement. On fait comme si le résultat de Gödel ne concernait que les mathématiques et que toutes les autres sciences pouvaient se ramener à la physique, elle-même ne s’appuyant que sur l’expérience. C’est l’esprit du programme de Hilbert qui se maintient inchangé. Cela permet de proclamer l’innocence, l’innocuité et l’irresponsabilité de l’écologie réductionniste malgré ses travers évidents de sous-estimation du contexte et de négligence du savoir de la nature, dans le but de faire croire à la validité providentielle de l’essai. C’est une idéologie. Elle a ses célébrités Richard Dawkins[2], Jennifer Doudna[3], Partha Dasgupta[4] par exemple. Je pense que Giuseppe Longo y reviendra.

Dans les années 1970 des mathématiciens s’opposent à l’idéologie réductionniste
Poursuivons le fil historique.
Une rupture très importante eut lieu dans les années 1970, très en avance par rapport à la prise de conscience générale sur l’environnement. Quelques brillants mathématiciens s’engagent intellectuellement pour l’écologie. C’est assez curieux, nous avons des mathématiciens qui d’un seul coup se jettent dans l’arène publique sur le thème de la destruction de la nature. Ils s’engagent dans un mouvement radical Survivre, appelé ensuite Survivre… et vivre, qui porte le cri vers le grand public qu’on ne peut pas continuer comme ça. Avec la dénonciation du scientisme, en particulier de la part d’Alexandre Grothendieck qui parle du scientisme comme d’une religion : La nouvelle église universelle, titre de son texte célèbre, largement diffusé, nouvelle église qui pousse l’impudence à proclamer qu’elle sait mieux que quiconque.
Pour l’histoire de la naissance et du cadre socio-politique de ce mouvement je renvoie à l’excellent ouvrage dirigé par Céline Pessis Survivre et vivre, critique de la science, naissance de l’écologie [5].
Survivre et vivre est un mouvement très singulier. Cela se passe au début des années 1970. On est vers la fin des 30 glorieuses, époque de compétition technique, scientifique et militaire entre les deux blocs. Le mouvement Survivre et vivre est antérieur au 1er rapport au Club de Rome (1972), à la crise pétrolière (1973), à la campagne de René Dumont à la présidentielle de 1974, également antérieur à la mise en place des marchés financiers à terme qui démuniront les États occidentaux de la majeure part de leur pouvoir de gouvernance sur l’environnement.
On est juste après mai 68, et dans l’arène politique les mathématiciens n’ont aucune légitimité.  Les prises de positions de Survivre et vivre sont si extrêmes et outrancières qu’elles n’ont aucune chance de peser dans la balance des forces politiques.
La seule explication plausible est que ce petit groupe (essentiellement Alexandre Grothendieck, Claude Chevalley, Pierre Samuel, Roger Godement, Denis Guedj et à l’étranger le britannique Alan Slomson, quelques Américains et Canadiens) composé de mathématiciens baignés de culture logique, était absolument convaincu des idées qu’ils avançaient sur la place publique. L’attitude de Grothendieck dans ses prises de positions orales et écrites, ainsi que par ses relations avec le Collège de France est vraiment faite pour montrer que sa conviction est entière, qu’il est prêt à sacrifier beaucoup pour le prouver, y compris ce qu’il a de plus cher … : faire de la recherche.
Le mouvement Survivre et vivre concerne l’écologie, mais, et c’est là une vraie originalité, il s’en prend à la science elle-même. Non pas pour lui opposer la sagesse philosophique comme font Husserl et Heidegger, ni pour souligner l’influence du social comme feront les post-modernes, mais en tant que scientisme, institution et culte fonctionnant par les arguments d’autorité et des financements industriels. Souvent les scientifiques dénoncent la pression que le profit ou le pouvoir politique font peser sur la recherche. Il est exceptionnel que des scientifiques s’en prennent à la science. Typiquement Jacques Monod pense que la science est capable de fonder la morale. Qu’est-ce qui peut bien donner à des mathématiciens une légitimité pour critiquer la science ?
La réponse vient d’un fait historique de ce champ de connaissance : ils ont buté sur les limites. Ils savent qu’on ne fait pas les mathématiques avec des machines. Jamais la science réductionniste ne rendra compte de tout ce qui est et de ce qui advient. La crise des fondements des mathématiques des années 1930 est porteuse d’une disruption bien plus profonde que ce qu’en ont compris les commentateurs non-initiés. Ludwig Wittgenstein ou Régis Debray, par exemple, n’y ont vu qu’une extension du paradoxe du menteur, alors que le point fondamental n’est pas là, mais que jusqu’aux années trente les chercheurs compétents s’attendaient au succès du programme réductionniste de Hilbert, ils pensaient que des difficultés apparaîtraient peut-être avec les notions abstraites mais pas pour les nombres entiers [6]. Son échec est la preuve qu’il y a une réalité inaccessible par le mécanique. En ce sens, cet échec est une formidable avancée qui montre la vanité de vouloir tout réduire et ouvre la voie à un autre rapport à la réalité où la fécondité du réel dépasse les procédés récursifs poussés toujours plus loin.
A cette époque les liens entre la logique mathématique et la biologie de synthèse ne sont pas explicités. Néanmoins entre les années trente et les année soixante les travaux sur les limites de la calculabilité effective (Church, Turing, Post, Kleene, etc.) se sont considérablement développés, et il est d’usage d’appeler « atomiques » les propositions de logique les plus simples avec lesquelles les autres sont composées. Le dictionnaire dont nous avons parlé est une évidence présente intuitivement dans l’esprit des logiciens.
Des principaux personnages de cet épisode fascinant, on peut dire que Pierre Samuel est l’écologiste, Alexandre Grothendieck est le révolté, Roger Godement le spécialiste des liens entre l’économie et l’armée, et Claude Chevalley, d’une dizaine d’années plus âgé, ami de Herbrand, est celui qui assume la place historique des mathématiques dans cette affaire.

Le colloque de logique d’Uldum d’août 1971
En août 1971, Grothendieck et d’autres font remarquer qu’il est choquant que le colloque britannique de logique prévu à Cambridge soit partiellement financé par l’OTAN. Un colloque dissident est organisé à Uldum au Danemark, avec une série de cours où l’on trouve de grands noms : Grothendieck sur les catégories, Max Dickmann sur les modèles, Martin-Löf sur la théorie de la démonstration, etc. Le logicien Alan Slomson (spécialiste des ultra-produits) rapporte cette dissidence dans un article très révélateur des préoccupations de ces mathématiciens-logiciens, qui se termine par une citation de Bertrand Russell : « Il est en notre pouvoir de faire un monde bon ; et c’est pourquoi quel que soit le travail et le danger qui nous attendent, nous devons le faire (B. Russell La responsabilité sociale des savants) ».
A mon avis les mathématiciens dont nous parlons avaient trouvé le moyen d’échapper par le haut à ce marxisme intellectuel omniprésent qui accompagnait le parti communiste et s’infiltrait partout après mai 68. C’est précisément en récusant le marxisme dans son scientisme, en le replaçant comme réductionnisme global. Ils avaient là un espace libre où ils étaient à l’aise, appuyés sur des convictions solides, et cela les tournait nécessairement vers l’écologie.
Grothendieck termine sa conférence au CERN à Genève où il explique la genèse et les raisons du mouvement Survivre et vivre par ces mots : « le problème de la survie pour nous a été, si l’on peut dire, dépassé́, il est devenu celui du problème de la vie, de la transformation de notre vie dans l’immédiat ; de telle façon qu’il s’agisse de modes de vie et de relations humaines qui soient dignes d’être vécus et qui, d’autre part, soient viables à longue échéance et puissent servir comme point de départ pour l’établissement de civilisations post-industrielles, de cultures nouvelles » (27 janvier 1972).
Les prises de position de ces mathématiciens résonnent dans notre actualité comme une vision extraordinairement lucide et clairvoyante.
Ces mathématiciens avaient rencontré l’ignorance définitive. Ils connaissaient les questions des fondements et, alors que la découverte de Watson et Crick sur la structure de la molécule d’ADN était faite depuis les années 1950, le dictionnaire évoqué plus haut, était pour eux plus ou moins évident, sans avoir besoin d’en parler. Et la conséquence qu’ils en tiraient était qu’il fallait s’engager, plutôt que d’essayer d’expliquer ces choses difficiles incapables en elles-mêmes de faire bouger le grand public. Il valait mieux s’engager pour montrer l’importance des enjeux.
Ce courant je tente de l’expliquer plus à fond aujourd’hui. Et la grande leçon de cela est l’importance de l’ignorance, en tant que situation éthique. Il s’agit de réhabiliter le fait qu’il y a de l’ignorance, et de l’ignorance définitive.
On ne voit pas beaucoup de grands scientifiques qui disent « nous ne savons pas et nous ne saurons jamais ». En revanche, sur les média, nombreux sont ceux qui disent : nous sommes sur le point de savoir, nous allons tout savoir bientôt, comme pensait Jean Perrin. Il est clair que Grothendieck, Chevalley, et Samuel avaient noté que la science, de temps en temps, achoppe et repart différemment. Mais s’ils se sont engagés de cette façon, c’est, je pense, qu’ils avaient conscience du fait que la nature ne peut pas être plus simple que l’arithmétique.
Car au fond elle contient l’arithmétique.

[1] Les dates : le premier papier de Gödel sur l’indécidabilité « Uber formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I » (Monatsh. Math. Phys. Vol 38 173-198, 1931) est reçu pour publication le 17 nov 1930. Le résultat sur la non-contradiction « Uber Vollstândigkeit und Widerspruchfreihait » (Ergebnisse eines mathematischen Kolloquiums 3, 12-13, 1932) est daté de 1931 par Von Heijenhoort. Les deux articles de Gödel sur l’indécidabilité et sur la non-contradiction sont publiés en 1931 et 1932, mais rédigés quelque temps avant et Herbrand en eut connaissance peu avant son accident.
[2] Cf. N. Bouleau Ce que Nature sait, la révolution combinatoire de la biologie et ses dangers, PUF, 2021. chapitre VI.
[3] Cf. G. Longo « Programming Evolution: A Crack in Science » Organisms. J. Biological Sciences, July 2021. En français sur ce blog
[4] Cf. F. Hache « Nature, Life and Relations -‘optimized’, A Policy Brief on Dasgupta Review, 2021, https://greenfinanceobservatory.org/wp-content/uploads/2021/05/Nature-Life-relations-finales.pdf
[5] L’échappée 2014.
[6] Quant au cours de Jacques Bouveresse donné au Collège de France sur Gödel durant trois ans à partir de 2004, il s’appuie sur les travaux et la correspondance de Gödel pour dégager la philosophie des mathématiques qui animait ce penseur. Il n’est pas orienté vars les questions de calculabilité effective.

Ce contenu a été publié dans Environnement, Mathématiques, Philosophie, avec comme mot(s)-clé(s) , , , , , , , , , , , , , , . Vous pouvez le mettre en favoris avec ce permalien.